Things to Keep in Mind When Thinking about Artificial Intelligence

Cover Page

Cite item

Full Text

Abstract

The article discusses the reasons for the similarity of public opinion about artificial intelligence in different countries. At the same time, this opinion differs from the judgments expressed by experts on this topic. These similarities and differences are explained by the conformity between folk theories that stem from individuals due to their limited experience of interacting with artificial intelligence. Risk assessments given by experts do not fully take into account the results and findings of cognitive science that are directly related to artificial intelligence. A number of results obtained in the cognitive sciences are presented. The author highlights some of them that are useful to consider when assessing artificial intelligence.

About the authors

Vitaly L. Tambovtsev

Lomonosov Moscow State University

Email: vitalytambovtsev@gmail.com
ORCID iD: 0000-0002-0667-3391
SPIN-code: 5938-6806
Doctor of Economics, Professor Moscow, Russia

References

  1. Cordeschi R. AI turns fifty: Revisiting its origins. Applied Artificial Intelligence. 2007;21(4–5):259–279. doi: 10.1080/08839510701252304.
  2. Müller V. C., Bostrom N. Future progress in artificial intelligence: A poll among experts. AI Matters. 2014;1(1):9–11. doi: 10.1145/2639475.2639478.
  3. Morikawa M. Who are afraid of losing their jobs to artificial intelligence and robots? Evidence from a survey. RIETI Discussion Paper Series. 17-E-069. 2017. May. Available at: https://rieti.go.jp/jp/publications/dp/17e069.pdf (accessed: 26.04.2024).
  4. Merenkov A. V., Campa R., Dronishinets N. P. Public opinion on artificial intelligence development. KnE Social Sciences. 2020;5(2):565–574. doi: 10.18502/kss.v5i2.8401.
  5. Kelley P. G., Yang Y., Heldreth C., Moessner C., Sedley A., Kramm A., Newman D. T., Woodruf A. Exciting, useful, worrying, futuristic: Public perception of artificial intelligence in 8 countries. In: AIES’21 : Proceedings of the 2021 AAAI/ACM conference on AI, ethics, and society. May 19–21, 2021, Virtual Event USA. New York : Association for Computing Machinery; 2021. P. 627–637. doi: 10.1145/3461702.3462605.
  6. European Commission, European Research Council Executive Agency. Foresight: Use and impact of artificial intelligence in the scientific process. Luxembourg : Publications Office of the European Union; 2023. 17 p. doi: 10.2828/10694.
  7. Gillespie N., Lockey S., Curtis C., Pool J., Akbari A. Trust in artificial intelligence: A global study. Brisbane ; New York : The University of Queensland ; KPMG Australia; 2023. 82 p. doi: 10.14264/00d3c94.
  8. Sun M., Hu W., Wu Y. Public perceptions and attitudes towards the application of artificial intelligence in journalism: From a China-based survey. Journalism Practice. 2024;18(3):548–570. doi: 10.1080/17512786.2022.2055621.
  9. Haesevoets T., Verschuere B., Van Severen R., Roets A. How do citizens perceive the use of Artificial Intelligence in public sector decisions? Government Information Quarterly. 2024;41(1):101906. doi: 10.1016/j.giq.2023.101906.
  10. Brauner P., Hick A., Philipsen R., Ziefle M. What does the public think about artificial intelligence? – A criticality map to understand bias in the public perception of AI. Frontiers in Computer Science. 2023;5:1113903. doi: 10.3389/fcomp.2023.1113903.
  11. Müller V. C. Risks of general artificial intelligence. Journal of Experimental & Theoretical Artificial Intelligence. 2024;26(3):297–301. doi: 10.1080/0952813X.2014.895110.
  12. McLean S., Read G. J. M., Thompson J., Baber C., Stanton N. A., Salmon P. M. The risks associated with Artificial General Intelligence: A systematic review. Journal of Experimental & Theoretical Artificial Intelligence. 2023;35(5):649–663. doi: 10.1080/0952813X.2021.1964003.
  13. Madan R., Ashok M. A public values perspective on the application of Artificial Intelligence in government practices: A synthesis of case studies. In: Saura J. R., Debasa F., eds. Handbook of research on artificial intelligence in government practices and processes. Hershey, PA : IGI Global; 2022. P. 162–189. doi: 10.4018/978-1-7998-9609-8.ch010.
  14. Alon-Barkat S., Busuioc M. Human–AI interactions in public sector decision making: “Automation bias” and “selective adherence” to algorithmic advice. Journal of Public Administration Research and Theory. 2023;33(1):153–169. doi: 10.1093/jopart/muac007.
  15. Zhao Y., Yin D., Wang L., Yu Y. The rise of artificial intelligence, the fall of human wellbeing? International Journal of Social Welfare. 2024;33(1):75–105. doi: 10.1111/ijsw.12586.
  16. Keil F. C. Folkscience: Coarse interpretations of a complex reality. Trends in Cognitive Sciences. 2003;7(8):368–373. doi: 10.1016/s1364-6613(03)00158-x.
  17. Schapiro A., Turk-Browne N. Statistical learning. In: Toga A. W., ed. Brain mapping: An encyclopedic reference. Vol. 3. London : Elsevier/Academic Press; 2015. P. 501–506. doi: 10.1016/B978-0-12-397025-1.00276-1.
  18. Nickerson R. S. Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology. 1998;2(2):175–220. doi: 10.1037/1089-2680.2.2.175.
  19. Vitriol J. A., Marsh J. K. The illusion of explanatory depth and endorsement of conspiracy beliefs. European Journal of Social Psychology. 2018;48(7):955–969. doi: 10.1002/ejsp.2504.
  20. Rozenblit L., Keil F. The misunderstood limits of folk science: An illusion of explanatory depth. Cognitive Science. Vol. 2002;26(5):521–562. doi: 10.1207/s15516709cog2605_1.
  21. Miller T. Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence. 2019;267:1–38. doi: 10.1016/j.artint.2018.07.007.
  22. De Graaf M. M. A., Malle B. F. How people explain action (and autonomous intelligent systems should too). In: Artificial intelligence for human–robot interaction : Papers from the AAAI Fall Symposium, 2017. Palo Alto, CA : The AAAI Press; 2017. P. 19–26.
  23. Doshi-Velez F., Kim B. Towards a rigorous science of interpretable machine learning. arXiv. 2017. March 2. Available at: https://arxiv.org/abs/1702.08608 (accessed: 26.04.2024). doi: 10.48550/arXiv.1702.08608.
  24. Vapnik V. The nature of statistical learning theory. New York : Springer; 1995. xv, 193 p. ISBN 978-0-387-94559-0.
  25. Ordin M., Polyanskaya L., Soto D. Neural bases of learning and recognition of statistical regularities. Annals of the New York Academy of Sciences. 2020;1467(1):60–76. doi: 10.1111/nyas.14299.
  26. Alnuaimi A. F. A. H., Albaldawi T. H. K. Concepts of statistical learning and classification in machine learning: An overview. BIO Web of Conferences. 2024;97:00129. doi: 10.1051/bioconf/20249700129.
  27. Roli A., Jaeger J., Kauffman S. A. How organisms come to know the world: Fundamental limits on artificial general intelligence. Frontiers in Ecology and Evolution. 2022;9:806283. doi: 10.3389/fevo.2021.806283.
  28. Curtis V., Aunger R., Rabie T. Evidence that disgust evolved to protect from risk of disease. Proceedings of the Royal Society B: Biological Sciences. 2004;271(Suppl. 4):S131–S133. doi: 10.1098/rsbl.2003.0144.
  29. Rozin P., Haidt J. The domains of disgust and their origins: Contrasting biological and cultural evolutionary accounts. Trends in Cognitive Sciences. 2013; 17(8):367–368. doi: 10.1016/j.tics.2013.06.001.
  30. Libet B., Gleason C. A., Wright E. W., Pearl D. K. Time of conscious intention to act in relation to onset of cerebral activity (readiness-potential): The unconscious initiation of a freely voluntary act. Brain. 1983;106(3):623–642. doi: 10.1093/brain/106.3.623.
  31. Braun M. N., Wessler J., Friese M. A meta-analysis of Libet-style experiments. Neuroscience & Biobehavioral Reviews. 2021;128:182–198. doi: 10.1016/j.neubiorev.2021.06.018.

Supplementary files

Supplementary Files
Action
1. JATS XML


Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».