Риски применения технологии искусственного интеллекта для психологической помощи: взгляд психолога и разработчика

Обложка

Цитировать

Полный текст

Аннотация

Обоснование. В последние годы наблюдается стремительное развитие технологии искусственного интеллекта (ИИ) и ее активное внедрение в различные сферы, включая психологическую помощь. Несмотря на растущую популярность ИИ-сервисов, их применение в психотерапевтической практике сопряжено с рядом этических, технических и социально-правовых рисков. В статье рассматриваются ключевые вызовы, связанные с использованием ИИ в рамках психологической помощи, включая имитацию эмпатии, антропоморфизм, «галлюцинации» ИИ, конфиденциальность данных и вопросы ответственности.

Цель. Анализ рисков использования ИИ инструментов для психологической помощи.

Материалы и методы. Основной метод исследования – системный анализ с применением обзора научных публикаций и нормативных документов. Исследование базируется на: научных статьях (2020–2025 гг.) по психологии, ИИ и цифровой этике, эмпирических данных пользовательских взаимодействий с ИИ-сервисами, нормативных актах и рекомендациях по регулированию ИИ, а также кейсах применения ИИ для психологической помощи.

Результаты. В процессе исследования выявлены ключевые риски использования ИИ для психологической помощи. Подмена эмпатии, ИИ имитирует эмоциональную поддержку, но не обладает подлинным пониманием. Антропоморфность, пользователи приписывают ИИ человеческие качества, что может привести к зависимости от ИИ технологии. «Галлюцинации» ИИ, генерация ложных или вредных рекомендаций. Угрозы конфиденциальности, например, утечки данных и отсутствие правовых гарантий. Правовая неопределённость, отсутствие чётких норм ответственности за действия ИИ.

Результаты подчёркивают необходимость клинической валидации ИИ-сервисов и разработки этических стандартов для применения в психологической практике.

Об авторах

Инга Федоровна Фрейманис

Пермский государственный научный исследовательский университет

Автор, ответственный за переписку.
Email: inga73-08@maiI.ru
ORCID iD: 0000-0001-7996-810X
SPIN-код: 2658-0659
ResearcherId: KSL-6854-2024

старший преподаватель-исследователь кафедры общей и клинической психологии  

Россия, ул. Букирева, 15, г. Пермь, 614990, Российская Федерация 

Иван Викторович Шляпов

Пермский государственный научный исследовательский университет

Email: 7505427@mail.ru

магистрант кафедры психология развития

 

Россия, ул. Букирева, 15, г. Пермь, 614990, Российская Федерация

Список литературы

  1. Трунов, Д. Г. (2013). Индивидуальное психологическое консультирование. Москва: Этерна. 384 с.
  2. Фрейманис, И. Ф. (2024). Чат-бот как инструмент психологической поддержки: исследование мнения пользователей. Социальные и гуманитарные науки: теория и практика, 4(11), 74–79. EDN: https://elibrary.ru/XZGPDX
  3. Фрейманис, И. Ф. (2024). Чат-бот как инструмент психологической поддержки: обзор исследований. Вестник Пермского университета. Философия. Психология. Социология, (2), 250–259. https://doi.org/10.17072/2078-7898/2024-2-250-259. EDN: https://elibrary.ru/OKMZWX
  4. Abercrombie, G., Cercas Curry, A., Dinkar, T., Rieser, V., & Talat, Z. (2023). Mirages: On Anthropomorphism in Dialogue Systems. arXiv. https://arxiv.org/abs/2305.09800
  5. Airenti, G. (2015). The cognitive basis of anthropomorphism: From relatedness to empathy. International Journal of Social Robotics, 7(1), 117–127. https://doi.org/10.1007/s12369-014-0263-x. EDN: https://elibrary.ru/GJFUAH
  6. Ayers, J., Poliak, A., Dredze, M., Leas, E., Zechariah, Z., Kelley, J., & Saper, S. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Internal Medicine, 183(6), 589–596. https://doi.org/10.1001/jamainternmed.2023.1838. EDN: https://elibrary.ru/RFVQOH
  7. Chaves, A. P., & Marco, A. G. (2021). How Should My Chatbot Interact? A Survey on Social Characteristics in Human-Chatbot Interaction Design. International Journal of Human-Computer Interaction, 37(8), 729–758.
  8. Coghlan, S., Leins, K., Sheldrick, S., Cheong, M., Gooding, P., & Alfonso, S. (2023). To chat or bot to chat: ethical issues with using chatbots in mental health. Digital Health, 9, 20552076231183542. https://doi.org/10.1177/20552076231183542. EDN: https://elibrary.ru/XDTXQU
  9. Defining medical liability when artificial intelligence is applied on clinical practice. (2023). Retrieved from https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10711067
  10. Ellis, B., & Bjorklund, D. (2004). Origins of the social mind: Evolutionary psychology and child development. New York: The Guilford Press.
  11. Epley, N., Waytz, A., Akalis, S., & Cacioppo, J. T. (2008). When we need a human: Motivational determinants of anthropomorphism. Social Cognition, 26(2), 143–155.
  12. Fang, C. M., et al. (2025). How AI and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.
  13. Fitzpatrick, L., & Hutchinson, T. (2023). AI and Empathy: Challenges and Opportunities in Automated Mental Health Interventions. Journal of Digital Psychology, 12(2), 45–62.
  14. Grant, C., & Ernst, J. (2023). AI companions and the illusion of empathy: Emerging risks in mental health applications. Journal of AI Ethics, 9(1), 24–38.
  15. Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., et al. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health, 2(2), e0000145. https://doi.org/10.1371/journal.pmen.0000145. EDN: https://elibrary.ru/CBTBQP
  16. Holohan, M., & Fiske, A. (2021). «Like I’m talking to a real person»: Exploring the meaning of transference for the use and design of AI-based applications in psychotherapy. Frontiers in Psychology, 12, 720476. https://doi.org/10.3389/fpsyg.2021.720476. EDN: https://elibrary.ru/LXUHRL
  17. Jacobsen, R., Cox, S., Griggio, C., & van Berkel, N. (2025). Chatbots for data collection in surveys: A comparison of four theory-based interview probes. In: Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (pp. 1–21). https://doi.org/10.1145/3706598.3714128
  18. Johnson, J. (2023). Finding AI faces in the moon and armies in the clouds: Anthropomorphising artificial intelligence in military human-machine interactions. Global Society, 38, 1–16.
  19. Jones, V. K., Yan, C., Shade, M. Y., Boron, J. B., Yan, Z., Heselton, H. J., & Dube, V. (2024). Reducing loneliness and improving social support among older adults through different modalities of personal voice assistants. Geriatrics, 9(2), 22. https://doi.org/10.3390/geriatrics9020022. EDN: https://elibrary.ru/VKTNZS
  20. Li, C., Wang, J., Zhang, Y., Zhu, K., Wang, X., Hou, W., & Xie, X. (2023). The good, the bad, and why: Unveiling emotions in generative AI. arXiv. https://arxiv.org/abs/2312.11111
  21. Magsumov, T. A. (2017). Family and school in Russia at the beginning of the 20th century: Attempts to bridge the gap. European Journal of Contemporary Education, 6(4), 837–846. https://doi.org/10.13187/ejced.2017.4.837. EDN: https://elibrary.ru/ZWREPV
  22. Martinez-Martin, N. (2023). Viewing CAI as a tool within the mental health care system. American Journal of Bioethics, 23(5), 57–59. https://doi.org/10.1080/15265161.2023.2191058. EDN: https://elibrary.ru/PXKHTW
  23. McStay, A. (2018). Emotional AI: The rise of empathic media. London: SAGE Publications.
  24. Mitchell, R. W., Thompson, N. S., & Miles, L. H. (1997). Anthropomorphism, anecdotes, and animals. Albany: SUNY Press.
  25. Opel, D. J., Kious, B. M., & Cohen, I. G. (2023). AI as a mental health therapist for adolescents. JAMA Pediatrics, 177(12), 1253–1254. https://doi.org/10.1001/jamapediatrics.2023.4215. EDN: https://elibrary.ru/BOXYAM
  26. Placani, A. (2024). Anthropomorphism in AI: Hype and fallacy. AI Ethics, 4, 691–698. https://doi.org/10.1007/s43681-024-00419-4. EDN: https://elibrary.ru/ECSYPA
  27. Russell, S., & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.
  28. Sexton, M., Sergeeva, A., & Soekijad, M. (2025). Do robots have to be human-like? A practice-based perspective on relating to robots in-the-wild. In: Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3706599.3720154
  29. Iglesias, M., Sinha, C., Vempati, R., Grace, S. E., Roy, M., Chapman, W. C., & Rinaldi, M. L. (2023). Evaluating a digital mental health intervention (Wysa) for workers’ compensation claimants: Pilot feasibility study. Journal of Occupational and Environmental Medicine, 65(2), e93–e99. https://doi.org/10.1097/JOM.0000000000002762. EDN: https://elibrary.ru/USJWQH
  30. Watson, D. (2019). The rhetoric and reality of anthropomorphism in artificial intelligence. Minds and Machines, 29, 417–440. https://doi.org/10.1007/s11023-019-09506-6. EDN: https://elibrary.ru/OVAFYF
  31. Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. San Francisco: W. H. Freeman.
  32. Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2021). Dive into deep learning. Retrieved from: https://d2l.ai

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML


Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».