Chatbot as a psychological support tool: research review

Cover Page

Cite item

Full Text

Abstract

This article is a review of theoretical research on the use of chatbots in applied psychology. It articulates the concept of a chatbot, describes the types of chatbot structure, lists the functions of this technology, and discusses its advantages and disadvantages. The paper provides some recommendations for developers concerning the design of chatbots intended for psychological support. The results of the study show that chatbots have significant possibilities for psychological support of users. Technology can act as virtual friends and assistants, help practice mindfulness, form useful habits, control and regulate emotional state, provide psychoeducation and post-rehabilitation psychological support, diagnose psychological problems. However, at this early stage, technology should not be regarded as an alternative to professional help. It is important to combine psychotherapy through chatbots with professional therapy, communication with a «real» therapist. In developing chatbots, it is important to establish the limits of the technology’s capabilities. Creators of chatbots should clearly indicate the purpose and expected limitations. In addition, technology should have features that schedule professional support and encourage users to seek professional help when needed.

Full Text

Введение

Обеспокоенность по поводу психологического здоровья общества широко распространена в современном мире в связи с ростом уровня напряжения. Так, например, во время пандемии COVID-19 значительно возросло число случаев депрессии, тревоги и других проблем психологического здоровья. В условиях высокой динамики жизнедеятельности общества, неопределенности, социальных противоречий и конфликтов человек неизбежно сталкивается со многими проблемами, оказывающими существенное влияние на его психологическое здоровье и благополучие. Сопутствующими симптомами растущих проблем личности являются: синдром хронической усталости, неврозы, постоянный стресс, отклонения в поведении и др. Одним из возможных способов преодоления личностно значимых трудностей может быть обращение за психологической помощью. Причем, чаще всего, речь идет не о серьезных нарушениях психики (на которых специализируются психиатрия), а о временных психологических дисбалансах, тех, которые корректируются с помощью психологического вмешательства.

Такая ситуация отражается на потребности населения в получении квалифицированной психологической помощи. Одним из способов решения данной проблемы является внедрение технологий искусственного интеллекта (ИИ) в сферу прикладной психологии.

Искусственный интеллект (ИИ) — это общий термин для компьютерного программного обеспечения, состоящего из сложного математического алгоритма, который обрабатывает входную информацию, а затем использует ее для получения конкретного заранее определенного результата.

ИИ представляет собой систему, способную анализировать большие наборы данных, делать выводы и принимать решения, имитируя когнитивную деятельность человека [Adamopoulou E., Moussiades L., 2020]. В последние десятилетия ИИ внедряется во все сферы жизни: экономическую, политическую, социальную и духовную. Но наибольший интерес к искусственному интеллекту возник в 2022 г. после выхода бота ChatGPT. После этого IT-индустрия начала активно внедрять ИИ в свои проекты. Достижения в этой области открывают новые возможности для улучшения качества жизни людей. Одним из перспективных направлений применения ИИ является психологическая поддержка, например, посредством чат-ботов.

Технология чат-бот

Чат-бот — это система, которая может общаться и взаимодействовать с пользователями-людьми с помощью устного, письменного или визуального языков. Она может имитировать поведение человека и выполнять конкретные задачи [Adamopoulou E., Moussiades L., 2020]. В зарубежных источниках такую программу называют диалоговым агентом, виртуальными собеседниками или программами-собеседни- ками, диалоговыми AI-ботами (Artificial Intelligence), AI-помощниками, интеллектуальными виртуальными помощниками, виртуальными клиентскими помощниками, цифровыми помощниками, диалоговыми агентами, виртуальными агентами, диалоговыми интерфейсами и т.д. [Adamopoulou E., Moussiades L., 2020].

Программа распознает тексты, речь пользователей и на основе этого происходит взаимодействие. Чат-боты обычно используются в различных веб- и мобильных приложениях. Самые известные из них в настоящее время уже прочно вошли в нашу жизнь, например, Google Assistant, разработанный Google, Siri от Apple, Cortana от Microsoft, Watson от IBM, Алиса от Яндекс, Маруся от VK, робот Макс от Госуслуг и т.д. Боты способны взаимодействовать с пользователем на основе текстового и голосового ввода и призваны помогать выполнять множество действий, таких как включение музыки, организация посещений врача, решение всевозможных вопросов.

Наиболее полезные чат-боты разрабатываются на основе технологий машинного обучения и отличаются тем, что их обучает человек, и такие чат-боты предназначены для использования людьми. Таким образом, человек принимает активное участие на всех стадиях разработки программы-собеседника. Чат-бот — это технология, с которой может взаимодействовать не только один пользователь в один момент времени, а гораздо больше, что позволяет охватывать большие аудитории. При этом чат-бот доступен круглосуточно, без перерывов, в отличие от человека-оператора.

Стоит так же учитывать, что чат-боты обладают различной степенью «интеллекта»: от наиболее простых чат-ботов, которые могут быть чуть более чем интерфейсным решением для ответов на стандартные, часто задаваемые вопросы, до продвинутых диалоговых чат-ботов, обладающих интеллектуальными возможностями и способностью понимать то, что пишет им пользователь, а также самообучаться и подстраиваться под особенности конкретного пользователя, например, под его поведение или манеру вести общение [Adamopoulou E., Moussiades L., 2020].

Использование чат-ботов в прикладной психологии

В последнее время наблюдается активное внедрение чат-ботов в область прикладной психологии. Их использование имеет определенные преимущества по сравнению с работой психолога-человека. Прежде всего, это значительное снижение затрат, финансовых и временны́х. Также их отличает быстрая реакция: чат-боты созданы, чтобы распознавать, понимать, отвечать на конкретные запросы за считанные секунды. Охват большой аудитории, масштабируемость, в отличии от специалиста-человека. Чат-бот может одновременно общаться с несколькими собеседниками и быть круглосуточно на связи. К преимуществам относится и то, что чат-боты разрабатываются для того, чтобы выполнять определенные задачи снова и снова, при исполнении таких задач человек более склонен совершать ошибки, в то время как бот обеспечивает почти 100 %-ную точность и решает их намного быстрее [Battineni G. et al., 2020].

Чат-боты действуют как персональные помощники, благодаря которым у пользователя появляется возможность получить помощь. Их функции достаточно разнообразны: выявление психологических проблем, отслеживание настроения, проведение когнитивно-поведен- ческой терапии, пропаганда позитивной психологии, помощь в формировании новых привычек и т.д. Рынок чат-ботов в сфере психологических услуг активно развивается, одни из самых известных: «Wysa», «Woebot», «Replika», «Youper», «Tess» и др.

Например, чат-бот «Woebot» был запущен в 2017 г. Открыв данное приложение, люди, страдающие от одиночества, страха, тревоги или стресса, могут начать диалог с виртуальным собеседником. Эта программа со встроенным ИИ основана на техниках когнитивно-поведенческой терапии [Fitzpatrick K.K. et al., 2017]. Было проведено исследование с целью оценки эффективности диалогового агента «Woebot» на выборке студентов колледжей с тревогой и депрессией, в ходе которого обнаружено заметное уменьшение негативных симптомов.

В 2018 г. исследователи подтвердили эффективность «Wysa» [Inkster B. et al., 2018].

В 2023 г. исследовалась эффективность психологической поддержки, получаемой в повседневном контексте при взаимодействии с чат-ботом «Replika». Результаты исследования также оказались положительными [Pentina I. et al., 2023].

Использование чат-ботов, направленных на улучшение эмоционального состояния, особенно результативно для решения следующих проблем: тревоги, депрессии и стресса [Ahmed A. et al., 2021]. Коррекция происходит за счет мгновенного предоставления пользователю предложений по инструментам самопомощи, таких как когнитивно-поведенческие техники, дыхательные упражнения, медитативные практики и т.д.

Существуют также чат-боты для отслеживания настроения и выявления психологических проблем [You Y., Gui X., 2021].

Некоторые программы могут собирать данные, анализируя текстовые сообщения пользователей, а затем доставлять их выбранным специалистам в формате, который можно использовать в диагностических целях [Garg Sh. et al., 2018].

Вмешательства чат-ботов эффективны для формирования новых привычек, увеличения физической активности [Asensio-Cuesta S. et al., 2021; Zhang J. et al., 2020]. Путем отправки ежедневных напоминаний происходит ежедневный мониторинг, пользователи могут отследить свой прогресс в достижении целей, используя аналитику и графики [Fadhil A., 2018; Huang Ch.-Y. et al., 2018].

В последнее время исследовательские сообщества активно занимаются разработкой чат-ботов, направленных на достижение конкретных целей. Например, поддержка жертв школьной травли [Роговец А.Ю. и др., 2023.], обучение самосостраданию [Lee M. et al., 2019], улучшение качества жизни пожилых людей и повышение их активности в борьбе с чувством одиночества [Valtolina S., Hu L., 2021], развитие навыка межличностного общения [Elmasri D., Maeder A., 2016] и т.д.

Таким образом, становится понятным, чат-боты активно применяются в сфере цифровой прикладной психологии отчасти потому, что они, предлагают определенные преимущества, и их функции достаточно разнообразны. Чат-боты могут предоставлять информацию по стратегиям преодоления трудностей, упражнениям на осознанность, методам коррекции психологических проблем, связывать пользователей с профессионалами в области прикладной психологии для получения кризисной помощи [Abd-Alrazaq A.A. et al., 2019; Ahmed A. et al., 2021], предлагать доступ к информации о системах кризисной поддержки и контактах экстренной помощи. Использование чат-ботов в рамках предоставления психологической помощи представляет собой инновационный потенциал, ставший результатом научного прогресса и цифровизации.

Возможность обращаться к чат-ботам в любое время, круглосуточно и без выходных, не встречаясь с осуждением, позволяет пользователям чувствовать себя комфортно, что является очевидным преимуществом, делая услуги в сфере психологического здоровья более доступными.

Проблемы использования чат-ботов

Но, поскольку чат-боты являются все же новой технологией, разработка и их применение в прикладной психологии связанно также со значительными проблемами. Согласно недавним обзорам, безопасность пользователей чат-ботов проверяется крайне редко, последствия взаимодействия с пользователями оценивались только в пилотажных исследованиях [Ahmed A. et al., 2021]. Постепенно накапливается информация, указывающая на риски использования чат-ботов в сфере прикладной психологии. Выявление и анализ таких рисков поможет сформулировать рекомендации по дизайну будущих чат-ботов для их создателей.

Существует две категории чат-ботов: те, которые работают на основе заранее определенных алгоритмов, и те, которые используют ИИ для генерации текстов. Чат-боты, работающие на основе заданных алгоритмов, считаются более простыми и поддающимися контролю создателей. При общении данная технология позволяет отвечать только на конкретно поставленные вопросы, выбирая вариант ответа. Это наиболее распространенный метод, используемый в интерфейсе чат-ботов. Пользователи могут выбирать из предопределенных параметров и даже вводить свой текст. Например, по такому принципу работают все дневниковые чат-боты (Feelings, Mind tracker, Psy и т.д.). Это ограничивает возможность настоящего диалога, но позволяет легко определить ответственность.

Чат-боты, основанные на ИИ, могут имитировать живую речь, генерировать алгоритмы помощи самостоятельно. Такие программы способны поддерживать разговор, основываясь на своем понимании мыслей пользователя, что делает контакт более разнообразным, общение более «человечным». Например, по такому принципу работает программа «Tess», число пользователей которой достигло почти 30 млн чел. И здесь возникает серьезная проблема, связанная с юридической ответственностью, вопрос о том, кто будет нести персональную ответственность, если бот поставит неправильный диагноз, выдаст ошибочные рекомендации.

В функции чат-бота часто входит автоматический сбор и анализ информации о пользователях. Чат-бот может хранить историю разговоров, чтобы показать прогресс в достижении поставленных целей, фиксировать изменения, связанные с симптомами психологической проблемы. В некоторых исследовательских обзорах выражается обеспокоенность пользователей по поводу того, как эта информация защищается [Martinengo L. et al., 2022]. В традиционной психотерапии на эффективность лечения влияет доверие клиента к своему психологу. Доверие во взаимодействии с чат-ботом также необходимо. Исследования показывают важность установления доверия в общении с чат-ботом для создания безопасной среды и дальнейшего самораскрытия пользователя. Поэтому разработчики должны уделять особое внимание конфиденциальности и безопасности пользователей, т.к. существует высокий риск потери данных в случае плохой защиты. Важно повышать доверие к приложению, например, путем предоставления информации о разработчиках или экспертах, стоящих за системой.

Кроме этого, описание приложения может включать объяснение терапевтических методов и инструментов, используемых для разработки приложения, их предполагаемую эффективность и доказанность. В качестве дополнения нужно изучить «восприятие» людьми дизайна чат-ботов, для решения таких проблем, как доверие к чат-ботам, пользовательские ценности и требования. Анализ, ориентированный на пользователя, поможет исследователям получить научнообоснованные данные для улучшения работы чат-ботов и минимизировать отрицательные психологические эффекты.

В интерфейсе чат-ботов используются различные типы медиа для общения, например, GIF, смайлы, аббревиатура для изображения юмора и эмоций, используется аудио и видео, цифровые изображения («аватары»). Общение чаще всего происходит посредством текстовых сообщений. Но чат-боты, использующие GIF-изображения, смайлы или веселые ответы как средство демонстрации чуткого поведения и поддержания более человечного разговора, воспринимаются пользователями не всегда хорошо [Fadhil A. et al., 2018]. Создатели чат-бота должны учитывать целевую возрастную группу пользователей при внедрении смайлов или других графических элементов. Взаимодействие по-человечески приятно, но его необходимо тщательно проектировать. Чат-боты в мобильных приложениях представлены таким образом, что они обладают ярко выраженной индивидуальностью. Это помогает пользователям чувствовать, что они взаимодействуют с кем-то эмоциональным и сопереживающим, помогает устанавливать доверие, что, в свою очередь, может быть опасным для некоторых восприимчивых людей. Недоступность или поломка приложения может привести к тревоге и обострению психологических проблем.

Используя психотехнологии, рекомендованные чат-ботом, пользователи отмечают, что не все терапевтические средства работают одинаково результативно. Причинами этого могут быть различные ограничения самих пользователей. Для решения этой проблемы предлагается персонализация чат-ботов с помощью создания модели пользователя. Например, перед началом взаимодействия с чат-ботом пользователи могут заполнять личностные опросники, которые помогут адаптировать взаимодействие чат-бота в соответствии с типом пользователя.

Анализ исследований показывает, что ежедневные проверки, геймификация, напоминания и контроль со стороны чат-бота воспринимаются пользователями как полезные функции, хотя и носят предписывающий характер. Чем тяжелее симптомы психологической проблемы, тем больше пользователи хотят напоминаний и предложений от чат-бота [Martinengo L. et al., 2022]. Людям с тяжелыми симптомами депрессии помогают многочисленные ежедневные мотивационные сообщения. Однако частый контроль со стороны чат-бота также может вызвать у пользователя чувство вины [Huang Ch.-Y. et al., 2018]. Поэтому разработчики должны учитывать диапазон и тяжесть психологической проблемы, используя методы убеждения в работе чат-бота таким образом, чтобы это не приводило к отстранению пользователей из-за чувства вины.

Согласно исследованиям, ИИ иногда удается создавать более тесные связи с пользователями, чем «живым» терапевтам. Благодаря использованию данной технологии, люди попадают в пространство, свободное от осуждения, где можно самовыражаться, не опасаясь последствий. В некоторых случаях обращение за психологической помощью по-прежнему считается стигмой, и люди чувствуют себя более комфортно, используя анонимные технологии, а не личное общение с психотерапевтом [Bates M., 2019; Denecke K. et al., 2021]. Регулярное, комфортное взаимодействие позволяет пользователям слишком привязываться к чат-ботам. Такая привязанность несет за собой определенную угрозу. Поэтому следует подумать, когда и как ограничить взаимодействие пользователей с чат-ботами, чтобы исключить возможность нездоровой привязанности к технологии.

Как показывает накопленная информация, большинство приложений не способны поддержать пользователя в момент сильного кризиса, чат-боты не всегда способны идентифицировать кризисные ситуации, поскольку не понимают контекст разговоров [Garg Sh. et al., 2018]. Вместо кризисной поддержки предоставляется информация о внешних ресурсах (линии помощи, контактная информация службы экстренной помощи).

«Человекоподобные» чат-боты могут обеспечить социальную поддержку во многих случаях, быть «друзьями», но и здесь могут возникнуть проблемы. Пользователи должны обладать информацией об ограничениях технологии, осознавать четкие различия между людьми и «человекоподобными» ботами. В тех случаях, когда пользователь начинает общаться с приложением слишком часто в течение длительного времени, бот может предлагать рекомендации по социальному взаимодействию, например, выдавать список ближайших социальных мероприятий и т.д.

Заключение

Таким образом, технология «чат-бот» обладает большим потенциалом для оказания социальной и психологической поддержки в ситуациях, когда реальное взаимодействие с друзьями, членами семьи или профессионалами затруднительно или невозможно. Чат-боты помогают повысить доступность психологической поддержки, одновременно снижая финансовые и временные затраты. Психологическая поддержка посредством чат-ботов осуществляется путем психологического информирования, знакомства пользователей с технологиями самопомощи, для снятия психологического напряжения. Через диалог с чат-ботом пользователи могут выражать свои эмоциональные переживания и находить способы их регуляции.

Однако существуют ограничения. Чрезмерная зависимость от технологий может создавать риски для пользователей, такие как изоляция и недостаточная помощь во время кризисных ситуаций. Вместо предоставления общих предложений, чат-боты могут индивидуализировать свой подход, основываясь на потребности и требованиях пользователей [Inkster B. et al., 2018]. При дизайнерской разработке чат-ботов должны учитываться диапазон и тяжесть психологической проблемы. Чат-боты не способны к подлинному сочувствию или адаптации реакций, отражающих человеческие эмоции, это сравнительное отсутствие аффективных навыков должно осознаваться пользователями.

В сравнительном пилотажном исследовании результативности сеансов терапии с людьми-терапевтами и чат-ботом было выявлено, что по сравнению с взаимодействием с человеком-терапевтом, участники находили терапию, предоставляемую чат-ботом, менее полезной и менее приятной [Denecke K. et al., 2021].

Однако, согласно статистическим данным, из-за удобства и легкого доступа пользователи часто выражают намерение заменить профессиональную психологическую поддержку виртуальной.

Преимущественно чат-боты реализуют научно обоснованные терапевтические инструменты, но исследования по определению их эффективности все еще ограничены.

Согласно многочисленным оценкам пользователей, профессиональные терапевты помогали своим пациентам подобрать подходящие приложения для психологической помощи, поэтому психотерапия становилась результативнее. Психологи могут корректировать любую систему поддержки, если она не подходит, опираясь на информацию, собранную чат-ботом в процессе общения с пользователем.

Результаты нашего исследования показывают, что психологические чат-боты действительно помогают пользователям. Однако на столь раннем этапе их не следует рассматривать как альтернативу профессиональной помощи. При разработке чат-ботов важно установить границы и ограничения этих чат-ботов разработчиками, а цели и предполагаемое использование чат-ботов должны быть четко указаны, чтобы пользователи не обманывались завышенными ожиданиями. Кроме того, чат-боты должны иметь функции, которые планируют профессиональную поддержку и рекомендуют пользователям обращаться за помощью к «живым» профессионалам, когда это необходимо.

×

About the authors

Inga F. Freimanis

Perm State University

Author for correspondence.
Email: inga73-08@mail.ru
ResearcherId: KSL-6854-2024

Postgraduate Student, Senior Lecturer of the Department of General and Clinical Psychology

Russian Federation, 15, Bukirev st., Perm, 614990

References

  1. Abd-Alrazaq, A.A., Alajlani, M., Alalwan, A.A., Bewick, B.M., Gardner, P. and Househ, M. (2010). An overview of the features of chatbots in mental health: a scoping review. International Journal of Medical Informatics. Vol. 132. Available at: https://pubmed.ncbi.nlm.nih.gov/31622850/(accessed 24.04.2024). DOI: https://doi.org/10.1016/j.ijmedinf.2019.103978
  2. Adamopoulou, E. and Moussiades, L. (2020). An overview of chatbot technology. Proceedings of the 16th International Conference on Artificial Intelligence Applications and Innovations, AIAI ‘20 (Neos Marmaras, Greece, June 5–7, 2020). Cham, CH: Springer Publ., pp. 373–383. Available at: https://link.springer.com/chapter/10.1007/978-3-030-49186-4_31 (accessed 26.04.2024).
  3. Ahmed, A., Ali, N., Aziz, S., Abd-Alrazaq, A.A. et al. (2021). A review of mobile chatbot apps for anxiety and depression and their self-care features. Computer Methods and Programs in Biomedicine Update. Vol. 1. Available at: https://www.sciencedirect.com/science/article/pii/S2666990021000112?via%3Dihub (accessed 23.04.2024). DOI: https://doi.org/10.1016/j.cmpbup.2021.100012
  4. Asensio-Cuesta, S., Blanes-Selva, V., Conejero, J.A., Frigola, A. et al. (2021). A user-centered chatbot (Wakamola) to collect linked data in population networks to support studies of overweight and obesity causes: design and pilot study. JMIR Medical Informatics. Vol. 9, iss. 4. Available at: https://medinform.jmir.org/2021/4/e17503/PDF (accessed 23.04.2024). DOI: https://doi.org/10.2196/17503
  5. Bates, M. (2019). Health care chatbots are here to help. IEEE Pulse. Vol. 10, iss. 3, pp. 12–14. DOI: https://doi.org/10.1109/mpuls.2019.2911816
  6. Battineni, G., Chintalapudi, N. and Amenta, F. (2020). AI chatbot design during an epidemic like the novel coronavirus. Healthcare (Basel). Vol. 8, iss. 2. Available at: https://www.mdpi.com/2227-9032/8/2/154/pdf?version=1591947503 (accessed 26.04.2024). DOI: https://doi.org/10.3390/healthcare8020154
  7. Denecke, K., Vaaheesan, S. and Arulnathan, A. (2021). A mental health chatbot for regulating emotions (SERMO) — concept and usability test. IEEE Transactions on Emerging Topics in Computing. Vol. 9, iss. 3, pp. 1170–1182. DOI: https://doi.org/10.1109/tetc.2020.2974478
  8. Elmasri, D. and Maeder, A. (2016). A conversational agent for an online mental health intervention. Proceedings of the International Conference on Brain Informatics and Health, BIH ‘16 (Omaha, NE, USA, October 13–16, 2016). Cham, CH: Springer Publ., pp. 243–251. DOI: https://doi.org/10.1007/978-3-319-47103-7_24
  9. Fadhil, A. (2018). Can a chatbot determine my diet? Proceedings of the Addressing Challenges of Chatbot Application for Meal Recommendation. Feb. 25. Available at: https://www.researchgate.net/publication/323410718_Can_a_Chatbot_Determine_ My_Diet_Addressing_Challenges_of_Chatbot_Application_for_Meal_Recommendation (accessed 26.04.2024).
  10. Fadhil, A., Schiavo, G., Wang, Y. and Yilma, B.A. (2018). The effect of emojis when interacting with conversational interface assisted health coaching system. Proceedings of the 12th EAI International Conference on Pervasive Computing Technologies for Healthcare, PervasiveHealth ‘18 (New York, USA, May 21–24, 2018). New York, Association for Computing Machinery Publ., pp. 378–83. DOI: https://doi.org/10.1145/3240925.3240965
  11. Fitzpatrick, K.K., Darcy, A. and Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health. Vol. 4, iss. 2. Available at: https://mental.jmir.org/2017/2/e19/PDF (accessed 26.04.2024). DOI: https://doi.org/10.2196/mental.7785
  12. Garg, S., Williams, N.L., Ip, A. and Dicker, A.P. (2018). Clinical integration of digital solutions in health care: an overview of the current landscape of digital technologies in cancer care. JCO Clinical Cancer Informatics. Vol. 2. Available at: https://ascopubs.org/doi/pdfdirect/10.1200/CCI.17.00159 (accessed 28.04.2024). DOI: https://doi.org/10.1200/cci.17.00159
  13. Huang, Ch.-Y., Yang, M.-Ch., Huang, Ch.-Y., Chen, Y.-J., Wu, M.-L. and Chen, K.-W. (2018). A chatbot-supported smart wireless interactive healthcare system for weight control and health promotion. Proceedings of the 2018 IEEE International Conference on Industrial Engineering and Engineering Management, IEEM ‘18 (Bangkok, Thailand, December 16–19, 2018). Bangkok, TH: IEEE Publ., pp. 1791–1795. DOI: https://doi.org/10.1109/ieem.2018.8607399
  14. Inkster, B., Sarda, S. and Subramanian, V. (2018). An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being: real-world data evaluation mixed-methods study. JMIR mHealth and uHealth. Vol. 6, iss. 11. Available at: https://mhealth.jmir.org/2018/11/e12106/PDF (accessed 25.04.2024). DOI: https://doi.org/10.2196/12106
  15. Lee, M., Ackermans, S., As, N. van, Chang, H., Lucas, E. and IJsselsteijn, W. (2019). Caring for Vincent: a chatbot for self-compassion. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, CHI ‘19 (Glasgow, Scotland, UK, May 4–9, 2019). Available at: https://minha-lee.github.io/files/lee_vincent_chatbot_CHI2019.pdf (accessed 23.04.2024). DOI: https://doi.org/10.1145/3290605.3300932
  16. Martinengo, L., Lum, E. and Car, J. (2022). Evaluation of chatbot-delivered interventions for self-management of depression: content analysis. Journal of Affective Disorders. Vol. 319, pp. 598–607. DOI: https://doi.org/10.1016/j.jad.2022.09.028
  17. Pentina, I., Hancock, T. and Xie, T. (2023). Exploring relationship development with social chatbots: A mixed-method study of replica. Computers in Human Behavior. Vol. 140. Available at: https://www.sciencedirect.com/science/article/abs/pii/S0747563222004204 (accessed 24.04.2024). DOI: https://doi.org/10.1016/j.chb.2022.107600
  18. Rogovets, A.Yu., Mazurkevitch, A., Suvorova, I.Yu., Vinnik, M. and Prikhodko, A.A. (2023). [Chat-bot as a way to support victims of school bullying]. Sovremennaya zarubezhnaya psikhologiya [Journal of Modern Foreign Psychology]. Vol. 12, no. 3, pp. 103–114. DOI: https://doi.org/10.17759/jmfp.2023120310
  19. Valtolina, S. and Hu, L. (2021). Charlie: a chatbot to improve the elderly quality of life and to make them more active to fight their sense of loneliness. Proceedings of the 14th Biannual Conference of the Italian SIGCHI Chapter, CHItaly ‘21 (Bolzano, Italy, July 11–13, 2021). New York: Association for Computing Machinery Publ. Available at: https://dl.acm.org/ doi/abs/10.1145/3464385.3464726 (accessed 23.04.2024). DOI: https://doi.org/10.1145/3464385.3464726
  20. You, Y. and Gui, X. (2021). Self-diagnosis through AI-enabled chatbot-based symptom checkers: user experiences and design considerations. AMIA Annual Symposium Proceedings. Vol. 2021. Available at: https://arxiv.org/abs/2101.04796(accessed 28.04.2024).
  21. Zhang, J., Oh, Y.J., Lange, P., Yu, Zh. and Fukuoka, Y. (2020). Artificial intelligence chatbot behavior change model for designing artificial intelligence chatbots to promote physical activity and a healthy diet: viewpoint. Journal of Medical Internet Research. Vol. 22, iss. 9. Available at: https://www.jmir.org/2020/9/e22845/PDF (accessed 28.04.2024). DOI: https://doi.org/10.2196/22845

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2024 Vestnik Permskogo universiteta. Filosofiâ. Psihologiâ. Sociologiâ.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».