Роль феномена сознания в определении правового статуса искусственного интеллекта

Обложка
  • Авторы: Куприянова В.Е.1
  • Учреждения:
    1. Высшая школа права, Московский государственный юридический университет имени О. Е. Кутафина
  • Выпуск: № 1 (2025)
  • Страницы: 143-151
  • Раздел: Философия права
  • Статья опубликована: 26.05.2025
  • URL: https://journals.rcsi.science/2414-5750/article/view/364630
  • ID: 364630

Цитировать

Полный текст

Аннотация

 Статья посвящена исследованию феномена сознания, в частности природы рефлексии при определении правового статуса искусственного интеллекта. Автором проведен теоретический анализ понятий «сознание», «рефлексия». Рассмотрены доктрины и российская и зарубежная правовая практика. Актуальность изучаемой проблемы обусловлена тем, что современная трансформация юриспруденции сталкивается с серьезными вызовами в определении правового поля искусственного интеллекта. Безусловно, невозможно создавать правовые положения, не опираясь на философские (внутренние) основания того или иного явления. Цель исследования заключается в выявлении роли феномена сознания в формировании правового статуса искусственного интеллекта, а также разработке возможных моделей и подходов к пониманию природы дееспособности искусственного интеллекта и способности искусственного интеллекта к анализу социально-правовой реальности. Для этого смоделирован гипотетический вид дееспособности, процессуально определяемый для искусственного интеллекта, и рассмотрено соотношение рефлексии и субъективной стороны преступления как базис для правового сознания искусственного интеллекта. В работе сделан вывод о важности выявления способности искусственного интеллекта к рефлексии при его участии в вынесении судебных или управленческих решений.

Полный текст

В современном мире, где информатизация выходит на первый план, человечество сталкивается с новыми вызовами, которые возникают в ходе разработки цифровых технологий. Сегодня искусственный интеллект (далее – ИИ) начинает проникать в различные сферы жизни, от поисковых запросов до беспилотных систем с алгоритмами распознавания образов. Мир по-настоящему охвачен тенденцией на усовершенствование нейронных сетей и поиск путей их применения. Однако пока ИИ продолжает путь модернизации и самообучения, научное сообщество сталкивается с вопросом определения его правового статуса. Одни ученые предлагают внедрение нового правового статуса для ИИ, другие говорят о внесении поправок в существующее законодательство без изменения его правового статуса [1]. Проводятся многочисленные эксперименты, которые показывают поведение ИИ в той или иной деятельности. Например, одним из таких является заседание суда, проведеное студентами Института государства и права Тюменского университета121. В рассматриваемом деле истец пытался оспорить отказ Роспатента в регистрации патента на деталь, созданную нейросетью. Вердикт выносил ИИ после заслушивания обеих сторон. Заявление истца оставили без удовлетворения. Другим примером применения ИИ является российская компания Destra Legal, где, по рассказам сооснователя Андрея Гольцблата122, ИИ формирует комплект документов для суда, заполняет шаблоны, а также обрабатывает данные для определения вероятности исхода дела. В обоих примерах российской практики ИИ, по сути, замещает должность эксперта во время обработки того или иного юридического действия.

Приведем зарубежные примеры. Верховный народный суд КНР заявил, что судьи должны в обязательном порядке опираться на систему «умных судов», построенных на ИИ123, т. е. выносить судебное решение по рекомендациям ИИ. Самое интересное, что в случае несогласия судьи с данной системой ему необходимо предоставлять письменное обоснование своей позиции. Получается, что мнение нейронных сетей приравнивается к мнению человека. Более того, людей обязывают прислушиваться к нему или заставляют лишний раз доказывать правоту своей позиции.

Рассмотренные примеры показывают, как ИИ постепенно становится неотъемлемой частью деятельности компаний и судов. Безусловно, оптимизация многих рутинных процессов позволяет повысить производительность и показатели, однако не стоит забывать, что технологии несовершенны и невозможно полностью доверяться нейронным сетям. Судебная ошибка может испортить жизнь большому числу невиновных людей, а неверно подготовленные документы могут серьезно навредить репутации юридических компаний. Возникает вопрос: кто будет нести ответственность за нарушения, возникающие вследствие использования ИИ, насколько тот может быть включен в зону ответственности сам по себе, имитируя ту или иную форму сознательной деятельности, или вся вина будет возложена на программистов? Ведь когда ИИ совершает действия, приводящие к финансовым потерям, физическому ущербу или иным негативным последствиям, сложно определить, сделано ли это «преднамеренно» в юридическом смысле [2].

В самом кратком виде правовой статус определяется в науке как юридически закрепленное положение личности в обществе124. Именно правовой статус субъекта позволяет определить тот или иной набор прав и обязанностей, а также меры ответственности, применяемые к этому лицу при совершении правонарушения. При установлении правового статуса личности в ходе рассмотрения конкретного дела не возникает вопросов об определении затрагиваемых прав и свобод, так как существует законодательство, четко регламентирующее положение личности. К тому же человеку достаточно просто осознать, как иное лицо, имея какой-либо мотив и возможности, вступает в правоотношения или совершает правонарушение. Но можно ли предположить наличие подобных возможностей, рассматривая искусственный интеллект?

Проблема рефлексии в обосновании правосубъектности

Если попробовать представить себе обычного человека, совершившего преступление, то сразу появляется мысль о злостном нарушителе закона, который раскаивается или, наоборот, совершенно не жалеет о поступке, который совершил. А может быть, это преступление совершено малолетним, не осознающим последствия своих действий. Тем не менее в описанных примерах видно субъективное отношение к совершенному деянию. Это проявление рефлексии – т. е. человек через призму своего мироощущения дает оценку действиям, вырабатывает отношение к ним. Мы можем уверенно сказать, что рефлексия – это проявление сознания, потому что во время этого процесса человек пытается осмысленно обдумать обстоятельства дела. П. Тейяр де Шарден в работе «Феномен человека» писал: рефлексия – это приобретенная сознанием способность сосредоточиться на самом себе и овладеть самим собой как предметом, обладающим своей специфической устойчивостью и своим специфическим значением, – способность уже не просто познавать, а познавать самого себя; не просто знать, а знать, что знаешь [3]. То есть в рамках совершенного преступления правонарушитель познает себя в рамках возможностей собственного сознания.

В уголовном праве даже выделяется понятие субъективной стороны преступления, включающей в себя вину, мотив, цель, эмоциональное состояние лица. Все эти аспекты вполне вписываются в понятие рефлексии. То есть теоретически суд пытается через показания свидетелей, представляемые доказательства и т. п. установить, что в моменте преступление было осознаваемо человеком. Именно поэтому выделяется разная степень дееспособности (по возрасту и по определенным психическим особенностям личности), поскольку эти аспекты очень влияют на восприятие совершенного деяния.

У искусственного интеллекта отсутствует ряд перечисленных признаков, в том числе рефлексия действий. Сознание человека содержит квалиа – субъективное осознание восприятия. У цифровых систем оно отсутствует. Поэтому в современной правовой практике искусственный интеллект выступает как объект права, в составе которого находятся элементы интеллектуальной деятельности. Это вполне логично, потому что искусственный интеллект является современным инструментом создания продуктов искусства, письменных трудов и т. д. Однако рассмотрим ИИ как составляющую систему управления беспилотного транспорта.

В настоящее время в Российской Федерации разрабатывается проект федерального закона «О высокоавтоматизированных транспортных средствах и о внесении изменений в отдельные законодательные акты Российской Федерации» (ВАТС)125. В статье 13 регламентируется, что изготовитель несет ответственность за вред, причиненный жизни, здоровью или имуществу гражданина либо имуществу юридического лица вследствие конструктивных недостатков ВАТС. Вступление Закона в силу планируется 1 марта 2025 г. Становится очевидным, что в российской практике ИИ в содержании программы ВАТС не будет считаться субъектом права и ответственность будет нести его изготовитель, т. е. лицо, осознающее последствия своих действий.

Такой же подход есть и в зарубежной практике. Суд в Мюнхене обязал компанию Tesla выплатить 101 тыс. долларов владелице соответствующего автомобиля, в котором возникли проблемы с автопилотом126. В данном гражданском иске ответственность легла на компанию-производителя. Это довольно очевидное разрешение подобных дел, потому что ИИ (пока что) невозможно представить как полноправного субъекта права с наличием субъективной стороны. А как известно, преступление не имеет места, если нет субъекта, а значит, и субъективной стороны.

Генезис дееспособности у ИИ

Согласно ст. 21 ГК РФ дееспособность – это способность гражданина своими действиями приобретать и осуществлять гражданские права, создавать для себя гражданские обязанности и исполнять их (гражданская дееспособность). В этой формулировке есть взаимосвязь понятий «создание» и «исполнение». Такой подход является традиционным правовым принципом, согласно которому люди несут ответственность за результаты своих действий [4]. Сразу же вспоминается такое важное свойство сознания, как возможность самостоятельно пережить некое событие и выработать личную реакцию на него, т. е. «создать» переживание и «исполнить» определенную реакцию. Само по себе сознание активно, поскольку связано с воздействием на окружающий мир, точно так же как нормы права созданы с целью регулирования общественных отношений, т. е. внешнего мира. Таким образом, дееспособность, помимо всего прочего, основана на свойствах сознания. В случае с законом – на способности человека взаимодействовать с окружающей правовой реальностью.

Оценим ИИ – он динамичен. Точно так же, как и человеческое сознание, с непрерывным поступлением информации ИИ сохраняет в себе и приобретает новые реакции и свойства, которые он сможет применить в будущем. Имитируя деятельность человеческого мозга, ИИ может расширять спектр возможных реакций. Вновь вспомним связь понятий «создать» и «исполнить». При непрерывном обучении «создаются» новые сигналы внутри нейронной сети и «исполняются» ответы на них. Получается, что ИИ может обладать некоторыми «зачатками» дееспособности. Однако, если рассматривать воздействие окружающего мира, могут быть сложности с возникновением у ИИ такого свойства. Нейронные сети не инициируют взаимодействие самостоятельно, а лишь обрабатывают запрос пользователя, в отличие от человека, который сознательно идет на внешний контакт. Но даже при этом недостатке следует определить возможность возникновения дееспособности из имеющихся свойств, характерных для зачатков сознания.

Одним из уровней дееспособности, который на данный момент наиболее проблематично спроецировать на ИИ, является возможность осознать преступность собственных деяний. Мы можем предположить, что последующие разработки в сфере ИИ будут направлены на копирование/имитацию человеческой деятельности или активности. В таком случае ИИ сможет «представить себя» на месте человека, совершившего преступление. Опять же это будет лишь попытка скопировать принцип человеческого мышления, однако если ИИ сможет представить себя на месте преступника и описать его чувства, то может ли он при должном обучении представить возможный мотив совершения противоправного деяния и совершить его? В таком случае целесообразно рассмотреть новый уровень дееспособности, предполагающий имитирование осознания преступления. Выделим его признаки.

  1. Это пограничное состояние между недееспособностью и частичной дееспособностью, так как имитация мотива к преступлению может быть осознаваема и в таком случае признать ИИ недееспособным нельзя, однако говорить о полноценной рефлексии ИИ пока нецелесообразно. Тогда с точки зрения закона можно объяснить, почему за преступление ИИ нести ответственность будет его создатель, – ведь за малолетних ответственность несут родители.
  2. Имитация создания ИИ самим для себя гражданских обязанностей. Если он сможет сымитировать мотив преступления, значит, в таком случае следует предположить возможность копирования осознания обязанностей. Возможно, в будущем ИИ будет осознавать, что нельзя преступать закон.
  3. Отсутствие процессуальной дееспособности как таковой, представление «интересов» ИИ в суде разработчиком.

Рассмотрим вероятность возникновения признаков дееспособности у ИИ на основе концептов сознания, разработанных в современной философии. В соответствии с функционалистским подходом сознание может существовать без мозга, поскольку каузальная цепь может быть реализована в любой сложной системе, в том числе и в нематериальной127. А значит, предполагается возможность сознания и рефлексии и у ИИ, ведь он выполняет определенные функции. Совершение преступления выступает как некая функция, определяющая сознание ИИ, следовательно, можно говорить о дееспособности. Д. Чалмерс в работе «Сознающий ум» показывает, что сознание не исчерпывается свойствами мозга [5]. Когда человеку поступает некая информация, то он воспринимает ее как физически, так и ментально. Здесь присутствует квалиа – некая нематериальная энергия, которая обрабатывается вместе с физиологическими аспектами. Сам процесс обучения нейронных сетей по сути своей также является поглощением нематериальной энергии – знаний, к тому же ИИ не имеет физиологических возможностей для восприятия мира органами чувств. Если мы принимаем данный подход, то получается, что совершенное правонарушение может стать следствием определенного «ментального состояния» ИИ, в рамках которого вырабатывается реакция. Под «ментальным состоянием» в данном случае понимается совокупность систем самого ИИ, функции которых направлены на поглощение нематериальной энергии. Если нейросеть обучится на составлении ошибочных документов, значит, сама будет ошибаться, если поручить ей такое создание. При развитии подобной нейронной сети и зарождении в ней рефлексии получится, что она будет понимать, что ее функция познания переходит в функцию исполнения неправомерной деятельности, что говорит о возможном зарождении дееспособности.

С точки зрения деятельностного подхода, ярким представителем которого является Томас Нагель [6], сознание является результатом деятельности субъекта. Значит, преступление можно рассматривать как некую деятельность и субъективный опыт ИИ. Следовательно, и здесь можно говорить о дееспособности. ИИ, имитируя человеческий мозг, совершает определенные операции, и в нашем случае при нарушении закона он сам создает для себя новую среду, в которой он вырабатывает свою реакцию на поступающий запрос. Это является своеобразной деятельностью, что указывает на зачатки признаков сознания, относящихся к дееспособности.

С позиций семантического подхода мы говорим о том, что ИИ через непрекращающийся процесс познания формирует некую картину мира, в которой он будет способен проявить свою интеллектуальность. Так рассуждает современный философ сознания Джон Серл [7]. Использование своих знаний является целенаправленным поведением. Это значит, что нынешние возможности ИИ по имитации человеческого мышления могут привести к тому, что ИИ сможет через мотивы, выделенные в собственной картине мира, совершать некие деяния. Вновь возникает взаимосвязь «создания» и «исполнения». И здесь можно рассуждать о зарождении дееспособности.

При таком развитии событий ИИ, возможно, начнет признаваться не просто объектом права или инструментом создания интеллектуальной собственности, но и субъектом права, осознающим юридические последствия. Тогда перед юридической наукой встанет вопрос об установлении мер ответственности, применимых к самому ИИ как возможно осознанному субъекту, если их вообще можно применить. Важно понимать, что вероятность возникновения правосубъектности искусственного интеллекта будет зависеть от уровня его развития и области применения. Бурное развитие применения нейронных сети видно в Китае на примере системы «умных судов». При таком раскладе ИИ будет развиваться и обучаться стремительно и возникнет необходимость определения правосубъектности. В Российской Федерации нет устойчивой законодательной базы для ИИ, однако возникновение правосубъектности ИИ вполне возможно при расширении сфер его применения.

Таким образом, проблема сознания играет важную роль в определении правового статуса ИИ. Основываясь на возможности рефлексии и появления субъективной стороны преступления, можно определить, каким образом ИИ в будущем может перерасти в полноценный субъект права. Интегрируя сенсорные каналы, ИИ может имитировать осознанное, целенаправленное поведение. Искусственное сознание относится к способности систем искусственного интеллекта обладать самосознанием и придавать смысл своим действиям [8]. Имитация рефлексии собственных действий может в будущем создать возможность для возникновения сознания ИИ. Тем не менее, пока научное сообщество не придет к пониманию природы сознания и его зачатков у ИИ, нейросети обречены оставаться объектом права. Это включает в себя понимание технических аспектов систем искусственного интеллекта и их последствий для юридической ответственности [9].

×

Об авторах

Владислава Евгеньевна Куприянова

Высшая школа права, Московский государственный юридический университет имени О. Е. Кутафина

Автор, ответственный за переписку.
Email: vladakuprianova389@gmail.com

студент 1 курса

Россия, Москва

Список литературы

  1. Saud, A. Criminal liability about the use of artificial intelligence: investigating the actus reus element of AI-driven technology // American Journal of Law. 2024. Vol. 6, no. 1. P. 1–25.
  2. Kerekes L. Some aspects of the regulation of artificial intelligence // Indonesia Private Law Review. 2023. Vol. 4, no. 2. Р. 111–122.
  3. Тейяр де Шарден П. Феномен человека / пер. с фр. Н. А. Садовского. М. : Наука, 1987. 240 с.
  4. Hsu Chou-Yi, Jiang-Jia Wang. Systematic discussion of artificial intelligence’s personality in criminal law and the punishability for improper omission by the group acting as their guarantor position // Russian Law Journal. 2023. Vol. 11, no. 6S. Р. 281–295.
  5. Чалмерс Д. Сознающий ум. В поисках фундаментальной теории / пер. с англ. В. В. Васильева. М. : УРСС : Кн. дом «Либроком», 2013. 512 с.
  6. Нагель Т. Ум и космос / пер. с англ. В. В. Целищева. М. : Канон+, 2024. 192 с.
  7. Searle J. R. Consciousness and language. Cambridge University Press, 2002. 269 p.
  8. Butlin P., Long R., Elmoznino E., Bengio Y. et al. Consciousness in artificial intelligence: insights from the science of consciousness // ArXiv : [website]. URL: https://arxiv.org/pdf/2308.08708.
  9. Artificial intelligence and the law. Cybercrime and criminal liability / eds. D. J. Baker, P. H. Robinson. London : Routledge, 2020. 280 р.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML


Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».