The Role of the Phenomenon of Consciousness in Determing the Legal Status of Artifical Intelligence
- Авторлар: Kupriyanova V.E.1
-
Мекемелер:
- Higher School of Law, O. E. Kutafin Moscow State Law University
- Шығарылым: № 1 (2025)
- Беттер: 143-151
- Бөлім: Legal Philosophy
- ##submission.datePublished##: 26.05.2025
- URL: https://journals.rcsi.science/2414-5750/article/view/364630
- ID: 364630
Дәйексөз келтіру
Толық мәтін
Аннотация
The article is devoted to the study of the phenomenon of consciousness, in particular the nature of reflection in determining the legal status of artificial intelligence. The author has carried out a theoretical analysis of the concepts of “consciousness” and “reflection”. Examples of Russian and foreign legal practice are considered. The relevance of the problem under study is due to the fact that the modern transformation of jurisprudence faces serious challenges in determining the legal field of artificial intelligence. But, of course, it is impossible to create legal provisions without relying on the philosophical (internal) foundations of a particular phenomenon. The purpose of the study is to identify the role of the phenomenon of consciousness in the formation of the legal status of artificial intelligence, as well as to develop possible models and approaches to understanding the nature of the capacity of artificial intelligence and the ability of artificial intelligence to analyze social and legal reality. For this purpose, a hypothetical type of legal capacity is modeled, which is procedurally determined for artificial intelligence, and the ratio of reflection and the subjective side of crime is considered as the basis for the legal consciousness of artificial intelligence. The paper concludes that it is important to identify the ability of artificial intelligence to reflect when it participates in making judicial or management decisions.
Негізгі сөздер
Толық мәтін
В современном мире, где информатизация выходит на первый план, человечество сталкивается с новыми вызовами, которые возникают в ходе разработки цифровых технологий. Сегодня искусственный интеллект (далее – ИИ) начинает проникать в различные сферы жизни, от поисковых запросов до беспилотных систем с алгоритмами распознавания образов. Мир по-настоящему охвачен тенденцией на усовершенствование нейронных сетей и поиск путей их применения. Однако пока ИИ продолжает путь модернизации и самообучения, научное сообщество сталкивается с вопросом определения его правового статуса. Одни ученые предлагают внедрение нового правового статуса для ИИ, другие говорят о внесении поправок в существующее законодательство без изменения его правового статуса [1]. Проводятся многочисленные эксперименты, которые показывают поведение ИИ в той или иной деятельности. Например, одним из таких является заседание суда, проведеное студентами Института государства и права Тюменского университета121. В рассматриваемом деле истец пытался оспорить отказ Роспатента в регистрации патента на деталь, созданную нейросетью. Вердикт выносил ИИ после заслушивания обеих сторон. Заявление истца оставили без удовлетворения. Другим примером применения ИИ является российская компания Destra Legal, где, по рассказам сооснователя Андрея Гольцблата122, ИИ формирует комплект документов для суда, заполняет шаблоны, а также обрабатывает данные для определения вероятности исхода дела. В обоих примерах российской практики ИИ, по сути, замещает должность эксперта во время обработки того или иного юридического действия.
Приведем зарубежные примеры. Верховный народный суд КНР заявил, что судьи должны в обязательном порядке опираться на систему «умных судов», построенных на ИИ123, т. е. выносить судебное решение по рекомендациям ИИ. Самое интересное, что в случае несогласия судьи с данной системой ему необходимо предоставлять письменное обоснование своей позиции. Получается, что мнение нейронных сетей приравнивается к мнению человека. Более того, людей обязывают прислушиваться к нему или заставляют лишний раз доказывать правоту своей позиции.
Рассмотренные примеры показывают, как ИИ постепенно становится неотъемлемой частью деятельности компаний и судов. Безусловно, оптимизация многих рутинных процессов позволяет повысить производительность и показатели, однако не стоит забывать, что технологии несовершенны и невозможно полностью доверяться нейронным сетям. Судебная ошибка может испортить жизнь большому числу невиновных людей, а неверно подготовленные документы могут серьезно навредить репутации юридических компаний. Возникает вопрос: кто будет нести ответственность за нарушения, возникающие вследствие использования ИИ, насколько тот может быть включен в зону ответственности сам по себе, имитируя ту или иную форму сознательной деятельности, или вся вина будет возложена на программистов? Ведь когда ИИ совершает действия, приводящие к финансовым потерям, физическому ущербу или иным негативным последствиям, сложно определить, сделано ли это «преднамеренно» в юридическом смысле [2].
В самом кратком виде правовой статус определяется в науке как юридически закрепленное положение личности в обществе124. Именно правовой статус субъекта позволяет определить тот или иной набор прав и обязанностей, а также меры ответственности, применяемые к этому лицу при совершении правонарушения. При установлении правового статуса личности в ходе рассмотрения конкретного дела не возникает вопросов об определении затрагиваемых прав и свобод, так как существует законодательство, четко регламентирующее положение личности. К тому же человеку достаточно просто осознать, как иное лицо, имея какой-либо мотив и возможности, вступает в правоотношения или совершает правонарушение. Но можно ли предположить наличие подобных возможностей, рассматривая искусственный интеллект?
Проблема рефлексии в обосновании правосубъектности
Если попробовать представить себе обычного человека, совершившего преступление, то сразу появляется мысль о злостном нарушителе закона, который раскаивается или, наоборот, совершенно не жалеет о поступке, который совершил. А может быть, это преступление совершено малолетним, не осознающим последствия своих действий. Тем не менее в описанных примерах видно субъективное отношение к совершенному деянию. Это проявление рефлексии – т. е. человек через призму своего мироощущения дает оценку действиям, вырабатывает отношение к ним. Мы можем уверенно сказать, что рефлексия – это проявление сознания, потому что во время этого процесса человек пытается осмысленно обдумать обстоятельства дела. П. Тейяр де Шарден в работе «Феномен человека» писал: рефлексия – это приобретенная сознанием способность сосредоточиться на самом себе и овладеть самим собой как предметом, обладающим своей специфической устойчивостью и своим специфическим значением, – способность уже не просто познавать, а познавать самого себя; не просто знать, а знать, что знаешь [3]. То есть в рамках совершенного преступления правонарушитель познает себя в рамках возможностей собственного сознания.
В уголовном праве даже выделяется понятие субъективной стороны преступления, включающей в себя вину, мотив, цель, эмоциональное состояние лица. Все эти аспекты вполне вписываются в понятие рефлексии. То есть теоретически суд пытается через показания свидетелей, представляемые доказательства и т. п. установить, что в моменте преступление было осознаваемо человеком. Именно поэтому выделяется разная степень дееспособности (по возрасту и по определенным психическим особенностям личности), поскольку эти аспекты очень влияют на восприятие совершенного деяния.
У искусственного интеллекта отсутствует ряд перечисленных признаков, в том числе рефлексия действий. Сознание человека содержит квалиа – субъективное осознание восприятия. У цифровых систем оно отсутствует. Поэтому в современной правовой практике искусственный интеллект выступает как объект права, в составе которого находятся элементы интеллектуальной деятельности. Это вполне логично, потому что искусственный интеллект является современным инструментом создания продуктов искусства, письменных трудов и т. д. Однако рассмотрим ИИ как составляющую систему управления беспилотного транспорта.
В настоящее время в Российской Федерации разрабатывается проект федерального закона «О высокоавтоматизированных транспортных средствах и о внесении изменений в отдельные законодательные акты Российской Федерации» (ВАТС)125. В статье 13 регламентируется, что изготовитель несет ответственность за вред, причиненный жизни, здоровью или имуществу гражданина либо имуществу юридического лица вследствие конструктивных недостатков ВАТС. Вступление Закона в силу планируется 1 марта 2025 г. Становится очевидным, что в российской практике ИИ в содержании программы ВАТС не будет считаться субъектом права и ответственность будет нести его изготовитель, т. е. лицо, осознающее последствия своих действий.
Такой же подход есть и в зарубежной практике. Суд в Мюнхене обязал компанию Tesla выплатить 101 тыс. долларов владелице соответствующего автомобиля, в котором возникли проблемы с автопилотом126. В данном гражданском иске ответственность легла на компанию-производителя. Это довольно очевидное разрешение подобных дел, потому что ИИ (пока что) невозможно представить как полноправного субъекта права с наличием субъективной стороны. А как известно, преступление не имеет места, если нет субъекта, а значит, и субъективной стороны.
Генезис дееспособности у ИИ
Согласно ст. 21 ГК РФ дееспособность – это способность гражданина своими действиями приобретать и осуществлять гражданские права, создавать для себя гражданские обязанности и исполнять их (гражданская дееспособность). В этой формулировке есть взаимосвязь понятий «создание» и «исполнение». Такой подход является традиционным правовым принципом, согласно которому люди несут ответственность за результаты своих действий [4]. Сразу же вспоминается такое важное свойство сознания, как возможность самостоятельно пережить некое событие и выработать личную реакцию на него, т. е. «создать» переживание и «исполнить» определенную реакцию. Само по себе сознание активно, поскольку связано с воздействием на окружающий мир, точно так же как нормы права созданы с целью регулирования общественных отношений, т. е. внешнего мира. Таким образом, дееспособность, помимо всего прочего, основана на свойствах сознания. В случае с законом – на способности человека взаимодействовать с окружающей правовой реальностью.
Оценим ИИ – он динамичен. Точно так же, как и человеческое сознание, с непрерывным поступлением информации ИИ сохраняет в себе и приобретает новые реакции и свойства, которые он сможет применить в будущем. Имитируя деятельность человеческого мозга, ИИ может расширять спектр возможных реакций. Вновь вспомним связь понятий «создать» и «исполнить». При непрерывном обучении «создаются» новые сигналы внутри нейронной сети и «исполняются» ответы на них. Получается, что ИИ может обладать некоторыми «зачатками» дееспособности. Однако, если рассматривать воздействие окружающего мира, могут быть сложности с возникновением у ИИ такого свойства. Нейронные сети не инициируют взаимодействие самостоятельно, а лишь обрабатывают запрос пользователя, в отличие от человека, который сознательно идет на внешний контакт. Но даже при этом недостатке следует определить возможность возникновения дееспособности из имеющихся свойств, характерных для зачатков сознания.
Одним из уровней дееспособности, который на данный момент наиболее проблематично спроецировать на ИИ, является возможность осознать преступность собственных деяний. Мы можем предположить, что последующие разработки в сфере ИИ будут направлены на копирование/имитацию человеческой деятельности или активности. В таком случае ИИ сможет «представить себя» на месте человека, совершившего преступление. Опять же это будет лишь попытка скопировать принцип человеческого мышления, однако если ИИ сможет представить себя на месте преступника и описать его чувства, то может ли он при должном обучении представить возможный мотив совершения противоправного деяния и совершить его? В таком случае целесообразно рассмотреть новый уровень дееспособности, предполагающий имитирование осознания преступления. Выделим его признаки.
- Это пограничное состояние между недееспособностью и частичной дееспособностью, так как имитация мотива к преступлению может быть осознаваема и в таком случае признать ИИ недееспособным нельзя, однако говорить о полноценной рефлексии ИИ пока нецелесообразно. Тогда с точки зрения закона можно объяснить, почему за преступление ИИ нести ответственность будет его создатель, – ведь за малолетних ответственность несут родители.
- Имитация создания ИИ самим для себя гражданских обязанностей. Если он сможет сымитировать мотив преступления, значит, в таком случае следует предположить возможность копирования осознания обязанностей. Возможно, в будущем ИИ будет осознавать, что нельзя преступать закон.
- Отсутствие процессуальной дееспособности как таковой, представление «интересов» ИИ в суде разработчиком.
Рассмотрим вероятность возникновения признаков дееспособности у ИИ на основе концептов сознания, разработанных в современной философии. В соответствии с функционалистским подходом сознание может существовать без мозга, поскольку каузальная цепь может быть реализована в любой сложной системе, в том числе и в нематериальной127. А значит, предполагается возможность сознания и рефлексии и у ИИ, ведь он выполняет определенные функции. Совершение преступления выступает как некая функция, определяющая сознание ИИ, следовательно, можно говорить о дееспособности. Д. Чалмерс в работе «Сознающий ум» показывает, что сознание не исчерпывается свойствами мозга [5]. Когда человеку поступает некая информация, то он воспринимает ее как физически, так и ментально. Здесь присутствует квалиа – некая нематериальная энергия, которая обрабатывается вместе с физиологическими аспектами. Сам процесс обучения нейронных сетей по сути своей также является поглощением нематериальной энергии – знаний, к тому же ИИ не имеет физиологических возможностей для восприятия мира органами чувств. Если мы принимаем данный подход, то получается, что совершенное правонарушение может стать следствием определенного «ментального состояния» ИИ, в рамках которого вырабатывается реакция. Под «ментальным состоянием» в данном случае понимается совокупность систем самого ИИ, функции которых направлены на поглощение нематериальной энергии. Если нейросеть обучится на составлении ошибочных документов, значит, сама будет ошибаться, если поручить ей такое создание. При развитии подобной нейронной сети и зарождении в ней рефлексии получится, что она будет понимать, что ее функция познания переходит в функцию исполнения неправомерной деятельности, что говорит о возможном зарождении дееспособности.
С точки зрения деятельностного подхода, ярким представителем которого является Томас Нагель [6], сознание является результатом деятельности субъекта. Значит, преступление можно рассматривать как некую деятельность и субъективный опыт ИИ. Следовательно, и здесь можно говорить о дееспособности. ИИ, имитируя человеческий мозг, совершает определенные операции, и в нашем случае при нарушении закона он сам создает для себя новую среду, в которой он вырабатывает свою реакцию на поступающий запрос. Это является своеобразной деятельностью, что указывает на зачатки признаков сознания, относящихся к дееспособности.
С позиций семантического подхода мы говорим о том, что ИИ через непрекращающийся процесс познания формирует некую картину мира, в которой он будет способен проявить свою интеллектуальность. Так рассуждает современный философ сознания Джон Серл [7]. Использование своих знаний является целенаправленным поведением. Это значит, что нынешние возможности ИИ по имитации человеческого мышления могут привести к тому, что ИИ сможет через мотивы, выделенные в собственной картине мира, совершать некие деяния. Вновь возникает взаимосвязь «создания» и «исполнения». И здесь можно рассуждать о зарождении дееспособности.
При таком развитии событий ИИ, возможно, начнет признаваться не просто объектом права или инструментом создания интеллектуальной собственности, но и субъектом права, осознающим юридические последствия. Тогда перед юридической наукой встанет вопрос об установлении мер ответственности, применимых к самому ИИ как возможно осознанному субъекту, если их вообще можно применить. Важно понимать, что вероятность возникновения правосубъектности искусственного интеллекта будет зависеть от уровня его развития и области применения. Бурное развитие применения нейронных сети видно в Китае на примере системы «умных судов». При таком раскладе ИИ будет развиваться и обучаться стремительно и возникнет необходимость определения правосубъектности. В Российской Федерации нет устойчивой законодательной базы для ИИ, однако возникновение правосубъектности ИИ вполне возможно при расширении сфер его применения.
Таким образом, проблема сознания играет важную роль в определении правового статуса ИИ. Основываясь на возможности рефлексии и появления субъективной стороны преступления, можно определить, каким образом ИИ в будущем может перерасти в полноценный субъект права. Интегрируя сенсорные каналы, ИИ может имитировать осознанное, целенаправленное поведение. Искусственное сознание относится к способности систем искусственного интеллекта обладать самосознанием и придавать смысл своим действиям [8]. Имитация рефлексии собственных действий может в будущем создать возможность для возникновения сознания ИИ. Тем не менее, пока научное сообщество не придет к пониманию природы сознания и его зачатков у ИИ, нейросети обречены оставаться объектом права. Это включает в себя понимание технических аспектов систем искусственного интеллекта и их последствий для юридической ответственности [9].
Авторлар туралы
Vladislava Kupriyanova
Higher School of Law, O. E. Kutafin Moscow State Law University
Хат алмасуға жауапты Автор.
Email: vladakuprianova389@gmail.com
1st year student
Ресей, MoscowӘдебиет тізімі
- Saud, A. Criminal liability about the use of artificial intelligence: investigating the actus reus element of AI-driven technology. American Journal of Law. 2024;6(1):1-25.
- Kerekes, L. Some aspects of the regulation of artificial intelligence. Indonesia Private Law Review. 2023;4(2):111-122.
- Teilhard de Chardin, P. The phenomenon of man. Transl. from French by N. A. Sadovsky. Moscow: Nauka; 1987. 240 p. (In Russ.)
- Hsu, Chou-Yi, Jiang-Jia, Wang. Systematic discussion of artificial intelligence’s personality in criminal law and the punishability for improper omission by the group acting as their guarantor position. Russian Law Journal. 2023;11(6S):281-295.
- Chalmers, D. The Conscious mind. In search of a fundamental theory. Transl. from Engl. by V. V. Vasiliev. Moscow: URSS; “Librokom” Book House; 2013. 512 p. (In Russ.)
- Nagel, T. Mind and cosmos. Transl. from Engl. by V. V. Tselishchev. Moscow: Kanon+; 2024. 192 p. (In Russ.)
- Searle, J. R. Consciousness and language. Cambridge University Press; 2002. 269 p.
- Butlin, P., Long, R., Elmoznino, E., et al. Consciousness in artificial intelligence: insights from the science of consciousness. ArXiv: [website]. URL: https://arxiv.org/pdf/2308.08708.
- Baker, D. J., Robinson, P. H., eds. Artificial intelligence and the law. Cybercrime and criminal liability. London: Routledge; 2020. 280 р.
Қосымша файлдар


