Учëные за безопасный искусственный интеллект

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Цель статьи – проанализировать, как известные учёные оценивают потенциал долгосрочных рисков искусственного интеллекта (ИИ). Рассматривается вклад в развитие технологий генеративного ИИ, а также выступления за безопасный ИИ известного канадско-британского учёного, лауреата Нобелевской премии 2024 года Джеффри Хинтона и его учеников и коллег в области машинного обучения, разделяющих его идеи или, наоборот, возражающих ему (И. Суцкевер, Й. Бенджио, Я. Лекун). Речь идёт о предупреждениях учёных, разработчиков, ИТ-предпринимателей (Дж. Хинтон, Й. Бенджио, И. Суцкевер, С. Баладжи, И. Маск и др.) о неконтролируемых последствиях конкурентной гонки между высокотехнологическими компаниями «Опен-эй-ай» (OpenAI), «Гугл» (Google), «Антропик» (Anthropic), «Майкрософт» (Microsoft) и др., об их выступлениях за новые подходы к регулированию в этой области. Показывается, как исследователи вынуждены входить в противоречие с интересами технологических корпораций для того, чтобы донести до широких кругов общественности информацию о рисках ИИ.

Об авторах

М. Е Соколова

Институт Соединённых Штатов Америки и Канады имени академика Г.А. Арбатова Российской академии наук (ИСКРАН)

Email: mariamva@yandex.ru
ORCID iD: 0000-0002-4899-9058
кандидат философских наук, старший научный сотрудник Российская Федерация, 121069 Москва

Список литературы

  1. Geoffrey E. Hinton. Available at: https://www.cs.toronto.edu/~hinton/ (accessed 23.12.2024).
  2. The Vector Institute for Artificial Intelligence. Available at: https://vectorinstitute.ai (accessed 28.12.2024).
  3. Gartner: генеративный ИИ близок к «избавлению от иллюзий». itWeek.
  4. 22 августа. Available at: https://www.itweek.ru/ai/article/detail.php?ID=230226 (accessed: 7.01.2025).
  5. Metz, C. Silicon Valley’s Safe Space. The New York Times. 2021. 13 February. Available at: https://www.nytimes.com/2021/02/13/technology/slate-star-codex-rationalists.html (accessed 10.01.2025).
  6. Metz, C. The Godfather of A.I.2 Leaves Google and Warns of Danger Ahead. The New York Times. 2023. 4 May. Available at: https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html?ysclid=m1br4868ad234874607 (accessed 3.01.2025).
  7. Джеффри Хинтон. Интервью в Vector Institut в Торонто. О технологии, которая уже меняет мир. 2024. 5 ноября. Available at: https://rutube.ru/video/7d04ece462e7d0f17fbe5768d3639f9a/?ysclid=m5o8vmu0125 8862923 (accessed 4.01.2025).
  8. SB 1047 (SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (2023-2024). Available at: https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB1047 (accessed 3.01.2025).
  9. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. White House. 2023. 30 October. Available at: https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificialintelligence/(accessed 3.01.2025).
  10. Mims Ch. This AI Pioneer Thinks AI Is Dumber Than a Cat. WSJ. 2024. 11 October. Available at: https://www.wsj.com/tech/ai/yann-lecun-ai-meta-aa59e2f5 (accessed 3.01.2025).
  11. Пашенцев Е. Злонамеренное использование ИИ и информационно-психологическая безопасность: будущие риски. РСМД. 2024. 9 July. Available at: https://russiancouncil.ru/analytics-and-comments/analytics/zlonamerennoe-ispolzovanie-ii-i-informatsionno-psikhologicheskaya-bezopasnost-budushchieriski/?sphrase_id=166794964 (accessed 12.13.2025).
  12. Banias, M.J. Inside CounterCloud: A Fully Autonomous AI Disinformation System. The Debrief. 2023, 16 August. Available at: https://thedebrief.org/countercloud-ai-disinformation/ (accessed 12.01.2025).
  13. Алипова Е. Илья Суцкевер прогнозирует непредсказуемость сверхразумного ИИ. RB. 2024. 14 December. Available at: h ttps://rb.ru/news/suckevernepredskaz/?ysclid=m4oatg9ir3926785364 (accessed 3.01.2025).
  14. Metz, C. Former OpenAI Researcher Says the Company Broke Copyright Law. The New York Times. 2024. 23 October. Available at: https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html (accessed 3.01.2025).
  15. Pause Giant AI Experiments: An Open Letter. Future of Life Institute. Available at: https://futureoflife.org/open-letter/pause-giant-ai-experiments/(accessed 6.01.2025).
  16. OpenAI Fires Back at Elon Musk’s Lawsuit. The New York Times. 2024. 13 December. Available at: https://www.nytimes.com/2024/12/13/technology/openaielon-musk-lawsuit.html (accessed 6.01.2025).
  17. Heath A. Meta asks the government to block OpenAI’s switch to a for-profit. The Verge. 2024. 14 December. Available at: https://www.theverge.com/2024/12/13/24320880/meta-california-ag-letter-openai-non-profit-elonmusk (accessed 6.01.2025).
  18. Working together on the future of AI. Association for the Advancement of Artificial Intelligence. 2023. 5 April. Available at: https://aaai.org/working-together-on-the-future-of-ai/(accessed 6.01.2025).
  19. Лекун Я. 2021. Как учится машина. Революция в области нейронных сетей и глубокого обучения. М. Издательство «Альпина ПРО». 335 с. Available at: https://www.litres.ru/book/yan-lekun/kak-uchitsya-mashina-revoluciya-v-oblastineyronnyh-setey-i-glub-66361966/chitat-onlayn/?ysclid=m5twltns6c958014472 (accessed 6.01.2025).
  20. Сташис В. 2020. Мифологизация реальности в современном информационном пространстве. Веснік Брэсцкага ўніверсітэта. Серыя 1. Філасофія. Паліталогія. Сацыялогія. № 2. с. 67-72.
  21. Соколова М.Е. 2022. От автобеспилотников до автономных дронов: диапазон социально-этических рисков. Россия и Америка в XXI веке. № 5. Available at: https://rusus.jes.su/s207054760022754-6-1/(accessed 6.01.2025). DOI: https://doi.org/10.18254/S207054760022754-6.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Российская академия наук, 2025

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».