Expansion of artificial intelligence: expectations and attitudes of citizen

封面

全文:

详细

Interest in artificial intelligence and specifically in neural networks is not declining in society, but there is a noticeable change in the emphasis that attracts the attention of Russians. Mass availability and vast opportunities initially gave rise to fears about the displacement of ‘live’ labour force from the labour market and mass replacement by artificial intelligence in all easily algorithmised industries. Changes in the labour market have indeed occurred, but these changes, as well as user experimentation with neural networks, have brought new concerns to the forefront. Based on data from the annual monitoring of permanent and current socio-political indicators conducted by the Institute of Socio-Political Research of FCTAS RAS, as well as other available generative artificial intelligence research, the authors trace the social sentiment associated with the mass adoption and use of artificial intelligence and neural networks. Data from June 2024 shows that concerns about employment have been replaced by fears about the penetration of digital reality into social reality in the form of misinformation, scams, spoofs and dipfakes. The change in the information agenda has not reduced the level of citizens’ anxiety and requires attention from researchers.

全文:

Введение. Внимание к очередным этапам развития искусственного интеллекта (ИИ) стало неотъемлемой частью ежедневной новостной ленты не только в разделе hi-tech, но и в разделах основных событий страны и мира. На повестке дня как актуальные новости технического характера, так и научные исследования, посвященные новым достижениям в области технологий искусственного интеллекта, к их измеренным и потенциальным последствиям. Степень внимания в научной литературе к проблематике искусственного интеллекта можно обозначить как высокую, но неоднородную. Относительно недавний старт технологий ИИ открыл широкое поле внедрения в различных сферах жизни общества: медицине, образовании, филологии, издательском деле, социологических исследованиях и далее до бесконечности. Российские ученые крутят современные ИИ-технологии как кубик Рубика: так, философы инициируют рассмотрение развития и последствий внедрения искусственного интеллекта в антропологическом контексте, с опорой на природу человека и учетом антропотехнического основания происходящих в обществе трансформаций [Дубровский, 2022]. Политологов интересует влияние цифровой среды на формирование мировоззрения [Володенков и др., 2023]. Теоретики социологии предлагают взгляд на социальные процессы рубежа XX–XXI веков с точки зрения концепции виртуализации [Иванов, 2000] и т. д. Особый интерес представляют исследования взаимопроникновения разнородных элементов из разных сфер жизни в процессе становления гибридной реальности [Василенко, Мещерякова, 2023].

В определенной смысле мир оказался в плену нового глобального информационного противоречия. С одной стороны, общество переживает период фетишизации информации, как модного товара, производимого на основе современных технологий, циркулирующего по особым латентным, не совсем понятным для массового потребителя законам. С другой стороны, во всем мире наблюдается кризис доверия к информации, особенно к ее массовым формам, распространяемым в СМИ и социальных сетях. Этот кризис доверия, который, на наш взгляд, и является главным вызовом государственному и социальному управлению, проявляется в том, что все большее число людей на планете напрямую связывают ухудшение качества и уровня своей жизни с усиливающейся манипуляцией информацией со стороны СМИ, социальных сетей, правительств и международных организаций. Очевидно, что в этом противоречии, которое подготовлено научно-техническим прогрессом, должно оставаться как можно меньше «белых пятен» непонимания и незнания.

В рамках данной статьи авторы ставят перед собой задачу на основе анализа социологической информации оценить изменения социальных настроений и ожиданий, связанных с массовым внедрением практик, основанных на технологиях искусственного интеллекта, в краткосрочном периоде. Общество проживает этап интенсивной трансформации производства, что неизбежно сказывается на состоянии рынка труда: меняется количество рабочих мест, исчезает и появляется потребность в тех или иных навыках, компетенциях и профессиях. Эти перемены логично вызывают беспокойство граждан, и не только экономического характера. Помимо материального фактора, трудовая занятость значима и с точки зрения самореализации личности, социальной перспективы и карьеры.

О проведенном исследовании. Эмпирическую основу анализа составили данные 54-го этапа всероссийского социологического мониторинга «Как живешь, Россия?» [Левашов и др., 2024b], ежегодно проводимого Институтом социально-политических исследований ФНИСЦ РАН (руководитель – В. К. Левашов). Полевой этап проведен в период с 23 марта по 8 апреля 2024 г. в 22 регионах страны 1 (N = 1700). Использована квотно-пропорциональная всероссийская выборка с взаимозависимыми характеристиками генеральной совокупности: пола, возраста, образования, местожительства. В основу территориального размещения выборки легло экономико-географическое районирование страны при соблюдении пропорции численности населения и пропорций между городским и сельским населением. В сравнительных целях в тексте фигурируют также данные 53-го этапа мониторинга «Как живешь, Россия?», проведенного в июне 2023 г. в тех же регионах (N = 1700) [Левашов и др., 2023].

Дополнительно использованы данные опросов крупнейших исследовательских центров (ВЦИОМ, РОМИР, НИУ ВШЭ), а также анализ высказываний и отчетов экспертов из сферы разработки и внедрения искусственного интеллекта.

Искусственный интеллект и рынок труда. Сегодня рынок труда под влиянием массового внедрения предприятиями технологий искусственного интеллекта меняется иначе, чем это виделось несколько лет назад. Прогнозировалось в первую очередь облегчение тяжелого монотонного низкоквалифицированного труда, что, как ожидалось, освободит время для реализации творческого потенциала человека. Подобные ожидания и прогнозы характерны и для предыдущих этапов осмысления социальных последствий технологического прогресса. Так, в середине XX века экономист Дж. М. Кейнс писал: «Сейчас сама скорость происходящих изменений становится болезненной и ставит перед нами трудные проблемы… Нас одолевает болезнь, о которой отдельные читатели, возможно, еще не слышали, но которую в ближайшие годы будут много обсуждать, – технологическая безработица. Она возникает потому, что скорость, с какой мы открываем трудосберегающие технологии, превосходит нашу способность находить новое применение высвобожденному труду» 2.

Как показало время, технологический прогресс пока не приблизил человечество к 15-часовой рабочей неделе, предвиденной также Дж. М. Кейнсом. Более того, на наших глазах современные технологические инновации ИИ все больше претендуют на внедрение не только в IT-сфере, индустриальном производстве, агропромышленном комплексе, военно-технической или бытовой сфере. В творческой деятельности, науке, литературе, поэзии пользователю ИИ уже стало возможным переложение стихов на музыку, художественное изображение образов по заданным параметрам, составление научных и литературных текстов. Результаты порой непредсказуемы и напрямую зависят от качества составляемых пользователями промптов – задач и алгоритмов для генеративных нейросетей. Граждане достаточно чутко реагируют на реалии IT-инноваций, что сказывается на динамике опасений по поводу личных трудовых перспектив. В то же время сама обучаемость искусственных интеллектуальных систем и инвестиционная активность глобальных корпораций, зачастую скупо освещаемая в публичной сфере, способствуют росту уровня неопределенных представлений граждан о социальных последствиях внедрения нейросетей и ИИ в целом.

Согласно данным мониторинга (рис. 1), число респондентов, опасающихся за состояние рынка труда в связи с распространением ИИ, за год сократилось на 20% (с 55 до 44%), но продолжает преобладать. При этом доля граждан, не испытывающих подобных опасений, не увеличилась. Таким образом, нельзя сказать, что часть «опасавшихся» в 2023 г. кардинально изменила свою точку зрения за последующий год, скорее, они перешли в разряд сомневающихся: количество затруднившихся ответить в 2024 г. выросло до 33%.

 

Рис. 1. Распределение ответов на вопрос: «Существует ли опасность, что нейросети и ИИ в будущем сократят рынок труда в России?», в % от числа опрошенных

 

Чаще других в 2024 г. опасаются влияния искусственного интеллекта на рынок труда более образованные россияне, вероятно, сталкиваясь с примерами его использования в ходе обучения и работы. Среди обладателей высшего и неоконченного высшего (не менее трех курсов) образования опасения высказали 50,5% (не опасаются 26,4%, затруднились 23,1%), среди выпускников техникумов/колледжей опасаются 44,1% (не опасаются 23%, затруднились 32,9%).

Согласно Национальной стратегии развития искусственного интеллекта 3, доля работников, имеющих навыки использования технологий искусственного интеллекта, к 2030 г. должна достичь не менее 80%, тогда как в 2022 г. их доля составляла лишь 5%. По данным онлайн-кампуса НИУ ВШЭ на сентябрь 2024 г., каждый третий россиянин (32%), работающий вне сферы IT, задумывается о необходимости развития IT-компетенций для повышения рабочей эффективности. Самым востребованным направлением обучения среди участников этого опроса оказалась работа с запросами для нейросетей (промпт-инжиниринг) – об этом сообщили 37% респондентов 4.

Меняются технологии, соответственно, меняются и требования к соискателям, множатся вакансии, требующие навыков работы с нейросетями (вне IT-индустрии) [Левашов и др., 2024a: 216]. В 2025 г., согласно прогнозам, число таких вакансий может вырасти на 25% 5. Во многих случаях это не абстрактные требования «на перспективу», а потребность, вызванная производственными процессами. Так, один из лидеров российского книжного рынка, издательство «Эксмо» использует нейросети Midjourney для создания иллюстраций, а ChatGPT для создания сопроводительных и продвигающих текстов. Технологиями ИИ пользуются в магазинах сети «X5» для планирования складских запасов; банки переходят на ИИ при формировании предложений финансовых услуг и принятии решений по кредитам; «Билайн» сообщает, что использует ИИ при определении локации для расположения новых салонов, а «Ростелеком» – для предиктивной аналитики аварий. Все эти задачи требуют наличия сотрудников соответствующей квалификации.

Россияне в большинстве своем достаточно редко обращаются к нейросетям и прочим технологиям ИИ, в 2024 г. в своей основной деятельности возможностями искусственного интеллекта пользуется примерно один россиянин из шести (15% населения страны). Из них 9% используют его возможности для работы, а 6% – для учебы. Подавляющее большинство (57%) респондентов осведомлены о нейросетях, но не пользуются ими; 17% используют на досуге. Не знают, что это такое – 18%. Среди тех, кто использует ИИ для учебных целей, 1,8% отметили, что не знают, что это такое.

Как и в случае с опасениями в отношении рынка труда, вопрос о практическом использовании нейросетей и ИИ показывает ограниченность их массового распространения и прямую зависимость знакомства с ними и, соответственно, рефлексии на их счет, от уровня компетенций респондентов. Так, опрошенные россияне с высшим и неоконченным высшим образованием значительно чаще остальных используют ИИ для выполнения рабочих обязанностей (16,1%), следующими идут выпускники техникумов/колледжей – 7,3%, больше всего среди использующих ИИ в работе предпринимателей и инженерно-технических работников. Используют нейросети для учебы в основном респонденты со средним образованием (12,7%), вероятнее всего, это студенты первых трех курсов; на втором месте респонденты с высшим и неоконченным высшим (9,1%). Даже в сфере досуга среди пользователей нейросетей преобладают респонденты с высшим и неоконченным высшим образованием – 22,2% (на втором месте респонденты со средним образованием – 18,6%, на третьем – со средним специальным – 16,9%). Полученные результаты объяснимы с точки зрения внедрения ИИ в первую очередь на высокотехнологичных предприятиях, сотрудники которых изначально открыты к новинкам профессиональной среды. Также их можно интерпретировать с точки зрения базовых компетенций, необходимых для работы с нейросетями. Так, постановка задачи требует от пользователя понимания алгоритмов и их логического смысла, способности к самостоятельным выводам из найденных ИИ закономерностей, что подразумевает набор навыков выше среднего.

Как показывает практика, на сегодняшний день рядовой россиянин не всегда представляет себе существующие способы использования нейросетей и прочих технологий ИИ. Наиболее популярными в повседневности остаются нейросети по работе с текстом (генерация, рерайт, краткое изложение, анализ закономерностей в базах данных) и изображениями (генерация, анимация изображений, склейка в видео, спецэффекты), в творческой среде экспериментируют с генерацией музыки и нейро-озвучкой песен.

Утверждая, что они не используют и не сталкиваются в повседневной жизни с нейросетями, респонденты зачастую невольно заблуждаются. Соответствующие технологии используются в работе распространенных голосовых помощников типа Алисы и Маруси, в формировании ленты новостей в VK и результатов поиска в «Яндексе», при идентификации персоналий на фото в социальных сетях. Подобная идентификация применяется и в более крупных масштабах, например, в Москве существует биометрическая система уличного наблюдения, основанная на технологии FindFace: система распознает лица и сравнивает их с базами данных правоохранительных органов. Внесенные в медицинские карты заключения по рентгеновским снимкам могут оказаться результатом работы ИИ, которым пользуются медицинские организации системы ОМС в Москве и ряде подключившихся регионов. Нейронные сети лежат в основе работы роботов-курьеров Почты России, курсирующих в Москве, Ленинградской области и в Татарстане. Повсеместно распространяются чат-боты и голосовые помощники вместо колл-центров. Если мимо жителей регионов и прошла часть новинок, реализованных в столице (напомним, в 2020 г. в разгар COVID-19 был принят закон, превращающий Москву в своеобразную «песочницу» для испытаний проектов искусственного интеллекта 6), то встроенные в поисковые системы и социальные сети технологии они вряд ли пропустили.

Бóльшая осведомленность и навыки практического использования в работе, учебе или развлечениях приводят респондентов и к бóльшим опасениям в отношении искусственного интеллекта (табл. 1).

 

Таблица 1

Распределение ответов на вопрос: «Существует ли опасность, что ИИ и нейросети в будущем сократят рынок труда в России?» в соответствии с практическим использованием соответствующих технологий, 2024 г., в %

Существует ли опасность, что ИИ и нейросети в будущем сократят рынок труда в России?

Используете ли вы ИИ и нейросети в повседневной жизни и работе?

использую для выполнения обязанностей по работе

использую в учебе

использую в досуге

не использую ИИ и нейросети

не знаю, что это такое

Да, существует

63,5

52,6

57,1

46,0

14,4

Нет, не существует

23,5

33,3

25,0

26,6

8,1

Затрудняюсь ответить

13,0

14,1

17,9

27,4

77,5

Итого

100

100

100

100

100

 

Среди тех, кто использует ИИ для выполнения рабочих обязанностей, 63,5% опасаются влияния искусственного интеллекта на рынок труда. Среди использующих ИИ для учебы опасаются того же 52,6%, для досуга – 57,1%. Респонденты, выбравшие вариант ответа «не знаю, что это такое», преимущественно затруднились ответить на вопрос об опасениях по поводу рынка труда (77,5%). Среди тех, кто не использует нейросети и другие технологии ИИ, относительное большинство (46%) разделяет опасения по поводу рынка труда.

Глобальные ожидания и тревоги. Отметив ранее более высокий уровень опасений, связанных с ИИ, у россиян, обладающих практическими навыками и знаниями в сфере ИИ, необходимо обратить внимание на куда более пессимистичные в глобальном масштабе ожидания и тревоги компетентных в данном вопросе экспертов и специалистов. Так, Илон Маск, как и Джеффри Хинтон (Нобелевская премия по физике в 2024 г.), оценивает вероятность уничтожения человечества ИИ в 10–20% 7. Очередное предостережение в формате открытого письма опубликовали летом 2024 г. сотрудники ведущих компаний-разработчиков ИИ (преимущественно OpenAI): «Мы понимаем серьезные риски, которые несут в себе эти технологии. Эти риски варьируются от дальнейшего укоренения существующего неравенства, манипуляций и дезинформации до потери контроля над автономными системами ИИ, что может привести к вымиранию человечества» 8. Результаты конкретных научных аналитических и эмпирических измерений рисков и вероятности гибели цивилизации от ИИ в открытых академических публикациях не встречаются. Сегодня регулярные опасения медийных лиц содержательно не уходят дальше высказанных десять лет назад предупреждений Стивена Хокинга о том, что недооценка угроз ИИ может стать величайшей ошибкой человечества. Дефицит научной информации о негативных социальных эффектах искусственного интеллекта и сенсационные спекулятивные публикации вероятности ИИ-апокалипсиса в широкой печати формируют у рядовых граждан фобию о бесконтрольном развитии ИИ.

Более 60% россиян считают, что ИИ следует использовать только в отдельных конкретных сферах 9. Рассуждая о глобальных сценариях в долгосрочной перспективе развития ИИ, больше трети опрошенных в ходе совместного исследования РОМИР и НИУ ВШЭ россиян обеспокоены перспективой выхода ИИ из-под контроля (34,4%), а также возможной передачей ему контроля над вооружением и принятием решений по его использованию (35,9%) и угрозой самого существования человечества (32,8%) 10.

Таким образом, конвергенция традиционной и цифровой реальности воодушевляла, пока речь шла об оптимизации документооборота, комфорте бесконтактных коммуникаций, гаджетах для умного дома. Однако технологии ИИ адаптируются под любые пользовательские запросы, в том числе криминальные. Это привело к росту социальных опасений, вызванных эволюционирующими методами финансового и маркетингового мошенничества. Собеседник в чате соцсетей, телефонном звонке или видеосвязи может оказаться искусно подделанным голосом, а фото и видео – синтетическими медиа, известными как дипфейки. Цифровая ирреальность как намеренное обманное искажение реальности продолжает размывать границы материального и цифрового мира в массовом сознании, общественном мнении и экспертном сообществе. Разумеется, поддельные фото, видео, аудио и документальные фальшивки существовали и ранее, но современные цифровые технологии существенно повышают потенциал их обманной убедительности.

Заколдованный круг представляют собой и проблемы цифрового следа и безопасности данных. Высокий уровень мошенничества приводит к высокой требовательности цифровых порталов к данным для идентификации личности. Растущее число инцидентов с утечкой персональных данных повышает вероятность использования этих идентификационных документов при противоправных действиях, что, в свою очередь, влечет за собой вероятность расширения использования биологических персональных идентификационных маркеров с целью минимизации противоправных действий и повышения уровня информационной безопасности граждан, общества и государства.

Общественные настроения и уровень тревожности. Описанные выше опасения уже получили общее наименование как «ИИ-тревожность», которая может возникнуть как под влиянием конкретных факторов: новые требования работодателя, столкновение с нейросетевым мошенничеством и пр., так и иррационально. Годом ранее авторы уже рассматривали взаимосвязь между ответами на вопрос о наличии опасений за рынок труда и на вопросы об уровне тревожности, уверенности в завтрашнем дне [Левашов, Гребняк, 2023]. Несмотря на сокращение у россиян переживаний из-за влияния ИИ на рынок труда, общая тенденция остается прежней: тревога из-за неопределенности будущего (ответ «страх перед неопределенностью будущего» в многовариантном вопросе о первоочередных поводах для беспокойства в 2024 г. выбрали 21% россиян, в 2023 г. – 25%) связана с опасениями из-за рынка труда (см. табл. 2).

 

Таблица 2

Распределение ответов респондентов, испытывающих страх перед неопределенностью будущего в связи с развитием ИИ в соответствии с мнениями об опасности ИИ и нейросетей для рынка труда, в % по строке

Какие проблемы беспокоят вас в первую очередь?

Существует ли опасность, что ИИ и нейросети в будущем сократят рынок труда в России?

да, существует

нет, не существует

затрудняюсь ответить

2023

2024

2023

2024

2023

2024

Страх перед неопределенностью будущего

63,9

47,9

16,3

19,7

19,8

32,4

 

Общий тренд остается неизменным, подчеркивая значимость настроений, связанных с проблемами ИИ, в формировании общего уровня тревожности. Среди респондентов, указавших «страх перед неопределенностью будущего» в качестве одной из проблем, беспокоящих их в первую очередь, около половины (47,9%) опасаются влияния ИИ на занятость. Годом ранее их доля была выше (63,9%). Данные таблиц 1 и 2 позволяют предположить, что разница перешла преимущественно в категорию респондентов, затруднившихся ответить. Увеличение числа затруднившихся в полтора раза само по себе наглядно демонстрирует рост общей неопределенности в настроениях россиян.

Рост общей неопределенности, исчезновение иллюзий и концентрация на новых проблемах информационных технологий несколько изменила отношение граждан к цифровой среде. Отмеченные выше ИИ-тревожность и страхи, связанные с информационной сферой, не привели к росту общего недоверия к интернет-источникам. Пессимистические настроения граждан, связанные с интернет-средой, за год смягчились (табл. 3).

 

Таблица 3

Распределение ответов на вопрос: «Какой образ будущего, оптимистический или пессимистический, возникает у вас после просмотра и прослушивания передач по радио и телевидению, знакомства с информацией в Интернете, общения в социальных сетях и общения с родственниками и друзьями?», в % от числа опрошенных по каждому году

Источники информации

Оптимистический

Пессимистический

Трудно сказать

2020, XII

2023, VI

2024, IV

2020, XII

2023, VI

2024, IV

2020, XII

2023, VI

2024, IV

Общение с родственниками и друзьями

57

50

51

19

29

23

24

21

26

Передачи по телевидению

31

37

41

32

35

26

37

28

33

Общение в социальных сетях

26

29

33

19

34

26

55

37

41

Передачи по радио

17

27

30

21

28

23

62

45

47

Информация в интернете

13

22

24

31

45

33

56

33

43

Печатные СМИ

20

24

29

24

51

52

Образ будущего в целом

36

38

45

20

27

20

44

35

35

 

Знакомство с информацией в интернете вызывает наименьшее количество оптимистических настроений у граждан (24%). Пессимистические реакции сократились по сравнению с прошлым годом (45% в 2023 г., 33% в 2024 г.), однако общая картина осталась неизменной: информация из интернета чаще всего оставляет у россиян пессимистические настроения в сравнении с прочими источниками информации.

В целом следует отметить общий рост оптимистических настроений при получении информации из любых источников, а также снижение настроений пессимистических. В то же время этап «пика завышенных ожиданий» – согласно терминологии «кривой хайпа» (hype cycle) компании Gartner, используемой для оценки зрелости технологических проектов с точки зрения долгосрочной стратегии, – в отношении генеративного ИИ начал сменяться «пропастью разочарования» 11, т. е. периодом избавления от иллюзий. По мере роста количества и масштабов проектов чаще проявляются эффекты второго порядка. Как показывает практика, в том числе российская, столкновение с ними окончательно уводит от иллюзий относительно Deus Ex AI – ИИ как способа решения всех проблем и выводит на передний план общественного и научного дискурса проблемы рисков, безопасности, предупреждения негативных социальных последствий, устойчивого развития общества, государства, бизнеса. Это период разочарований, финансовых потерь, высокой вероятности провала проектов, необходимости калибровки задач, целей и финансовых запросов. Что говорить о небольших проектах в этот период, если даже OpenAI (разработчик ChatGPT) допускает возможность убытков в 5 млрд долларов по итогам 2024 г. 12?

Картину подтверждают и данные американской исследовательской компании RAND Corporation. Согласно отчету 2024 г., более 80% проектов в сфере ИИ терпят фиаско, что в два раза превышает средний показатель для технологических стартапов в других сферах 13. К числу причин аналитики относят, помимо прочего, несоответствие ожиданий руководства и реальных возможностей ИИ. Несмотря на неутешительную статистику, объем инвестиций в эту индустрию по всему миру не сокращается. Согласно отчету компании ZeroBounce по развитию индустрии ИИ среди лидирующих в отрасли стран мира, в США в период 2013–2024 гг. было создано более 5,5 тыс. стартапов в этой сфере. Объем частных инвестиций в отрасль в США только за 2023 г. составил 67,22 млрд долларов. Это на порядок больше показателей по Китаю, где в тот же период было создано 1,45 тыс. стартапов в сфере ИИ, а объем частных инвестиций за 2023 г. составил 7,76 млрд долларов. Подобная настойчивость на фоне провала более 80% проектов в данной сфере, говорит о единодушии представителей указанных стран с точкой зрения российского президента, высказанной по поводу ИИ еще в 2017 г.: «Тот, кто станет лидером в этой сфере, будет властелином мира» 14.

Попытки ликвидировать еще одну причину провалов ИИ-проектов, указанную в отчете RAND Corporation, – ограниченность вычислительных ресурсов – могут вызвать новые сложности финансового характера. Оперативный ввод в строй новых дата-центров для хранения и обработки больших массивов информации неизбежно вызовет рост потребления и, как следствие, удорожание электроэнергии. Что касается Америки, с ее объемами проектов в области ИИ, средние расценки на электричество в 2025 г. могут вырасти почти в 10 раз 15. Перечисленное в совокупности способствует росту тревожности и пониманию неоднозначности перспектив уже не только среди рядовых граждан – пользователей технологий, но и в среде разработчиков и представителей госуправления.

Заключение. В прогнозах технологического прорыва трансформация рынка труда выделялась аналитиками одним из ключевых социальных эффектов, специалисты составляли сценарии с перечнями основных hard- и soft-навыков, каталоги устаревающих и новых профессий. Логично, что после такой подготовки массовая популяризация нейросетей привела к ожиданиям трансформаций общественного мнения в первую очередь относительно структуры рынка труда. Однако практика показала, что, несмотря на широкое внедрение нейросетей и других технологий ИИ во многих сферах жизнедеятельности общества и государства, перспектива потери рабочих мест не стала столь актуальна. На первое место у представителей бизнеса и IT-разработчиков вышли опасения по поводу глобальной управляемости, надежности и безопасности технологий ИИ в масштабах цивилизации. У рядовых граждан актуализировались опасения по поводу достоверности получаемой информации, нарушения системных научных представлений о целостности окружающего мира, вызванного особенностями использования генеративного ИИ.

В условиях новых открывшихся публичных тревог и ожиданий, настроений и экспертных оценок представляется важным прогнозировать растущий в перспективе уровень социальной тревожности, вызванной возрастающей зыбкостью и неопределенностью картины материальной реальности, в которой любой элемент настоящего может оказаться подделкой, а историю становится возможным «переписать» благодаря квазиисторическим артефактам и цифровым мистификациям. Добавим, что разработка цифровых кодексов и иных нормативных регуляторных институтов и механизмов способствует снижению глобальных опасностей ИИ, однако пока не сказывается на динамике бытового мошенничества, использовании технологий и приложений злоумышленниками. По всей вероятности, продолжится рост социального неравенства, основанный на освоении бизнесом и мошенниками современных цифровых технологий и алгоритмов работы генеративного ИИ. Эти знания повысят как значимость человека на рынке труда, так и уровень его безопасности, экономической выживаемости в эпоху дипфейков. Мониторинг социально-политической обстановки и, в частности, оценка социальных настроений граждан в вопросах цифрового развития являются актуальным инструментарием для поиска резервов и принятия эффективных решений в сфере государственного управления, безопасности и социальной политики. Учитывая масштаб и характер информационных вызовов и угроз, вызванных высокой непредсказуемостью эффектов и динамики технологий развития нейросетей и ИИ, представляется своевременным рассмотреть на государственном уровне целесообразность усиления государственной функции защиты информационной безопасности. Функционал такой государственной службы может включать прогноз, развитие, контроль и защиту от актуальных и возможных ИИ-рисков и угроз, разработку мер оптимизации систем управления нейросетями в целях устойчивого развития российского общества и государства.

 

Исследование выполнено за счет гранта РНФ № 23-18-00438.

1 Регионы исследования: ЦФО (Владимирская область, Воронежская область, Московская область, Тульская область, Ярославская область, Москва), СЗФО (Архангельская область, Новгородская область, Санкт-Петербург), ЮФО (Республика Крым, Ростовская область), СКФО (Ставропольский край), ПФО (Республика Татарстан, Нижегородская область, Саратовская область), УрФО (Свердловская область, Челябинская область), СФО (Красноярский край, Иркутская область, Новосибирская область, Омская область), ДФО (Хабаровский край).

2 Keynes J. M. Economic Possibilities for our Grandchildren // Essays in Persuasion. N.Y.: W. W. Norton & Co, 1963. Р. 358–373. (цит. по: [Кейнс, 2009: 63]).

3 Указ Президента Российской Федерации от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации». URL: http://www.kremlin.ru/acts/bank/44731 (дата обращения: 07.11.2024).

4 Опрос: кому нужны IT-навыки не для смены профессии и сколько готовы платить за такие курсы. Skillbox Media. 11.09.2024. URL: https://skillbox.ru/media/education/opros-komu-nuzhny-itnavyki-ne-dlya-smeny-professii-i-skolko-gotovy-platit-za-takie-kursy/ (дата обращения: 07.11.2024).

5 Количество вакансий с требованием владения ИИ в 2025 году может вырасти на 25%. ТАСС. 28.09.2024. URL: https://tass.ru/ekonomika/21983427 (дата обращения: 01.10.2024).

6 Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве» и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных». URL: http://www.kremlin.ru/acts/bank/45475 (дата обращения: 07.11.2024).

7 Маск оценил риск гибели человечества из-за ИИ в 10–20%. КоммерсантЪ. 01.04.2024. URL: https://www.kommersant.ru/doc/6609530 (дата обращения: 01.10.2024).

8 В оригинале: “We also understand the serious risks posed by these technologies. These risks range from the further entrenchment of existing inequalities, to manipulation and misinformation, to the loss of control of autonomous AI systems potentially resulting in human extinction”. URL: https://righttowarn.ai (accessed 01.10.2024).

9 Этика искусственного интеллекта. ВЦИОМ. 03.09.2024. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/ehtika-iskusstvennogo-intellekta-2 (дата обращения: 01.10.2024).

10 Отчет «Информационные технологии в восприятии россиян – 2024». НИУ ВШЭ, РОМИР. URL: https://disk.yandex.ru/d/Nghpwt8f-qb_jQ (дата обращения: 01.10.2024).

11 Gartner 2024 Hype Cycle for Emerging Technologies Highlights Developer Productivity, Total Experience, AI and Security. Aug. 21, 2024. URL: https://www.gartner.com/en/newsroom/press-releases/2024-08-21-gartner-2024-hype-cycle-for-emerging-technologies-highlights-developer-productivity-total-experience-ai-and-security (accessed 01.10.2024).

12 OpenAI Faces Potential $5 Billion Losses Amid High Costs. July 25, 2024. URL: https://www.chatgptguide.ai/2024/07/25/openai-faces-potential-5-billion-losses-amid-high-costs/ (accessed 01.10.2024).

13 Ryseff J., De Bruhl B., Newberry S. J. The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed: research report. RAND. Aug. 13, 2024. URL: https://www.rand.org/pubs/research_reports/RRA2680-1.html (accessed 01.10.2024).

14 Открытый урок «Россия, устремленная в будущее». Ярославль, 1 сентября 2017. URL: http://kremlin.ru/events/president/news/55493 (дата обращения: 01.10.2024).

15 Lee J. AI Is About to Boost Power Bills – Who’ll Take Heat for That? The Wall Street Journal. Aug. 12, 2024. URL: https://www.wsj.com/business/energy-oil/ai-is-about-to-boost-power-billswholl-take-heat-for-that-c527f27b (accessed 01.10.2024).

×

作者简介

Victor Levashov

Institute of Socio-Political Research of FCTAS RAS

编辑信件的主要联系方式.
Email: levachov@mail.ru

Dr. Sci. (Sociol.), Director 

俄罗斯联邦, Moscow

Oksana Grebnyak

Institute of Socio-Political Research of FCTAS RAS

Email: oksananov@yandex.ru

Researcher

俄罗斯联邦, Moscow

参考

  1. Dubrovsky D. I. (2022) The Development of Artificial Intelligence and the Global Crisis of Earthly Civilization (to the Analysis of Socio-Humanitarian Problems). Filosofija nauki i tehniki [Philosophy of Science and Technology]. Vol. 27. No. 2: 100–107. doi: 10.21146/2413-9084-2022-27-2-100-107. (In Russ.)
  2. Ivanov D. V. (2000) Virtualization of Society. St. Petersburg, St. Petersburg Oriental Studies Centre. (In Russ.)
  3. Keynes J. M. (2009) Economic Possibilities for our Grandchildren. Voprosy Ekonomiki [Economic issues]. No. 6: 60–69. (In Russ.)
  4. Levashov V. K., Berezina N. V., Velikaya N. M. [et al.] (2024a) Russian Society and State: Foundations of Sustainability and Trends of Change. Social and socio-political situation. Moscow: FCTAS RAS. doi: 10.19181/monogr.978-5-89697-428-4.2024. (In Russ.)
  5. Levashov V. K., Velikaya N. M., Shushpanova I. S. [et al.] (2024b) How are you, Russia? Express information. 54 th stage of the sociological monitoring, April 2024. Moscow: FCTAS RAS. doi: 10.19181/monogr.978-5-89697-429-1.2024. (In Russ.)
  6. Levashov V. K., Grebnyak O. V. (2023) Russian Citizens on the Challenges of Artificial Intelligence, Neural Networks and Social Optimism. Sotsiologicheskie issledovaniya [Sociological Studies]. No. 11: 115–120. doi: 10.31857/S013216250028537–3. (In Russ.)
  7. Levashov V. K., Velikaya N. M., Shushpanova I. S. [et al.] (2023) How are you, Russia? Express information. 53rd stage of the sociological monitoring, June 2023. Moscow: FCTAS RAS. doi: 10.19181/monogr.978-5-89697-418-5.2023. (In Russ.)
  8. Vasilenko L. A., Meshcheryakova N. N. (2023) Digital Hybridity: Innovative Reality or Utopia? Filosofija nauki i tehniki [Philosophy of Science and Technology]. Vol. 28. No. 1: 48–65. doi: 10.21146/2413-9084-2023-28-1-48-65. (In Russ.)
  9. Volodenkov S. V., Fedorchenko S. N., Pechenkin N. M. (2023) Peculiarities of Worldview Formation in the Contemporary Digital Environment: The Analysis of Academic Discourses. Discourse-P. Vol. 20. No. 1: 8–26. doi: 10.17506/18179568_2023_20_1_8. (In Russ.)

版权所有 © Russian Academy of Sciences, 2024

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».