Discussion on the article by V.V. Ivanov, A.Yu. Nesterov, I.P. Yanchenko «Ethical and legal aspects of using generative artificial intelligence technologies in preparing qualification and scientific papers»

Cover Page

Cite item

Full Text

Abstract

The presented reviews on the article substantiate the authors’ opinions on the stated problem of using artificial intelligence from both the legal and ethical sides, make proposals on the use of AI in teaching students, on considering the possibilities of AI as an assistant, but not a replacement for the human mind, as one of the ways to develop higher education along the path of digital revolution and digitalization

Full Text

Искусственный интеллект в ящике Пандоры

А.Е. Бусыгин

доктор экономических наук, профессор

В рассматриваемой статье [Иванов, Нестеров, Янченко 2025] подняты важные и актуальные вопросы. Думается, что вал публикаций по данной проблематике будет нарастать. В еще большей степени будет расти число работ, посвященных путям развития высшего образования в эпоху, в которую вступает человечество. Эта даже не «информационная эра», наступающая после «цифровой революции». Это нечто более серьезное, более новое и во многом непонятное. Короче говоря, искусственный интеллект, который быстро развивается, пока еще скрыт от нас в ящике Пандоры. Чем он наполнен – благами или пороками, человечество пока не знает и будет постигать постепенно, методом проб и ошибок. Важно при этом, чтобы число ошибок не превысило критического уровня, за которым под угрозу будет поставлено будущее. Вот и в статье об использовании искусственного интеллекта при написании квалификационных и научных работ говорится о том, что мнения на этот счет разделились. Кто же прав? Сторонники или противники? Или истина не на стороне крайних позиций, а все зависит от поставленной цели: иной раз это допустимо, в другом случае – категорически запрещено, в третьем – даже целесообразно. При этом следует подчеркнуть, что, если речь идет о работах, которые пишутся обучаемыми с целью усвоения учебного материала и получения навыков изложения полученных знаний, запрет должен быть категорическим [Бермус, Сизова 2024].

Казалось бы: вопрос о том, могут ли студенты выдавать тексты, сгенерированные искусственным интеллектом, за написанные самостоятельно, кажется мелким на фоне глобального будущего. Но из миллиардов таких мелочей это будущее и будет складываться.

Статья хороша тем, что заставляет задуматься о многих проблемах высшего образования в нашей стране. Прежде всего о том, что оно в целом требует не просто совершенствования, а привнесения в него радикальных перемен. Взять хотя бы только квалификационные работы, которые пишут студенты. Их создание в условиях существования искусственного интеллекта, как представляется, должно отличаться от привычных, выработанных в течение десятилетий требований. Каковы должны быть эти требования? Над этим следует думать, пробовать, экспериментировать. Предоставить творческую свободу вузам. Авторы статьи абсолютно правы, когда пишут о возможности разных подходов в вузах, разработки локальных правовых актов, которыми регулировались бы проблемы написания квалификационных работ в современных условиях, когда их текст может быть сгенерирован искусственным интеллектом. Обобщение этого опыта могло бы лечь в основу разработки единого правового акта.

Главная сложность, мне кажется, – со студенческими курсовыми и дипломными работами. Что касается научных квалификационных работ (кандидатских и докторских диссертаций), в данном случае, как представляется, дело обстоит проще: есть неоспоримый критерий проверки качества выполненной работы – это наличие в ней научной новизны. Экспертиза, как показывает практика, может доказать ее наличие. Одно из основных требований, которые должны предъявляться к дипломным работам, – наличие в них научной новизны. В настоящее время, в соответствии с существующими ГОСТами, во введении к дипломной работе должно быть дано обоснование выбора темы дипломного исследования, его актуальности и новизны. Но не секрет, что к этому требованию часто относятся, я бы сказал, снисходительно. Это и делает возможным рерайт (переписывание) одного и того же (чуть видоизмененного) текста из диплома в диплом. Так что, очевидно, важно акцентировать внимание автора дипломной работы именно на этом, на новизне. Это – сфера ответственности научного руководителя. Что касается курсовых работ, то необходимо повышать требования к ним вплоть до достижения хотя бы элементов научной новизны, оригинальности авторского текста. Все это будет возможно только в случае радикального повышения норм педагогической нагрузки преподавателей, выделяемой на консультирование при написании студентами дипломных и курсовых работ. Ныне эти нормы смехотворны и уменьшены по сравнению с советским временем. Уверен, что изменение структуры педагогической нагрузки в пользу индивидуальной работы преподавателя со студентом – это самое важное, самое необходимое для раскрытия способностей молодых людей стройно, логично, аргументированно излагать свои мысли (о поистине громадной нагрузке преподавателей вузов и их неправомерно низких зарплатах я уже не говорю!). Можно с сарказмом добавить, что сегодня явным доказательством факта представления студентами квалификационной работы, составленной искусственным интеллектом, станет отсутствие в ней орфографических ошибок. Грамотность молодежи катастрофически падает. Но это уже другая серьезная проблема и связана с постановкой среднего образования и контроля его качества.

Авторы статьи, о которой идет речь, главное внимание сосредоточили на правовых аспектах использования искусственного интеллекта при написании квалификационных работ. Проблема эта действительно актуальна. В частности, много внимания в статье уделено вопросу возможности распознавания сгенерированного текста. Не являюсь специалистом в этой сфере, но тем не менее могу утверждать (как и многие другие), что с течением весьма краткого времени все более «продвинутый» искусственный интеллект будет создавать тексты, совершенно неотличимые от написанных человеком. Он и орфографические ошибки, и стилистические будет добавлять в тех пределах, которые сочтет разумными. Писал же А.С. Пушкин в «Евгении Онегине»: «Как уст румяных без улыбки / Без грамматической ошибки / Я русской речи не люблю». А искусственный интеллект обучается на лучших образцах.

Проблемы этические в статье занимают меньше места по сравнению с нормативными, но они представляются не менее важными, так как те и другие переплетены самым тесным образом. В частности, увеличение педагогической нагрузки на консультирование при написании студентами курсовых и дипломных работ оправдает себя только в том случае, если преподаватели будут консультировать с полной отдачей, действительно «отрабатывая» выделенные на консультации часы в контакте со студентами. Не секрет, что сегодня эти часы частенько просто «начисляются» преподавателям, а студенты предоставлены самим себе: время, отведенные на консультации с преподавателем, тратят на «сидение в Интернете» и общение с искусственным интеллектом.

Отношение студентов к использованию

искусственного интеллекта при написании курсовых работ и ВКР

Н.В. Авдошина

кандидат социологических наук, доцент

В статье [Иванов, Нестеров, Янченко 2025] авторы аргументируют свою однозначную позицию, заключающуюся в недопустимости использования генеративного искусственного интеллекта (далее – ИИ) при подготовке квалификационных и научных работ. Особый акцент делается на выпускных квалификационных работах студентов, а также диссертациях.

Междисциплинарная научная дискуссия, которая развернулась в этом тематическом поле, в целом демонстрирует различные точки зрения, отраженные в данной статье. Но все это – точки зрения только одного коллективного субъекта образовательного процесса – преподавателей. Мнение другого субъекта образовательного процесса – студентов – при этом не учитывается вообще, возможно, априори предполагается, что все студенты поголовно – за использование ИИ при написании ВКР.

А ведь есть в этой истории и третья сторона – сам ИИ…

Представляется, что без учета мнений всех указанных сторон дискуссия будет несколько однобокой, особенно если учитывать концепцию партнерских отношений «преподаватель – студент» в образовательном процессе (правда, об этой концепции в последние годы изрядно подзабыли…) [Трусов 2024; Букина 2025].

Мне представилось целесообразным выяснить у самих студентов, как они оценивают плюсы и минусы использования ИИ при написании курсовых работ и ВКР. Такую дискуссию я провела у бакалавров 3-го курса социологического факультета Самарского университета в рамках одного из семинарских занятий, а затем попросила их прислать мне эссе на эту тему. Думаю, что эти мнения станут «бальзамом» не только для моей души, поэтому позволю себе достаточно объемные цитаты с сохранением стилистики авторов. Я выбрала пять наиболее развернутых ответов на поставленный вопрос, ответы остальных студентов перекликаются с представленными далее.

Итак, вот что пишет один из студентов: «Для меня вопрос о том, стоит ли позволять студентам пользоваться ChatGPT в процессе написания курсовых и ВКР, не представляется дискуссионным. Применение нейросетей должно быть приравнено к плагиату или купленной работе, так как такого рода текст не принадлежит студенту. Автором в данном случае является «искусственный интеллект» (хотя, на мой взгляд, приложение по генерированию текстов вообще не стоит так называть). Во-первых университет как высшее учебное заведение, предполагает предоставление студентам некоторых важных компетенций, которые не касаются непосредственно специальности. Каждому образованному человеку нужно уметь читать, логически мыслить, анализировать информацию и делать выводы. Если студент не в состоянии построить несколько предложений и объединить их в текст, значит, существует проблема. С одной стороны, этот конкретный обучающийся, видимо, находится не на своем месте, с другой, получается, вместо того, чтобы исправить сложившуюся ситуацию (научить студента или, если дело совсем плохо, поставить вопрос об отчислении), нам предлагается, напротив, взращивать безграмотность. Во-вторых, использование нейросети позволяет студенту не получать необходимый и заложенный в образовательной программе объем информации, не говоря про ее качество. Погружаясь в тему курсовой или дипломной работы, мы неизбежно пропускаем через себя огромное количество текстов: знакомимся с разными точками зрения, ищем первоисточники, разбираемся и запоминаем. Используя ChatGPT, студент имеет возможность не работать с первоисточниками, не погружаться в материал, в конце концов, он может вообще не читать «собственную» работу. Таким образом, здесь упускается не только навык написания текстов, но и вопрос усвоения полученной информации (что уж точно важно для любого направления подготовки). Я против использования ChatGPT студентами не из-за извечного желания гуманитариев возразить технарям и даже не из чувства справедливости. Наш университет – престижное учебное заведение. Снижение планки в данном случае будет неизбежно связано со снижением квалификации (а также общих интеллектуальных способностей выпускников), как следствие – потерей статуса».

А вот мнение другого студента: «Не могу сказать, что я ярый сторонник повсеместного использования студентами ChatGPT в процессе обучения, но я и не противник этого. ChatGPT – это новый инструмент для быстрого поиска информации (хотя и не всегда качественной), которым так или иначе будут пользоваться (в том числе и студенты). По моему мнению, все зависит от того, как именно студент будет использовать GPT чат: будет ли он брать информацию только из этого источника или же рассматривать его как один из множества.

Я считаю, что если даже и запретить студентам его использовать, то запрет этот остановит немногих. Большинство тех, кто его использовал, – продолжат его использовать. Просто будут использовать также и другие программы для проверки и усложнения получаемых в GPT текстов. Особенно это будут делать студенты ‘‘компьютерных’’ специальностей.

Основным преимуществом этого инструмента я вижу скорость получения нужной информации (при корректном запросе). Темп жизни за последние десятилетия сильно изменился. Сейчас чем больше дел (иногда разных) человек может выполнить за короткий промежуток времени, тем он продуктивнее и успешнее. А для разных дел нужна разная информация, и чем быстрее человек сможет информацию найти и применить – тем он, опять же, будет продуктивнее и успешнее.

Я пока не знаю, до каких высот поднимется GPT чат в нашей жизни, но мне кажется, что появление GPT можно в какой-то степени сравнить с появлением в свое время повсеместного Интернета. Что Интернет тогда, что GPT сейчас заметно упрощали жизнь, и поэтому множество людей активно тянется к этим инструментам. В свое время, Интернет, как инструмент поиска информации, тоже критиковали. Аргументы против Интернета были в чем-то схожи с нынешними аргументами против GPT, однако, те люди, которые остались верны своим убеждениям о вреде Интернета и отказались от него (если такие есть), на длительном временном промежутке скорее проиграли от этого. Эта аналогия может быть применима и к GPT чату. Однако тут есть несколько но:

  • Во-первых, GPT чат может и не стать в будущем таким популярным, как я предполагаю, и умение пользоваться им останется для студентов специфическим навыком, который они использовали для упрощения своей студенческой жизни. Тут никто не знает наверняка;
  • Во-вторых, студент, если он использует GPT чат, как я уже говорил, не должен ограничиваться только им. Для качественного обучения необходимо использовать и другие (более подробные, качественные и авторитетные) источники информации, ну и, конечно, надо понимать, что это за информация, и критически ее оценивать».

Еще одна студентка считает так: «Применение чата GPT студентами в курсовых и ВКР имеет как положительные, так и отрицательные стороны. С одной стороны, использование данной технологии может значительно упростить процесс написания текстов. Нейронная сеть способна сгенерировать информативный и структурированный контент, что может быть полезно при оформлении научных работ. Однако следует отметить, что использование GPT может привести к утрате навыков самостоятельного анализа и формулирования мыслей. Вместо того, чтобы развивать свои интеллектуальные способности, студенты могут полагаться на искусственный интеллект при написании работ. Это может привести к снижению качества образования, поскольку важной составляющей учебного процесса является умение самостоятельно мыслить, анализировать и выражать свои мысли. Примером использования GPT студентами может служить ситуация, когда задание по курсовой работе или ВКР требует написания крупного объема текста на специализированную тему. В этом случае использование нейронной сети может значительно сократить время, затрачиваемое на написание работы. Однако следует помнить, что опираться исключительно на созданный искусственным интеллектом текст может быть опасно, так как не исключена возможность наличия ошибок или неточностей в информации.

Другим аспектом допустимости применения чата GPT является вопрос об оценке за работу, написанную с его использованием. Как правило, преподаватели оценивают не только содержание работы, но и способность студента анализировать информацию, выражать свои мысли и аргументировать свои выводы. Если студент воспользуется GPT для написания работы, это может вызвать вопросы о его академической честности и профессионализме».

А вот мнение четвертой студентки: «Возможности искусственного интеллекта, несомненно, ограничены, как минимум из-за того, что нейросеть не ‘‘думает’’ сама, а генерирует текст, исходя из той информации, которая доступна в Интернете. В таком случае, можно ли называть ее искусственным интеллектом, если она просто переписывает доступные данные? Этот вопрос вызывает дискуссии до сих пор. Но, несмотря на недостатки нейросетей, человек активно их использует. Вызвано это в первую очередь ленью или, возможно, личным энергосбережением, ведь тот же GPT способен обработать любую информацию, написать текст, провести анализ, и даже написать программный код. В таком случае зачем человеку напрягаться, ведь подобную рутинную работу может выполнить компьютер?

Если первая причина обоснована сбережением времени и сил, то вторая причина, а именно использование искусственного интеллекта в связи с неумением создавать те или иные материалы, весьма плачевна. Журналисты, не умеющие писать статьи от руки или от нажатия пальцем по кнопкам, социологи, которые не способны провести анализ и программисты, не способные написать код, – все они ждут нас в ближайшем будущем. К сожалению, проблема использования искусственного интеллекта обострилась именно сейчас из-за неспособности людей преобразовывать полученные от нейросети материалы. На мой взгляд, нейросети в открытом доступе появились слишком рано, из-за чего общество попросту не может их принять, тем более, пока что сохраняется страх чего-то нового. Более старшее поколение возмущено ленью младшего поколения, а младшее поколение счастливо, что может сэкономить свое время и потратить на игры или просмотр видео на том же устройстве, которое только что написало им доклад или решило задачу. Когда же наступит компромисс и нейросеть будет действительно цениться, а не прятаться за преобразователями текста? Думаю, на этот вопрос будет дан ответ тогда, когда старшее поколение станет лояльнее, а младшее более интеллектуальным и честным в первую очередь к себе.

Нейросеть – это, несомненно, помощник для тех, кому действительно нужна помощь в том или ином деле. Пользу искусственный интеллект приносит тогда, когда автор запроса не просто копирует текст из чата и вставляет в свою научную работу, а как минимум читает и вносит свои правки. В любом случае, использование нейросети всегда можно определить по тому, насколько хорошо автор устно может представить свою работу. На мой взгляд, нейросеть можно и нужно использовать только профессионалам и знающим свое дело людям (грамотные студенты входят в их число), ведь они используют искусственного помощника именно в качестве оказания помощи себе и в целях экономии времени, так как любой текст, написанный нейросетью, профи способен написать и сам, но нужно ли ему это, если такую простую работу может выполнить ИИ? Другое дело, если человек не может справиться с элементарной задачей и пользуется чатом GPT, способствуя прогрессу собственной деградации.

Таким образом, лично я выступаю за использование нейросетей в учебных процессах и не только в них. Сферу искусственного интеллекта необходимо развивать совместно с этикой его использования человеком. Может, хотя бы с экономией времени на написание текстов и решение других задач с помощью нейросетей у людей появится возможность заняться более важными делами например разрешением личных или даже глобальных проблем».

И наконец, мнение пятой участницы нашего опроса: «Безусловно, создание и внедрение в жизнь людей ChatGPT упрощает выполнение любых задач, но хочу выступить на стороне тех людей, которые выступают против использования нейростей в процессе обучения.

Аргументы против:

  1. Сужение кругозора человека и потеря навыков анализа.

Использование ChatGPT не предполагает анализа различной литературы самим обучающимся, он получает лишь результаты анализа искусственного интеллекта. Когда человек сам ищет материалы, он может узнавать что-то новое, ему могут попадаться интересные статьи, которые могут даже не относиться к теме исследования, однако они открывают ученику новые горизонты и расширяют его кругозор.

  1. Неполное рассмотрение темы исследования.

ChatGPT может предлагать только одну точку зрения на исследуемую проблему, а для полного и глубокого анализа важно учитывать и изучать проблему с разных точек зрения. Только такой подход может натолкнуть человека к выстраиванию собственного мнения по поводу темы своего исследования.

  1. Полная замена человеческого интеллекта искусственным интеллектом.

Если же дальше пойдет такая тенденция, что глубинные исследования и квалификационные работы студентов будут писаться ChatGPT, то есть ли необходимость человечества в обучении таких студентов? Менее затратно будет дальше пользоваться искусственным интеллектом, нежели обучать людей».

Прежде чем подводить итоги и делать выводы, я все же спросила и сам ИИ о плюсах и минусах его использования при написании научных работ. Понятно, что его мнение мы в дальнейшем учитывать не будем, но знать его довольно любопытно.

ИИ – о плюсах его использования при написании научных работ.

«1. Экономия времени. ИИ может ускорить процесс research и генерации текста, позволяя студентам сосредоточиться на других важных аспектах работы.

  1. Помощь в структурировании. ИИ может помочь в создании структуры работы и предложить идеи для разделов, что полезно для студентов, испытывающих трудности с планированием.
  2. Доступность информации. ИИ способен быстро обрабатывать и извлекать информацию из большого объема данных, что может быть полезно для сбора фактов и статистики.
  3. Повышение качества. Использование ИИ может помочь повысить уровень написания, предоставляя четкие и логичные формулировки.
  4. Креативные идеи. ИИ может генерировать уникальные идеи и подходы к теме, что может вдохновить студента на дальнейшие размышления».

ИИ – о минусах его использования при написании научных работ.

«1. Проблемы с плагиатом. Использование текста от ИИ без значительных изменений может привести к обвинениям в плагиате.

  1. Отсутствие оригинальности. Искусственный интеллект может создать текст, который не имеет глубокого понимания темы, что приводит к недостатку оригинальности.
  2. Этические вопросы. Использование ИИ может вызвать сомнения относительно честности и этики академической деятельности.
  3. Потеря навыков. Зависимость от ИИ может привести к снижению навыков написания, анализа и критического мышления у студентов.
  4. Необходимость в доработке. Сгенерированный текст может требовать значительных правок и дополнительных исследований, что может свести на нет преимущества использования ИИ. Перед использованием искусственного интеллекта важно понимать, как его возможности, так и ограничения».

Понятно, что проведенный опрос студентов не претендует на репрезентативность, возможно, студенты других направлений подготовки, например технических, не согласятся с социологами, у которых мы, преподаватели, на протяжении всего процесса обучения стремимся вырабатывать критическое мышление. Тем не менее эти материалы заставляют еще раз задуматься о том, что «наступление ИИ по всем фронтам» – это объективная неизбежность. А значит, надо вырабатывать этические правила «разумного симбиоза» с этим очередным шагом технического прогресса. Не случайно эта задача ставится уже во многих странах на государственном уровне (например, в ОАЭ создано специальное министерство по вопросам внедрения искусственного интеллекта).

На мой взгляд, назрела необходимость введения для студентов в обязательном порядке для всех направлений подготовки учебной дисциплины «Возможности и ограничения использования ИИ в учебном процессе». Причем читаться она должна сразу на 1-м курсе, чтобы сформировать у студентов правильное отношение к использованию ИИ. Очевидно, что при этом «на откуп» ИИ может быть отдан поиск необходимых для написания научной работы литературных источников, обработка больших массивов данных и т. д., то есть вся рутинная работа. Но написание текста – исключительно задача студента. Этому мы и должны учить, как в свое время все массово обучались на курсах по овладению навыками работы в Интернете. И, кстати сказать, такое обучение совершенно не лишним будет и для самих преподавателей при условии его конкретной практической направленности и очевидной полезности для научной работы [Гаркуша, Городова 2023].

Таким образом, ИИ должен стать полезным помощником, но не заменой человека, пишущего научную работу.

Применение искусственного интеллекта

в образовании как стадия процесса цифровизации

Д.Л. Головашкин

доктор физико-математических наук, профессор

Обсуждаемая статья [Иванов, Нестеров, Янченко 2025] посвящена проблематике применения искусственного интеллекта в образовании, в частности при подготовке квалификационных работ. Проблематике, известной из научно-фантастических романов Айзека Азимова и Станислова Лема, казавшейся широкой общественности в силу особенностей этого жанра чем-то весьма отдаленным во времени, однако достаточно неожиданно, несмотря на предупреждения упомянутых авторов, представшей перед педагогическим сообществом как уже оформившийся набор вызовов, требующих без всякого преувеличения немедленных ответов. Так, автор настоящего отзыва принужден обстоятельствами каждодневно иметь дело с текстами компьютерных программ (на лабораторных работах), математическими выкладками (на практических занятиях) и фрагментами квалификационных и научных работ (на встречах с дипломниками), сгенерированными ИИ и предлагаемыми студентами в качестве решения поставленных перед ними задач. Обсуждение перечисленных форм представления студенческих работ с их подателями неизбежно приводит к постановке этических вопросов, в силу чего опубликованная статья характеризуется высокой актуальностью.

Будучи согласным со всеми положениями из заключительного раздела «Проблема субъектности в свете ГИИ. Выводы» обсуждаемой работы, в настоящем отзыве автор в первую очередь укажет на уязвимые для критики тезисы из предшествующих разделов исключительно с целью подготовки более устойчивой к критике аргументации.

  1. Как следует из названия, статья посвящена в том числе и правовым аспектам применения ИИ; однако стоит ли рассматривать их как главные в упомянутой предметной области? Не секрет, что сторонники новых технических подходов (а ИИ это прежде всего вычислительная техника и ее программное обеспечение) к решению тех или иных задач рано или поздно добиваются под лозунгом «прогресс не остановить» формирования новой комплиментарной им законодательной базы. Заметим здесь в качестве контраргумента, что регресс (нисходящее движение исторического процесса) тоже до сих пор ни разу не поддавался остановке до исчерпания своего потенциала. Юридические же инструменты хороши для оформления уже сложившегося ответа на вызов ИИ, но не для формирования этого ответа по существу.
  2. Этические аспекты такого ответа в обсуждаемой статье хотя и упоминаются, но освещены достаточно скупо. Так, отсутствует главное – отсылка на конкретную этическую систему, в рамках которой рассматриваемая проблема подлежит решению. Выбор (или синтез новой) такой системы (или систем) является первоочередной задачей формируемого ответа. Наметившаяся тенденция регулировать использование ИИ с помощью самого ИИ через комплекс «Антиплагиат» и ему подобные имеет смысл исключительно как паллиативное средство в силу принципиальной невозможности серьезного решения этических проблем техническими устройствами (на каждый «Антиплагиат» вскоре появится свой «Антиантиплагиат»).
  3. Проведение авторами ряда экспериментов, безусловно, украшает статью и известным образом укрепляет выводы по ней (практика как критерий истины принимается большинством научного сообщества), однако количество таких экспериментов с точки зрения математической статистики представляется решительно недостаточным. Их результаты пока могут использоваться в аргументации исключительно в качестве контрпримеров и никак иначе. И то с оговоркой на время постановки экспериментов, ведь с тех пор системы ИИ значительно усовершенствовались.
  4. Авторская аргументация касательно закрытости кода на примере OpenAI 2024 к настоящему времени, с выходом DeepSeek, потеряла свою силу.

Во вторую очередь, отметим желательность учета контекста, на фоне которого разворачивается обсуждаемое внедрение ИИ в образовательный процесс. Разумеется, предлагаемый прием исследования может существенно усложнить рассмотрение, однако автор настоящего отзыва глубоко убежден в бесперспективности изучения проблемы вне такого контекста. Здесь под ним понимается цифровизация, определенная («давать вещам правильные имена и повторять их на всех базарах») как процесс, развивающийся следующим образом.

На первом этапе цифровизации между учителем и учеником устанавливается цифровой барьер: компьютерные тесты, электронные презентации, занятия через Интернет – все то, что служит подменой очному живому общению. В частности, автор настоящих строк вот уже который год вынужден читать большинство лекций удаленно, не видя студентов, фактически стене в своем кабинете. На этом этапе образовательный процесс начинает претерпевать искажения, ставящие под сомнение его смысл. Так, рассматривая преподавание как убеждение и пользуясь аристотелевской терминологией [Аристотель 2014], отметим полную непроницаемость цифрового барьера для этоса образовательного процесса и существенное искажение таковым барьером пафоса. Прошедший же через барьер логос сам по себе, без этоса и пафоса, уже не оказывает должного воздействия на обучаемого. С другой точки зрения, обращаясь к Фоме Кемпийскому [Фома Кемпийский 2021] и его идее подражания учителю учеником, отметим невозможность подражать тому, в бытийности которого возникают сомнения, раз преподавателя можно выключить. Рассматривая образовательный процесс с третьей позиции, как специфическую комбинацию разных типов времени: хроноса, кайроса и циклоса [Meyerhoff, Johnson, Braun 2011] (признаемся в большой приверженности этому методическому приему), укажем на крайнюю затруднительность переключения между ними в случае цифрового барьера. Таким образом, рискнем предположить, что цифровизация уже на первом своем этапе переводит многие педагогические методики из практикаблей в симулякры.

Второй этап сопровождается появлением ИИ по одну из сторон кафедры. Например, студенты интересуются допустимостью присутствия чат-бота на занятиях вместо них самих; выдают на лабораторных работах результаты, полученные с помощью ИИ, за собственные и т. п. С другой стороны, цифровая платформа «СберКласс» фактически подразумевает подмену, пусть пока и неполную, преподавателя ИИ. На этом этапе цифровизации искажения образовательного процесса принимают настолько кардинальный характер, что впору искать другое название этого действия. Обсуждаемая статья, собственно, и посвящена осмыслению указанного феномена в случае подмены студента ИИ при написании квалификационной работы. Заметим, что подмена преподавателя влечет за собой не менее значимые последствия.
В связи с этим возможно скорое появление понятия «цифровой маугли».

Следовательно, цифровизацию в целом и внедрение ИИ как ее часть в рамках образовательного процесса (а речь здесь исключительно о нем) можно рассматривать как дегуманизацию. Соответственно, движение в обратную сторону, если принимать диалектику и неизбежное отрицание отрицания, следует определить как гуманизацию и децифровизацию.

Третий, не менее важный предмет рассмотрения в настоящем отзыве, придающий смысл двум первым, это вопрос о целях образовательного процесса. Целях не декларируемых, а действительных, к которым процесс движется – неважно, под действием управляющих воздействий или сам по себе (и такое случается). Лишь в рамках задания цели либо оценки на соответствие заданной, можно давать характеристики цифровизации, в том числе этические, учитывая неразрывность целеполагания с этикой.

Самый низкий уровень целеполагания характеризуется временным интервалом в несколько лет (время одного образовательного цикла) и задается кратковременными интересами непосредственных потребителей. Например, нуждой промышленности в инженерных кадрах на настоящий момент. На среднем уровне (активный период жизни одного поколения, 30 лет) решается задача качественного воспроизводства преподавательских кадров, без чего неизбежна деградация высшей школы. Наконец, на высшем уровне (через несколько поколений) обеспечивается формирование человека и общества в соответствии с выбранной картиной будущего, обычно задаваемой вне системы образования и имеющей идеологическое (философское, религиозное) измерение.

Таким образом, определяющими оказываются вопросы относительно долговременных целей цифровизации. Какого человека и какое общество получим в результате замещения учителя и ученика в образовательном процессе искусственным интеллектом? В рамках какой этической системы давать оценку этому прогнозу? Необходима ли коррекция открывшейся в результате ответов на предыдущие вопросы цели? И, соответственно, что делать в рамках этой коррекции? На Западе ответы на эти вопросы, хотя бы отчасти, дает движение за медленное образование и медленную науку. Если ли у нас субъект внутри образовательного сообщества, способный предложить свои ответы и задать соответствующий им план действий...

×

About the authors

A. E. Busygin

independent researcher

Author for correspondence.
Email: busygin.andrei@gmail.com
ORCID iD: 0000-0002-2359-2155

Doctor of Economics, professor

Russian Federation, Moscow, Russian Federation

N. V. Avdoshina

Samara National Research University

Email: avdoshina.nv@ssau.ru
ORCID iD: 0000-0001-9117-7781

Candidate of Sociological Sciences, associate professor, associate professor of the Department of Sociology and Political Science

Russian Federation, 34, Moskovskoye shosse, Samara, 443086, Russian Federation

D. L. Golovashkin

Samara National Research University

Email: golovashkin2010@yandex.ru

Doctor of Physical and Mathematical Sciences, professor, head of the Department of Applied Mathematics

Russian Federation, 34, Moskovskoye shosse, Samara, 443086, Russian Federation

References

  1. Meyerhoff, Johnson, Braun 2011 – Meyerhoff E., Johnson E., Braun B. (2011) Time and the University. ACME: An International
  2. E- Journal for Critical Geographies, no. 10 (3), pp. 483–507.
  3. Yunis H. et al. 2018 – Yunis H. et al. (ed.). (2018) The Art of Rhetoric. Oxford University Press, 201 р. (In Eng.)
  4. Bermus, Sizova 2024 – Bermus A.G., Sizova E.V. (2024) Pedagogical, linguodidactic and psychological conditions of using ChatGPT in higher education: a systematic review. Koncept, no. 11, pp. 150–166. DOI: https://doi.org/10.24412/2304-120X-2024-11183. URL: https://e-koncept.ru/2024/241183.htm. (In Russ.)
  5. Bukina 2025 – Bukina T.V. (2025) Artificial Intelligence in Education: Current State and Development Prospects. Society: Sociology, Psychology, Pedagogics, no. 1, pp. 76–83. DOI: https://doi.org/10.24158/spp.2025.1.9. (In Russ.)
  6. Garkusha, Gorodova 2023 – Garkusha N.S., Gorodova Yu.S. (2023) Pedagogical opportunities of ChatGPT for developing cognitive activity of students. Vocational Education and Labour Market, vol. 11, no. 1, pp. 6–23. DOI: https://doi.org/10.52944/PORT.2023.52.1.001. (In Russ.)
  7. Ivanov, Nesterov, Yanchenko 2024 – Ivanov V.V., Nesterov A.Yu., Yanchenko I.P. (2024) Ethical and legal aspects of using generative artificial intelligence technologies in preparing qualification and scientific papers. Vestnik of Samara University. History, pedagogy, philology Vestnik of Samara University. History, pedagogics, philology, vol. 30, no. 4, pp. 23–32. DOI: http://doi.org/10.18287/2542-0445-2024-30-4-23-32. Available at: https://journals.ssau.ru/hpp/article/view/28116; https://elibrary.ru/item.asp?id=79659096. EDN: https://elibrary.ru/mohldi. (In Russ.)
  8. Trusov 2024 – Trusov S.V. (2024) Application of artificial intelligence tools by Russian students in preparing their final qualification work. Innovative Development of Vocational Education, no. 4 (44), pp. 45–53. Available at: https://cyberleninka.ru/article/n/primenenie-instrumentov-iskusstvennogo-intellekta-rossiyskimi-studentami-pri-podgotovke-vypusknoy-kvalifikatsionnoy-raboty/viewer. (In Russ.)
  9. a Kempis T. 2017 – a Kempis T. (2017) The Imitation of Christ. B&H Publishing Group, 343 p. (In Eng.)

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2025 Busygin A.E., Avdoshina N.V., Golovashkin D.L.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».