Технологии искусственного интеллекта (ИИ) в 2023 году получили в России новый виток развития. Президент РФ Владимир Путин на открытом уроке «Разговоры о важном» заявил, что ИИ в рамках образования пока может быть только инструментом в помощь педагогу, а в одном из московских вузов разрешили писать выпускные квалификационные работы (ВКР) с помощью чат-ботов. Рассмотрим, как технологическая сфера развивается в стране и какие опасения высказывают эксперты и учёные.
Внедрение в учебный процесс
Об использовании нейросетей студентами при написании курсовых и дипломных работ активно заговорили после инцидента в Российском государственном гуманитарном университете. Выпускник вуза Александр Жадан заявил, что написал диплом с помощью искусственного интеллекта. Чат-бот ChatGPT за 23 часа сгенерировал 60 страниц работы, а также все её составляющие: введение, заключение и список литературы. Александр пояснил, что полностью понимает её содержание, и с помощью ИИ лишь ускорил процесс написания. Оригинальность такой выпускной квалификационной работы (ВКР) составила 70 %. После этого работники РГГУ выступили с предложением ограничить школьникам и студентам доступ к нейросетям. По мнению преподавателей, искусственный интеллект может негативно воздействовать на образовательный процесс, а также предлагать опасный контент.
А самому Александру Жадану по окончании университета и успешной защиты ВКР предложили занять должность нейросетолога в «М.Видео». Молодой человек нашёл применение навыкам: пишет тексты с помощью чат-бота от компании OpenAI и генерирует иллюстрации через Midjourney.
Иная ситуация сложилась в Московском городском педагогическом университете (МГПУ). Выпускникам МГПУ при написании ВКР разрешили использовать материалы, предоставленные им нейросетями, но лишь при условии дальнейшего самостоятельного анализа и переработки.
– Главная задача образовательных учреждений сейчас состоит в том, чтобы научить подрастающее поколение грамотно пользоваться искусственным интеллектом, – заявил ректор МГПУ Игорь Реморенко.
От первого лица
– Искусственный интеллект пока может быть только инструментом в помощь педагогу, – заявил Путин на открытом уроке «Разговор о важном».
Глава государства выступил в первую очередь за сохранение прямого контакта между учеником и учителем и напомнил об угрозах, которые могут нести алгоритмы нейросетей. Также Владимир Путин отметил, что искусственный интеллект будет хорошим подспорьем для преподавателя, и при правильном использовании технология может положительно повлиять на образовательный процесс.
Искусственный интеллект сейчас осваивает те профессии, где раньше было необходимо присутствие человека. Кроме того, он делает это более качественно и экономично, заявил глава Сбербанка Герман Греф ещё в июле 2018 года во время выступления перед студентами Балтийского федерального университета имени Канта.
– Мы перестаём нанимать юристов, которые не знают, что делать с нейронной сетью. Вы – студенты прошлого. Коллеги-юристы, забудьте свою профессию! В прошлом году 450 юристов, занимавшихся подготовкой исков, были уволены. У нас нейронная сеть составляет исковые заявления лучше, чем юристы, обученные в Балтийском федеральном университете. Таких кандидатов мы точно не возьмём на работу, – отметил он.
В ногу со временем
По результатам опроса Mediacom.Expert, 74 % учеников в России заявили о желании изучать в школе алгоритмы работы искусственного интеллекта. В опросе, проведённом с помощью онлайн-панели Anketolog.ru, приняли участие 2740 российских школьников в возрасте от 6 до 18 лет.
По данным исследования ИОМ «Анкетолог», 41 % россиян видят угрозу в ChatGPT и считают, что у его работы могут быть негативные последствия. Среди опрошенных старше 55 лет такой позиции придерживаются 46 %, а среди респондентов 18-25 лет – 36 %. По мнению 42 %, разработку нейросети вообще нужно ограничить или остановить.
После появления нейросетей в сфере образования некоторые страны, в числе которых и Россия, разработали аналоги «Антиплагиата», способные распознать текст, написанный машиной. Такие сервисы уже были представлены несколькими компаниями. Однако стоит отметить, что работа над ними всё ещё продолжается.
С недавнего времени появился и сервис Classifier от OpenAI, распознающий сгенерированные нейросетью тексты. Однако лишь в 26 % случаев алгоритмы работают верно, а 9 % работ, написанных человеком, по ошибке считаются плагиатом. Таким образом, на помощь искусственного интеллекта в борьбе против него самого надеяться пока не стоит.
Зарубежный опыт
Стоит отметить, что за рубежом нередко принимают радикальные меры в борьбе с нейросетями. Университет Токио запретил студентам защищать научные работы, написанные при помощи ChatGPT. Вслед за Японией ограничили использование искусственного интеллекта и в Институте политических исследований в Париже. Руководство учреждения заявило, что программное обеспечение без прозрачных ссылок запрещается использовать в работах любых видов, за исключением определённых заданий.
При этом в других странах ChatGPT активно используют сами педагоги. Причём, судя по результатам опросов, делают это даже чаще, чем ученики. Например, исследование, проведённое по заказу Фонда семьи Уолтон, показало, что в США 51 % учителей используют чат-бот для составления планов учебных занятий и поиска дополнительных материалов. Для сравнения: по результатам опроса, лишь 33 % американских учащихся прибегают к использованию нейросетей.
Кроме того, преподаватель естественных наук из Индианаполиса Ронак Шах устроил соревнование между школьниками и искусственным интеллектом. Мужчина поручил ученикам найти и исправить все ошибки в эссе, автором которого была нейросеть. Как оказалось, допущены были не только огрехи в орфографии и пунктуации – одна из учениц выяснила, что авторская цитата была выдумана.
Планы на будущее
В конце марта 2023 года американский предприниматель Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк подписали открытое письмо, в котором выразили свои опасения и потребовали остановить разработку и обучение нейросетей. По их словам, результаты научных исследований говорят о том, что искусственный интеллект может представлять угрозу для общества.
Однако российские учёные призвали общество не поддаваться панике. По словам профессора кафедры ИУ10 «Защита информации» МГТУ имени Н.Э. Баумана, опасность может представлять только способ применения искусственного интеллекта:
– Я сомневаюсь, что нейросеть может вести себя не так, как задумано. Но я уверен, что исходную задумку злоумышленник может существенно изменить.
Настоящая опасность таких алгоритмов заключается в том, что недоброжелатели могут наполнять электронные источники информации фейками, уточнил исследователь.
Что касается системы образования, то мы можем лишь наблюдать за тем, как постепенно меняется подход к обучению – повышается качество полученной информации, ускоряется процесс её усвоения. При этом стоит помнить, что нейросети не могут полностью исключить человеческий фактор, так как без него невозможно развитие критического мышления, получение коммуникативных и социальных навыков.
Дарья Колесникова