Доктор Ле Дуй Тан, преподаватель факультета информационных технологий Международного университета Вьетнамского национального университета в Хошимине и соучредитель AIoT Lab VN, заявил, что использование искусственного интеллекта студентами для поддержки своей учебы, выполнения заданий, подготовки отчетов и дипломных работ является распространенной тенденцией во всем мире .
Согласно глобальному опросу, проведенному Советом по цифровому образованию в 2024 году, примерно 86% студентов сообщили об использовании инструментов искусственного интеллекта в учебе; из них около 54% используют их еженедельно. Опрос, проведенный компанией Save My Exams в июне 2025 года, также показал, что 75% студентов используют ИИ для выполнения домашних заданий, при этом 24% используют его ежедневно и 44% — еженедельно.

Использование искусственного интеллекта студентами для поддержки своего обучения и исследований становится все более распространенным явлением.
ФОТО: НГОК ЛОНГ
Наряду с положительными аспектами, неизбежно, что некоторые студенты будут неправильно использовать инструменты искусственного интеллекта.
Использование ИИ для сокрытия ИИ
По словам доктора Ле Дуй Тана, некоторые студенты используют ИИ для выполнения заданий, написания отчетов и дипломных работ, не до конца понимая, как работает этот инструмент и каковы его ограничения. Это приводит к постепенной утрате ими навыков критического мышления, письма и самостоятельного проведения исследований.
Выступая на онлайн-мероприятии, организованном газетой Thanh Nien , доктор Динь Нгок Тхань, технический директор OpenEdu, заявил, что многие студенты используют такие инструменты, как ChatGPT, для решения домашних заданий вместо самостоятельного обучения, что создает впечатление «более легкого» процесса обучения. Однако это опасный подход, противоречащий образовательным принципам, поскольку цель образования состоит не только в выполнении заданий, но и в развитии критического мышления и навыков решения проблем.
Глава представительства компании Vietnam Artificial Intelligence Solutions Company (VAIS) в Южном регионе, г-н Фам Тан Ань Ву, заявил, что в период с 2022 по 2024 год тексты, сгенерированные ИИ, часто имеют легко узнаваемые «цифровые отпечатки». Стиль письма однообразен, лишен эмоций и повторяет знакомые структуры, такие как «не только… но и…», с шаблонными переходными фразами, такими как «кроме того», «более того», и всегда заканчивается натянутым «вкратце». Содержание безупречно чистое, с идеальной орфографией, а тенденция к перечислению пунктов с помощью маркированных списков — все это указывает на влияние ИИ.
Более серьёзная проблема заключается в контенте, генерируемом ИИ. Это феномен «галлюцинаций», когда ИИ фабрикует информацию, данные или даже источники, которых не существует. «Многие статьи, сгенерированные ИИ, похожи на компиляцию различных фрагментов кода, что приводит к непоследовательному стилю изложения и нелогичным абзацам», — заметил г-н Ву.
К 2025 году, чтобы преодолеть возможности инструментов обнаружения плагиата на основе искусственного интеллекта, студенты будут становиться все более искушенными. Возникла новая технологическая индустрия: инструменты персонификации текста на основе ИИ.
Студенты разработали процесс: сначала использовали ChatGPT для написания черновика, затем перенесли его в Quillbot для перефразирования и, наконец, использовали инструменты «персонификации», такие как Undetectable AI, чтобы удалить все следы. Некоторые студенты даже намеренно добавляли небольшие ошибки, чтобы текст выглядел более «естественным».
«На данном этапе определить, используется ли искусственный интеллект в эссе, и сравнить его с эссе, полностью написанным студентом, вероятно, невозможно, поскольку люди используют множество сложных уловок, чтобы обмануть как машины, так и преподавателей при проверке работ», — заявил г-н Ву.
С той же точки зрения доктор Ле Дуй Тан утверждает, что статьи, которые «слишком безупречны», не содержат орфографических ошибок, лишены личного опыта или доказательств и написаны монотонным стилем, вызывают серьезные подозрения.

Преподавателям очень сложно точно оценить реальные способности студентов, когда учащиеся используют ИИ для выполнения заданий, тестов, исследований и т. д.
Фото: TN создано с помощью ИИ
Разрыв между «виртуальной компетентностью» и реальными навыками.
По мнению экспертов, злоупотребление искусственным интеллектом со стороны студентов — это не просто списывание; это подрыв самих основ образования.
Г-н Фам Тан Ань Ву выразил свою главную обеспокоенность: риск того, что ИИ снизит способность студентов к самостоятельному и критическому мышлению. Потому что, как только они привыкнут решать задачи, получая мгновенные ответы от ИИ, они постепенно потеряют терпение к чтению и пониманию оригинальных документов или самостоятельному синтезу информации.
«Как однажды предупредил доцент Нгуен Чи Тхань, заведующий факультетом образования Вьетнамского национального университета в Ханое , существует риск превращения пользователей в «цифровых рабов» — состояние зависимости, подавляющее три сильнейшие человеческие способности: решение проблем, креативность и самообучение», — сказал г-н Ву.
Что еще опаснее, ИИ может создавать «иллюзию компетентности». Преподаватель литературы в Хошимине рассказала, что однажды обнаружила, что многие студенты использовали один и тот же инструмент ИИ для выполнения заданий, но когда их спрашивали о содержании, они не могли объяснить, что написали. Это показывает, что растущий разрыв между воспринимаемой компетентностью и реальными знаниями станет «бомбой замедленного действия», готовой взорваться, когда студенты закончат учебу и выйдут на рынок труда.
«Чрезмерное использование ИИ также делает традиционные методы оценки неэффективными. Домашние задания, такие как эссе и групповые отчеты, которые были призваны измерить исследовательские и логические способности, внезапно теряют смысл, что значительно затрудняет преподавателям точную оценку истинных способностей студентов», — подчеркнул этот преподаватель.
Поэтому доктор Ле Дуй Тан считает, что наиболее важным решением является перепроектирование метода оценки. Задания должны требовать от студентов начинать с составления личного плана, документирования процесса работы, анализа опыта, представления того, как они находили и проверяли информацию, или включать в себя сессию вопросов и ответов. Исследования показывают, что оценки, ориентированные на анализ, оценку и творчество, а не просто на обобщение, помогают снизить зависимость от ИИ на протяжении всего процесса.
«Чтобы оценить, насколько серьезно студент относится к учебе или эффективно использует ИИ, преподаватели должны изменить свои методы обучения, представляя тему студентам через три ключевых элемента: четкое понимание, прочное усвоение и глубокое осмысление. Только тогда они смогут по-настоящему развить у студентов навыки применения инструментов ИИ», — сказал г-н Ву.

Инструменты искусственного интеллекта помогают студентам создавать обзоры научных исследований, резюмировать научные статьи и многое другое.
Фото: Скриншот
Граница между помощью и мошенничеством
В контексте превращения ИИ в незаменимый инструмент вопрос «следует ли разрешать студентам использовать ИИ?» больше не актуален. Гораздо важнее определить границы использования ИИ в академической среде.
По словам г-на Фам Тан Ань Ву, эта граница лежит в цели, методе и отношении. Искусственный интеллект является разумным инструментом только тогда, когда используется для генерации идей, помощи в обобщении документов, проверки на ошибки или объяснения сложной терминологии. Студенты должны уметь «медленно читать», переоценивать информацию и брать на себя полную ответственность за содержание. И наоборот, если студенты дословно копируют весь или большую часть контента, сгенерированного ИИ, и представляют его как свою собственную работу, это является академическим мошенничеством.
Г-н Ву также утверждал, что искусственный интеллект следует признать важной компетенцией для студентов; вместо того чтобы подавлять его, следует признать важность ИИ и интегрировать его использование в программу обучения.
Что касается решений, доктор Дуй Тан предложил университетам и преподавателям разработать и четко объявить о политике использования ИИ в курсах, заданиях и дипломных работах. Например, в задании должно быть четко указано: «Студентам разрешается/запрещается использовать инструменты ИИ; если они используются, необходимо четко указать, какие части работают на основе ИИ, а какие — на основе собственных усилий студентов»; студентов следует обучать ответственному, этичному и эффективному использованию ИИ, не просто говоря «запрещено», а направляя их в использовании ИИ для проверки результатов, подтверждения данных, анализа и дальнейшего развития идей в области ИИ.
Необходима единая правовая база на национальном уровне.
По словам г-на Фам Тан Ань Ву, новаторские усилия университетов очень важны, но для достижения согласованных изменений нам необходим общий кодекс поведения и правовая база на национальном уровне. Мы не можем допустить ситуацию, когда злоупотребление ИИ может считаться обманом и приводить к нулевой оценке в одном университете, но быть приемлемым в другом.
Вьетнаму необходимо создать четкую правовую основу, базирующуюся на следующих принципах: соблюдение закона и этики; справедливость и недискриминация; прозрачность и подотчетность (кто несет ответственность за ошибки ИИ); и человекоцентричный подход (люди всегда сохраняют окончательный контроль).
Источник: https://thanhnien.vn/sinh-vien-dung-thu-thuat-de-che-dau-ai-185251211185713308.htm






Комментарий (0)