
Недавние инциденты, связанные с предвзятостью и фальсификацией документов, заставили ученых пересмотреть надлежащий уровень участия ИИ в исследованиях.
Недавно профессор, доктор лингвистики Нгуен Ван Хиеп поделился на своей личной странице историей, которая шокировала читателей. Он обнаружил, что искусственный интеллект подделал его документы, используя информацию, присланную другом. Он также случайно обнаружил, что статья доцента, доктора наук Чан Ван Ко также была подделана искусственным интеллектом.
ИИ стал неотъемлемой частью жизни человека, однако эксперты неизменно подчёркивают, что ИИ следует рассматривать лишь как вспомогательный инструмент. Пользователи ИИ должны быть бдительными и компетентными, чтобы обрабатывать данные и оценивать результаты, полученные после «сотрудничества» с ИИ. Многочисленные исследования, особенно в научных исследованиях, показали, что самая большая проблема, требующая бдительности, — это предвзятость данных и моделей. ИИ может быть предвзятым, искажать результаты анализа, создавать предрассудки или дискриминацию и манипулировать информацией, если его не контролировать должным образом.
В частности, использование ИИ в исследованиях в области социальных наук требует гораздо большей осторожности. Поскольку такие области социальных наук, как философия, лингвистика, этнология, история и т. д., рассматривают человеческое поведение, культуру и поведение в качестве объектов исследования, данные часто тесно связаны с вьетнамским социокультурным контекстом, обладая глубиной и спецификой. Если данные обучения ИИ отражают исторические предрассудки, возникает опасность того, что ИИ сделает выводы, усугубляющие проблемы неравенства между полами, классами, расами или географическими регионами. Риск ещё больше возрастает, когда ИИ используется для анализа человеческого поведения, участия в открытых опросах или участия в создании медиаконтента.
По мнению некоторых экспертов в области социальных наук, в настоящее время ИИ испытывает трудности с доступом к защищенным авторским правом или платным источникам данных, что приводит к неполному обновлению информации.
Феномен фальсификации документов для создания правдоподобных историй часто встречается в менее популярных темах, на языках с ограниченными источниками данных, таких как вьетнамский, и о нём следует сообщать пользователям. Системы искусственного интеллекта в целом в настоящее время крайне ограничены в понимании социального и культурного контекста, поэтому их помощь в интерпретации неоднозначных, насыщенных метафорами знаний в области социальных наук не является надёжной.
Несмотря на то, что ИИ открывает большие возможности для научных исследований, его применение требует большой осторожности, имеет ограничения и всегда должно идти рука об руку со способностью исследователя к критическому мышлению.
Очевидно, что, несмотря на большой потенциал в научных исследованиях, применение ИИ должно быть крайне осторожным, ограниченным и всегда сопровождаться критическим подходом исследователя. Субъект, использующий ИИ, должен чётко понимать эти ограничения при использовании ИИ, гарантируя, что ИИ не изменит основные ценности науки. Для защиты целостности научных исследований роль и ответственность учёных должны быть подняты на новый уровень. Кроме того, необходимо предложить юридически обязывающую этическую структуру применения ИИ в контексте вьетнамской культуры, традиций и социальных норм.
У нас есть система из девяти принципов, направленная на содействие исследованиям и разработкам безопасных и ответственных систем искусственного интеллекта, ограничение негативных последствий и контроль рисков, предложенная Министерством науки и технологий . В ней особое внимание уделяется безопасности данных, уважению прав и достоинства человека, а также ответственности пользователей искусственного интеллекта. В частности, в области научных исследований Государственный совет профессоров также опубликовал в 2023 году официальное распоряжение № 25/HDGSNN, в котором он предписал советам профессоров и организациям по оценке качества научных работ уделять особое внимание выявлению и оценке работ, в которых используются или используются технологии искусственного интеллекта. Эти требования направлены на обеспечение соответствия результатов исследований с использованием искусственного интеллекта научным стандартам, предотвращая злоупотребление ИИ в научных исследованиях и публикациях.
В ближайшее время, когда будет принят Закон об искусственном интеллекте, содержащий строгие правила, касающиеся этики и ответственности при использовании ИИ, он будет способствовать созданию здоровой среды для развития ИИ, обеспечивая более активную и ответственную поддержку ученых в исследовательской работе.
Источник: https://nhandan.vn/canh-giac-voi-mat-trai-cua-ai-post916545.html
Комментарий (0)