Вводящий в заблуждение контент ИИ включает в себя сфабрикованные факты, медицинские советы и мистификации о смерти знаменитостей, что вызывает новые опасения относительно того, что эта технология может усугубить проблему дезинформации в Интернете.
Опасения по поводу «плавающих» сайтов, использующих ИИ для распространения фейковых новостей, стали реальностью. Иллюстрация: GI
Оба отчета были опубликованы отдельно компанией NewsGuard, которая отслеживает онлайн-дезинформацию, и компанией ShadowDragon, которая предоставляет ресурсы и обучение для проведения цифровых расследований.
«Читатели всё больше не доверяют источникам новостей, отчасти потому, что не могут отличить надёжный источник от ненадёжного», — заявил Стивен Брилл, генеральный директор NewsGuard. «Эта новая волна сайтов, созданных искусственным интеллектом, только усложнит читателям задачу определения источника новостей, что ещё больше подорвёт доверие».
NewsGuard выявил 125 веб-сайтов, посвященных новостям и образу жизни, опубликованных на 10 языках, контент которых полностью или преимущественно написан с использованием инструментов ИИ.
Среди сайтов есть медицинский портал, который, по данным NewsGuard, опубликовал более 50 статей с медицинскими советами, созданных с помощью искусственного интеллекта.
NewsGuard сообщает, что сайты часто были переполнены рекламой, что позволяет предположить, что недостоверный контент создавался в качестве «кликбейтной» рекламы для владельцев сайтов, которые часто были полностью анонимны.
ShadowDragon также обнаружила неаутентичный контент на веб-сайтах и в социальных сетях, в том числе в Instagram и в отзывах на Amazon. Компания также указала на несколько аккаунтов в Instagram, которые, по всей видимости, использовали ChatGPT или другие инструменты искусственного интеллекта для создания описаний под фотографиями и видео .
Чтобы найти примеры, исследователи искали откровенную дезинформацию и шаблонные ответы, часто генерируемые инструментами искусственного интеллекта. Некоторые сайты даже не удаляли информацию, которую их ИИ-предупреждения выдавали после того, как им предлагалось написать статьи, содержащие дезинформацию или вредоносный контент.
ShadowDragon обнаружил подобные сообщения в социальной сети LinkedIn, посвящённой вакансиям, в публикациях в Twitter и во многих других социальных сетях. Некоторые публикации в Twitter были опубликованы ботами, такими как ReplyGPT, которые автоматически отвечают на комментарии пользователей.
Хоанг Хай (по данным NewsGuard, NYT)
Источник
Комментарий (0)