Потенциальные риски распространения дезинформации
Наука и технологии не только влияют на то, как пресса и средства массовой информации передают свои сообщения, влияют и обуславливают способ и эффективность доступа общественности, но и оказывают глубокое воздействие на качество информации.
Фактически, журналистика смогла быстро адаптироваться к технологическим инновациям, особенно в последние годы. Искусственный интеллект (ИИ) постепенно стал популярным в средствах массовой информации и редакциях новостных агентств. Применение ИИ принесло пользу как журналистам, так и самим медиаорганизациям. Он освобождает журналистов от утомительной повседневной работы, помогая им экономить время и сосредоточиться на более творческой и высококвалифицированной работе.
Несмотря на множество преимуществ, ИИ вызывает и некоторые опасения. Один из самых серьёзных рисков — это потенциальная возможность распространения дезинформации с помощью контента, создаваемого ИИ.
Десять крупнейших мировых информационных агентств призывают к проведению коллективных и прозрачных переговоров между СМИ и разработчиками ИИ, чтобы контролировать, какие материалы, защищенные авторским правом, могут использоваться при обучении инструментов ИИ, а также исключить предвзятость в алгоритмах ИИ.
На прошлой неделе 10 ведущих мировых информационных агентств подписали письмо с призывом к прозрачности и принятию чётких законов об авторском праве в отношении ИИ. Информационные агентства утверждают, что ИИ может «поставить под угрозу устойчивость медиаэкосистемы», значительно подрывая доверие читателей к качеству и достоверности новостей.
Согласно многочисленным исследованиям, ИИ может использоваться для фильтрации и отбора материалов, наиболее привлекательных для читателей и вызывающих интерес, создавая тем самым дисбаланс в новостях, которого не было бы, если бы материалы представлялись объективно, создаваемыми людьми. Общественность видит только одну сторону истории, и, следовательно, может ориентироваться на однобокую информацию, генерируемую ИИ. Более того, ИИ может использоваться для распространения дезинформации и фейковых новостей, представляя выдуманные истории наряду с реальными.
ИИ также может быть уязвим к фейковым новостям. Алгоритмы ИИ разработаны для быстрой и точной обработки данных, поэтому отличить реальные новости от фейковых сложно. Более того, ИИ не способен понимать эмоциональные и моральные аспекты обрабатываемых им новостей. По мере развития ИИ его уязвимость к фейковым новостям будет возрастать, что ещё больше усложнит различение реальности и фейка.
По словам доцента доктора Нгуена Нгок Оаня, заведующего кафедрой международных отношений Академии журналистики и коммуникаций, когда искусственный интеллект набирает силу, нам необходимо уделять особое внимание и действовать на опережение, чтобы противостоять риску использования ИИ злоумышленниками и враждебными силами для распространения вредоносных и фейковых новостей. С точки зрения безопасности СМИ это демонстрирует потенциальный риск дезинформации, искажения информации и фейковых новостей. Применение искусственного интеллекта в информационной сфере позволит фальсифицировать голоса, изображения, создавать фейковые истории и заявления, которые кажутся правдой, для обмана общественности, особенно в социальных сетях.
«Лица с дурными намерениями пользуются ролью и престижем прессы, чтобы фальсифицировать информацию, вводя общественность в заблуждение, что это информация, предоставленная и отраженная в прессе. Разработка фейковых новостей будет становиться все более изощренной и сложной, поэтому, наряду с повышением бдительности, методы выявления, реагирования и обработки фейковых новостей должны быть направлены на инвестиции в интеллектуальные технологии и систематическую борьбу с ними. Необходимо улучшить возможности управления социальными сетями и информационными агентствами, чтобы адаптироваться к изменениям», — прокомментировал доцент, доктор Нгуен Нгок Оань.
Новостная индустрия должна найти способы защиты своего творческого контента.
С момента запуска ChatGPT в ноябре 2022 года новые приложения на основе генеративного ИИ появляются практически ежедневно. В результате интернет переполнен контентом, создаваемым с помощью ИИ. Среди контента есть и поражающий воображение, и пресный, однообразный. Это облегчает распространение дезинформации и усложняет задачу медиаиндустрии по завоеванию и восстановлению доверия читателей.
Журналист Нгуен Хоанг Нят, заместитель главного редактора газеты Vietnamplus, вспомнил уроки прошлого, когда многие эксперты говорили, что одной из первых серьёзных ошибок прессы было слишком медленное реагирование на важность и нашествие социальных сетей. «Мы долгое время размещали весь свой контент в социальных сетях, меняя наши основные принципы, чтобы служить им, что порой не соответствует ни нашей сильной стороне, ни потребностям читателей. Короче говоря, мы дали слишком много власти социальным сетям, и это привело к тому, что они развернулись и поглотили нас», — сказал журналист Нгуен Хоанг Нят.
В дни, когда женская сборная Вьетнама выступала на чемпионате мира, социальные сети были переполнены источниками, распространявшими искажённую и сфабрикованную информацию. (Фото: VTC)
Рассматривая текущую угрозу со стороны ИИ, журналист Нгуен Хоанг Нят отметил, что в целом ИИ помогает редакциям быстрее выполнять свою работу и экономить средства, но при этом редакторы и журналисты становятся более снисходительными, а также способствует более быстрому распространению ложной информации. «Например, во время недавнего чемпионата мира по футболу среди женщин фейковый контент о женской сборной Вьетнама стал невероятно «вирусным» благодаря мемам, созданным с помощью инструментов на основе ИИ, что привело к тому, что общая психология определённой части аудитории дошла до крайностей», — привёл пример журналист Нгуен Хоанг Нят.
За рубежом News Guard опубликовала шокирующую статистику: 347 новостных сайтов выглядят как настоящие, но содержат контент, созданный искусственным интеллектом, и распространяют дезинформацию. Недавнее исследование Массачусетского технологического института (MIT) показало, что люди чаще верят дезинформации, созданной искусственным интеллектом, чем фейковым новостям, созданным человеком.
По словам журналиста Нгуена Хоанг Нхата, эта реальность ставит новостную индустрию в положение, когда она должна искать способы защиты своего творческого контента и интеллектуальной собственности, но не может отказаться от удобств, которые приносит ИИ.
Оценивая проблемы, связанные с честностью новостей, доцент Нгуен Нгок Оань отметил, что, хотя Chat GPT обладает множеством выдающихся возможностей, в конечном счёте, это всего лишь инструмент, которым журналисты должны овладеть, чтобы использовать его в своей профессиональной деятельности для создания материалов и выпуска продукции в соответствии с принципами профессии. Вопрос проверки источников информации репортёров и журналистов крайне важен, если они не хотят «помогать» распространению недостоверной информации.
В ходе многочисленных семинаров и дискуссий, посвященных искусственному интеллекту, был сделан вывод о том, что риск использования фейковых данных и новостей в журналистских работах очень высок, если управление контентом в редакции не поспевает за развитием цифровых технологий . В условиях, когда правовое поле для цифровой журналистики во Вьетнаме пока не поспевает за реальностью, юридические проблемы, угрозы безопасности СМИ, случаи нарушения авторских прав и споры о журналистской этике, социальной ответственности прессы при применении автоматизированных технологий... являются сегодня серьезными вызовами.
Фан Хоа Жанг
Источник
Комментарий (0)