Vietnam.vn - Nền tảng quảng bá Việt Nam

Война Израиля и ХАМАС: опасность фейковых изображений, созданных искусственным интеллектом

Công LuậnCông Luận11/11/2023


Как работают поддельные изображения ИИ?

В наши дни ИИ повсюду – даже на войне. Приложения искусственного интеллекта в этом году настолько усовершенствовались, что почти каждый может использовать генераторы ИИ для создания изображений, которые выглядят реалистично, по крайней мере, на первый взгляд.

Израильские бойцы ХАМАСа подвергаются опасности из-за фейковых фотографий, созданных кем-то. Изображение 1

Созданная искусственным интеллектом фейковая фотография войны в Газе.

Пользователи просто дают таким инструментам, как Midjourney или Dall-E, несколько подсказок, включая спецификации и информацию, чтобы сделать это. Затем инструменты ИИ преобразуют текстовые или даже голосовые подсказки в изображения.

Этот процесс генерации изображений основан на так называемом машинном обучении. Например, если создатель просит показать 70-летнего мужчину, едущего на велосипеде, он будет искать в своей базе данных термины, чтобы сопоставить их с изображениями.

На основе имеющейся информации алгоритм ИИ сгенерирует изображения пожилого велосипедиста. Благодаря все большему количеству входных данных и техническим обновлениям эти инструменты значительно улучшились и постоянно обучаются.

Все это применяется к изображениям, связанным с конфликтом на Ближнем Востоке. В конфликте, где «накал эмоций так высок», дезинформация, в том числе распространяемая через изображения ИИ, оказывает огромное влияние, говорит эксперт по ИИ Хани Фарид.

Фарид, профессор цифровой аналитики Калифорнийского университета в Беркли, считает, что ожесточенные бои являются идеальной питательной средой для создания и распространения фейкового контента, а также для нагнетания эмоций.

Изображения войны Израиля и ХАМАС, полученные с помощью искусственного интеллекта

Изображения и видео, созданные с помощью искусственного интеллекта, подпитывают дезинформацию, связанную с войной на Украине, и то же самое продолжается в войне Израиля и ХАМАС.

По мнению экспертов, циркулирующие в социальных сетях изображения ИИ о войне часто делятся на две категории. Одна фокусируется на человеческих страданиях и вызывает сочувствие. Другая — фейковый ИИ, который преувеличивает события, тем самым разжигая конфликт и эскалацию насилия.

Израильские бойцы ХАМАСа подвергаются опасности из-за поддельных фотографий, созданных кем-то. Изображение 2

Созданная искусственным интеллектом фейковая фотография отца и ребенка среди завалов в секторе Газа.

Например, первая категория включает в себя фото выше, на котором изображен отец и его пятеро детей перед кучей мусора. Оно было многократно распространено в X (ранее Twitter) и Instagram и просмотрено сотни тысяч раз.

Это изображение было отмечено сообществом, по крайней мере на X, как подделка. Его можно распознать по различным ошибкам и несоответствиям, характерным для изображений ИИ (см. изображение выше).

Похожие аномалии можно увидеть и на фейковом изображении ИИ, которое стало вирусным на сайте X ниже. На нем якобы изображена палестинская семья, обедающая вместе на руинах.

Израильские бойцы ХАМАСа находятся в опасности из-за этих фейковых фотографий, созданных кем-то. Изображение 3

Сгенерированная искусственным интеллектом фейковая фотография палестинской вечеринки.

Между тем, еще одно изображение, на котором солдаты размахивают израильскими флагами, маршируя по поселению, заполненному разбомбленными домами, относится ко второй категории и призвано разжигать ненависть и насилие.

Откуда берутся такие ИИ-изображения?

Большинство изображений конфликтов, созданных с помощью ИИ, публикуются на платформах социальных сетей, но они также доступны на ряде других платформ и организаций, и даже на некоторых новостных сайтах.

Компания-разработчик программного обеспечения Adobe произвела фурор, добавив к своему ассортименту стоковых фотографий к концу 2022 года изображения, созданные с помощью искусственного интеллекта. В базе данных они помечены соответствующим образом.

Adobe теперь также предлагает на продажу созданные с помощью искусственного интеллекта изображения войны на Ближнем Востоке — например, взрывы, протестующие или клубы дыма за мечетью Аль-Акса.

Израильские бойцы ХАМАСа подвергаются опасности из-за фейковых фотографий, созданных кем-то. Изображение 4

Adobe предлагает созданные с помощью искусственного интеллекта изображения боевых действий в секторе Газа.

Критики сочли это тревожным, поскольку некоторые сайты продолжали использовать изображения, не помечая их как сгенерированные ИИ. Например, изображение, размещенное на странице «Newsbreak», не имело никаких указаний на то, что оно было сгенерировано с помощью ИИ.

Даже Европейская парламентская исследовательская служба, научное подразделение Европейского парламента, проиллюстрировала онлайн-документ о конфликте на Ближнем Востоке изображением из базы данных Adobe, созданным с помощью ИИ, — не пометив его как созданное с помощью ИИ.

Европейская обсерватория цифровых медиа призывает журналистов и специалистов в области СМИ быть предельно осторожными при использовании изображений, полученных с помощью искусственного интеллекта, и рекомендует воздержаться от их использования, особенно при освещении реальных событий, таких как война в секторе Газа.

Насколько опасны изображения, созданные с помощью ИИ?

Вирусный контент и изображения ИИ обязательно заставят пользователей чувствовать себя неловко из-за всего, с чем они сталкиваются в сети. «Если мы попадем в этот мир, где изображения, аудио и видео могут быть подвергнуты манипуляциям , все станет подозрительным», — объясняет исследователь Калифорнийского университета в Беркли Фарид. «Так что вы теряете доверие ко всему, включая правду».

Именно это и произошло в следующем случае: премьер-министр Израиля Биньямин Нетаньяху и несколько других политиков поделились в социальных сетях фотографией, предположительно, обугленного тела израильского ребенка.

Антиизраильский инфлюенсер Джексон Хинкль позже заявил, что изображение было создано с помощью искусственного интеллекта. Заявление Хинкля было просмотрено более 20 миллионов раз в социальных сетях и привело к бурным дебатам на платформе.

В конечном итоге, многие организации и инструменты проверки заявили, что изображение было реальным, а утверждение Хинкля ложным. Однако очевидно, что ни один инструмент не может помочь пользователям легко вернуть утраченное доверие!

Хоанг Хай (по данным DW)



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

Прекрасный восход солнца над морями Вьетнама
Величественная пещерная арка в Ту Лан
Лотосовый чай — ароматный подарок от жителей Ханоя
Сегодня утром более 18 000 пагод по всей стране звонили в колокола и барабаны, молясь за мир и процветание нации.

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт