Google Lens — поисковая система изображений, разработанная Google. Фото: KLMOBILE
По данным Full Fact, вышеуказанные случаи касаются видеороликов, предположительно посвященных войне на Украине и в секторе Газа, конфликту между Индией и Пакистаном, крушению самолета Air India в июне 2025 года и иммигрантам, прибывающим в Великобританию на небольших лодках.
Full Fact использовал Google Lens для поиска скриншотов из ложных видеороликов, факты в которых они проверили.
Как минимум в 10 случаях ИИ-сводки не смогли распознать фейковый контент, даже повторив ту же дезинформацию, что и в социальных сетях.
В четырёх примерах обзор ИИ дословно повторяет ложные утверждения, которые Full Fact уже опроверг. Кроме того, сводные результаты ИИ могут меняться при каждом поиске, даже для одного и того же изображения, что приводит к противоречивой информации.
Google признает, что некоторые из этих ошибок могут возникать, утверждая, что они возникают из-за результатов поиска изображений, а не из-за системы обзора ИИ.
По данным Google, результаты поиска изображений могут включать веб-источники или сообщения в социальных сетях, содержащие как совпадающие изображения, так и ложную информацию, и это влияет на сводки ИИ.
Google заявляет, что всегда стремится отображать актуальную и качественную информацию, постоянно совершенствуется и при обнаружении проблем будет принимать меры в соответствии с политикой.
Хотя Google утверждает, что обзоры ИИ редко «фабрикуют» информацию (это также известно как «галлюцинации» ИИ), они все равно распространяют дезинформацию по важным и деликатным вопросам.
Например, вирусное видео ложно утверждало, что просители убежища прибывают на пляж Довер в Великобритании, хотя на самом деле действие происходило на пляже в Гоа, Индия. Google Lens при поиске скриншотов из видео описал его как «люди собираются на пляже Довер в Великобритании».
Или некоторые фейковые видеоролики о войне в России и Украине, даже кадры из видеоигры Arma 3, которые ИИ-обзорщик описывает как настоящие, не предупреждая, что это фейковый контент.
Известен случай, когда одна и та же видеоигра, но два разных кадра были интерпретированы ИИ как сцена перехвата артиллерийских снарядов системой обороны C-RAM и сцена запуска ракеты SpaceX, что не означает, что эти изображения поддельные.
Синтез искусственного интеллекта Google Lens выдал ложную информацию, заявив, что это изображение беженцев, прибывающих в город Дувр, Англия. Фото: ПОЛНЫЙ ФАКТ
Google Lens — это поисковая система изображений, которая позволяет пользователям искать фотографии или кадры из видео и сравнивать их с похожими изображениями в Интернете.
Иногда в верхней части страницы появляется сводка по ИИ, агрегирующая релевантную информацию из интернета. Несмотря на предупреждение о том, что «ИИ может совершать ошибки», размещение дезинформации на видном месте может легко ввести общественность в заблуждение.
Full Fact рекомендует рассматривать инструмент обзора ИИ Google Lens как отправную точку, а не как замену ручной проверки фактов, а также искать дополнительные надежные источники для сравнения.
Это не первый случай, когда результаты поиска Google показывают неверную информацию. Full Fact заявляет, что получает финансирование от Google и Google.org, но сохраняет полную редакционную независимость.
Источник: https://tuoitre.vn/google-lens-hien-thi-thong-tin-sai-lech-ve-hinh-anh-20250814110509932.htm
Комментарий (0)