Vietnam.vn - Nền tảng quảng bá Việt Nam

Ужасающий опыт использования искусственного интеллекта для шантажа голоса

ZNewsZNews04/05/2023


Дженнифер ДеСтефано была ошеломлена, когда услышала голос, зовущий на помощь, который звучал точь-в-точь как голос ее старшей дочери Брианны, 15 лет. После расследования выяснилось, что все это было просто мошенничество с использованием искусственного интеллекта.

Днём 20 января телефон Дженнифер ДеСтефано зазвонил, когда она вышла из машины возле танцевальной студии, где репетировала её дочь Обри. Звонок был неизвестен, и ДеСтефано решила не отвечать.

Но её старшая дочь, 15-летняя Брианна, тренировалась к лыжным гонкам. ДеСтефано опасалась, что это может быть экстренный вызов.

«Алло?» — ответила она по громкой связи, заперла машину, схватила сумочку и ноутбук и направилась в спортзал. Внезапно ДеСтефано услышала крики и рыдания.

AI anh 1

Дженнифер ДеСтефано и её две дочери. Фото: NVCC.

«Мама, я в беде!» — раздался девичий голос. «Что ты сделала? Что происходит?» — тут же спросила мать у звонившего на другом конце провода.

Момент паники

ДеСтефано рассказал CNN , что голос был точь-в-точь как у Брианны, начиная с акцента и заканчивая всем остальным. «Я подумал, что она соскользнула с горы, что часто случается, когда катаешься на лыжах. Поэтому я запаниковал», — сказал ДеСтефано.

Крики не прекращались, и низкий мужской голос начал отдавать команды: «Слушай. Твоя дочь в моих руках. Если ты позвонишь в полицию или ещё куда-нибудь, я введу ей кучу наркотиков. Я увезу её в Мексику, и ты больше никогда не увидишь свою дочь».

ДеСтефано мгновенно парализовало. Затем она побежала в спортзал, дрожа и крича о помощи. Ей показалось, что она тонет.

AI anh 2

ДеСтефано пережила ужасный момент, когда голос, звучавший точь-в-точь как голос Брианны, позвал на помощь по телефону. Фото: Дженнифер ДеСтефано.

Последовала череда хаотичных событий. Похитители тут же потребовали выкуп в размере миллиона долларов , и ДеСтефано решил вызвать полицию. После многочисленных попыток связаться с Брианной, «похищение» было раскрыто.

Как оказалось, всё это было мошенничеством. Растерянная Брианна позвонила матери и сказала, что понятия не имеет, из-за чего весь сыр-бор, хотя у неё всё было хорошо.

Но ДеСтефано никогда не забудет тот ужасный четырехминутный звонок с этим странным голосом.

ДеСтефано считает, что стала жертвой виртуального похищения по телефону с использованием технологии дипфейка. Используя эту технологию искусственного интеллекта, похитители пугают семью жертвы аудиозаписями, изменёнными так, чтобы они напоминали голос жертвы, и требуют выкуп.

Темная сторона ИИ

По словам Шивон Джонсон, пресс-секретаря Федерального бюро расследований (ФБР), в среднем семьи в США теряют около 11 000 долларов за каждый мошеннический звонок.

AI anh 3

В среднем семьи в США теряют около 11 000 долларов за каждый мошеннический звонок. Фото: Мэтью Флеминг.

По данным Федеральной торговой комиссии США (FTC), в 2022 году американцы потеряли в общей сложности 2,6 млрд долларов из-за мошеннических звонков.

На записи звонка ДеСтефано, предоставленной CNN полицейским управлением Скоттсдейла, мать в танцевальной студии пытается объяснить диспетчеру, что происходит.

«Мать только что вошла, и ей кто-то позвонил. Это была её дочь. Похититель сказал, что хочет миллион долларов. Он не позволил ей поговорить с дочерью», — рассказал звонивший.

На заднем плане слышно, как ДеСтефано кричит: «Я хочу поговорить с дочерью». Диспетчер сразу определил, что звонок — ложный.

На самом деле, ложные звонки — обычное явление в Соединённых Штатах. Иногда звонящие звонят пожилым людям, утверждая, что их внуки попали в аварию и им нужны деньги на операцию.

Общей особенностью этого метода является то, что фальшивые похитители часто используют записи криков толпы.

Однако федеральные чиновники США предупреждают, что подобные мошенничества становятся все более изощренными, поскольку используются технологии глубокой фальсификации, имитирующие голоса жертв, чтобы завоевать доверие знакомых, а затем обманным путем выманить у них деньги.

AI anh 4

Мошенничество с вымогательством становится всё более изощрённым благодаря технологии дипфейка, которая имитирует голос жертвы, чтобы втереться в доверие к знакомым и затем выманить деньги. Фото: Протокол

Разработка недорогих и доступных программ искусственного интеллекта позволила мошенникам свободно клонировать голоса и создавать разговоры, которые звучат в точности как оригинал.

«Эта угроза не просто гипотетическая. Мы видим, как мошенники используют эти инструменты в качестве оружия. Они могут создать относительно хороший клон голоса, используя менее чем минуту аудиозаписи. Некоторым людям достаточно даже нескольких секунд», — сказал Хани Фарид, профессор компьютерных наук Калифорнийского университета в Беркли.

По словам Фарида, с помощью программного обеспечения на основе искусственного интеллекта имитация голоса может быть осуществлена всего за 5 долларов в месяц и доступна любому человеку.

В марте Федеральная торговая комиссия США (FTC) также выпустила предупреждение о том, что мошенники могут похищать аудиофайлы из видеороликов жертв в социальных сетях.

Использование искусственного интеллекта для вставки лиц в видео или имитации голоса, обычно называемое дипфейками, становится всё более распространённым и опасным. Это реальная угроза для интернета.

Помимо деликатных видео, дипфейки могут также нанести серьёзный вред, если используются в политических целях. Видео с морфингом лица бывшего президента США Барака Обамы, ставшее вирусным в 2018 году, показало, что жертвами могут стать и ведущие политические деятели.

В 2019 году жертвой стала Нэнси Пелоси, спикер Палаты представителей США. На смонтированном видео Пелоси выступает в состоянии алкогольного опьянения, и её речь невнятна.

AI anh 5

Дипфейки используются не только для объединения порнографических видеороликов, но и вызывают опасения по поводу фейковых новостей перед важными моментами, такими как президентские выборы в США в конце 2020 года. Фото: Cnet.

В конце 2019 года в американском штате Калифорния был принят закон, запрещающий создание и распространение дипфейковых видеороликов. В законе прямо указано, что смонтированные видеоролики, содержащие изображения, видео или голоса политиков, опубликованные в течение 60 дней после выборов, являются незаконными.

В 2019 году два исследователя Организации Объединенных Наций (ООН), Джозеф Буллок и Мигель Луенго-Орос, заявили, что их модель искусственного интеллекта, обученная на текстах Википедии и более чем 7000 речей Генеральной Ассамблеи, может легко подделывать выступления мировых лидеров.

Команда утверждает, что им пришлось ввести в ИИ всего несколько слов, чтобы получить связный, «высококачественный» текст.

Например, когда исследователи дали заголовок «Генеральный секретарь решительно осуждает смертоносные террористические атаки в Могадишо», ИИ смог сгенерировать речь, выражающую поддержку решению ООН.



Ссылка на источник

Комментарий (0)

No data
No data
PIECES of HUE - Pieces of Hue
Волшебное зрелище на холме с перевернутыми чашами чая в Пху Тхо
Три острова в Центральном регионе сравнивают с Мальдивами, привлекая туристов летом.
Полюбуйтесь сверкающим прибрежным городом Куинён в Гиалай ночью.
Изображение террасных полей в Пху Тхо, пологих, ярких и прекрасных, как зеркала перед началом посевной.
Фабрика Z121 готова к финалу Международного фестиваля фейерверков
Известный журнал о путешествиях назвал пещеру Шондонг «самой великолепной на планете»
Таинственная пещера привлекает западных туристов, ее сравнивают с пещерой Фонгня в Тханьхоа.
Откройте для себя поэтическую красоту залива Винь-Хи
Как обрабатывается самый дорогой чай в Ханое, стоимостью более 10 миллионов донгов за кг?

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт