По данным BGR , 2024 год станет переломным моментом для всего мира , чтобы понять, действительно ли искусственный интеллект — будущее вычислительной техники или всего лишь мимолетное увлечение. Хотя реальные применения ИИ становятся всё более разнообразными, в ближайшие месяцы проявится и тёмная сторона этой технологии — бесчисленные мошеннические схемы.
Эксперты по борьбе с мошенничеством из Scams.info только что опубликовали список из трех видов мошенничества с использованием искусственного интеллекта, которых всем следует опасаться в 2024 году. Как правило, остерегайтесь всего, что выглядит слишком вычурно, но следующие уловки требуют особой бдительности.
Инвестиционная афера с использованием ИИ
Крупные компании, такие как Google, Microsoft и OpenAI, вложили миллионы долларов в ИИ и продолжат активно инвестировать в этом году. Мошенники воспользуются этим, чтобы соблазнить вас инвестировать в сомнительные проекты. Если кто-то в социальных сетях попытается убедить вас, что ИИ увеличит доходность ваших инвестиций, подумайте дважды, прежде чем открывать кошелёк.
«Хороших» инвестиций с низким уровнем риска не существует.
«Остерегайтесь инвестиций, обещающих высокую доходность при низком риске, и обязательно изучите вопрос, прежде чем вкладывать деньги», — предупреждает Николас Крауч из Scams.info. Новым инвесторам также стоит опасаться предложений рефералов: зачастую это финансовые пирамиды, которые приносят прибыль только самым успешным участникам, оставляя мало кому выгоду.
Выдавая себя за родственников
Хитрость выдавать себя за друга или родственника, чтобы занять деньги, не нова, когда имитация голоса мошенника неэффективна. Однако с искусственным интеллектом этот вид мошенничества станет гораздо страшнее. Достаточно лишь видео на YouTube или поста в Facebook с голосом родственника, и мошенник с помощью искусственного интеллекта может идеально скопировать его. Сможете ли вы отличить их по телефону?
ИИ может легко имитировать голос вашего любимого человека
Скриншот Washington Post
«Важно, чтобы люди защищали свои аккаунты в социальных сетях, чтобы мошенники не смогли завладеть их голосовыми данными и информацией о семье», — подчеркнул Крауч.
Использование голоса для обхода системы безопасности
Некоторые банки используют голосовое распознавание для верификации клиентов при телефонном взаимодействии. По указанным выше причинам этот метод стал значительно менее безопасным, чем раньше. Если вы разместите видео или запись своего голоса где-либо в интернете, злоумышленник может использовать этот контент для копирования вашего голоса. Как отмечает Крауч, у банков по-прежнему есть другие данные для проверки личности клиентов, но эта тактика приближает их к краже вашего банковского счёта.
Системы голосовой безопасности больше не защищены от мощи ИИ
Искусственный интеллект (ИИ) может кардинально изменить нашу жизнь и то, как мы взаимодействуем с устройствами. Кроме того, это новейший инструмент, который хакеры и мошенники используют для атак на пользователей. Поэтому всегда будьте бдительны и тщательно изучите вопрос, прежде чем ввязываться в любую деятельность, связанную с ИИ.
Ссылка на источник
Комментарий (0)