По данным BGR , 2024 год станет переломным моментом для всего мира , чтобы понять, действительно ли искусственный интеллект — будущее вычислительной техники или всего лишь мимолетное увлечение. Хотя реальные применения ИИ становятся всё более разнообразными, в ближайшие месяцы проявится и тёмная сторона этой технологии — бесчисленные мошеннические схемы.
Эксперты по борьбе с мошенничеством из Scams.info только что опубликовали список из 3 видов мошенничества с использованием искусственного интеллекта, которых следует опасаться всем в 2024 году. Общее правило — остерегаться всего, что описывается слишком восторженно, но следующие уловки требуют особой бдительности.
Инвестиционная афера с использованием ИИ
Крупные компании, такие как Google, Microsoft и OpenAI, вложили миллионы в ИИ и продолжат активно инвестировать в этом году. Мошенники воспользуются этим, чтобы соблазнить вас инвестировать в сомнительные проекты. Если кто-то в социальных сетях попытается убедить вас, что ИИ увеличит доходность ваших инвестиций, подумайте дважды, прежде чем открывать кошелёк.
«Хороших» инвестиций с низким уровнем риска не существует.
«Остерегайтесь инвестиций, обещающих высокую доходность при низком риске, и обязательно изучите вопрос, прежде чем вкладывать деньги», — предупреждает Николас Крауч из Scams.info. Новым инвесторам также стоит опасаться предложений рефералов: они часто работают по принципу финансовых пирамид, где выгоду получают только самые влиятельные персоны, а остальные участники получают лишь ограниченное количество выгоды.
Выдавая себя за родственника
Хитрость выдавать себя за друга или родственника, чтобы занять деньги, не нова, когда имитация голоса мошенника неэффективна. Однако с искусственным интеллектом этот вид мошенничества станет гораздо страшнее. Достаточно лишь видео на YouTube или поста в Facebook с голосом родственника, и мошенник с помощью искусственного интеллекта может идеально скопировать его. Можно ли отличить это по телефону?
ИИ может легко имитировать голос вашего любимого человека
Скриншот Washington Post
«Важно, чтобы люди защищали свои аккаунты в социальных сетях, чтобы мошенники не смогли завладеть их голосовыми данными и информацией о семье», — подчеркнул Крауч.
Использование голоса для обхода системы безопасности
Некоторые банки используют голосовое распознавание для проверки пользователей при совершении транзакций по телефону. По указанным выше причинам этот метод стал значительно менее безопасным, чем раньше. Если вы разместите видео или запись своего голоса где-либо в интернете, злоумышленник может использовать этот контент для копирования вашего голоса. Как отмечает Крауч, у банков по-прежнему есть другие данные для проверки личности своих клиентов, но эта тактика приближает злоумышленников к краже вашего банковского счета.
Системы голосовой безопасности больше не защищены от мощи ИИ
Искусственный интеллект (ИИ) может кардинально изменить нашу жизнь и то, как мы взаимодействуем с устройствами. Кроме того, это новейший инструмент, который хакеры и мошенники используют для атак на пользователей. Поэтому всегда будьте бдительны и тщательно изучите вопрос, прежде чем участвовать в любых мероприятиях, связанных с ИИ.
Ссылка на источник


![[Фото] Трогательная сцена: тысячи людей спасают набережную от бушующей воды](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761825173837_ndo_br_ho-de-3-jpg.webp)
![[Фото] Генеральный секретарь То Лам принимает участие во Вьетнамско-британской экономической конференции высокого уровня](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761825773922_anh-1-3371-jpg.webp)
![[Фото] Третий съезд патриотического соревнования Центральной комиссии внутренних дел](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761831176178_dh-thi-dua-yeu-nuoc-5076-2710-jpg.webp)
![[Фото] Генеральный секретарь То Лам встречается с бывшим премьер-министром Великобритании Тони Блэром](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761821573624_tbt-tl1-jpg.webp)





































































Комментарий (0)