За даними BGR , 2024 рік стане переломним для світу , щоб усвідомити, чи є штучний інтелект справді майбутнім обчислювальної техніки, чи це просто швидкоплинне захоплення. Хоча реальне застосування ШІ стає все більш різноманітним, темна сторона цієї технології також буде розкрита через незліченну кількість шахрайств у найближчі місяці.
Експерти з боротьби з шахрайством Scams.info щойно опублікували список із 3 шахрайств зі штучним інтелектом, яких варто остерігатися у 2024 році. Загальне правило — остерігатися всього, що описується надто яскраво, але наступні хитрощі вимагають особливої пильності.
Інвестиційна афера зі штучним інтелектом
Великі компанії, такі як Google, Microsoft та OpenAI, вклали мільйони у штучний інтелект і продовжуватимуть інвестувати значні кошти цього року. Шахраї скористаються цим фактом, щоб заманити вас інвестувати в сумнівні можливості. Якщо хтось у соціальних мережах намагається переконати вас, що штучний інтелект примножить ваші інвестиційні прибутки, подумайте двічі, перш ніж відкривати свій гаманець.
Низькоризьких, «хороших» інвестицій ніколи не існує.
«Остерігайтеся інвестицій, які обіцяють високу прибутковість з низьким ризиком, і обов’язково проведіть дослідження, перш ніж вкладати свої гроші», – попереджає Ніколас Крауч зі Scams.info. Нові інвестори також повинні остерігатися реферальних пропозицій; вони часто функціонують як пірамідальні схеми, які приносять користь лише найвищим посадовцям, тоді як інші учасники отримують вигоду дуже мало.
Видаючи себе за родича
Хитрощі з видаванням себе за друга чи родича, щоб позичити гроші, не є новими, адже імітація голосу шахрая насправді неефективна. Однак, зі штучним інтелектом, ця афера стане набагато страшнішою. Просто відео на YouTube або публікація у Facebook з голосом родича, шахрай може використовувати штучний інтелект для ідеального копіювання. Чи можна помітити різницю під час телефонного дзвінка?
Штучний інтелект може легко імітувати голос вашої коханої людини
Скріншот Washington Post
«Важливо, щоб люди захищали свої облікові записи в соціальних мережах, щоб запобігти шахраям, які можуть захопити їхній голос та сімейну інформацію», – наголосив Крауч.
Використання голосу для обходу системи безпеки
Деякі банки використовують розпізнавання голосу для перевірки користувачів під час здійснення транзакцій по телефону. З вищезазначених причин цей метод раптово став менш безпечним, ніж раніше. Якщо ви опублікуєте відео або кліп свого голосу будь-де в Інтернеті, зловмисник може використати цей контент, щоб скопіювати ваш голос. Як зазначає Крауч, банки все ще мають інші дані для перевірки особи своїх клієнтів, але ця тактика наближає зловмисників на один крок до крадіжки вашого банківського рахунку.
Системи голосової безпеки більше не захищені від впливу штучного інтелекту
Штучний інтелект має потенціал докорінно змінити наше життя та те, як ми взаємодіємо з нашими пристроями. Це також новітній інструмент, який хакери та шахраї використовуватимуть для атак на користувачів. Тож завжди будьте пильними та завжди проводите дослідження, перш ніж брати участь у будь-якій діяльності, пов’язаній зі штучним інтелектом.
Посилання на джерело

![[Фото] Генеральний секретар То Лам взяв участь у В'єтнамсько-Великій економічній конференції високого рівня](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761825773922_anh-1-3371-jpg.webp)

![[Фото] Третій патріотичний змагальний з'їзд Центральної комісії внутрішніх справ](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761831176178_dh-thi-dua-yeu-nuoc-5076-2710-jpg.webp)

![[Фото] Прем'єр-міністр Фам Мінь Чінь відвідав 5-ту церемонію вручення Національної премії преси, присвячену запобіганню та боротьбі з корупцією, марнотратством та негативом](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)





































































Коментар (0)