Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

3 шахрайства зі штучним інтелектом, на які варто звернути увагу у 2024 році

Báo Thanh niênBáo Thanh niên16/01/2024


За даними BGR , 2024 рік стане переломним для світу , щоб усвідомити, чи є штучний інтелект справді майбутнім обчислювальної техніки, чи це просто швидкоплинне захоплення. Хоча реальне застосування ШІ стає все більш різноманітним, темна сторона цієї технології також буде розкрита через незліченну кількість шахрайств у найближчі місяці.

Експерти з боротьби з шахрайством Scams.info щойно опублікували список із трьох шахрайств зі штучним інтелектом, яких варто остерігатися у 2024 році. Як правило, остерігайтеся всього, що є надто кричущим, але наступні хитрощі вимагають особливої ​​пильності.

Інвестиційна афера зі штучним інтелектом

Великі компанії, такі як Google, Microsoft та OpenAI, вклали мільйони доларів у штучний інтелект і продовжуватимуть інвестувати значні кошти цього року. Шахраї скористаються цим фактом, щоб заманити вас інвестувати в сумнівні можливості. Якщо хтось у соціальних мережах намагається переконати вас, що штучний інтелект примножить ваші інвестиційні прибутки, подумайте двічі, перш ніж відкривати свій гаманець.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 1.

Низькоризьких, «хороших» інвестицій ніколи не існує.

«Остерігайтеся інвестицій, які обіцяють високу прибутковість з низьким ризиком, і обов’язково проведіть дослідження, перш ніж вкладати свої гроші», – попереджає Ніколас Крауч зі Scams.info. Нові інвестори також повинні остерігатися реферальних пропозицій; це часто пірамідальні схеми, які приносять користь лише найкращим учасникам, тоді як вигоду отримують дуже мало інших учасників.

Видаючи себе за родичів

Хитрощі з видаванням себе за друга чи родича, щоб позичити гроші, не є новими, адже імітація голосу шахрая насправді неефективна. Однак, зі штучним інтелектом, ця афера стане набагато страшнішою. ​​Просто відео на YouTube або публікація у Facebook з голосом родича, і шахрай може за допомогою штучного інтелекту ідеально його скопіювати. Чи можна помітити різницю під час телефонної розмови?

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 2.

Штучний інтелект може легко імітувати голос вашої коханої людини

Скріншот Washington Post

«Важливо, щоб люди захищали свої облікові записи в соціальних мережах, щоб запобігти шахраям, які можуть захопити їхній голос та сімейну інформацію», – наголосив Крауч.

Використання голосу для обходу системи безпеки

Деякі банки використовують розпізнавання голосу для перевірки користувачів під час ведення бізнесу по телефону. З вищезазначених причин цей метод раптово став менш безпечним, ніж раніше. Якщо ви опублікуєте відео або кліп свого голосу будь-де в Інтернеті, зловмисник може використати цей контент, щоб скопіювати ваш голос. Як зазначає Крауч, банки все ще мають інші дані для перевірки особи клієнтів, але ця тактика наближає їх на крок до крадіжки вашого банківського рахунку.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 3.

Системи голосової безпеки більше не захищені від впливу штучного інтелекту

Штучний інтелект має потенціал докорінно змінити наше життя та те, як ми взаємодіємо з нашими пристроями. Це також новітній інструмент, який хакери та шахраї використовуватимуть для атак на користувачів. Тож завжди будьте пильними та завжди проводите дослідження, перш ніж займатися будь-якою діяльністю, пов’язаною зі штучним інтелектом.



Посилання на джерело

Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Y Ty блискучий золотистим кольором стиглого рису сезону
Стара вулиця Ханг Ма "змінює свій одяг", щоб зустріти Свято середини осені
Фіолетовий пагорб Суой Бон цвіте серед плавучого моря хмар у Сон Ла
Туристи стікаються до Y Ty, що потопає серед найкрасивіших терасованих полів на північному заході.

Того ж автора

Спадщина

Фігура

Бізнес

No videos available

Новини

Політична система

Місцевий

Продукт