Темний ШІ працює поза межами норм безпеки, часто допускаючи таку поведінку, як шахрайство, маніпуляції, кібератаки або видобування даних без ретельного нагляду.
«Зловмисники також використовують штучний інтелект для покращення своїх можливостей атак. Найпоширенішим зловживанням ШІ сьогодні є поява моделей Black Hat GPT. Це моделі ШІ, спеціально розроблені або адаптовані для незаконних цілей, таких як створення шкідливого програмного забезпечення, фішингові електронні листи, створення голосів та дипфейкових відео…», – сказав Сергій Ложкін, керівник Глобальної групи досліджень та аналізу (GReAT), відповідальної за Близький Схід, Туреччину, Африку та Азіатсько- Тихоокеанський регіон у Kaspersky.
Black Hat GPT можуть існувати як повністю приватні або напівприватні моделі штучного інтелекту. Деякі помітні приклади включають WormGPT, DarkBard, FraudGPT та Xanthorox… усі вони розроблені для боротьби з кіберзлочинністю, шахрайством та шкідливою автоматизацією.
Пан Ложкін зазначив, що експерти «Лабораторії Касперського» зараз фіксують ще більш тривожну тенденцію, коли групи кібератак, що підтримуються державами або урядами, починають використовувати моделі великих мов (LLM) у своїх атакуючих кампаніях.
«OpenAI нещодавно оголосила, що їй вдалося припинити понад 20 прихованих кампаній впливу та кібератак, які використовували її інструменти штучного інтелекту. Ми побачимо, як дедалі складніші зловмисники використовуватимуть штучний інтелект як зброю, створюючи загрозу як для державних, так і для приватних екосистем. Це тривожна тенденція, до якої всі організації повинні бути готові», – сказав Ложкін.
Згідно зі звітом OpenAI, зловмисники почали використовувати можливості великих моделей машинного навчання (LLM) для обману жертв та обходу звичайних рівнів безпеки. Вони можуть створювати переконливі фальшиві повідомлення, надсилати повідомлення жертвам масово та створювати контент кількома мовами.
Щоб посилити захист від загроз, спричинених тіньовим штучним інтелектом, експерти Kaspersky рекомендують: використовувати рішення безпеки наступного покоління, такі як Kaspersky Next, для виявлення шкідливого програмного забезпечення, створюваного штучним інтелектом, та контролю ризиків у ланцюжку поставок. застосовувати інструменти аналізу загроз у режимі реального часу для моніторингу експлойтів, спричинених штучним інтелектом. посилити контроль доступу та навчання співробітників для обмеження тіньового штучного інтелекту та ризику витоку даних. створити Центр операцій безпеки (SOC) для моніторингу загроз та швидкого реагування на інциденти.
Джерело: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Коментар (0)