Темний ШІ працює поза стандартами безпеки, часто допускаючи таку поведінку, як шахрайство, маніпуляції, кібератаки або використання даних без ретельного нагляду.
«Зловмисники також використовують штучний інтелект для покращення своїх можливостей атак. Найпоширенішим зловживанням штучним інтелектом сьогодні є поява моделей Black Hat GPT. Це моделі штучного інтелекту, спеціально розроблені або модифіковані для використання в незаконних цілях, таких як створення шкідливого програмного забезпечення, написання фішингових електронних листів, генерація голосових та дипфейкових відео…», – поділився Сергій Ложкін, керівник Глобальної дослідницької та аналітичної групи (GReAT) для Близького Сходу, Туреччини, Африки та Азіатсько -Тихоокеанського регіону в Kaspersky.
Black Hat GPT можуть існувати як повністю приватні або напівприватні моделі штучного інтелекту. Деякі помітні приклади включають WormGPT, DarkBard, FraudGPT та Xanthorox, усі з яких розроблені для боротьби з кіберзлочинністю, шахрайством та шкідливою автоматизацією.
Ложкін розповів, що експерти «Лабораторії Касперського» зараз спостерігають ще більш тривожну тенденцію: підтримувані державою або урядом групи кібератак починають використовувати моделі великих мов (LLM) у своїх атакуючих кампаніях.
«OpenAI нещодавно оголосила, що запобігла понад 20 прихованим кампаніям впливу та кібератак, в яких використовувалися її інструменти штучного інтелекту. Нам доведеться зіткнутися з дедалі витонченішими зловмисниками, які використовують штучний інтелект як зброю, стаючи загрозою як у державних, так і в приватних екосистемах. Це тривожна тенденція, до якої мають бути готові всі організації», – поділився Ложкін.
Згідно зі звітом OpenAI, зловмисники почали використовувати можливості масштабних моделей машинного навчання (LLM) для обману жертв та обходу звичайних рівнів безпеки. Вони можуть створювати переконливі фальшиві повідомлення, надсилати масові повідомлення жертвам та створювати контент кількома мовами.
Щоб посилити захист від загроз темного штучного інтелекту, експерти Kaspersky рекомендують: використовувати рішення безпеки наступного покоління, такі як Kaspersky Next, для виявлення шкідливого програмного забезпечення, створеного штучним інтелектом, та контролю ризиків у ланцюжку поставок; застосовувати інструменти розвідки загроз у режимі реального часу для моніторингу експлуатації вразливостей, спричинених штучним інтелектом; посилювати контроль доступу та навчання персоналу для обмеження ризиків тіньового штучного інтелекту та витоку даних; а також створювати Центр операцій безпеки (SOC) для моніторингу загроз та швидкого реагування на інциденти.
Джерело: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Коментар (0)