Оскільки штучний інтелект стає доступнішим, а все більше людей та компаній використовують його за допомогою поширених інструментів… хакери також можуть автоматизувати атаки, пришвидшувати операції та розгортати складніші кампанії для досягнення своїх незаконних цілей.
Ось типи атак, які спостерігав Касперський: ChatGPT може використовуватися для розробки шкідливого програмного забезпечення та автоматичного розгортання атак на кількох жертв; програми штучного інтелекту проникають у дані користувачів на смартфонах і, завдяки процесу аналізу конфіденційних даних, можуть повністю «зчитувати» повідомлення, паролі та банківські коди жертв; алгоритми ройового інтелекту допомагають автоматизованим комп’ютерним мережам (бонетам) відновлювати шкідливі мережі, які були усунені за допомогою рішень безпеки.
Дослідження Касперського щодо використання штучного інтелекту для злому паролів показує, що більшість паролів шифруються за допомогою алгоритмів хешування, таких як MD5 та SHA. Проста операція може перетворити пароль на потік шифротексту, але зворотний процес є великим викликом.
За допомогою штучного інтелекту зловмисники можуть використовувати шахрайський контент, включаючи текст, зображення, аудіо та відео , для здійснення атак соціальної інженерії. Великі мовні моделі, такі як ChatGPT-4o, використовуються для створення складних фішингових скриптів та повідомлень. Долаючи мовні бар'єри, штучний інтелект може написати справжній електронний лист, базуючись лише на інформації в соціальних мережах. Штучний інтелект може навіть імітувати стиль письма жертви. Це ще більше ускладнює виявлення фішингової поведінки.
Водночас, Deepfake існує як «проблема» в кібербезпеці, хоча раніше його вважали продуктом наукових досліджень. Видання себе за знаменитостей заради фінансової вигоди є найпоширенішим методом, далі шахраї також використовують Deepfake для крадіжки облікових записів, здійснення фальшивих дзвінків друзям та родичам жертв з метою привласнення майна.
Окрім використання технології штучного інтелекту для незаконної діяльності, зловмисники також можуть атакувати алгоритми штучного інтелекту. Наприклад, атаки «швидкого впровадження» шляхом введення шкідливих команд у великі мовні моделі, навіть порушуючи раніше обмежені правила; атаки з боку зухвалих осіб шляхом додавання прихованих інформаційних полів до зображень або аудіо, щоб вплинути на здатність системи машинного навчання класифікувати зображення.
Штучний інтелект поступово інтегрується в кожен аспект людського життя, від Apple Intelligence, Google Gemini до Microsoft Copilot. Тому усунення вразливостей ШІ має бути головним пріоритетом. Kaspersky використовує технології ШІ для захисту клієнтів і партнерів вже багато років, постійно шукаючи вразливості в системах ШІ, підвищуючи стійкість систем та активно досліджуючи методи кібератак, щоб забезпечити надійний захист від атак ШІ.
КІМ ТХАН
Джерело: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html






Коментар (0)