Згідно з BGR , новий дослідницький звіт щойно розкрив тривожну техніку під назвою «Fun-Tuning», яка використовує штучний інтелект (ШІ) для автоматичної генерації високоефективних атак швидкого впровадження, спрямованих на інші передові моделі ШІ, включаючи Gemini від Google.
Цей метод робить «злом» ШІ швидшим, дешевшим та простішим, ніж будь-коли раніше, що знаменує собою нову ескалацію в кібервійні за участю ШІ.
Небезпека використання зловмисниками штучного інтелекту для його зламу.
Промовисте впровадження (immediate injection) – це техніка, за якої зловмисники непомітно вставляють шкідливі інструкції у вхідні дані моделі штучного інтелекту (наприклад, через коментарі у вихідному коді, прихований текст в Інтернеті). Мета полягає в тому, щоб «обдурити» штучний інтелект, змусивши його ігнорувати попередньо запрограмовані правила безпеки, що призводить до серйозних наслідків, таких як витік конфіденційних даних, надання дезінформації або виконання інших небезпечних дій.
Хакери використовують штучний інтелект для атаки на штучний інтелект.
ФОТО: СКРІНШОТ З LINKEDIN
Раніше успішне виконання цих атак, особливо на «закритих» моделях, таких як Gemini або GPT-4, часто вимагало значного обсягу складного та трудомісткого ручного тестування.
Але Fun-Tuning повністю змінив ситуацію. Розроблений командою дослідників з кількох університетів, цей метод вміло використовує вдосконалений інтерфейс прикладного програмування (API), який Google надає безкоштовно користувачам Gemini.
Аналізуючи ледь помітні реакції моделі Gemini під час процесу налаштування (наприклад, як вона реагує на помилки в даних), Fun-Tuning може автоматично визначати найефективніші «префікси» та «суфікси» для маскування шкідливого твердження. Це значно підвищує ймовірність того, що ШІ виконає зловмисний намір зловмисника.
Результати тестів показують, що Fun-Tuning досяг успіху до 82% на деяких версіях Gemini, що значно перевищує менш ніж 30%, досягнутих традиційними методами атаки.
Що посилює небезпеку Fun-Tuning, так це надзвичайно низька вартість його виконання. Оскільки API налаштування Google надається безкоштовно, обчислювальні витрати на створення ефективної атаки можуть становити лише 10 доларів. Крім того, дослідники виявили, що атаку, розроблену для однієї версії Gemini, можна легко успішно застосувати до інших версій, що створює ризик поширення атак.
Google підтвердив, що знає про загрозу, яку становить техніка Fun-Tuning, але поки що не прокоментував, чи змінить вона принцип роботи API налаштування. Дослідницька група також вказала на складність захисту від цього: якщо інформацію, яку використовує Fun-Tuning, видалити з процесу налаштування, API стане менш корисним для законних розробників. І навпаки, якщо він залишиться незмінним, він продовжуватиме бути трампліном для зловмисників.
Поява Fun-Tuning є чітким попередженням, яке свідчить про те, що протистояння в кіберпросторі вступило в нову, складнішу фазу. Штучний інтелект тепер є не лише мішенню, а й інструментом і зброєю в руках зловмисників.
Джерело: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Коментар (0)