Австралійські вчені розробили нову техніку, яка може запобігти незаконному навчанню систем штучного інтелекту (ШІ) з зображень, творів мистецтва та іншого онлайн-контенту.
За даними національного наукового агентства Австралії (CSIRO), ця техніка ледь помітно змінює вміст зображень, щоб зробити їх нечитабельними для моделей штучного інтелекту, залишаючись при цьому незмінними для людського ока. Це проєкт, розроблений CSIRO у співпраці з Австралійським дослідницьким центром кібербезпеки (CSCRC) та Чиказьким університетом (США).
Автори стверджують, що цей прорив може допомогти митцям, організаціям та користувачам соціальних мереж захистити свої робочі та особисті дані від використання для навчання систем штучного інтелекту або створення діпфейків — неймовірно реалістичних відео , зображень чи аудіо, створених штучним інтелектом. Наприклад, користувачі можуть автоматично накладати захисний шар на зображення перед публікацією, запобігаючи вивчанню ШІ рис обличчя для створення діпфейків.
Аналогічно, оборонні організації можуть захищати конфіденційні супутникові знімки або дані про кіберзагрози.
За словами доктора Деруї Ванга, науковця з CSIRO, цей метод використовує міцну математичну основу, щоб гарантувати, що моделі ШІ не зможуть навчатися на цьому контенті, або, іншими словами, ця техніка робить дані «непридатними для навчання» для ШІ до рівня, який захищає конфіденційність та авторські права, зберігаючи при цьому їхню корисність для людей.
Цей захист залишається чинним, навіть якщо ШІ намагається адаптуватися або перенавчається, додав він.
Доктор Ван сказав, що цю техніку можна застосовувати автоматично у великих масштабах. Він зазначив, що платформа або сайт соціальних мереж може вбудовувати цей захисний шар у всі завантажені зображення. Це може стримувати поширення діпфейків, зменшувати крадіжки інтелектуальної власності та допомагати користувачам зберігати контроль над своїм контентом.
Хоча цей метод наразі застосовується лише до зображень, дослідники планують поширити його на текст, музику та відео. Технологія все ще перебуває на стадії теорії, і її ефективність була доведена лише в лабораторних умовах.
Вищезазначена наукова робота під назвою «Приклади даних, які неможливо навчитися» була нагороджена нагородою за видатні дослідження на Симпозіумі з безпеки мереж та розподілених систем (NDSS) 2025 року.
Джерело: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Коментар (0)