Австралійські вчені розробили нову техніку, яка може запобігти незаконному навчанню систем штучного інтелекту (ШІ) з зображень, творів мистецтва та іншого онлайн-контенту.
Згідно з проєктом, розробленим CSIRO у співпраці з Австралійським дослідницьким центром кібербезпеки (CSCRC) та Чиказьким університетом, ця техніка, розроблена національним науковим агентством Австралії (CSIRO), ненав’язливо змінює вміст зображень, роблячи їх нечитабельними для моделей штучного інтелекту, залишаючись при цьому незмінними для людського ока.
Автори стверджують, що цей прорив може допомогти митцям, організаціям та користувачам соціальних мереж захистити свої робочі та особисті дані від використання для навчання систем штучного інтелекту або створення діпфейків – дуже реалістичних підроблених відео , зображень чи аудіо, створених штучним інтелектом. Наприклад, користувачі можуть автоматично накладати захисний шар на зображення перед публікацією, запобігаючи штучному інтелекту вивчати риси обличчя для створення діпфейків.
Аналогічно, оборонні організації можуть захищати конфіденційні супутникові знімки або дані про кіберзагрози.
За словами доктора Деруї Ванга, науковця з CSIRO, цей метод використовує міцну математичну основу, щоб гарантувати, що моделі ШІ не зможуть навчатися на цьому контенті, або, іншими словами, ця техніка робить дані «непридатними для навчання» для ШІ до ступеня, який захищає конфіденційність та авторські права, зберігаючи при цьому їхню корисність для людей.
Цей захист залишається чинним, навіть якщо ШІ намагається адаптуватися або перенавчається, додав він.
Доктор Ван сказав, що цю техніку можна застосовувати автоматично у великих масштабах. Він зазначив, що платформа соціальних мереж або вебсайт може вбудовувати цей захисний шар у всі завантажені зображення. Це може обмежити поширення діпфейків, зменшити крадіжку інтелектуальної власності та допомогти користувачам контролювати свій контент.
Хоча цей метод наразі застосовується лише до зображень, дослідники планують поширити його на текст, музику та відео. Технологія все ще перебуває на стадії теорії, і її ефективність була доведена лише в лабораторних умовах.
Вищезазначена наукова робота під назвою «Приклади даних, які неможливо навчитися» була нагороджена нагородою за видатні дослідження на Симпозіумі з безпеки мереж та розподілених систем (NDSS) 2025 року.
Джерело: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Коментар (0)