
Австралія розробляє технологію штучного інтелекту для виявлення дипфейкового аудіо з майже абсолютною точністю - Фото ілюстрацій: REUTERS
Вчені з Організації наукових та промислових досліджень Співдружності (CSIRO), Університету Федерації Австралії та Університету RMIT успішно розробили метод виявлення аудіодепфейків з видатною точністю та адаптивністю.
Нова методика під назвою «Репетиція з допоміжною вибіркою» (RAIS) спеціально розроблена для виявлення дипфейкового аудіо, що є зростаючою загрозою в кіберзлочинності, з ризиками, включаючи обхід систем біометричної автентифікації голосу, видавання себе за іншу особу та поширення дезінформації, повідомив CSIRO.
Методи RAIS не лише визначають автентичність аудіодоріжки, але й забезпечують підтримку високої продуктивності, навіть попри те, що атаки підміни продовжують розвиватися та змінюватися.
Доктор Крістен Мур, співавтор дослідження в Data61 - підрозділі даних та цифрових технологій CSIRO, поділилася тим, що метою команди є розробка системи виявлення, яка може оновлювати нові зразки діпфейків без необхідності перенавчати модель з нуля, уникаючи явища, коли модель забуває старі дані під час точного налаштування.
RAIS вирішує цю проблему, автоматично вибираючи та зберігаючи невеликий, різноманітний набір попередніх діпфейків, включаючи приховані аудіофункції, щоб допомогти ШІ вивчати нові типи діпфейків, зберігаючи при цьому знання про старі, пояснив Мур.
Зокрема, RAIS працює на основі інтелектуального процесу вибору, який генерує «допоміжні мітки» для кожного аудіозразка. Поєднання цих допоміжних міток, а не просто маркування їх як «справжні» чи «підроблені», забезпечує багатий та різноманітний навчальний набір даних. Цей механізм значно покращує здатність системи запам'ятовувати та адаптуватися з часом.
За даними CSIRO, під час тестування RAIS перевершив інші методи із середнім коефіцієнтом помилок 1,95% за п'ять послідовних тестів. Вихідний код цієї методики був доступний на GitHub – сайті, що спеціалізується на онлайн-зберігання вихідного коду на платформі Git.
Джерело: https://tuoitre.vn/uc-phat-trien-cong-cu-vach-tran-giong-noi-gia-bang-deepfake-20251112092232468.htm






Коментар (0)