
Австралия разрабатывает технологию искусственного интеллекта для обнаружения поддельных аудиозаписей с почти абсолютной точностью — Иллюстрация: REUTERS
Ученые из Организации научных и промышленных исследований Содружества (CSIRO), Университета Федерации Австралии и Университета Королевского королевского технологического института успешно разработали метод обнаружения аудиоподделок с исключительной точностью и адаптивностью.
По данным CSIRO, новая технология, получившая название «Репетиция с вспомогательной информационной выборкой» (RAIS), специально разработана для обнаружения поддельных аудиозаписей, которые представляют собой растущую угрозу киберпреступности и сопряжены с рисками обхода систем голосовой биометрической аутентификации, выдачи себя за другое лицо и распространения дезинформации.
Методы RAIS не только определяют подлинность звуковой дорожки, но и обеспечивают сохранение высокой производительности, даже несмотря на то, что атаки спуфинга продолжают развиваться и изменяться.
Доктор Кристен Мур, соавтор исследования в Data61 — подразделении данных и цифровых технологий CSIRO, рассказала, что цель команды — разработать систему обнаружения, которая сможет обновлять новые образцы дипфейков без необходимости переобучения модели с нуля, избегая тем самым феномена, когда модель забывает старые данные при тонкой настройке.
Мур объяснил, что RAIS решает эту проблему, автоматически выбирая и сохраняя небольшой, разнообразный набор предыдущих дипфейков, включая скрытые аудиохарактеристики, чтобы помочь ИИ изучить новые типы дипфейков, сохраняя при этом знания старых.
В частности, RAIS работает на основе интеллектуального процесса отбора, который генерирует «вспомогательные метки» для каждого аудиосэмпла. Объединение этих вспомогательных меток, а не просто их маркировка как «настоящие» или «поддельные», обеспечивает богатый и разнообразный набор обучающих данных. Этот механизм значительно улучшает способность системы запоминать и адаптироваться с течением времени.
По данным CSIRO, в ходе тестирования RAIS превзошёл другие методы, показав средний уровень ошибок 1,95% в пяти последовательных тестах. Исходный код этой методики доступен на GitHub — сайте, специализирующемся на онлайн-хранилищах исходного кода на платформе Git.
Источник: https://tuoitre.vn/uc-phat-trien-cong-cu-vach-tran-giong-noi-gia-bang-deepfake-20251112092232468.htm






Комментарий (0)