
Australia opracowuje technologię sztucznej inteligencji, która umożliwia wykrywanie deepfake'ów z niemal absolutną dokładnością – zdjęcie ilustracyjne: REUTERS
Naukowcom z Commonwealth Scientific and Industrial Research Organisation (CSIRO), Federation University Australia i RMIT University udało się opracować metodę wykrywania deepfake’ów audio, która charakteryzuje się niezwykłą dokładnością i wszechstronnością.
Nowa technika, zwana próbkowaniem z wykorzystaniem danych pomocniczych (RAIS), została opracowana specjalnie w celu wykrywania fałszywych nagrań audio, które stanowią coraz większe zagrożenie w cyberprzestępczości. CSIRO twierdzi, że niesie ze sobą ryzyko omijania systemów uwierzytelniania głosu metodą biometryczną, podszywania się pod inne osoby i rozpowszechniania dezinformacji.
Techniki RAIS nie tylko sprawdzają autentyczność ścieżki audio, ale także zapewniają utrzymanie wysokiej wydajności, nawet gdy ataki typu spoofing wciąż ewoluują i zmieniają się.
Dr Kristen Moore, współautorka badania w Data61 – jednostce ds. danych i rozwiązań cyfrowych CSIRO – poinformowała, że celem zespołu jest opracowanie systemu wykrywania, który będzie mógł aktualizować nowe próbki deepfake’ów bez konieczności ponownego trenowania modelu od podstaw, unikając w ten sposób zjawiska zapominania starych danych przez model podczas dostrajania.
RAIS rozwiązuje ten problem, automatycznie wybierając i zapisując niewielki, zróżnicowany zbiór poprzednich deepfake’ów, obejmujących ukryte elementy audio, co pomaga sztucznej inteligencji uczyć się nowych typów deepfake’ów, jednocześnie zachowując wiedzę na temat starych – wyjaśnił Moore.
W szczególności RAIS działa w oparciu o inteligentny proces selekcji, który generuje „etykiety pomocnicze” dla każdej próbki audio. Łączenie tych etykiet, zamiast prostego oznaczania ich jako „prawdziwe” lub „fałszywe”, zapewnia bogaty i zróżnicowany zbiór danych treningowych. Mechanizm ten znacząco poprawia zdolność systemu do zapamiętywania i adaptacji w czasie.
Według CSIRO, podczas testów RAIS przewyższył inne metody, osiągając średni wskaźnik błędów na poziomie 1,95% w pięciu kolejnych testach. Kod źródłowy tej techniki został udostępniony na GitHubie – stronie specjalizującej się w przechowywaniu kodu źródłowego online w oparciu o platformę Git.
Źródło: https://tuoitre.vn/uc-phat-trien-cong-cu-vach-tran-giong-noi-gia-bang-deepfake-20251112092232468.htm






Komentarz (0)