Vietnam.vn - Nền tảng quảng bá Việt Nam

Australia opracowuje narzędzie do ujawniania fałszywych głosów deepfake

Technologia RAIS pomaga wykrywać fałszywe pliki audio z dużą dokładnością, nawet gdy formy ataków deepfake wciąż ewoluują.

Báo Tuổi TrẻBáo Tuổi Trẻ12/11/2025

Úc phát triển công cụ vạch trần giọng nói giả bằng deepfake - Ảnh 1.

Australia opracowuje technologię sztucznej inteligencji, która umożliwia wykrywanie deepfake'ów z niemal absolutną dokładnością – zdjęcie ilustracyjne: REUTERS

Naukowcom z Commonwealth Scientific and Industrial Research Organisation (CSIRO), Federation University Australia i RMIT University udało się opracować metodę wykrywania deepfake’ów audio, która charakteryzuje się niezwykłą dokładnością i wszechstronnością.

Nowa technika, zwana próbkowaniem z wykorzystaniem danych pomocniczych (RAIS), została opracowana specjalnie w celu wykrywania fałszywych nagrań audio, które stanowią coraz większe zagrożenie w cyberprzestępczości. CSIRO twierdzi, że niesie ze sobą ryzyko omijania systemów uwierzytelniania głosu metodą biometryczną, podszywania się pod inne osoby i rozpowszechniania dezinformacji.

Techniki RAIS nie tylko sprawdzają autentyczność ścieżki audio, ale także zapewniają utrzymanie wysokiej wydajności, nawet gdy ataki typu spoofing wciąż ewoluują i zmieniają się.

Dr Kristen Moore, współautorka badania w Data61 – jednostce ds. danych i rozwiązań cyfrowych CSIRO – poinformowała, że ​​celem zespołu jest opracowanie systemu wykrywania, który będzie mógł aktualizować nowe próbki deepfake’ów bez konieczności ponownego trenowania modelu od podstaw, unikając w ten sposób zjawiska zapominania starych danych przez model podczas dostrajania.

RAIS rozwiązuje ten problem, automatycznie wybierając i zapisując niewielki, zróżnicowany zbiór poprzednich deepfake’ów, obejmujących ukryte elementy audio, co pomaga sztucznej inteligencji uczyć się nowych typów deepfake’ów, jednocześnie zachowując wiedzę na temat starych – wyjaśnił Moore.

W szczególności RAIS działa w oparciu o inteligentny proces selekcji, który generuje „etykiety pomocnicze” dla każdej próbki audio. Łączenie tych etykiet, zamiast prostego oznaczania ich jako „prawdziwe” lub „fałszywe”, zapewnia bogaty i zróżnicowany zbiór danych treningowych. Mechanizm ten znacząco poprawia zdolność systemu do zapamiętywania i adaptacji w czasie.

Według CSIRO, podczas testów RAIS przewyższył inne metody, osiągając średni wskaźnik błędów na poziomie 1,95% w pięciu kolejnych testach. Kod źródłowy tej techniki został udostępniony na GitHubie – stronie specjalizującej się w przechowywaniu kodu źródłowego online w oparciu o platformę Git.

Powrót do tematu
VNA

Źródło: https://tuoitre.vn/uc-phat-trien-cong-cu-vach-tran-giong-noi-gia-bang-deepfake-20251112092232468.htm


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Suszone na wietrze kaki – słodycz jesieni
„Kawiarnia dla bogaczy” w zaułku w Hanoi sprzedaje kawę za 750 000 VND za filiżankę
Moc Chau w sezonie dojrzałych persymonów, każdy kto przychodzi jest oszołomiony
Dzikie słoneczniki barwią górskie miasteczko Da Lat na żółto w najpiękniejszej porze roku

Od tego samego autora

Dziedzictwo

Postać

Biznes

G-Dragon zachwycił publiczność podczas swojego występu w Wietnamie

Aktualne wydarzenia

System polityczny

Lokalny

Produkt