Vietnam.vn - Nền tảng quảng bá Việt Nam

Nowa technika pomaga zapobiegać uczeniu się sztucznej inteligencji na podstawie nieautoryzowanych danych

Jak twierdzi australijska agencja naukowa, nowa technika subtelnie zmienia zawartość obrazów, tak aby stały się one nieczytelne dla modeli sztucznej inteligencji, jednocześnie pozostając niezmienione dla ludzkiego oka.

VietnamPlusVietnamPlus12/08/2025

Australijscy naukowcy opracowali nową technikę, która może uniemożliwić systemom sztucznej inteligencji (AI) nielegalne uczenie się na podstawie obrazów, dzieł sztuki i innych treści online.

Technika ta, opracowana przez australijską agencję naukową (CSIRO), subtelnie zmienia zawartość obrazów, tak aby stały się one nieczytelne dla modeli sztucznej inteligencji, jednocześnie pozostając niezmienione dla ludzkiego oka. Tak przynajmniej wynika z projektu opracowanego przez CSIRO we współpracy z australijskim Centrum Współpracy w dziedzinie Cyberbezpieczeństwa (CSCRC) i Uniwersytetem w Chicago.

Autorzy twierdzą, że przełom może pomóc artystom, organizacjom i użytkownikom mediów społecznościowych chronić ich prace i dane osobowe przed wykorzystaniem do trenowania systemów sztucznej inteligencji (AI) lub tworzenia deepfake'ów – wysoce realistycznych fałszywych filmów , obrazów lub nagrań audio tworzonych przez AI. Na przykład, użytkownicy mogliby automatycznie nakładać warstwę ochronną na zdjęcia przed ich opublikowaniem, uniemożliwiając sztucznej inteligencji naukę rysów twarzy i tworzenie deepfake'ów.

Podobnie organizacje obronne mogą chronić poufne zdjęcia satelitarne lub dane dotyczące zagrożeń cybernetycznych.

Według dr. Derui Wanga, naukowca z CSIRO, metoda ta opiera się na solidnych podstawach matematycznych, aby zagwarantować, że modele sztucznej inteligencji nie będą w stanie uczyć się na podstawie tych treści. Innymi słowy, technika ta sprawia, że ​​dane stają się „niemożliwe do nauczenia” dla sztucznej inteligencji w stopniu, który chroni prywatność i prawa autorskie, a jednocześnie pozwala zachować ich użyteczność dla ludzi.

Dodał, że ochrona ta pozostaje w mocy nawet jeśli sztuczna inteligencja próbuje się dostosować lub zostaje przeszkolona.

Dr Wang powiedział, że tę technikę można by zastosować automatycznie na dużą skalę. Dodał, że platforma mediów społecznościowych lub strona internetowa mogłaby osadzić tę warstwę ochronną we wszystkich przesyłanych obrazach. Mogłoby to ograniczyć rozprzestrzenianie się deepfake'ów, zmniejszyć ryzyko kradzieży własności intelektualnej i pomóc użytkownikom zachować kontrolę nad swoimi treściami.

Chociaż metoda ta jest obecnie stosowana wyłącznie do obrazów, naukowcy planują rozszerzyć ją na tekst, muzykę i wideo. Technologia ta jest wciąż w fazie teoretycznej i jej skuteczność została udowodniona jedynie w warunkach laboratoryjnych.

Powyższa praca naukowa zatytułowana „Provably Unlearnable Data Examples” (Przykłady danych, których nie da się udowodnić) została wyróżniona nagrodą Outstanding Research Award podczas Network and Distributed Systems Security Symposium (NDSS) w 2025 r./.

(TTXVN/Wietnam+)

Source: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Zagubiony w lesie mchu wróżek w drodze na podbój Phu Sa Phin
Dziś rano miasteczko plażowe Quy Nhon było „marzycielskie” w mgle
Urzekające piękno Sa Pa w sezonie „polowania na chmury”
Każda rzeka – podróż

Od tego samego autora

Dziedzictwo

Postać

Biznes

„Wielka powódź” na rzece Thu Bon przewyższyła historyczną powódź z 1964 r. o 0,14 m.

Aktualne wydarzenia

System polityczny

Lokalny

Produkt