Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Nowa technika pomaga zapobiegać uczeniu się sztucznej inteligencji na podstawie nieautoryzowanych danych

Jak twierdzi australijska agencja naukowa, nowa technika subtelnie zmienia zawartość obrazów, tak aby stały się one nieczytelne dla modeli sztucznej inteligencji, jednocześnie pozostając niezmienione dla ludzkiego oka.

VietnamPlusVietnamPlus12/08/2025

Australijscy naukowcy opracowali nową technikę, która może uniemożliwić systemom sztucznej inteligencji (AI) nielegalne uczenie się na podstawie obrazów, dzieł sztuki i innych treści online.

Według australijskiej agencji naukowej (CSIRO), technika ta subtelnie modyfikuje zawartość obrazów, czyniąc je nieczytelnymi dla modeli sztucznej inteligencji, jednocześnie nie zmieniając ich dla ludzkiego oka. Projekt ten został opracowany przez CSIRO we współpracy z australijskim Centrum Współpracy w dziedzinie Cyberbezpieczeństwa (CSCRC) i Uniwersytetem Chicagowskim (USA).

Autorzy twierdzą, że przełom może pomóc artystom, organizacjom i użytkownikom mediów społecznościowych chronić ich prace i dane osobowe przed wykorzystaniem do trenowania systemów sztucznej inteligencji (AI) lub tworzenia deepfake'ów – niezwykle realistycznych filmów , obrazów i dźwięków tworzonych przez AI. Na przykład, użytkownicy mogliby automatycznie nakładać warstwę ochronną na zdjęcia przed ich opublikowaniem, uniemożliwiając sztucznej inteligencji naukę rysów twarzy i tworzenie deepfake'ów.

Podobnie organizacje obronne mogą chronić poufne zdjęcia satelitarne lub dane dotyczące zagrożeń cybernetycznych.

Zdaniem dr. Derui Wanga, naukowca z CSIRO, metoda ta wykorzystuje solidne podstawy matematyczne, aby zagwarantować, że modele sztucznej inteligencji nie będą w stanie uczyć się na podstawie tych treści. Innymi słowy, technika ta sprawia, że ​​dane stają się „niemożliwe do nauczenia” dla sztucznej inteligencji w stopniu chroniącym prywatność i prawa autorskie, a jednocześnie zachowującym ich użyteczność dla ludzi.

Dodał, że ochrona ta pozostaje w mocy nawet jeśli sztuczna inteligencja próbuje się dostosować lub zostaje przeszkolona.

Dr Wang powiedział, że tę technikę można by zastosować automatycznie na dużą skalę. Dodał, że platforma lub portal społecznościowy mógłby osadzić tę warstwę ochronną we wszystkich przesyłanych obrazach. Mogłoby to ograniczyć rozprzestrzenianie się deepfake'ów, zmniejszyć liczbę kradzieży własności intelektualnej i pomóc użytkownikom zachować kontrolę nad swoimi treściami.

Chociaż metoda ta jest obecnie stosowana wyłącznie do obrazów, naukowcy planują rozszerzyć ją na tekst, muzykę i wideo. Technologia ta jest wciąż w fazie teoretycznej i jej skuteczność została udowodniona jedynie w warunkach laboratoryjnych.

Powyższa praca naukowa zatytułowana „Provably Unlearnable Data Examples” (Przykłady danych, których nie da się udowodnić) została wyróżniona nagrodą Outstanding Research Award podczas Network and Distributed Systems Security Symposium (NDSS) w 2025 r./.

(Wietnamska Agencja Informacyjna/Vietnam+)

Source: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Stare Miasto w Hanoi przywdziewa nową „suknię”, wspaniale witając Święto Środka Jesieni
Turyści ciągną sieci, depczą po błocie, aby złowić owoce morza i grillują je w słonawej lagunie w środkowym Wietnamie
Y Ty zachwyca złotym kolorem dojrzałego ryżu
Ulica Hang Ma „zmienia szaty”, by powitać Święto Środka Jesieni

Od tego samego autora

Dziedzictwo

Postać

Biznes

No videos available

Aktualności

System polityczny

Lokalny

Produkt