Według korespondenta VNA w Sydney, Uniwersytet Monash i Australijska Policja Federalna (AFP) współpracują nad opracowaniem przełomowego narzędzia sztucznej inteligencji (AI), które ma spowolnić i uniemożliwić przestępcom tworzenie szkodliwych fałszywych obrazów i materiałów przedstawiających wykorzystywanie seksualne dzieci przy użyciu AI.
Narzędzie o nazwie Silverer jest produktem AI Lab for Law Enforcement and Community Safety (AiLECS), strategicznej współpracy badawczej między AFP a Uniwersytetem Monash, która wykorzystuje sztuczną inteligencję do rozwiązywania złożonych problemów w zakresie egzekwowania prawa i bezpieczeństwa. Narzędzie, znajdujące się obecnie w fazie pilotażowej, jest rozwijane pod kierownictwem doktorantki Uniwersytetu Monash, Elizabeth Perry.
Według Uniwersytetu Monash, projekt wykorzystuje technikę zwaną „zatruwaniem danych” jako kluczową technikę tego nowego narzędzia. Technika ta polega na subtelnej modyfikacji danych źródłowych online, co znacznie utrudnia modelom sztucznej inteligencji i uczenia maszynowego (ML) tworzenie, manipulowanie i niewłaściwe wykorzystywanie obrazów lub filmów .
Ponieważ narzędzia sztucznej inteligencji wymagają dużej ilości danych źródłowych, zatrucie danych sprawia, że model generuje niedokładne, przekłamane lub uszkodzone wyniki, ułatwiając wykrywanie fałszywych obrazów lub filmów stworzonych przez przestępców.
Perry, doktorant, wyjaśnia, że użytkownicy mogą używać Silverera do edycji zdjęć przed ich opublikowaniem w mediach społecznościowych lub internecie. Zmiana pikseli spowoduje oszukanie modelu sztucznej inteligencji, a w efekcie zniekształcenie obrazu, jego „zniekształcenie” lub całkowite uniemożliwienie jego rozpoznania.
Docent Campbell Wilson, współdyrektor AiLECS i ekspert w dziedzinie informatyki śledczej, powiedział, że tworzenie fałszywych i złośliwych obrazów przy użyciu technologii open source staje się coraz poważniejszym problemem ze względu na łatwość jej użycia.
Agencja AFP odnotowała wzrost liczby materiałów przedstawiających molestowanie dzieci generowanych przez sztuczną inteligencję. Cyberprzestępcy wykorzystują tę technologię do tworzenia i udostępniania w Internecie dużych ilości fałszywych materiałów pornograficznych.
Uniwersytet Monash poinformował, że nadrzędnym celem projektu Silverer jest opracowanie łatwej w użyciu technologii dla Australijczyków, którzy chcą chronić swoje dane osobowe w mediach społecznościowych. Obecnie rozważana jest wersja pilotażowa narzędzia do użytku wewnętrznego w AFP.
Źródło: https://www.vietnamplus.vn/cong-cu-ai-moi-cua-australia-chong-hinh-anh-deepfake-doc-hai-post1076017.vnp






Komentarz (0)