Nick Clegg, prezes ds. globalnych w Meta, powiedział, że firma będzie korzystać z zestawu znaczników wbudowanych w pliki. Firma będzie oznaczać wszystkie treści publikowane w serwisach Facebook, Instagram i Threads, sygnalizując użytkownikom, że obrazy (które mogą wyglądać jak prawdziwe zdjęcia) są w rzeczywistości cyfrowymi kreacjami wygenerowanymi przez sztuczną inteligencję. Według Reutersa, firma oznaczyła również treści utworzone za pomocą własnych narzędzi AI.
Gdy nowy system będzie już gotowy do działania, Meta będzie obsługiwać obrazy generowane w serwisach OpenAI, Microsoft, Adobe, Midjourney, Shutterstock i Alphabet. Ogłoszenie to pierwsza wiadomość o nowym standardzie, który firmy technologiczne opracowują, aby ograniczyć szkody wyrządzane przez sztuczną inteligencję generatywną, która może tworzyć fałszywe treści nawet z prostych treści.
Etykietowanie obrazów generowane przez sztuczną inteligencję pomoże ograniczyć dezinformację i oszustwa
Podejście to opiera się na schemacie wypracowanym w ciągu ostatniej dekady przez firmy, które polegają na koordynowaniu usuwania z platform zakazanych treści, takich jak treści przedstawiające masową przemoc i wykorzystywanie dzieci.
Clegg uważa, że firmy są już w stanie niezawodnie oznaczać obrazy generowane przez sztuczną inteligencję, zaznacza jednak, że bardziej zaawansowane narzędzia do oznaczania treści audio i wideo są wciąż w fazie rozwoju.
Meta zacznie wymagać od użytkowników oznaczania zmodyfikowanych treści audio i wideo, a w przypadku braku takiego oznaczenia będzie nakładać kary. Clegg stwierdził jednak, że obecnie nie ma skutecznego mechanizmu oznaczania tekstu generowanego przez narzędzia AI, takie jak ChatGPT.
Niezależna rada nadzorcza Meta skrytykowała politykę firmy dotyczącą wprowadzających w błąd filmów, stwierdzając, że treści powinny być oznaczane, a nie usuwane. Clegg stwierdził więc, że nowe posunięcie Meta może pomóc w lepszej klasyfikacji takich treści.
Link źródłowy
Komentarz (0)