W ostatnich miesiącach eksperci i badacze zajmujący się bezpieczeństwem dzieci ostrzegali, że kreatywna sztuczna inteligencja może nasilać nadużycia w Internecie.
Prezes Meta, Mark Zuckerberg, przemawia na posiedzeniu Komisji Sądownictwa Senatu USA, 31 stycznia 2024 r., przed tłumem uczestników, którzy niosą ze sobą obrazy wygenerowane przez sztuczną inteligencję. Zdjęcie: Reuters
NCMEC nie opublikowało jeszcze łącznej liczby zgłoszeń dotyczących treści związanych z wykorzystywaniem dzieci, które wpłynęły do niego w 2023 roku ze wszystkich źródeł. Jednak w 2022 roku zgłoszono około 88,3 miliona plików dotyczących tego problemu.
„Otrzymujemy raporty od samych innowacyjnych firm zajmujących się sztuczną inteligencją, platform (internetowych) i członków społeczeństwa” – powiedział John Shehan, wiceprezes NCMEC.
Prezesi Meta, X, TikToka, Snapa i Discorda złożyli zeznania na posiedzeniu Senatu USA w sprawie bezpieczeństwa dzieci na platformach internetowych w środę (31 stycznia). Amerykańscy ustawodawcy pytali firmy mediów społecznościowych o ich wysiłki na rzecz ochrony dzieci przed „internetowymi drapieżnikami”.
Jak wynika z raportu opublikowanego w czerwcu ubiegłego roku, naukowcy ze Stanford Internet Observatory stwierdzili, że sztuczna inteligencja generatywna może zostać wykorzystana przez złoczyńców do wielokrotnego krzywdzenia prawdziwych dzieci poprzez tworzenie ich fałszywych wizerunków.
Fallon McNulty, dyrektor CyberTipline w NCMEC, który przyjmuje zgłoszenia dotyczące wykorzystywania dzieci w Internecie, powiedział, że treści generowane przez sztuczną inteligencję stają się „coraz bardziej fotorealistyczne”, co utrudnia ustalenie, czy ofiary to prawdziwe osoby.
McNulty powiedział, że OpenAI, firma, która stworzyła ChatGPT, wdrożyła proces przesyłania raportów do NCMEC, a organizacja prowadzi rozmowy z innymi firmami zajmującymi się sztuczną inteligencją.
Hoang Hai (według Reutersa, FT)
Źródło






Komentarz (0)