Użytkownicy Internetu wykorzystują sztuczną inteligencję do tworzenia wizerunków podejrzanego o morderstwo Charliego Kirka. Zdjęcie: CBC . |
Amerykańskie Federalne Biuro Śledcze (FBI) opublikowało dwa zdjęcia przedstawiające podejrzanego o udział w strzelaninie, w której zginął aktywista Charlie Kirk. Ponieważ zdjęcia są dość niewyraźne, społeczność internetowa szybko zareagowała, udostępniając „ulepszone” wersje zdjęć, wykorzystując sztuczną inteligencję (AI).
Te zdjęcia wyglądają ostrzej i wyraźniej niż oryginały, ale tak naprawdę są jedynie efektem spekulacji. Sztuczna inteligencja nie potrafi „ odkrywać ” ukrytych szczegółów na rozmazanym zdjęciu. Zamiast tego narzędzie przewiduje i uzupełnia luki w oparciu o wyuczone dane, co może oznaczać tworzenie szczegółów, które nie istnieją w rzeczywistości.
![]() |
Zdjęcia podejrzanego o strzelaninę w Charlie Kirk, ulepszone przez sztuczną inteligencję, ale nie ma dwóch takich samych twarzy. Zdjęcie: Grok. |
Kilka ulepszonych wersji obrazów opublikowano pod postem FBI. Niektóre z nich mogły zostać stworzone za pomocą narzędzia Grok na X, podczas gdy inne prawdopodobnie powstały na platformach takich jak ChatGPT i Gemini. Jednak dokładność tych renderów jest bardzo zróżnicowana. Niektóre obrazy wykazują nawet oczywiste niedokładności, takie jak zmiana koloru koszuli lub przesadne uwypuklenie podbródka, co sprawia, że twarz postaci wygląda inaczej.
Wygląda na to, że zdjęcia te zostały udostępnione w celu „pomocy” społeczności w identyfikacji podejrzanego. W rzeczywistości jednak stały się one również narzędziem przyciągania uwagi, zwiększania liczby polubień i udostępnień w mediach społecznościowych.
Eksperci ostrzegają, że mało prawdopodobne jest, aby obrazy stworzone przez sztuczną inteligencję były bardziej użyteczne niż oryginały FBI. W rzeczywistości, w niektórych przypadkach, obrazy ulepszone przez sztuczną inteligencję dawały kontrowersyjne rezultaty.
Na przykład, zdjęcie byłego prezydenta Baracka Obamy w niskiej rozdzielczości zostało „ulepszone” przez sztuczną inteligencję i przedstawia białego mężczyznę. W innym przypadku, zdjęcie prezydenta Donalda Trumpa miało nieistniejący guz na głowie dodany przez sztuczną inteligencję.
Te rozbieżności sugerują, że sztuczna inteligencja po prostu ekstrapoluje istniejące dane, zamiast dokładnie odtwarzać to, co zostało utracone w rozmazanych obrazach. Chociaż technologia ta może być przydatna w niektórych kontekstach, obrazy generowane przez sztuczną inteligencję nie powinny być uważane za ostateczny dowód w śledztwach kryminalnych.
Samo FBI w swoim komunikacie opublikowało jedynie oryginalne zdjęcie i zaapelowało do opinii publicznej o podanie informacji, jeśli uda się zidentyfikować osobę na zdjęciu. Jednak fala „samoaktualizujących się zdjęć” w mediach społecznościowych szybko przyciągnęła uwagę, stawiając pytania o odpowiedzialność za wykorzystywanie narzędzi sztucznej inteligencji w newralgicznych sprawach związanych z bezpieczeństwem i ludzkim życiem.
Wraz z upowszechnianiem się sztucznej inteligencji, incydent ten uwypukla problem: sztuczna inteligencja potrafi tworzyć obrazy, które wyglądają tak realistycznie, że są wizualnie mylące, ale to nie znaczy, że są wiarygodne. Zwłaszcza w przypadku przestępstw, nieścisłe dane mogą prowadzić do poważnych konsekwencji.
Źródło: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











Komentarz (0)