Utilizatorii de internet folosesc inteligența artificială pentru a crea imagini cu suspectul uciderii lui Charlie Kirk. Foto: CBC . |
Biroul Federal de Investigații (FBI) al SUA a publicat două fotografii care îl arată pe suspectul implicat în atacul armat în care a murit activistul Charlie Kirk. Deoarece fotografiile sunt destul de neclare, comunitatea online a reacționat rapid cu versiuni „actualizate” ale fotografiilor folosind inteligența artificială (IA).
Aceste imagini par mai clare și mai clare decât originalele, dar sunt de fapt doar un produs al speculațiilor. Inteligența artificială nu are capacitatea de a „ descoperi ” detalii ascunse într-o fotografie neclară. În schimb, instrumentul prezice, completând golurile pe baza datelor învățate, ceea ce poate însemna crearea de detalii care nu există în realitate.
![]() |
Fotografii îmbunătățite cu inteligență artificială ale suspectului din împușcătura lui Charlie Kirk, dar nu există două fețe la fel. Fotografie: Grok. |
Mai multe versiuni îmbunătățite ale imaginilor au fost postate în cadrul postării FBI. Este posibil ca unele dintre imagini să fi fost create folosind instrumentul Grok pe X, în timp ce se crede că altele au fost create folosind platforme precum ChatGPT și Gemini. Cu toate acestea, acuratețea acestor randări variază foarte mult. Unele imagini prezintă chiar inexactități evidente, cum ar fi schimbarea culorii tricoului sau modificarea aspectului feței personajului, cu o bărbie exagerată.
Se pare că aceste imagini au fost distribuite cu scopul de a „ajuta” comunitatea să identifice suspectul. Dar, în realitate, ele au devenit și un instrument de a atrage atenția, de a crește numărul de aprecieri și distribuiri pe rețelele de socializare.
Experții avertizează că este puțin probabil ca aceste imagini realizate cu inteligență artificială să fie mai utile decât originalele FBI-ului. De fapt, în unele cazuri anterioare, imaginile îmbunătățite cu inteligență artificială au produs rezultate controversate.
De exemplu, o fotografie cu rezoluție mică a fostului președinte Barack Obama a fost „modernizată” de inteligența artificială pentru a arăta un bărbat alb. Într-un alt caz, unei fotografii cu președintele Donald Trump i s-a adăugat o tumoare inexistentă la cap de către inteligența artificială.
Aceste discrepanțe sugerează că IA pur și simplu extrapolează din datele existente, în loc să recreeze cu exactitate ceea ce se pierde în imaginile neclare. Deși tehnologia poate fi utilă în anumite contexte, imaginile generate de IA nu ar trebui considerate dovezi definitive în anchetele penale.
Însuși FBI-ul, în anunțul său, a publicat doar fotografia originală și a cerut publicului să ofere informații dacă poate identifica persoana din fotografie. Cu toate acestea, valul de „fotografii auto-actualizate” de pe rețelele de socializare a atras rapid atenția, ridicând semne de întrebare cu privire la responsabilitatea utilizării instrumentelor de inteligență artificială în cazuri sensibile legate de securitate și viața umană.
Pe măsură ce inteligența artificială devine din ce în ce mai utilizată, acest incident evidențiază o problemă: IA poate crea imagini care par atât de reale încât sunt înșelătoare vizual, dar asta nu înseamnă că sunt fiabile. Mai ales în cazul urmăririlor penale, datele inexacte pot duce la consecințe grave.
Sursă: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











Comentariu (0)