Internetnutzer erstellen mithilfe von KI Bilder des mutmaßlichen Mörders von Charlie Kirk. Foto: CBC . |
Das US-amerikanische Federal Bureau of Investigation (FBI) hat zwei Fotos des Verdächtigen im Fall des erschossenen Aktivisten Charlie Kirk veröffentlicht. Da die Fotos recht unscharf sind, reagierte die Online-Community umgehend mit mithilfe künstlicher Intelligenz (KI) bearbeiteten, verbesserten Versionen.
Diese Bilder wirken schärfer und klarer als die Originale, sind aber tatsächlich nur ein Produkt von Spekulationen. Künstliche Intelligenz (KI) kann in einem unscharfen Foto keine verborgenen Details „ entdecken “. Stattdessen trifft das Tool Vorhersagen und füllt die Lücken anhand gelernter Daten, was dazu führen kann, dass Details erzeugt werden, die in Wirklichkeit nicht existieren.
![]() |
KI-optimierte Fotos des Verdächtigen im Fall der Schießerei auf Charlie Kirk – doch kein Gesicht gleicht dem anderen. Foto: Grok. |
Unter dem FBI-Beitrag wurden mehrere bearbeitete Versionen der Bilder veröffentlicht. Einige der Bilder wurden möglicherweise mit dem Grok-Tool auf X erstellt, andere vermutlich mit Plattformen wie ChatGPT und Gemini. Die Genauigkeit dieser Darstellungen variiert jedoch stark. Manche Bilder weisen sogar offensichtliche Ungenauigkeiten auf, wie beispielsweise eine veränderte Hemdfarbe oder ein übertrieben dargestelltes Kinn.
Anscheinend wurden diese Bilder mit dem Ziel geteilt, der Öffentlichkeit bei der Identifizierung des Verdächtigen zu helfen. Tatsächlich dienten sie aber auch dazu, Aufmerksamkeit zu erregen und die Anzahl der Likes und Shares in sozialen Netzwerken zu erhöhen.
Experten warnen davor, dass diese KI-generierten Bilder wahrscheinlich nicht nützlicher sein werden als die Originale des FBI. Tatsächlich haben KI-gestützte Bilder in einigen Fällen in der Vergangenheit zu kontroversen Ergebnissen geführt.
Beispielsweise wurde ein niedrig aufgelöstes Foto des ehemaligen Präsidenten Barack Obama mithilfe von KI „aufgewertet“, um einen weißen Mann darzustellen. In einem anderen Fall wurde einem Foto von Präsident Donald Trump von KI ein nicht existierender Tumor am Kopf hinzugefügt.
Diese Diskrepanzen deuten darauf hin, dass die KI lediglich von vorhandenen Daten extrapoliert, anstatt die in unscharfen Bildern verlorenen Informationen präzise zu rekonstruieren. Obwohl die Technologie in manchen Kontexten nützlich sein mag, sollten KI-generierte Bilder in strafrechtlichen Ermittlungen nicht als endgültige Beweismittel gelten.
Das FBI veröffentlichte in seiner Mitteilung lediglich das Originalfoto und rief die Öffentlichkeit zur Mithilfe auf, falls sie die abgebildete Person identifizieren könnten. Die Welle von „selbstoptimierten Fotos“ in sozialen Netzwerken erregte jedoch schnell Aufsehen und warf Fragen nach der Verantwortung für den Einsatz von KI-Tools in sensiblen Fällen auf, die Sicherheit und Menschenleben betreffen.
Mit der zunehmenden Verbreitung künstlicher Intelligenz (KI) verdeutlicht dieser Vorfall ein Problem: KI kann Bilder erzeugen, die so realistisch aussehen, dass sie optisch täuschend sind. Das bedeutet aber nicht, dass sie verlässlich sind. Gerade bei kriminellen Ermittlungen können ungenaue Daten schwerwiegende Folgen haben.
Quelle: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











Kommentar (0)