Truepic-CEO Jeffrey McGregor sagte, der Vorfall sei nur die Spitze des „Eisbergs“. Es werde mehr KI-generierte Inhalte in den sozialen Medien geben, und wir seien nicht darauf vorbereitet, sagte McGregor.
Laut CNN will Truepic dieses Problem lösen, indem es eine Technologie bereitstellt, die Medien zum Zeitpunkt der Erstellung über Truepic Lens authentifiziert. Die Datenerfassungs-App teilt den Nutzern Datum, Uhrzeit, Ort und Gerät mit, mit dem das Bild erstellt wurde. Außerdem fügt sie eine digitale Signatur hinzu, um zu überprüfen, ob das Bild natürlich oder künstlich generiert ist.
Gefälschtes Foto der Pentagon-Explosion geht auf Twitter viral
Truepic, ein 2015 gegründetes und von Microsoft unterstütztes Unternehmen, sagte, das Unternehmen sehe Interesse von NGOs bis hin zu Medienunternehmen und sogar von Versicherern, die die Rechtmäßigkeit von Ansprüchen bestätigen möchten.
McGregor sagte, dass wir nicht mehr wüssten, was die Realität im Internet sei, wenn alles gefälscht werden könne und künstliche Intelligenz ihren Höhepunkt in Qualität und Zugänglichkeit erreicht habe.
Technologieunternehmen wie Truepic arbeiten seit Jahren daran, Online-Desinformation zu bekämpfen. Doch das Aufkommen einer neuen Generation von KI-Tools, die Bilder und Texte aus Benutzerbefehlen generieren können, hat die Dringlichkeit erhöht. Anfang des Jahres wurden gefälschte Bilder von Papst Franziskus in einer Balenciaga-Daunenjacke und der Verhaftung des ehemaligen US-Präsidenten Donald Trump weit verbreitet. Beide Vorfälle haben Millionen von Menschen vor den potenziellen Gefahren von KI gewarnt.
Einige Politiker fordern Technologieunternehmen nun auf, das Problem anzugehen und KI-generierte Inhalte zu kennzeichnen. Die Vizepräsidentin der Europäischen Kommission, Vera Jourova, sagte, Unternehmen wie Google, Meta, Microsoft und TikTok hätten sich dem freiwilligen Verhaltenskodex der Europäischen Union zur Bekämpfung von Desinformation angeschlossen.
Immer mehr Startups und Technologiegiganten, darunter einige, die generative KI in ihre Produkte integrieren, versuchen, Standards und Lösungen zu implementieren, mit denen Menschen feststellen können, ob ein Bild oder Video mithilfe von KI erstellt wurde.
Da sich die KI-Technologie jedoch schneller weiterentwickelt, als Menschen mithalten können, ist unklar, ob diese Lösungen das Problem vollständig lösen können. Selbst OpenAI, das Unternehmen hinter Dall-E und ChatGPT, hat zugegeben, dass seine eigenen Bemühungen zur Erkennung von KI-generierten Texten unvollkommen sind.
Unternehmen, die Lösungen entwickeln, verfolgen zwei Ansätze zur Lösung des Problems. Der erste basiert auf der Entwicklung von Programmen zur Identifizierung von KI-generierten Bildern, nachdem diese erstellt und online geteilt wurden. Der andere konzentriert sich darauf, ein Bild mit einer Art digitaler Signatur als echt oder KI-generiert zu kennzeichnen.
Reality Defender und Hive Moderation arbeiten an der ersten Lösung. Mit ihrer Plattform können Nutzer Bilder zum Scannen hochladen und erhalten anschließend eine Analyse, die in Prozent angibt, ob das Foto echt oder von KI generiert ist.
Reality Defender verwendet nach eigenen Angaben proprietäre Deepfake- und generative Content-Fingerprinting-Technologie, um KI-generierte Videos, Audiodateien und Bilder zu erkennen. In einem vom Unternehmen bereitgestellten Beispiel zeigte Reality Defender ein Deepfake-Bild von Tom Cruise, das zu 53 Prozent „verdächtig“ war, da die Person auf dem Bild ein verzerrtes Gesicht hatte, wie es bei manipulierten Fotos häufig vorkommt.
KI-generierte beschriftete Bilder
Diese Dienste bieten kostenlose und kostenpflichtige Versionen an. Hive Moderation berechnet nach eigenen Angaben 1,50 Dollar pro 1.000 Bilder. Realty Defender gibt an, dass die Preise je nach verschiedenen Faktoren variieren können, insbesondere wenn Kunden die Expertise und Unterstützung des Unternehmens benötigen. Laut Ben Colman, CEO von Reality Defender, verdoppelt sich das Risiko jeden Monat, da jeder mithilfe von KI-Tools gefälschte Fotos erstellen kann.
Mehrere andere Unternehmen arbeiten daran, Bilder mit einer Art Etikett zu versehen, um zu bestätigen, ob sie echt oder künstlich generiert sind. Bisher wurde dieses Projekt maßgeblich von der Content Authenticity and Origination Alliance (C2PA) vorangetrieben.
C2PA wurde 2021 gegründet, um einen technischen Standard für die Zertifizierung der Herkunft und Geschichte digitaler Medien zu schaffen. Es kombiniert Adobes Content Authentication Initiative (CAI) und das von Microsoft und der BBC geleitete Projekt Origin mit dem Schwerpunkt, Fehlinformationen in digitalen Nachrichten zu bekämpfen. Weitere an C2PA beteiligte Unternehmen sind Truepic, Intel und Sony.
Basierend auf den Prinzipien von C2PA wird CAI Open-Source-Tools für Unternehmen veröffentlichen, mit denen sie Inhaltsnachweise oder Metadaten mit Informationen zu Bildern erstellen können. Laut der CAI-Website können Urheber dadurch transparent Details zur Erstellung eines Bildes teilen. Endnutzer können so den Kontext darüber einsehen, wer, was und wie ein Bild verändert hat – und selbst beurteilen, wie authentisch das Bild ist.
Viele Unternehmen haben den C2PA-Standard und CAI-Tools bereits in ihre Anwendungen integriert. Adobes Firefly, ein neues KI-Bildbearbeitungstool für Photoshop, entspricht dank seiner Funktion „Content Credentials“ dem C2PA-Standard. Microsoft kündigte außerdem an, dass mit Bing Image Creator und Microsoft Designer erstellte Bilder und Videos in den kommenden Monaten kryptografische Signaturen erhalten werden.
Im Mai kündigte Google die Funktion „Über dieses Bild“ an, mit der Nutzer sehen können, wann ein Bild erstmals bei Google erschienen ist und wo es zu sehen ist. Der Suchmaschinenriese kündigte außerdem an, dass jedes von Google KI generierte Bild in der Originaldatei eine Markierung enthalten wird, um „Kontext hinzuzufügen“, falls das Bild auf einer anderen Website oder Plattform gefunden wird.
Während Technologieunternehmen versuchen, Bedenken hinsichtlich KI-generierter Bilder und der Integrität digitaler Medien auszuräumen, betonen Experten, dass Unternehmen zusammenarbeiten und mit Regierungen zusammenarbeiten müssen, um das Problem zu lösen. Trotz der Risiken entwickeln Technologieunternehmen KI rasant weiter.
[Anzeige_2]
Quellenlink
Kommentar (0)