Vietnam.vn - Nền tảng quảng bá Việt Nam

Die Unterscheidung von KI-generierten Fotos ist äußerst einfach

Báo Quốc TếBáo Quốc Tế13/06/2023

Die Technologie der künstlichen Intelligenz (KI) boomt weltweit. Sie bringt viele Vorteile mit sich, weckt aber auch die Sorge, dass falsche Informationen schwerwiegende Folgen haben könnten.

So wurde am 22. Mai in den amerikanischen sozialen Medien ein Foto einer Explosion in der Nähe des Pentagons geteilt, das von künstlicher Intelligenz (KI) erstellt wurde. Dies führte innerhalb kurzer Zeit zu einem Kurssturz der Börse. Dies löste Bedenken hinsichtlich von KI-basierten Fake News aus.

Bức ảnh giả do AI tạo ra về vụ nổ gần Lầu Năm Góc.
KI-generiertes gefälschtes Foto einer Explosion in der Nähe des Pentagons.

Nick Waters von Bellingcat, einer Online-Faktencheck-Gruppe, wies umgehend auf einige erhebliche Mängel des Fotos hin. Erstens gibt es keine Augenzeugen, die den Vorfall bestätigen könnten. Das Gebäude auf dem Foto sieht zudem nicht wie das Pentagon aus. Einige ungewöhnliche Details, wie die markanten Laternenpfähle und die schwarzen Säulen, die aus dem Bürgersteig ragen, deuten darauf hin, dass das Foto nicht echt ist.

Es gibt viele Rekonstruktionstools mit künstlicher Intelligenz (KI) wie Midjourney, Dall-e 2 und Stable Diffusion, die naturgetreue Bilder erzeugen können. Diese Tools füllen jedoch die Lücken, wenn Daten fehlen.

Al Jazeera hat einige Maßnahmen ergriffen, um zwischen KI-generierten und echten Fotos von Großereignissen zu unterscheiden, wenn diese im Internet erscheinen. Die folgenden Maßnahmen sind zu befolgen:

- Im Falle einer Explosion oder eines anderen größeren Ereignisses liegen häufig sachliche Informationen von mehreren Personen und aus mehreren Perspektiven vor.

Wer veröffentlicht die Inhalte? Wo befinden sie sich und wo findet die Veranstaltung statt? Welchen Accounts folgen sie und wer folgt ihnen? Können Sie sie erreichen oder mit ihnen sprechen?

- Analysieren Sie Bilder und Umgebung: Suchen Sie im Bild nach Hinweisen wie nahegelegenen Orten, Verkehrszeichen usw., um festzustellen, wo oder wann ein Ereignis stattfinden könnte.

Achten Sie bei Bildern von Menschen auf Augen, Hände und allgemeine Körperhaltung. KI-generierte Videos , die Menschen imitieren (sogenannte Deep Fakes), haben oft Probleme mit dem Blinzeln, da die meisten Trainingsdatensätze keine Gesichter mit geschlossenen Augen enthalten. Hände greifen Objekte nicht richtig.

- Die Haut von Menschen in KI-generierten Bildern ist oft glatt und sogar ihre Haare und Zähne sind surreal perfekt.


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data
Die mächtige Formation von 5 SU-30MK2-Kampfflugzeugen bereitet sich auf die A80-Zeremonie vor
S-300PMU1-Raketen im Kampfeinsatz zum Schutz des Himmels über Hanoi
Die Lotusblütezeit lockt Touristen in die majestätischen Berge und Flüsse von Ninh Binh
Cu Lao Mai Nha: Wo Wildheit, Majestät und Frieden miteinander verschmelzen
Hanoi ist seltsam, bevor Sturm Wipha Land erreicht
Verloren in der wilden Welt im Vogelgarten in Ninh Binh
Die Terrassenfelder von Pu Luong sind in der Regenzeit atemberaubend schön
Asphaltteppiche auf der Nord-Süd-Autobahn durch Gia Lai
STÜCKE von HUE - Stücke von Hue
Magische Szene auf dem „umgedrehten Teehügel“ in Phu Tho

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt