![]() |
Googles Nano Banana Pro bietet eine recht realistische Bildqualität. Foto: Mashable . |
In den Anfangsjahren der KI-gestützten Bildgebungstechnologie waren die resultierenden Produkte oft leicht als Fälschungen zu erkennen. Bilder mit zu vielen Fingern, verzerrten Körperdetails oder unrealistischer Beleuchtung waren häufige Indizien.
Diese Ära neigt sich jedoch dem Ende zu. KI-gestützte Bildbearbeitungswerkzeuge werden immer überzeugender, nicht indem sie das Bild selbst perfektionieren, sondern indem sie bewusst Fehler einbauen, die reale Fotografien imitieren.
Trends bei der KI-Bilderzeugung
OpenAI hat sein Bildgenerierungstool DALL-E vor weniger als fünf Jahren auf den Markt gebracht. Die erste Version konnte lediglich Bilder mit einer Auflösung von 256 x 256 Pixeln erzeugen und war daher eher experimentell als praktisch. Mit DALL-E 2 wurde die Auflösung auf 1024 x 1024 Pixel erhöht, was zu deutlich realistischeren Bildern führt. Dennoch weisen Details weiterhin Ungenauigkeiten auf, von unscharfen Oberflächen bis hin zu Objekten, die sich visuell nur schwer erklären lassen.
Gleichzeitig erregten Midjourney und Stable Diffusion schnell die Aufmerksamkeit der Kreativszene. In den folgenden Jahren wurden die Modelle kontinuierlich verbessert, geometrische Fehler reduziert und die Lesbarkeit von Texten optimiert. Dennoch wirkte ein Großteil der KI immer noch „zu perfekt“, da Beleuchtung, Komposition und Glättung eher Illustrationen als echten Fotografien ähnelten.
![]() |
Viele KI-Modelle erzeugen Bilder, die zu realistisch sind, um der Realität zu entsprechen. Foto: Bloomberg . |
Dieser Trend ändert sich. Entwickler beginnen, sich dem Realismus zuzuwenden und die Unvollkommenheiten nachzubilden, die Fotos, die mit gängigen Geräten, insbesondere Handykameras, aufgenommen wurden, inhärent sind.
In der zweiten Jahreshälfte 2025 führte Google das Nano-Banana-Bildgenerierungsmodell in der Gemini-App ein, gefolgt von weiteren Verbesserungen mit Nano Banana Pro. Laut dem Suchmaschinenriesen handelt es sich dabei um das bisher realistischste Bildmodell, das realweltliches Wissen nutzt und Texte effektiver darstellt.
Bemerkenswert ist, dass viele der mit diesem Modell erzeugten Bilder denen von Smartphones sehr ähnlich sind, was Kontrast, Perspektive, Beleuchtung und Schärfe betrifft.
Fotos, die mit Smartphone-Kameras aufgenommen wurden, haben ihren ganz eigenen Stil. Aufgrund der begrenzten Sensor- und Objektivgröße nutzen Smartphones die Mehrbildverarbeitung, um die Bildqualität zu verbessern. Dadurch entstehen Fotos mit aufgehellten dunklen Bereichen, hervorgehobenen Details und einer Optimierung für die Darstellung auf kleinen Bildschirmen. Künstliche Intelligenz lernt diesen Stil, wodurch die Bilder für den Betrachter vertrauter wirken und weniger künstlich erscheinen.
Das Paradoxon realistischer Bilder
Google ist nicht der einzige Fall. Adobe Firefly bietet eine Option zur Bildverbesserung, mit der Nutzer die Glättung von KI-Bildern reduzieren und sie so echten Fotos angleichen können. Auch Meta bietet einen Regler für den Stil, mit dem Nutzer den Realismusgrad anpassen können.
Im Bereich Video werden Tools wie OpenAI's Sora oder Google's Veo verwendet, um minderwertige, körnige Clips zu erzeugen, die Bilder von Überwachungskameras imitieren und so „schlecht“ sind, dass sie glaubwürdig wirken.
![]() |
Videos, die mithilfe von KI erstellt werden, wirken immer realistischer. Foto: Bloomberg . |
Einigen Fotografieexperten zufolge kann die Fähigkeit der KI, bekannte Fehler zu simulieren, Modellen helfen, nicht in die sogenannte „ungewöhnliche Zone“ zu geraten – einen Zustand, in dem Bilder zwar der Realität sehr ähnlich sehen, beim Betrachter aber dennoch ein Gefühl des Unbehagens auslösen. Anstatt die Realität nachzubilden, muss die KI lediglich imitieren, wie Menschen Bilder aufnehmen – mit all ihren inhärenten Einschränkungen und Ungenauigkeiten.
Diese Entwicklung stellt eine erhebliche Herausforderung für die Unterscheidung zwischen echten und gefälschten Bildern dar. Da KI-Bilder herkömmlichen Fotografien immer ähnlicher werden, wird die Herkunftsbestimmung zunehmend schwieriger. Um dem entgegenzuwirken, wird der C2PA-Standard für Inhaltsnachweise implementiert, der Bilder mit kryptografischen Signaturen versieht und so die Rückverfolgbarkeit vom Zeitpunkt ihrer Erstellung an ermöglicht.
Aktuell fehlen den meisten Smartphone-Fotos Authentifizierungsinformationen, und die Grenze zwischen digital bearbeiteten und KI-generierten Bildern verschwimmt zunehmend. Solange keine einheitlichen Standards für Hardware und Sharing-Plattformen gelten, ist weiterhin Vorsicht im Umgang mit Bildern im digitalen Raum geboten.
Quelle: https://znews.vn/nghich-ly-cua-ai-tao-anh-post1612058.html









Kommentar (0)