![]() |
Google Nano Banana Pro oferuje dość realistyczną jakość obrazu. Zdjęcie: Mashable . |
We wczesnych latach rozwoju technologii obrazowania opartej na sztucznej inteligencji (AI), powstałe produkty były często łatwo rozpoznawalne jako podróbki. Obrazy ze zbyt dużą liczbą palców, zniekształconymi detalami ciała lub nierealistycznym oświetleniem były częstymi oznakami.
Jednak ta era dobiega końca. Narzędzia do tworzenia obrazów oparte na sztucznej inteligencji stają się coraz bardziej przekonujące, nie poprzez udoskonalanie samego obrazu, ale poprzez celowe uwzględnianie wad, które naśladują prawdziwe fotografie.
Trendy w tworzeniu obrazu AI
Firma OpenAI uruchomiła narzędzie do generowania obrazów DALL-E niecałe pięć lat temu. Pierwsza wersja umożliwiała generowanie obrazów jedynie w rozdzielczości 256 x 256 pikseli, co czyniło je bardziej eksperymentalnym niż praktycznym. W DALL-E 2 rozdzielczość wzrosła do 1024 x 1024 pikseli, co przełożyło się na znacznie bardziej realistyczne obrazy. Jednak szczegóły nadal wykazują oznaki anomalii, od rozmytych powierzchni po obiekty trudne do wizualnego wyjaśnienia.
W tym samym czasie Midjourney i Stable Diffusion również szybko zyskały uwagę środowiska kreatywnego. W ciągu kolejnych kilku lat modele były stale udoskonalane, redukując błędy geometryczne i poprawiając widoczność tekstu. Jednak wiele elementów sztucznej inteligencji nadal wydawało się „zbyt idealnych”, a oświetlenie, kompozycja i płynność obrazu bardziej przypominały ilustracje niż prawdziwe fotografie.
![]() |
Wiele modeli sztucznej inteligencji generuje obrazy, które są zbyt realistyczne, by odzwierciedlać rzeczywistość. Zdjęcie: Bloomberg . |
Ten trend się zmienia. Twórcy oprogramowania zaczynają zmierzać w kierunku realizmu, odtwarzając niedoskonałości zdjęć robionych popularnymi urządzeniami, zwłaszcza aparatami w telefonach.
W drugiej połowie 2025 roku Google wprowadził model tworzenia obrazów Nano Banana w aplikacji Gemini, a następnie wprowadził kolejne ulepszenia w postaci Nano Banana Pro. Według giganta wyszukiwania, jest to jak dotąd najbardziej realistyczny model obrazów, który pozwala na wykorzystanie wiedzy ze świata rzeczywistego i skuteczniejsze wyświetlanie tekstu.
Warto zauważyć, że wiele zdjęć wykonanych tym modelem bardzo przypomina te robione smartfonami – pod względem kontrastu, perspektywy, oświetlenia i ostrości.
Zdjęcia robione aparatami smartfonów mają swój własny, niepowtarzalny styl. Ze względu na ograniczenia rozmiaru matrycy i obiektywu, smartfony wykorzystują przetwarzanie wieloklatkowe w celu poprawy jakości obrazu. Dzięki temu powstają zdjęcia z uwydatnionymi ciemnymi obszarami, uwydatnionymi szczegółami i zoptymalizowane pod kątem wyświetlania na małych ekranach. Sztuczna inteligencja, ucząc się tego stylu, sprawia, że obrazy są bardziej znajome dla odbiorców, zmniejszając tym samym wrażenie sztuczności.
Paradoks realistycznych obrazów
Google nie jest jedynym przykładem. Adobe Firefly oferuje opcję „ulepszania obrazu”, pozwalającą użytkownikom na zmniejszenie efektu „upiększania” obrazów AI, aby jak najbardziej przypominały prawdziwe fotografie. Meta zawiera również suwak „stylizowania”, który pozwala użytkownikom dostosować poziom realizmu.
W dziedzinie wideo narzędzia takie jak Sora firmy OpenAI czy Veo firmy Google służą do tworzenia niskiej jakości, ziarnistych klipów, które imitują obrazy z kamer bezpieczeństwa. Są one na tyle „złe”, że można w nie uwierzyć.
![]() |
Filmy tworzone przy użyciu sztucznej inteligencji stają się coraz bardziej realistyczne. Zdjęcie: Bloomberg . |
Według niektórych ekspertów w dziedzinie fotografii, zdolność sztucznej inteligencji do symulowania znanych wad może pomóc modelom uniknąć popadnięcia w „nietypową dolinę” – stan, w którym obrazy wiernie odzwierciedlają rzeczywistość, ale nadal wywołują u widza poczucie niepokoju. Zamiast odtwarzać rzeczywistość, sztuczna inteligencja musi po prostu naśladować sposób, w jaki ludzie robią zdjęcia, ze wszystkimi ich nieodłącznymi ograniczeniami i niedokładnościami.
Ten rozwój sytuacji stanowi poważne wyzwanie dla możliwości odróżniania obrazów autentycznych od fałszywych. Ponieważ obrazy tworzone przez sztuczną inteligencję coraz bardziej przypominają konwencjonalne fotografie, identyfikacja ich pochodzenia staje się trudniejsza. W odpowiedzi na to wdrażany jest standard C2PA Content Credentials, który dodaje do obrazów podpisy kryptograficzne, umożliwiając ich śledzenie od momentu utworzenia.
Obecnie większość zdjęć robionych smartfonami nie posiada informacji uwierzytelniających, a granica między zdjęciami edytowanymi cyfrowo a tymi stworzonymi w całości przez sztuczną inteligencję staje się coraz bardziej płynna. Dopóki standardy nie zostaną wdrożone jednolicie na wszystkich platformach sprzętowych i platformach udostępniania, użytkownicy nadal muszą zachować niezbędną ostrożność, jeśli chodzi o zdjęcia w przestrzeni cyfrowej.
Źródło: https://znews.vn/nghich-ly-cua-ai-tao-anh-post1612058.html









Komentarz (0)