Hvordan fungerer en AI-bildegenerator?
AI-baserte bildegeneratorer bruker maskinlæringsmodeller som tar brukerinntastet tekst og genererer ett eller flere bilder som samsvarer med beskrivelsen. Trening av disse modellene krever enorme datasett med millioner av bilder.
Det blir enklere å lage bilder med AI. Foto: Ijnet
Selv om verken Midjourney eller DALL-E 2 offentliggjør hvordan algoritmene deres fungerer, bruker de fleste AI-bildegeneratorer en prosess som kalles diffusjon. Diffusjonsmodeller fungerer ved å legge til tilfeldig «støy» i treningsdata, og deretter lære å rekonstruere dataene ved å fjerne de støyende delene. Modellen gjentar denne prosessen til den har et bilde som samsvarer med inputen.
Dette er forskjellig fra store språkmodeller som ChatGPT. Store språkmodeller trenes på umerkede tekstdata, som de analyserer for å lære språkmønstre og generere menneskelignende svar.
I generativ AI påvirker input output. Hvis en bruker spesifiserer at de bare vil inkludere personer med en bestemt hudfarge eller kjønn i et bilde, vil modellen ta hensyn til det.
I tillegg til dette vil modellen imidlertid også ha en tendens til å returnere bestemte bilder som standard. Dette er ofte et resultat av mangel på mangfold i treningsdataene.
En nylig studie utforsket hvordan Midjourney visualiserer tilsynelatende generiske begreper, inkludert spesialiserte medieyrker (som «nyhetsanalytiker», «nyhetskommentator» og «faktasjekker») og mer generelle yrker (som «journalist», «reporter», «journalistikk»).
Studien ble gjennomført i august i fjor, og resultatene ble gjennomført på nytt seks måneder senere for å se hvordan systemet hadde blitt forbedret i løpet av den tiden. Totalt analyserte forskerne mer enn 100 AI-genererte bilder i løpet av den tiden.
Aldersdiskriminering og sexisme
For spesifikke yrker er den eldste alltid mann. Foto: IJN
For uspesifikke stillingstitler viser Midjourney kun bilder av yngre menn og kvinner. For spesifikke roller vises både yngre og eldre personer, men de eldre personene er alltid menn.
Disse resultatene forsterker implisitt en rekke stereotypier, inkludert antagelsen om at eldre ikke jobber i ikke-spesialiserte stillinger, at bare eldre menn er egnet til profesjonelt arbeid, og at mindre spesialisert arbeid vanligvis er forbeholdt kvinner.
Det er også merkbare forskjeller i hvordan menn og kvinner fremstilles. For eksempel er kvinner yngre og rynkefrie, mens menn har «lov» til å ha rynker.
AI ser også ut til å representere kjønn som binært, snarere enn å vise eksempler på mer flytende kjønnsuttrykk.
Rasefordommer
Bilder for «reportere» eller «journalister» viser ofte bare hvite mennesker. Foto: IJN
Alle bilder som returneres for søkeord som «journalist» og «reporter» viser kun bilder av hvite mennesker.
Dette kan gjenspeile mangel på mangfold og underrepresentasjon i AI-ens underliggende treningsdata.
Klassisme og konservatisme
Alle karakterene på bildet har også et «konservativt» utseende. For eksempel har ingen av dem tatoveringer, piercinger, uvanlige frisyrer eller andre attributter som ville skille dem fra tradisjonelle skildringer.
Mange bruker også formelle klær som skjorter og dresser. Dette er indikatorer på klasseforventninger. Selv om dette kan være passende for visse roller, som TV-programledere, er det ikke nødvendigvis en korrekt refleksjon av hvordan reportere eller journalister vanligvis kler seg.
Urbanisme
Bildene er som standard tatt i byen, men det er ingen geografisk referanse. Foto: IJN
Selv om det ikke spesifiseres noen plassering eller geografisk kontekst, inkluderer bildene som returneres av AI-en urbane områder som skyskrapere eller travle gater. Dette stemmer ikke, ettersom litt over halvparten av verdens befolkning bor i byer.
Foreldet
Bilder av mediearbeidere inkluderer utdaterte teknologier som skrivemaskiner, skrivere og vintagekameraer.
Siden mange fagfolk ser like ut i dag, ser det ut til at AI trekker på mer differensierte teknologier (inkludert utdaterte og ubrukte) for å gjøre de beskrevne rollene mer tydelige.
Så hvis du lager dine egne AI-bilder, bør du vurdere potensielle skjevheter når du skriver beskrivelser. Ellers kan du utilsiktet forsterke skadelige stereotypier som samfunnet har brukt flere tiår på å avkrefte.
Hoang Ton (ifølge IJN)
[annonse_2]
Kilde
Kommentar (0)