Nick Clegg, president for globale saker hos Meta, sa at selskapet vil bruke et sett med markører innebygd i filene. Selskapet vil merke alt innhold som legges ut på Facebook-, Instagram- og Threads-tjenestene sine, og signalisere til brukerne at bilder (som kan se ut til å være ekte bilder) faktisk er digitale kreasjoner generert av kunstig intelligens. Selskapet har også merket innhold som er laget med sine egne AI-verktøy, ifølge Reuters.
Når det nye systemet er oppe og går, vil Meta gjøre det samme for bilder generert på tjenester fra OpenAI, Microsoft, Adobe, Midjourney, Shutterstock og Alphabet. Kunngjøringen er de første nyhetene om en ny standard som teknologiselskaper utvikler for å redusere skadene ved generativ AI, som kan lage falskt innhold selv fra enkelt innhold.
AI-generert bildemerking vil bidra til å bekjempe feilinformasjon og svindel
Tilnærmingen bygger på et mønster som selskaper har etablert det siste tiåret for å koordinere fjerning av forbudt innhold på plattformer, som skildringer av massevold og utnyttelse av barn.
Clegg mener at selskaper på dette tidspunktet kan merke AI-genererte bilder på en pålitelig måte, samtidig som han bemerker at mer sofistikerte verktøy for merking av lyd- og videoinnhold fortsatt er under utvikling.
Meta vil begynne å kreve at brukere merker endret lyd- og videoinnhold, og vil ilegge straffer hvis de ikke gjør det, men Clegg sa at det for øyeblikket ikke finnes noen levedyktig mekanisme for å merke tekst generert av AI-verktøy som ChatGPT.
Metas uavhengige tilsynsråd har kritisert selskapets retningslinjer for villedende redigerte videoer, og sagt at innhold bør merkes i stedet for å fjernes, så Clegg sa at Metas nye trekk kan bidra til å klassifisere slikt innhold bedre.
[annonse_2]
Kildekobling
Kommentar (0)