Nick Clegg, president Global Affairs bij Meta, zei dat het bedrijf een reeks markeringen zal gebruiken die in de bestanden zijn ingebouwd. Het bedrijf zal labels toevoegen aan alle content die op Facebook, Instagram en Threads wordt geplaatst, om gebruikers te laten weten dat afbeeldingen (die eruit kunnen zien als echte foto's) in werkelijkheid digitale creaties zijn die zijn gegenereerd door kunstmatige intelligentie (AI). Volgens Reuters heeft het bedrijf ook content gelabeld die met eigen AI-tools is gemaakt.
Zodra het nieuwe systeem operationeel is, zal Meta hetzelfde doen voor afbeeldingen die gegenereerd zijn via diensten van OpenAI, Microsoft, Adobe, Midjourney, Shutterstock en Alphabet. De aankondiging is het eerste nieuws over een nieuwe standaard die techbedrijven ontwikkelen om de schade van generatieve AI te beperken, die zelfs van eenvoudige content nepcontent kan maken.
Door AI gegenereerde beeldlabels kunnen misinformatie en oplichting helpen bestrijden
De aanpak bouwt voort op een patroon dat bedrijven de afgelopen tien jaar hebben ontwikkeld om de verwijdering van verboden content op platforms, zoals afbeeldingen van grootschalig geweld en kinderuitbuiting, te coördineren.
Clegg is van mening dat bedrijven op dit moment op betrouwbare wijze AI-gegenereerde afbeeldingen kunnen labelen, maar hij merkt op dat er nog steeds geavanceerdere hulpmiddelen voor het labelen van audio- en video- inhoud in ontwikkeling zijn.
Meta gaat van gebruikers eisen dat ze aangepaste audio- en videocontent labelen en zal straffen opleggen als ze dat niet doen. Volgens Clegg is er momenteel echter geen bruikbaar mechanisme voor het labelen van tekst die is gegenereerd door AI-tools zoals ChatGPT.
De onafhankelijke toezichthoudende raad van Meta heeft kritiek geuit op het beleid van het bedrijf met betrekking tot misleidend gemonteerde video's. Volgens de raad zou content gelabeld moeten worden in plaats van verwijderd. Volgens Clegg zou de nieuwe stap van Meta kunnen helpen om dergelijke content beter te classificeren.
Bronlink
Reactie (0)