I midten av desember begynte Meta å integrere en kunstig intelligens-chatbot kalt Meta AI i Messenger-applikasjonen i Vietnam og ga den ut gratis til alle brukere. Dette verktøyet bruker språkmodellen Llama 3.2, støtter vietnamesisk, tillater søking etter informasjon, oppretting av bilder og chatting.
Ikke lenge etter oppdaget mange brukere i Vietnam at Meta AI hadde en alvorlig feil i bildeopprettingen. Mer spesifikt, når man skrev inn nøkkelordet «svart hund», returnerte chatboten et resultat av en mørkhudet mann eller gutt med krøllete hår. Hvis man skrev inn nøkkelordet på vietnamesisk som «svart hundbilde», returnerte Meta AI også lignende resultater.
Meta-AI som tegner fargede mennesker mens kommandoen ber om forskjellig innhold er et alvorlig problem
31. desember uttalte Metas representant i Vietnam seg offisielt om hendelsen. Selskapet bekreftet det ovennevnte problemet og kunngjorde at de hadde løst det. Samtidig beklaget Meta Vietnam hendelsen og sa at dette problemet kunne forekomme med andre eksisterende generative AI-systemer.
«Vi beklager denne feilen. Meta bygger sikkerhetstiltak inn i funksjonene og AI-modellene våre for å gi en tryggere og mer behagelig opplevelse for alle. I likhet med andre generative AI-systemer kan imidlertid denne modellen returnere unøyaktig eller støtende innhold, så vi oppfordrer brukere til å bruke disse verktøyene ansvarlig», sa selskapets representant.
Etter en periode med erfaring er Meta AI høyt verdsatt av mange for sin evne til å bruke språk til å reagere ganske smidig. Bildeopprettingsfunksjonen gir også god kvalitet sammenlignet med en modell som er utgitt gratis for brukere. En del av grunnen kan være at Meta bruker innhold lagt ut på Facebook som inndata i AI-treningsprosessen, noe som hjelper dette verktøyet med å kunne uttrykke og utføre naturlige kommandoer.
Hendelser som rasisme eller reaksjoner som ikke oppfyller standardene som er satt for AI, er imidlertid fortsatt vanskelige å unngå. Meta sier at de tester sin AI med eksperter innen kunstig intelligens gjennom «Red Teaming»-tester for å identifisere utilsiktede bruksområder, som de deretter adresserer gjennom en kontinuerlig forbedringsprosess.
[annonse_2]
Kilde: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






Kommentar (0)