December közepén a Meta elkezdte integrálni a Meta AI nevű mesterséges intelligencián alapuló chatbotot a vietnami Messenger alkalmazásba, és ingyenesen elérhetővé tette minden felhasználó számára. Ez az eszköz a Llama 3.2 nyelvi modellt használja, támogatja a vietnami nyelvet, lehetővé teszi az információk keresését, képek létrehozását és a csevegést.
Nem sokkal később számos vietnami felhasználó fedezte fel, hogy a Meta AI komoly hibát vétett a képalkotás során. Konkrétan a „fekete kutya” kulcsszó beírásakor a chatbot egy sötét bőrű, göndör hajú férfit vagy fiút adott vissza eredményül. Ha vietnamiul adták meg a kulcsszót „fekete kutya képe”, a Meta AI hasonló eredményeket adott.
Komoly problémát jelent, hogy a meta mesterséges intelligencia színes bőrű embereket rajzol, miközben a parancs eltérő tartalmat kér.
December 31-én a Meta vietnami képviselője hivatalosan is megszólalt az incidenssel kapcsolatban. A vállalat megerősítette a fent említett problémát, és bejelentette, hogy kijavította. Ezzel egyidejűleg a Meta Vietnam elnézést kért az incidensért, és azt mondta, hogy ez a probléma más meglévő generatív MI-rendszerekkel is előfordulhat.
„Elnézést kérünk a hibáért. A Meta biztonsági intézkedéseket épít be funkcióiba és MI-modelljeibe, hogy biztonságosabb és élvezetesebb élményt nyújtson mindenkinek. Azonban más generatív MI-rendszerekhez hasonlóan ez a modell is pontatlan vagy sértő tartalmat adhat vissza, ezért arra ösztönözzük a felhasználókat, hogy felelősségteljesen használják ezeket az eszközöket” – mondta a cég képviselője.
Egy idő után a Meta AI-t sokan nagyra értékelik, mivel képes a nyelvi válaszok gördülékenyebbé tételére. A képalkotási funkció is jó minőséget biztosít a felhasználók számára ingyenesen elérhető modellhez képest. Ennek egyik oka az lehet, hogy a Meta a Facebookon közzétett tartalmakat használja bemeneti adatként az AI betanítási folyamatában, segítve az eszközt abban, hogy természetes parancsokat tudjon kifejezni és végrehajtani.
Azonban az olyan incidenseket, mint a rasszizmus vagy a mesterséges intelligenciára vonatkozó szabványoknak nem megfelelő válaszok, továbbra is nehéz elkerülni. A Meta azt állítja, hogy mesterséges intelligencia szakértőkkel teszteli mesterséges intelligenciáját „Red Teaming” tesztek segítségével, hogy azonosítsa a nem kívánt felhasználási módokat, amelyeket aztán folyamatos fejlesztési folyamaton keresztül kezel.
[hirdetés_2]
Forrás: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






Hozzászólás (0)