La mijlocul lunii decembrie, Meta a început să integreze un chatbot cu inteligență artificială numit Meta AI în aplicația Messenger din Vietnam și l-a lansat gratuit pentru toți utilizatorii. Acest instrument folosește modelul lingvistic Llama 3.2, acceptă limba vietnameză, permite căutarea de informații, crearea de imagini și chat.
Nu după mult timp, mulți utilizatori din Vietnam au descoperit că Meta AI avea o eroare gravă în crearea imaginilor. Mai exact, la introducerea cuvântului cheie „câine negru”, chatbot-ul returna rezultatul unui bărbat sau băiat cu pielea închisă la culoare și părul creț. Dacă introducea cuvântul cheie în limba vietnameză „imagine câine negru”, Meta AI returna, de asemenea, rezultate similare.
Meta AI-ul care desenează persoane de culoare în timp ce comanda solicită conținut diferit este o problemă serioasă.
Pe 31 decembrie, reprezentantul Meta în Vietnam a vorbit oficial despre incident. Compania a confirmat problema menționată mai sus și a anunțat că a remediat-o. Totodată, Meta Vietnam și-a cerut scuze pentru incident și a declarat că această problemă s-ar putea întâmpla și cu alte sisteme de inteligență artificială generativă existente.
„Ne cerem scuze pentru această eroare. Meta integrează măsuri de siguranță în funcțiile și modelele noastre de inteligență artificială pentru a oferi o experiență mai sigură și mai plăcută pentru toată lumea. Cu toate acestea, la fel ca alte sisteme de inteligență artificială generativă, acest model poate returna conținut inexact sau ofensator, așa că încurajăm utilizatorii să utilizeze aceste instrumente în mod responsabil”, a declarat reprezentantul companiei.
După o perioadă de experiență, Meta AI este foarte apreciată de mulți oameni pentru capacitatea sa de a utiliza limbajul pentru a răspunde destul de lin. Funcția de creare a imaginilor oferă, de asemenea, o calitate bună în comparație cu un model lansat gratuit utilizatorilor. Unul dintre motive ar putea fi acela că Meta folosește conținutul postat pe Facebook ca date de intrare în procesul de antrenament al inteligenței artificiale, ajutând acest instrument să poată exprima și executa comenzi naturale.
Cu toate acestea, incidente precum rasismul sau reacțiile care nu îndeplinesc standardele stabilite pentru IA sunt încă dificil de evitat. Meta spune că își testează IA cu experți în domeniul inteligenței artificiale prin teste „Red Teaming” pentru a identifica utilizări neintenționate, pe care le abordează apoi printr-un proces de îmbunătățire continuă.
Sursă: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






Comentariu (0)