Em meados de dezembro, a Meta começou a integrar um chatbot de inteligência artificial chamado Meta AI ao aplicativo Messenger no Vietnã e o disponibilizou gratuitamente para todos os usuários. A ferramenta utiliza o modelo de linguagem Llama 3.2, oferece suporte ao idioma vietnamita e permite a busca de informações, a criação de imagens e o bate-papo.
Pouco tempo depois, muitos usuários no Vietnã descobriram que o Meta AI tinha um erro grave na criação de imagens. Especificamente, ao inserir a palavra-chave "cachorro preto", o chatbot retornava um homem ou menino de pele escura e cabelo cacheado. Ao inserir a palavra-chave em vietnamita como "imagem de cachorro preto", o Meta AI também retornava resultados semelhantes.
Meta AI desenhando pessoas de cor enquanto o comando pede conteúdo diferente é um problema sério
Em 31 de dezembro, o representante da Meta no Vietnã se pronunciou oficialmente sobre o incidente. A empresa confirmou o problema mencionado e anunciou que o havia corrigido. Além disso, a Meta Vietnã se desculpou pelo incidente e afirmou que o problema poderia ocorrer com outros sistemas de IA generativa existentes.
"Pedimos desculpas por este erro. A Meta está incorporando salvaguardas em nossos recursos e modelos de IA para proporcionar uma experiência mais segura e agradável para todos. No entanto, assim como outros sistemas de IA generativa, este modelo pode retornar conteúdo impreciso ou ofensivo, por isso incentivamos os usuários a usar essas ferramentas com responsabilidade", disse o representante da empresa.
Após um período de experiência, o Meta AI é altamente elogiado por muitas pessoas por sua capacidade de usar a linguagem para responder com bastante fluidez. O recurso de criação de imagens também oferece boa qualidade em comparação com um modelo disponibilizado gratuitamente aos usuários. Parte do motivo pode ser que o Meta utiliza o conteúdo postado no Facebook como dados de entrada no processo de treinamento da IA, ajudando esta ferramenta a expressar e executar comandos naturalmente.
No entanto, incidentes como racismo ou respostas que não se enquadram nos padrões estabelecidos para IA ainda são difíceis de evitar. A Meta afirma que testa sua IA com especialistas na área de inteligência artificial por meio de testes de "Red Teaming" para identificar usos indesejados, que são então abordados por meio de um processo de melhoria contínua.
[anúncio_2]
Fonte: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






Comentário (0)