A mediados de diciembre, Meta comenzó a integrar un chatbot de inteligencia artificial llamado Meta AI en la aplicación Messenger de Vietnam y lo lanzó gratuitamente para todos los usuarios. Esta herramienta utiliza el modelo de lenguaje Llama 3.2, es compatible con vietnamita y permite buscar información, crear imágenes y chatear.
Poco después, muchos usuarios en Vietnam descubrieron que Meta AI tenía un grave error al crear imágenes. En concreto, al introducir la palabra clave "perro negro", el chatbot devolvía un resultado de un hombre o niño de piel oscura con pelo rizado. Si se introducía la palabra clave en vietnamita como "imagen de perro negro", Meta AI también devolvía resultados similares.
Que Meta AI dibuje personas de color mientras el comando pide contenido diferente es un problema grave
El 31 de diciembre, el representante de Meta en Vietnam informó oficialmente sobre el incidente. La compañía confirmó el problema mencionado y anunció que lo había solucionado. Además, Meta Vietnam se disculpó por el incidente y advirtió que este problema podría ocurrir en otros sistemas de IA generativa existentes.
"Disculpen este error. Meta está implementando medidas de seguridad en sus funciones y modelos de IA para brindar una experiencia más segura y placentera para todos. Sin embargo, al igual que otros sistemas de IA generativa, este modelo puede mostrar contenido inexacto u ofensivo, por lo que recomendamos a los usuarios usar estas herramientas de forma responsable", declaró el representante de la compañía.
Tras un período de experiencia, Meta AI es muy apreciada por muchos por su capacidad para usar el lenguaje y responder con fluidez. La función de creación de imágenes también ofrece una buena calidad en comparación con un modelo gratuito. Esto se debe, en parte, a que Meta utiliza el contenido publicado en Facebook como datos de entrada en el proceso de entrenamiento de la IA, lo que permite a esta herramienta expresar y ejecutar comandos de forma natural.
Sin embargo, incidentes como el racismo o respuestas que no se ajustan a los estándares de la IA siguen siendo difíciles de evitar. Meta afirma que prueba su IA con expertos en inteligencia artificial mediante pruebas de "Red Teaming" para identificar usos no deseados, que posteriormente aborda mediante un proceso de mejora continua.
[anuncio_2]
Fuente: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






Kommentar (0)