A mediados de diciembre, Meta comenzó a integrar un chatbot de inteligencia artificial llamado Meta AI en la aplicación Messenger de Vietnam y lo lanzó gratuitamente para todos los usuarios. Esta herramienta utiliza el modelo de lenguaje Llama 3.2, es compatible con vietnamita y permite buscar información, crear imágenes y chatear.
Poco después, muchos usuarios en Vietnam descubrieron que Meta AI tenía un grave error al crear imágenes. En concreto, al introducir la palabra clave "perro negro", el chatbot devolvía un resultado de un hombre o niño de piel oscura con pelo rizado. Si se introducía la palabra clave en vietnamita como "imagen de perro negro", Meta AI también devolvía resultados similares.
Meta AI dibujando personas de color mientras el símbolo del sistema requiere contenido diferente es un problema grave
El 31 de diciembre, el representante de Meta en Vietnam informó oficialmente sobre el incidente. La compañía confirmó el problema mencionado y anunció su solución. Además, Meta Vietnam se disculpó por el incidente y advirtió que este problema podría afectar a otros sistemas de IA generativa existentes.
Disculpen este error. Meta está implementando medidas de seguridad en sus funciones y modelos de IA para brindar una experiencia más segura y placentera para todos. Sin embargo, al igual que otros sistemas de IA generativa, este modelo puede mostrar contenido inexacto u ofensivo, por lo que recomendamos a los usuarios usar estas herramientas con responsabilidad.
Tras un período de experiencia, Meta AI es muy apreciada por muchos por su capacidad para usar el lenguaje y responder con fluidez. La función de creación de imágenes también ofrece una buena calidad en comparación con un modelo gratuito. Esto se debe, en parte, a que Meta utiliza el contenido publicado en Facebook como datos de entrada durante el proceso de entrenamiento de la IA, lo que permite que esta herramienta exprese y ejecute comandos de forma natural.
Aun así, incidentes como el racismo o respuestas que no se ajustan a los estándares de la IA son difíciles de evitar. Meta afirma que prueba su IA con expertos en inteligencia artificial mediante pruebas de "Red Teaming" para identificar usos no deseados, que posteriormente aborda mediante un proceso de mejora continua.
[anuncio_2]
Fuente: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm
Kommentar (0)