Mi-décembre, Meta a commencé à intégrer un chatbot d'intelligence artificielle appelé Meta AI à son application Messenger au Vietnam et l'a mis gratuitement à la disposition de tous ses utilisateurs. Cet outil utilise le modèle linguistique Llama 3.2, prend en charge le vietnamien et permet de rechercher des informations, de créer des images et de discuter.
Peu de temps après, de nombreux utilisateurs vietnamiens ont découvert que Meta AI comportait une grave erreur dans la création d'images. En effet, en saisissant le mot-clé « chien noir », le chatbot renvoyait un résultat représentant un homme ou un garçon à la peau foncée et aux cheveux bouclés. En saisissant le mot-clé vietnamien « image de chien noir », Meta AI renvoyait également des résultats similaires.
L'IA méta qui dessine des personnes de couleur alors que l'invite de commande nécessite un contenu différent est un problème sérieux
Le 31 décembre, le représentant de Meta au Vietnam a officiellement fait part de l'incident. L'entreprise a confirmé le problème et annoncé sa résolution. Meta Vietnam a également présenté ses excuses pour cet incident et a indiqué que ce problème pourrait survenir sur d'autres systèmes d'IA générative existants.
« Nous nous excusons pour cette erreur. Meta intègre des mesures de sécurité à ses fonctionnalités et modèles d'IA afin d'offrir une expérience plus sûre et plus agréable à tous. Cependant, comme d'autres systèmes d'IA générative, ce modèle peut renvoyer du contenu inexact ou offensant. Nous encourageons donc les utilisateurs à utiliser ces outils de manière responsable », a déclaré le représentant de l'entreprise.
Après une période d'expérience, Meta AI est très apprécié pour sa capacité à utiliser le langage de manière fluide. La fonction de création d'images offre également une meilleure qualité par rapport à un modèle mis gratuitement à la disposition des utilisateurs. Cela s'explique peut-être en partie par le fait que Meta utilise le contenu publié sur Facebook comme données d'entrée pour l'entraînement de l'IA, ce qui permet à cet outil d'exprimer et d'exécuter des commandes de manière naturelle.
Cependant, des incidents comme le racisme ou des réponses non conformes aux normes de l'IA sont difficiles à éviter. Meta affirme tester son IA avec des experts en intelligence artificielle via des tests de « Red Teaming » afin d'identifier les utilisations non prévues, auxquelles elle remédie ensuite grâce à un processus d'amélioration continue.
Source : https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm
Comment (0)