Selon une nouvelle étude publiée par l’Organisation des Nations Unies pour l’éducation , la science et la culture (UNESCO) le 7 mars, de nombreux outils d’intelligence artificielle (IA) parmi les plus populaires au monde sont alimentés par des programmes biaisés développés par des entreprises comme OpenAI et Meta.
Les plus grandes entreprises de l'IA exploitent d'énormes quantités de données provenant d'Internet pour entraîner leurs algorithmes, appelés grands modèles linguistiques (LLM). L'UNESCO a testé l'algorithme Llama 2 de Meta ainsi que les algorithmes GPT-2 et GPT-3.5 d'OpenAI, utilisés dans la célèbre application de chat ChatGPT. Les tests ont révélé que chacun d'eux présentait des signes évidents de discrimination à l'égard des femmes.
Les résultats ont montré que les textes liés aux noms féminins générés par ces outils contenaient souvent des mots tels que « maison », « famille » ou « enfants », tandis que les textes liés aux noms masculins contenaient souvent des mots tels que « entreprise », « salaire » ou « carrière » ; les hommes étaient souvent décrits avec des emplois tels qu’enseignants, avocats, médecins ; tandis que les femmes étaient souvent associées à des emplois tels que la cuisine, les tâches ménagères, etc.
DO CAO
Source
Comment (0)