Meta a présenté Purple Llama, un projet dédié à la création d'outils open source permettant aux développeurs d'évaluer et d'améliorer la fiabilité et la sécurité des modèles d' intelligence artificielle générative (IA) avant leur mise en service.
Meta a souligné la nécessité d’efforts collaboratifs pour garantir la sécurité de l’IA, arguant que les défis de l’IA ne peuvent pas être résolus de manière isolée.
L'entreprise affirme que l'objectif de Purple Llama est d'établir une plate-forme commune pour développer une IA générative plus sûre, à mesure que les inquiétudes grandissent concernant les grands modèles de langage et d'autres technologies d'IA.
Gareth Lindahl-Wise, directeur de la sécurité informatique de la société de cybersécurité Ontinue, qualifie Purple Llama de « pas positif et proactif » vers une technologie d'IA plus sûre.
Le projet Purple Llama s'associe à des développeurs d'IA, à des services cloud comme AWS et Google Cloud, à des sociétés de semi-conducteurs comme Intel, AMD et Nvidia et à des sociétés de logiciels, dont Microsoft.
La première boîte à outils publiée par Purple Llama est CyberSecEval, un outil permettant d'évaluer les risques de cybersécurité dans les logiciels générés par l'IA.
Il dispose d’un modèle de langage qui identifie les textes inappropriés ou nuisibles, y compris les discussions sur la violence ou les activités illégales.
Les développeurs peuvent utiliser CyberSecEval pour tester si leurs modèles d’IA sont susceptibles de générer du code dangereux ou de prendre en charge des cyberattaques.
Des méta-recherches ont révélé que les grands modèles de langage suggèrent souvent un code vulnérable, soulignant l’importance des tests et des améliorations continus pour la sécurité de l’IA.
Llama Guard est une autre boîte à outils : un grand modèle de langage formé pour identifier un langage potentiellement nuisible ou offensant.
Les développeurs peuvent utiliser Llama Guard pour vérifier si leur modèle génère ou accepte du contenu dangereux, aidant ainsi à filtrer les invites pouvant conduire à une sortie inappropriée.
(selon IFW)
Le Royaume-Uni investit massivement dans l'IA et lance cinq nouveaux projets quantiques
La ceinture AI GUIDi remplace les cannes pour les malvoyants
L'alliance d'IA open source des géants de la technologie concurrencera OpenAI
Une orientation unique dans le développement de chatbots IA en Chine
Source
Comment (0)