image111.jpg
Meta s’efforce d’affirmer son rôle de pionnier dans le développement des technologies de l’IA.

Meta a présenté Purple Llama, un projet dédié à la création d'outils open source permettant aux développeurs d'évaluer et d'améliorer la fiabilité et la sécurité des modèles d' intelligence artificielle générative (IA) avant leur mise en service.

Meta a souligné la nécessité d’efforts collaboratifs pour garantir la sécurité de l’IA, arguant que les défis de l’IA ne peuvent pas être résolus de manière isolée.

L'entreprise affirme que l'objectif de Purple Llama est d'établir une plate-forme commune pour développer une IA générative plus sûre, à mesure que les inquiétudes grandissent concernant les grands modèles de langage et d'autres technologies d'IA.

Gareth Lindahl-Wise, directeur de la sécurité informatique de la société de cybersécurité Ontinue, qualifie Purple Llama de « pas positif et proactif » vers une technologie d'IA plus sûre.

Le projet Purple Llama s'associe à des développeurs d'IA, à des services cloud comme AWS et Google Cloud, à des sociétés de semi-conducteurs comme Intel, AMD et Nvidia et à des sociétés de logiciels, dont Microsoft.

La première boîte à outils publiée par Purple Llama est CyberSecEval, un outil permettant d'évaluer les risques de cybersécurité dans les logiciels générés par l'IA.

Il dispose d’un modèle de langage qui identifie les textes inappropriés ou nuisibles, y compris les discussions sur la violence ou les activités illégales.

Les développeurs peuvent utiliser CyberSecEval pour tester si leurs modèles d’IA sont susceptibles de générer du code dangereux ou de prendre en charge des cyberattaques.

Des méta-recherches ont révélé que les grands modèles de langage suggèrent souvent un code vulnérable, soulignant l’importance des tests et des améliorations continus pour la sécurité de l’IA.

Llama Guard est une autre boîte à outils : un grand modèle de langage formé pour identifier un langage potentiellement nuisible ou offensant.

Les développeurs peuvent utiliser Llama Guard pour vérifier si leur modèle génère ou accepte du contenu dangereux, aidant ainsi à filtrer les invites pouvant conduire à une sortie inappropriée.

(selon IFW)

Le Royaume-Uni investit massivement dans l'IA et lance cinq nouveaux projets quantiques

Le Royaume-Uni investit massivement dans l'IA et lance cinq nouveaux projets quantiques

La Grande-Bretagne investira « massivement » pour développer des ordinateurs quantiques à grande échelle et soutenir les nouvelles technologies, notamment en construisant le supercalculateur d'IA Isambard le plus puissant du pays.
La ceinture AI GUIDi remplace les cannes pour les malvoyants

La ceinture AI GUIDi remplace les cannes pour les malvoyants

En appliquant la technologie de l’IA, la ceinture de haute technologie deviendra un compagnon pour les malvoyants, remplaçant les cannes de marche encombrantes.
L'alliance d'IA open source des géants de la technologie concurrencera OpenAI

L'alliance d'IA open source des géants de la technologie concurrencera OpenAI

Meta, IBM, Intel, Sony, Dell et d'autres entreprises technologiques ont récemment annoncé la création de l'Open Source AI Alliance pour développer une technologie responsable axée sur les mesures de sécurité.
Une orientation unique dans le développement de chatbots IA en Chine

Une orientation unique dans le développement de chatbots IA en Chine

Profitant du marché laissé ouvert par OpenAI et Google, les entreprises technologiques chinoises réalisent des profits importants grâce à la tendance à la personnalisation dans le développement de chatbots IA.