Le développement rapide de l'intelligence artificielle (IA) a suscité des inquiétudes quant à son évolution plus rapide que la capacité des humains à en comprendre l'impact.
Photo : ST
L'utilisation de l'intelligence artificielle générale a considérablement augmenté depuis l'apparition d'outils comme ChatGPT. Bien que ces outils présentent de nombreux avantages, ils peuvent aussi être utilisés à mauvais escient.
Pour gérer ce risque, les États-Unis et plusieurs autres pays ont obtenu des accords de sept entreprises, dont Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI, afin qu'elles s'engagent à adopter des pratiques sûres dans le développement de la technologie d'IA.
L’annonce de la Maison-Blanche utilise une terminologie spécifique qui peut être inconnue du grand public, avec des termes comme « équipe rouge » et « tatouage numérique ». Voici sept termes liés à l’IA à retenir.
apprentissage automatique
Cette branche de l'IA vise à entraîner les machines à accomplir une tâche spécifique avec précision en identifiant des schémas. La machine peut ensuite faire des prédictions à partir de ces données.
Apprentissage profond
Les tâches créatives en IA s'appuient souvent sur l'apprentissage profond, une méthode qui consiste à entraîner des ordinateurs à l'aide de réseaux neuronaux, un ensemble d'algorithmes conçus pour imiter les neurones du cerveau humain, afin d'établir des connexions complexes entre les modèles pour générer du texte, des images ou d'autres contenus.
Les modèles d'apprentissage profond, grâce à leurs multiples couches de neurones, peuvent apprendre des schémas plus complexes que l'apprentissage automatique traditionnel.
Modèle de langage étendu
Un modèle de langage à grande échelle (LLM) est entraîné sur d'énormes quantités de données et vise à modéliser le langage ou à prédire le mot suivant dans une séquence. Les modèles de langage à grande échelle, tels que ChatGPT et Google Bard, peuvent être utilisés pour des tâches comme la synthèse, la traduction et la conversation.
Algorithme
Un ensemble d'instructions ou de règles permettant aux machines d'effectuer des prédictions, de résoudre des problèmes ou d'accomplir des tâches. Les algorithmes peuvent fournir des recommandations d'achat et contribuer à la détection des fraudes et aux fonctions de chat du service client.
Biais
L'IA étant entraînée à l'aide de vastes ensembles de données, elle peut y intégrer des informations nuisibles, telles que des discours haineux. Le racisme et le sexisme peuvent également apparaître dans les ensembles de données utilisés pour son entraînement, ce qui peut conduire à la diffusion de contenus trompeurs.
Les entreprises spécialisées en IA ont convenu d'approfondir la question de la prévention des biais et des discriminations néfastes dans les systèmes d'IA.
Équipe rouge
L’un des engagements pris par les entreprises auprès de la Maison Blanche est de mener des tests d’intrusion (« red teaming ») en interne et en externe sur les modèles et systèmes d’IA.
Le « red teaming » consiste à tester un modèle afin d’en déceler les vulnérabilités potentielles. Ce terme provient d’une pratique militaire où une équipe simule les actions d’un attaquant pour élaborer des stratégies.
Cette méthode est largement utilisée pour tester les vulnérabilités de sécurité des systèmes tels que les plateformes de cloud computing de sociétés comme Microsoft et Google.
Tatouage numérique
Un filigrane permet de déterminer si un son ou une image a été créé par une IA. Les informations vérifiées peuvent inclure l'identité du créateur, ainsi que les modalités et la date de création ou de modification.
Par exemple, Microsoft s'est engagé à apposer un filigrane sur les images créées par ses outils d'IA. Des entreprises se sont également engagées auprès de la Maison-Blanche à apposer un filigrane sur les images ou à enregistrer leur origine afin de les identifier comme étant générées par l'IA.
Les filigranes sont également couramment utilisés pour détecter les violations de propriété intellectuelle. Sur les images générées par IA, ils peuvent se présenter sous forme de bruit imperceptible, comme une légère modification tous les sept pixels.
Cependant, le marquage en filigrane de textes générés par l'IA peut s'avérer plus complexe et impliquer la modification du modèle de texte afin qu'il puisse être identifié comme contenu généré par l'IA.
Hoang Ton (selon Poynter)
Source










Comment (0)