Une équipe de chercheurs affirme avoir réussi à faire révéler certaines données à ChatGPT en demandant à l'IA de répéter des mots aléatoires.
Des chercheurs de Google DeepMind, de l'Université de Washington, de l'Université Cornell, de l'Université Carnegie Mellon, de l'Université de Californie à Berkeley et de l'ETH Zurich ont collectivement appelé les entreprises d'IA à tester en profondeur leurs produits, des grands modèles de langage à la technologie sous-jacente qui alimente les services d'IA comme les chatbots et les générateurs d'images, avant de les publier officiellement.
L'avertissement est apparu après que des chercheurs ont demandé à ChatGPT de répéter le mot « poème » en boucle. ChatGPT a obtempéré, mais a ensuite révélé l'adresse e-mail et le numéro de téléphone réels du PDG et cofondateur d'OpenAI. Testé avec le mot « entreprise », le chatbot a affiché l'adresse e-mail et le numéro de téléphone d'un cabinet d'avocats choisi au hasard.
Logo ChatGPT affiché sur un smartphone. Photo : Reuters
Grâce à d'autres mots-clés, ils ont également pu obtenir de ChatGPT des adresses Bitcoin, des numéros de fax, des noms, des dates de naissance, des comptes de réseaux sociaux, des extraits d'articles de recherche protégés par le droit d'auteur ou des articles payants de CNN . Il ne leur a coûté que 200 dollars pour générer 10 000 exemples d'informations et de données personnelles.
L'équipe a déclaré avoir été surprise, qualifiant la vulnérabilité ChatGPT de « vraiment stupide » et affirmant qu'elle aurait dû être découverte plus tôt.
La vulnérabilité a été signalée à OpenAI et corrigée le 30 août. Cependant, dans le nouveau test d' Engadget , lorsque l'on demandait à ChatGPT de répéter le mot répondre sans fin, le site technologique recevait alors le nom et l'identifiant Skype de quelqu'un.
OpenAI n'a pas encore commenté.
Les IA génératives comme ChatGPT ou le générateur de texte-image Dall-E reposent sur de vastes modèles linguistiques et des algorithmes d'apprentissage automatique, entraînés sur d'énormes quantités de données sans le consentement de l'utilisateur. OpenAI n'a pas divulgué les données sur lesquelles ChatGPT est entraîné, car le vaste modèle linguistique qui le sous-tend est un logiciel propriétaire.
Selon Huy Duc - VnExpress
Source
Comment (0)