Partage de chat via un lien public sur ChatGPT - Photo : Techradar
ChatGPT atteint désormais plus de 2,5 milliards de requêtes d'utilisateurs du monde entier chaque jour, ce qui montre la popularité croissante de ce chatbot.
Cependant, cet outil fait face à une forte réaction des utilisateurs, car la fonction de « partage » a provoqué la fuite d’informations sensibles dans des milliers de conversations vers Google et plusieurs moteurs de recherche sur Internet.
Risque de sécurité élevé
M. Vu Ngoc Son, responsable de la technologie de la National Cyber Security Association (NCA), a estimé que l'incident ci-dessus montre un niveau de risque de sécurité élevé pour les utilisateurs de ChatGPT.
« L'incident mentionné ci-dessus ne constitue pas nécessairement un défaut technique, car l'utilisateur a pris l'initiative de cliquer sur le bouton de partage. Cependant, le problème réside dans la conception du chatbot IA : il a semé la confusion chez les utilisateurs et il n'existe pas de mesures d'avertissement suffisamment strictes concernant le risque de fuite de données personnelles en cas de partage », a analysé M. Vu Ngoc Son.
Sur ChatGPT, cette fonctionnalité est implémentée après que l'utilisateur ait choisi de partager le chat via un lien public, le contenu sera stocké sur le serveur d'OpenAI en tant que site Web public (chatgpt.com/share/...), aucun identifiant ni mot de passe n'est requis pour y accéder.
Les robots d'exploration de Google analysent et indexent automatiquement ces pages, les faisant apparaître dans les résultats de recherche, y compris du texte, des images ou des données de discussion sensibles.
De nombreux utilisateurs n'étaient pas conscients du risque, pensant partager des conversations avec des amis ou des contacts. Des milliers de conversations ont ainsi été exposées, certaines contenant des informations personnelles sensibles.
Bien qu'OpenAI ait rapidement supprimé cette fonctionnalité fin juillet 2025 suite à une réaction négative de la communauté, la coordination avec Google pour supprimer les anciens index a pris du temps. Compte tenu de la complexité du système de stockage, qui inclut les serveurs de cache de Google, cette opération est difficile à mettre en œuvre rapidement.
Ne considérez pas les chatbots IA comme une « boîte noire de sécurité »
Vu Ngoc Son, expert en sécurité des données et responsable de la technologie à la National Cyber Security Association (NCA) - Photo : CHI HIEU
La fuite de milliers de conversations peut présenter des risques pour les utilisateurs, tels que la révélation de secrets personnels, de secrets d'affaires, des atteintes à la réputation, des risques financiers ou même des risques pour la sécurité lors de la révélation d'adresses personnelles.
« Les chatbots alimentés par l’IA sont utiles mais ne constituent pas une « boîte noire », car les données partagées peuvent rester sur le Web pour toujours si elles ne sont pas contrôlées.
Cet incident est une leçon pour les fournisseurs comme pour les utilisateurs. D'autres fournisseurs de services d'IA peuvent s'inspirer de cette expérience et concevoir des fonctionnalités avec des avertissements plus clairs et plus transparents.
« Dans le même temps, les utilisateurs doivent également limiter de manière proactive la publication incontrôlée d'informations personnelles identifiables ou confidentielles sur les plateformes d'IA », a recommandé l'expert en sécurité Vu Ngoc Son.
Selon les experts en sécurité des données, l'incident susmentionné démontre la nécessité de créer des cadres juridiques et des normes de cybersécurité pour l'IA. Les fournisseurs et développeurs d'IA doivent également concevoir des systèmes garantissant la sécurité, évitant ainsi les risques de fuite de données, tels que : fuites dues à de mauvaises vulnérabilités ; vulnérabilités logicielles conduisant à des attaques de bases de données ; contrôle défaillant conduisant à un empoisonnement ; abus visant à répondre à des questions trompeuses et déformées.
Les utilisateurs doivent également contrôler le partage d'informations personnelles avec l'IA et s'abstenir de divulguer des informations sensibles. En cas de nécessité absolue, il est conseillé d'utiliser le mode anonyme ou de chiffrer activement les informations afin d'éviter que les données ne soient directement liées à des individus spécifiques.
Source : https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
Comment (0)