Fonctionnalité de partage de discussions via un lien public sur ChatGPT - Photo : Techradar
ChatGPT atteint désormais plus de 2,5 milliards de requêtes d'utilisateurs du monde entier chaque jour, ce qui montre la popularité croissante de ce chatbot.
Cependant, cet outil fait face à une forte réaction des utilisateurs, car la fonction de « partage » a provoqué la fuite d’informations sensibles dans des milliers de conversations vers Google et certains moteurs de recherche sur Internet.
Risque de sécurité élevé
M. Vu Ngoc Son, chef du département technologique de la National Cyber Security Association (NCA), a estimé que l'incident ci-dessus montre un niveau de risque de sécurité élevé pour les utilisateurs de ChatGPT.
« L'incident mentionné ci-dessus ne constitue pas nécessairement un défaut technique, car l'utilisateur a pris l'initiative de cliquer sur le bouton de partage. Cependant, le problème réside dans la conception du chatbot IA, qui a semé la confusion chez les utilisateurs et qui ne prévoit pas de mesures d'alerte suffisamment strictes concernant le risque de fuite de données personnelles en cas de partage », a analysé M. Vu Ngoc Son.
Sur ChatGPT, cette fonctionnalité est implémentée après que l'utilisateur ait choisi de partager le chat via un lien public, le contenu sera stocké sur le serveur d'OpenAI en tant que site Web public (chatgpt.com/share/...), aucun identifiant ni mot de passe n'est requis pour y accéder.
Les robots d'exploration de Google analysent et indexent automatiquement ces pages, les faisant apparaître dans les résultats de recherche, y compris du texte sensible, des images ou des données de discussion.
De nombreux utilisateurs n'étaient pas conscients du risque, pensant partager la conversation avec leurs amis ou leurs contacts. Des milliers de conversations ont ainsi été exposées, contenant parfois des informations personnelles sensibles.
Bien qu'OpenAI ait rapidement supprimé cette fonctionnalité fin juillet 2025 suite aux réactions négatives de la communauté, la coordination avec Google pour supprimer les anciens index a néanmoins pris du temps. Compte tenu de la complexité du système de stockage, qui inclut les serveurs de cache de Google, cette opération est difficile à mettre en œuvre rapidement.
Ne considérez pas les chatbots IA comme une « boîte noire de sécurité »
Vu Ngoc Son, expert en sécurité des données et responsable de la technologie à la National Cyber Security Association (NCA) - Photo : CHI HIEU
La fuite de milliers de journaux de discussion peut présenter des risques pour les utilisateurs, tels que la révélation de secrets personnels et commerciaux, des atteintes à la réputation, des risques financiers ou même des risques pour la sécurité en raison de la révélation d'adresses personnelles.
« Les chatbots dotés d’IA sont utiles, mais ne constituent pas une « boîte noire », car les données partagées peuvent exister pour toujours sur le Web si elles ne sont pas contrôlées.
L'incident ci-dessus est une leçon précieuse pour les fournisseurs comme pour les utilisateurs. D'autres fournisseurs de services d'IA peuvent s'inspirer de cette expérience et concevoir des fonctionnalités avec des avertissements plus clairs et plus transparents.
« Dans le même temps, les utilisateurs doivent également limiter de manière proactive la publication incontrôlée d'informations d'identification ou personnelles sur les plateformes d'IA », a recommandé l'expert en sécurité Vu Ngoc Son.
Selon les experts en sécurité des données, l'incident susmentionné illustre la nécessité de créer des cadres juridiques et des normes de cybersécurité pour l'IA. Les fournisseurs et développeurs d'IA doivent également concevoir des systèmes garantissant la sécurité, évitant ainsi les risques de fuite de données, tels que : fuites dues à de mauvaises vulnérabilités ; vulnérabilités logicielles conduisant à des attaques de bases de données ; contrôle défaillant conduisant à un empoisonnement ; et abus visant à répondre à des questions fausses et déformées.
Les utilisateurs doivent également contrôler le partage d'informations personnelles avec l'IA, et éviter de divulguer des informations sensibles. En cas de besoin réel, il est conseillé d'utiliser le mode anonyme ou de chiffrer activement les informations afin d'éviter que les données ne soient directement liées à des personnes spécifiques.
Source: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
Comment (0)