Vietnam.vn - Nền tảng quảng bá Việt Nam

Des milliers de chats ChatGPT exposés sur Google, à quoi les utilisateurs doivent-ils prêter attention ?

Suite à l'incident de milliers de conversations d'utilisateurs sur ChatGPT exposées sur Google, les experts en sécurité avertissent : l'IA est un outil d'assistance utile, mais pas une « boîte noire sécurisée ».

Báo Tuổi TrẻBáo Tuổi Trẻ05/08/2025

ChatGPT - Ảnh 1.

Partage de chat via un lien public sur ChatGPT - Photo : Techradar

ChatGPT atteint désormais plus de 2,5 milliards de requêtes d'utilisateurs du monde entier chaque jour, ce qui montre la popularité croissante de ce chatbot.

Cependant, cet outil fait face à une forte réaction des utilisateurs, car la fonction de « partage » a provoqué la fuite d’informations sensibles dans des milliers de conversations vers Google et plusieurs moteurs de recherche sur Internet.

Risque de sécurité élevé

M. Vu Ngoc Son, responsable de la technologie de la National Cyber Security Association (NCA), a estimé que l'incident ci-dessus montre un niveau de risque de sécurité élevé pour les utilisateurs de ChatGPT.

« L'incident mentionné ci-dessus ne constitue pas nécessairement un défaut technique, car l'utilisateur a pris l'initiative de cliquer sur le bouton de partage. Cependant, le problème réside dans la conception du chatbot IA : il a semé la confusion chez les utilisateurs et il n'existe pas de mesures d'avertissement suffisamment strictes concernant le risque de fuite de données personnelles en cas de partage », a analysé M. Vu Ngoc Son.

Sur ChatGPT, cette fonctionnalité est implémentée après que l'utilisateur ait choisi de partager le chat via un lien public, le contenu sera stocké sur le serveur d'OpenAI en tant que site Web public (chatgpt.com/share/...), aucun identifiant ni mot de passe n'est requis pour y accéder.

Les robots d'exploration de Google analysent et indexent automatiquement ces pages, les faisant apparaître dans les résultats de recherche, y compris du texte, des images ou des données de discussion sensibles.

De nombreux utilisateurs n'étaient pas conscients du risque, pensant partager des conversations avec des amis ou des contacts. Des milliers de conversations ont ainsi été exposées, certaines contenant des informations personnelles sensibles.

Bien qu'OpenAI ait rapidement supprimé cette fonctionnalité fin juillet 2025 suite à une réaction négative de la communauté, la coordination avec Google pour supprimer les anciens index a pris du temps. Compte tenu de la complexité du système de stockage, qui inclut les serveurs de cache de Google, cette opération est difficile à mettre en œuvre rapidement.

Ne considérez pas les chatbots IA comme une « boîte noire de sécurité »

Hàng ngàn cuộc trò chuyện với ChatGPT bị lộ trên Google, người dùng lưu ý gì? - Ảnh 3.

Vu Ngoc Son, expert en sécurité des données et responsable de la technologie à la National Cyber Security Association (NCA) - Photo : CHI HIEU

La fuite de milliers de conversations peut présenter des risques pour les utilisateurs, tels que la révélation de secrets personnels, de secrets d'affaires, des atteintes à la réputation, des risques financiers ou même des risques pour la sécurité lors de la révélation d'adresses personnelles.

« Les chatbots alimentés par l’IA sont utiles mais ne constituent pas une « boîte noire », car les données partagées peuvent rester sur le Web pour toujours si elles ne sont pas contrôlées.

Cet incident est une leçon pour les fournisseurs comme pour les utilisateurs. D'autres fournisseurs de services d'IA peuvent s'inspirer de cette expérience et concevoir des fonctionnalités avec des avertissements plus clairs et plus transparents.

« Dans le même temps, les utilisateurs doivent également limiter de manière proactive la publication incontrôlée d'informations personnelles identifiables ou confidentielles sur les plateformes d'IA », a recommandé l'expert en sécurité Vu Ngoc Son.

Selon les experts en sécurité des données, l'incident susmentionné démontre la nécessité de créer des cadres juridiques et des normes de cybersécurité pour l'IA. Les fournisseurs et développeurs d'IA doivent également concevoir des systèmes garantissant la sécurité, évitant ainsi les risques de fuite de données, tels que : fuites dues à de mauvaises vulnérabilités ; vulnérabilités logicielles conduisant à des attaques de bases de données ; contrôle défaillant conduisant à un empoisonnement ; abus visant à répondre à des questions trompeuses et déformées.

Les utilisateurs doivent également contrôler le partage d'informations personnelles avec l'IA et s'abstenir de divulguer des informations sensibles. En cas de nécessité absolue, il est conseillé d'utiliser le mode anonyme ou de chiffrer activement les informations afin d'éviter que les données ne soient directement liées à des individus spécifiques.

Retour au sujet
PIÉTÉ

Source : https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm


Comment (0)

No data
No data
Beauté sauvage sur la colline herbeuse de Ha Lang - Cao Bang
Des missiles et des véhicules de combat « Made in Vietnam » démontrent leur puissance lors d'une séance d'entraînement conjointe A80
Admirez le volcan Chu Dang Ya, vieux d'un million d'années, à Gia Lai
Il a fallu 6 semaines à Vo Ha Tram pour terminer le projet musical faisant l'éloge de la patrie.
Le café de Hanoi est illuminé de drapeaux rouges et d'étoiles jaunes pour célébrer le 80e anniversaire de la fête nationale le 2 septembre
Des ailes en vol sur le terrain d'entraînement de l'A80
Des pilotes spéciaux en formation de défilé pour célébrer la fête nationale le 2 septembre
Les soldats marchent sous le soleil brûlant sur le terrain d'entraînement
Regardez les hélicoptères répéter dans le ciel de Hanoi en préparation de la fête nationale du 2 septembre
L'équipe U23 du Vietnam a remporté avec brio le trophée du Championnat d'Asie du Sud-Est U23

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit