Les conversations privées deviennent des données publiques
Des milliers de conversations privées ont été indexées par Google, selon un rapport de Fast Company. Il ne s'agit peut-être que de la partie émergée de l'iceberg, des millions d'autres étant potentiellement exposées.
Bien que ces conversations ne contiennent pas d’informations permettant de les identifier directement, de nombreux utilisateurs ont partagé des détails personnels extrêmement sensibles, allant de relations à des expériences traumatisantes, rendant l’identification possible.
Tout a commencé lorsque des experts en cybersécurité ont découvert qu’avec une simple requête Google, les utilisateurs pouvaient facilement accéder à des discussions partagées publiquement.
Le contenu divulgué ne se limite pas à des exemples de paragraphes et à des questions techniques, mais comprend également des informations personnelles, des partages de travaux sensibles et même des confidences privées.
La cause du problème a été identifiée comme étant la fonctionnalité « Partager le chat », un utilitaire déployé par OpenAI pour aider les utilisateurs à partager le contenu des chats. Lorsque les utilisateurs sélectionnent l'option « Rendre ce chat visible », le système crée un lien public indexable par les moteurs de recherche.
Il convient de mentionner que l'interface de cette fonctionnalité n'est pas suffisamment claire, ce qui fait que de nombreuses personnes pensent à tort qu'elles partagent du contenu uniquement avec des amis ou des collègues, au lieu de le rendre public en ligne.
En réponse à la réaction négative, OpenAI a pris des mesures immédiates : elle a suspendu le partage de ses conclusions et a travaillé avec Google pour supprimer les liens concernés.
Selon Fast Company, plus de 4 500 liens de ce type ont été découverts, un nombre non négligeable étant donné que ChatGPT compte des centaines de millions d'utilisateurs dans le monde.
Ce qui est inquiétant, c'est que de nombreuses personnes ont utilisé ChatGPT pour écrire des e-mails, échanger du travail, exploiter des informations médicales ou même confier des problèmes psychologiques personnels, croyant qu'il s'agit d'un espace privé.
Des sonnettes d'alarme retentissent concernant la confidentialité à l'ère de l'IA
Cet incident soulève de profondes questions quant à la responsabilité des entreprises d'IA vis-à-vis des données des utilisateurs. OpenAI offre-t-elle suffisamment de transparence pour permettre aux utilisateurs de comprendre leurs droits en matière de confidentialité ? Le niveau de protection des données dont bénéficient les utilisateurs est-il réellement proportionnel à la sensibilité du contenu ?
Le PDG d'OpenAI, Sam Altman, a mis en garde les utilisateurs contre le partage de données personnelles sensibles avec ChatGPT, admettant que l'entreprise pourrait être contrainte de fournir ces informations si un tribunal l'exige légalement.
Il est toutefois à noter qu’Altman n’a pas mentionné dans ses déclarations que les conversations que les utilisateurs partagent volontairement pourraient être indexées publiquement sur les moteurs de recherche.
De plus, ce n'est pas la première fois que ChatGPT est mis en cause concernant des fuites de données. Des chercheurs ont averti que de grands modèles de langage comme GPT peuvent « accidentellement » recréer d'anciennes données si les utilisateurs posent des questions astucieuses.
Il est indéniable que des outils comme ChatGPT ont révolutionné la recherche d'informations et la création de contenu. Cependant, outre leur praticité, les utilisateurs doivent être conscients que rien n'est véritablement privé sans de solides barrières technologiques et une gestion personnelle rigoureuse.
Source : https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
Comment (0)