Les conversations privées deviennent des données publiques
Selon un rapport de Fast Company, des milliers de conversations privées ont été indexées par Google. Il ne s'agit peut-être que de la partie émergée de l'iceberg, des millions d'autres conversations risquant d'être exposées.
Bien que ces conversations n’incluaient pas d’informations d’identification directe, de nombreux utilisateurs ont partagé des détails personnels extrêmement sensibles, allant de relations à des expériences traumatisantes, rendant l’identification possible.
Tout a commencé lorsque des experts en cybersécurité ont découvert qu’avec une simple requête Google, les utilisateurs pouvaient facilement accéder à des discussions partagées publiquement.
Le contenu divulgué comprend non seulement des exemples de paragraphes et des questions techniques, mais également des informations personnelles, des partages de travaux sensibles et même des confidences privées.
La cause du problème a été identifiée comme étant la fonctionnalité « Partager le chat », un utilitaire déployé par OpenAI pour aider les utilisateurs à partager du contenu de chat. Lorsque les utilisateurs sélectionnent « Rendre ce chat détectable », le système crée un lien public indexable par les moteurs de recherche.
Il convient de mentionner que l'interface de cette fonctionnalité n'est pas suffisamment claire, ce qui amène de nombreuses personnes à penser à tort qu'elles ne partagent du contenu qu'avec des amis ou des collègues, au lieu de le rendre public en ligne.
En réponse à la réaction négative, OpenAI a pris des mesures immédiates : elle a suspendu la fonctionnalité de partage et a travaillé avec Google pour supprimer les liens concernés.
Selon Fast Company, plus de 4 500 de ces liens ont été découverts, un nombre important étant donné que ChatGPT compte des centaines de millions d'utilisateurs dans le monde.
Ce qui est inquiétant, c'est que de nombreuses personnes ont utilisé ChatGPT pour écrire des e-mails, échanger du travail, exploiter des informations médicales ou même confier des problèmes psychologiques personnels, croyant qu'il s'agit d'un espace privé.
Des sonnettes d'alarme retentissent concernant la vie privée à l'ère de l'IA
Cet incident soulève de profondes questions quant à la responsabilité des entreprises d'IA vis-à-vis des données des utilisateurs. OpenAI offre-t-elle suffisamment de transparence pour que les utilisateurs comprennent leur vie privée ? Le niveau de protection des données dont bénéficient les utilisateurs est-il réellement proportionnel à la sensibilité du contenu ?
Le PDG d'OpenAI, Sam Altman, a averti les utilisateurs de ne pas partager d'informations personnelles sensibles avec ChatGPT, admettant que l'entreprise pourrait être obligée de fournir de telles informations si un tribunal l'exigeait légalement.
Il est toutefois à noter qu’Altman n’a pas mentionné dans ses déclarations que les conversations que les utilisateurs partagent volontairement pourraient être indexées publiquement sur les moteurs de recherche.
De plus, ce n'est pas la première fois que ChatGPT est mis en cause concernant des fuites de données. Des chercheurs ont averti que de grands modèles de langage comme GPT peuvent « accidentellement » recréer d'anciennes données si les utilisateurs posent des questions astucieuses.
Il est indéniable que des outils comme ChatGPT ont révolutionné la façon dont les gens recherchent des informations et créent du contenu. Cependant, outre leur commodité, les utilisateurs doivent être conscients que rien n'est véritablement privé sans de solides barrières technologiques et une manipulation personnelle minutieuse.
Source : https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
Comment (0)