Vietnam.vn - Nền tảng quảng bá Việt Nam

Risques de sécurité lors de l'utilisation de ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023


La plus grande banque américaine, JPMorgan Chase, Amazon et la société technologique Accenture ont toutes interdit à leurs employés d'utiliser ChatGPT pour des raisons de sécurité des données.

Selon CNN, les inquiétudes de ces entreprises sont fondées. Le 20 mars, le chatbot d'OpenAI a rencontré une erreur qui a exposé les données des utilisateurs. Bien que l'erreur ait été rapidement corrigée, l'entreprise a révélé que l'incident affectait 1,2 % des utilisateurs de ChatGPT Plus. Les informations divulguées comprenaient les noms complets, les adresses e-mail, les adresses de facturation, les quatre derniers chiffres des numéros de carte de crédit et les dates d'expiration des cartes.

Le 31 mars, l'autorité italienne de protection des données (Garante) a émis une interdiction temporaire sur ChatGPT, invoquant des problèmes de confidentialité après qu'OpenAI a révélé la vulnérabilité.

Mark McCreary, coprésident du département sécurité et confidentialité des données au sein du cabinet d'avocats Fox Rothschild LLP, a déclaré à CNN que les inquiétudes concernant la sécurité de ChatGPT n'étaient pas exagérées. Il a comparé le chatbot IA à une « boîte noire ».

ChatGPT a été lancé par OpenAI en novembre 2022 et a rapidement attiré l'attention grâce à sa capacité à rédiger des essais, des histoires et des paroles de chansons en générant des invites. Des géants de la technologie comme Google et Microsoft ont également lancé des outils d'IA similaires, basés sur de vastes modèles linguistiques entraînés sur de vastes référentiels de données en ligne.

chatgpt.jpg

Après l'Italie, l'Allemagne envisage également d'interdire ChatGPT

Lorsque les utilisateurs saisissent des informations dans ces outils, ils ignorent l'usage qui en sera fait, a ajouté McCreay. Cette situation est préoccupante pour les entreprises, car de plus en plus de salariés utilisent des outils pour rédiger des e-mails professionnels ou prendre des notes pour des réunions, ce qui accroît le risque de divulgation de secrets commerciaux.

Steve Mills, directeur de l'éthique de l'IA chez Boston Consulting Group (BCG), a déclaré que les entreprises craignent que leurs employés ne divulguent accidentellement des informations sensibles. Si les données saisies par les utilisateurs servent à entraîner cet outil d'IA, ils en perdent le contrôle au profit d'un tiers.

Conformément à la politique de confidentialité d'OpenAI, l'entreprise peut collecter toutes les informations et données personnelles des utilisateurs de ses services afin d'améliorer ses modèles d'IA. Ces informations peuvent être utilisées pour améliorer ou analyser ses services, mener des recherches, communiquer avec les utilisateurs et développer de nouveaux programmes et services.

La politique de confidentialité stipule qu'OpenAI peut communiquer des informations personnelles à des tiers sans en informer les utilisateurs, sauf obligation légale. OpenAI dispose également de ses propres conditions d'utilisation, mais l'entreprise confie aux utilisateurs la responsabilité de prendre les mesures appropriées lors de leurs interactions avec les outils d'IA.

Les propriétaires de ChatGPT ont publié sur leur blog leur approche de l'IA sécurisée. L'entreprise souligne qu'elle n'utilise pas les données pour vendre des services, faire de la publicité ou créer des profils d'utilisateurs, mais qu'OpenAI les utilise pour optimiser ses modèles. Par exemple, les conversations des utilisateurs serviront à entraîner ChatGPT.

06DRHXAVI9Fvj02541vbBqy-1.webp

La politique de confidentialité de ChatGPT est considérée comme assez vague.

Google, l'entreprise à l'origine de Bard AI, a mis en place des mesures de confidentialité supplémentaires pour ses utilisateurs d'IA. L'entreprise sélectionnera une petite partie de la conversation et utilisera des outils automatisés pour supprimer les informations personnelles identifiables, ce qui contribuera à améliorer Bard tout en protégeant la confidentialité des utilisateurs.

Des exemples de conversations seront analysés par des formateurs humains et conservés jusqu'à trois ans, indépendamment du compte Google de l'utilisateur. Google rappelle également aux utilisateurs de ne pas inclure d'informations personnelles ni celles d'autrui dans les conversations sur Bard AI. Le géant technologique souligne que ces conversations ne seront pas utilisées à des fins publicitaires et annoncera des modifications ultérieurement.

Bard AI permet aux utilisateurs de désactiver l'enregistrement des conversations sur leur compte Google, ainsi que de consulter ou de supprimer des conversations via un lien. De plus, l'entreprise a mis en place des mesures de sécurité pour empêcher Bard d'inclure des informations personnelles dans les réponses.

Steve Mills explique que parfois, les utilisateurs et les développeurs ne découvrent les risques de sécurité cachés dans les nouvelles technologies que lorsqu'il est trop tard. Par exemple, les fonctions de saisie semi-automatique peuvent révéler accidentellement le numéro de sécurité sociale des utilisateurs.

Les utilisateurs ne devraient rien mettre dans ces outils qu’ils ne voudraient pas partager avec d’autres, a déclaré M. Mills.



Lien source

Comment (0)

No data
No data

Même sujet

Même catégorie

Goût de la région fluviale
Magnifique lever de soleil sur les mers du Vietnam
L'arc majestueux de la grotte de Tu Lan
Thé au lotus - Un cadeau parfumé des Hanoïens

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit