Plus précisément, Alphabet, la société mère de Google, a conseillé à ses employés de ne pas saisir leurs documents confidentiels dans les chatbots IA. Selon des sources internes à Alphabet obtenues par Reuters, la société a également averti ses ingénieurs d'éviter d'utiliser directement le code informatique que les chatbots peuvent générer.
Le géant technologique Google s'inquiète également des fuites d'informations via son propre chatbot IA. Photo : Reuters
Les chatbots, dont Bard et ChatGPT, sont des programmes qui utilisent ce qu'on appelle l'intelligence artificielle générale pour mener des conversations de type humain avec les utilisateurs. Et selon les experts, les chatbots peuvent reproduire les données qu’ils absorbent pendant le processus de réponse, créant un risque de fuite d’informations sur les utilisateurs.
Ces inquiétudes montrent comment Google souhaite éviter tout préjudice commercial causé par le logiciel qu’il a lancé pour concurrencer ChatGPT. La prudence de Google reflète également une tendance croissante à la peur dans le monde, notamment de la part des entreprises qui mettent en garde contre la divulgation d'informations sur les chatbots.
Un nombre croissant d’entreprises à travers le monde ont mis en place des mesures de protection sur les chatbots IA, notamment Samsung, Amazon et Deutsche Bank.
Environ 43 % des professionnels de la technologie utilisaient ChatGPT ou d'autres outils d'IA en janvier, souvent sans en informer leurs supérieurs, selon une enquête menée auprès de près de 12 000 personnes par le site Web américain Fishbowl.
En février, Google a demandé aux employés du chatbot Bard de ne pas fournir d'informations internes, a rapporté Insider. Google déploie actuellement Bard dans plus de 180 pays et dans 40 langues.
La technologie d’IA de Google est appliquée à des outils qui rédigent automatiquement des e-mails, des documents et même créent des logiciels. Cependant, ces emplois peuvent contenir de fausses informations, ce qui comporte également un risque de fuite d’informations.
Bui Huy (selon Reuters, Insider)
Source
Comment (0)