Plus précisément, Alphabet, la société mère de Google, a conseillé à ses employés de ne pas saisir leurs documents confidentiels dans les chatbots IA. Selon des sources internes à Alphabet obtenues par Reuters, l'entreprise a également conseillé à ses ingénieurs d'éviter d'utiliser directement le code informatique généré par les chatbots.
Le géant technologique Google s'inquiète également des fuites d'informations via son propre chatbot basé sur l'IA. Photo : Reuters
Les chatbots, comme Bard et ChatGPT, sont des programmes qui utilisent l'intelligence artificielle générale pour mener des conversations de type humain avec les utilisateurs. Les experts affirment que les chatbots peuvent reproduire les données qu'ils absorbent au fur et à mesure de leurs réponses, ce qui crée un risque de fuite d'informations sur les utilisateurs.
Ces inquiétudes montrent que Google souhaite éviter tout préjudice commercial lié au lancement d'un logiciel concurrent de ChatGPT. La prudence de Google reflète également une tendance mondiale croissante à la peur, notamment de la part des entreprises qui mettent en garde contre la divulgation d'informations sur les chatbots.
Un nombre croissant d’entreprises à travers le monde ont mis en place des mesures de protection sur les chatbots IA, notamment Samsung, Amazon et Deutsche Bank.
Environ 43 % des professionnels de la technologie utilisaient ChatGPT ou d'autres outils d'IA en janvier, souvent sans en informer leurs supérieurs, selon une enquête menée auprès de près de 12 000 personnes par le site Web américain Fishbowl.
En février, Google avait demandé à ses employés utilisant le chatbot Bard de ne pas partager d'informations internes, selon Insider. Google déploie actuellement Bard dans plus de 180 pays et en 40 langues.
La technologie d'IA de Google est appliquée à des outils qui rédigent automatiquement des e-mails, des documents et même des logiciels. Cependant, ces tâches peuvent contenir de fausses informations et présenter un risque de fuite d'informations.
Bui Huy (selon Reuters, Insider)
Source
Comment (0)