L'intelligence artificielle (IA) est le sujet de discussion le plus important dans l'industrie technologique depuis qu'OpenAI a annoncé ChatGPT en novembre 2022. Peu de temps après, des entreprises comme Google, Meta, Microsoft… ont également investi massivement dans leurs propres efforts en matière d'IA.
Les géants de la tech n'hésitent pas à afficher leurs ambitions en matière d'IA, mais ils s'attellent discrètement ces derniers temps à examiner les risques que cette technologie fait peser sur leurs activités. Dans son rapport annuel 2023, Alphabet, la maison mère de Google, a déclaré que les produits et services d'IA soulèvent des défis éthiques, technologiques, juridiques, réglementaires et autres susceptibles d'affecter négativement son image de marque et la demande.

Selon Bloomberg, Meta, Microsoft et Oracle ont également fait part de leurs inquiétudes concernant l'IA dans leurs documents déposés auprès de la Securities and Exchange Commission (SEC) américaine, souvent dans la section « facteurs de risque ». Par exemple, Microsoft a indiqué que les fonctionnalités d'IA générative pourraient être vulnérables à des menaces de sécurité imprévues.
Dans son rapport annuel 2023, Meta, la maison mère de Facebook, a souligné que « le développement et le déploiement de l'IA comportent des risques importants » et qu'« il n'existe aucune garantie que l'utilisation de l'IA améliorera les services, les produits ou les opérations commerciales ». Meta a énuméré des scénarios d'utilisation de l'IA susceptibles de nuire aux utilisateurs et de les exposer à des poursuites judiciaires, tels que la désinformation (notamment lors des élections), les contenus préjudiciables, la violation des droits de propriété intellectuelle et les atteintes à la confidentialité des données.
Parallèlement, le public a également exprimé son inquiétude quant à la possibilité que l'IA rende certains emplois obsolètes ou les fasse disparaître, ou que de grands modèles de langage entraînés sur des données personnelles diffusent de la désinformation.
Le 4 juin, un groupe d'anciens et d'actuels employés d'OpenAI a adressé une lettre d'intention aux entreprises technologiques, les incitant à redoubler d'efforts pour minimiser les risques liés à l'IA. Ils craignent que l'IA n'accroisse les inégalités, la manipulation et la désinformation, et que les systèmes d'IA automatisés et incontrôlés ne menacent la survie de l'humanité.
Source






Comment (0)