En réalité, ce n'est pas la première fois que des scientifiques mettent en garde contre le risque que l'intelligence artificielle devienne dangereuse pour l'homme. En 2014, le célèbre physicien théoricien britannique Stephen Hawking déclarait : « Le développement à grande échelle de l'intelligence artificielle pourrait détruire l'humanité. » Il affirmait également que l'intelligence artificielle remplacerait complètement les humains d'ici 500 ans si la recherche et le développement de cette technologie dangereuse ne sont pas prudents. Il y a huit ans, en juillet 2015, plus de 1 000 experts en intelligence artificielle, dont Stephen Hawking, Elon Musk, Noam Chomsky… ont signé une pétition mettant en garde contre le risque d'une course aux armements dans le domaine de l'IA militaire et appelant à une interdiction totale des armes autonomes. Le lancement de Chat GPT par OpenAI en novembre 2022 a ajouté un nouvel avertissement aux dangers existentiels de l'intelligence artificielle. En réalité, les actions de Chat GPT démontrent que l'IA est, dans une certaine mesure, bien plus dangereuse qu'on ne le pensait.
Les risques potentiels de l'intelligence artificielle dépendent de son utilisation. Initialement développée pour assister les humains dans leur travail, notamment pour des tâches répétitives et fastidieuses comme la classification d'images, l'analyse d'informations, etc. Cependant, avec le développement rapide de l'IA ces derniers temps, les scientifiques et les experts en technologie craignent que, si elle est développée de manière incontrôlée ou programmée à de mauvaises fins, l'intelligence artificielle puisse avoir de graves conséquences pour les humains et la société.
Risque d'insécurité
L'intelligence artificielle pourrait constituer une menace pour la sécurité nationale et la sécurité des personnes. Elon Musk a averti que l'IA pourrait devenir un outil de guerre terrifiant. Si un pays parvient à développer un système d'intelligence artificielle supérieur, il pourrait l'utiliser pour attaquer d'autres pays. Stuart Russell, professeur d'informatique à l'Université de Californie, a consacré des décennies à la recherche sur l'intelligence artificielle. Mettant en garde contre la menace que représente l'IA pour la sécurité, il a déclaré que nous pouvons désormais produire des armes d'attaque autonomes en intégrant et en miniaturisant les technologies existantes.
L'expérience a été menée par le professeur Stuart Russell et le Future of Life Institute (FLI) à l'aide d'un robot tueur (slaughterbot), un appareil volant microscopique équipé de caméras, de capteurs, d'un logiciel de traitement d'images, d'un système de reconnaissance faciale, d'un explosif de 3 grammes et d'un microprocesseur ultra-rapide, permettant une analyse des données et une réaction 100 fois plus rapide que le cerveau humain. Conformément aux paramètres de programmation, le robot tueur accède en permanence aux données du cloud pour rechercher des informations sur la cible et trouver un moyen de l'approcher. Une fois trouvée, il fonce droit sur la cible à grande vitesse, active l'explosif de 3 grammes, perce profondément le crâne et tue la victime en un clin d'œil.
Il ne s'agit là que d'une expérience d'IA à son niveau le plus élémentaire. Si l'IA est utilisée pour développer de nouvelles méthodes d'attaque plus sophistiquées, elle pourrait également accroître les capacités d'attaque des attaquants et entraîner des conséquences plus graves que les attaques conventionnelles. Lorsque l'IA sera suffisamment développée pour prendre des décisions autonomes face aux changements de son environnement, trouver des cibles alternatives ou élargir sa portée, l'humanité ne sera peut-être plus en sécurité. De nombreux collègues du domaine partagent l'avis du professeur Stuart Russell et estiment qu'il est encore possible d'éviter un avenir aussi sombre, mais il ne nous reste plus beaucoup de temps.
Le risque que l’IA devienne organisée, autonome et contrôle le système
L'IA peut être mal conçue ou mal « entraînée » par l'apprentissage automatique et peut effectuer des actions indésirables, causant des dommages aux personnes et à l'environnement. Voici quelques exemples concrets : grâce à l'apprentissage automatique, l'IA devient de plus en plus intelligente. Lorsque l'intelligence artificielle atteint un niveau d'intelligence qui dépasse le support de systèmes importants tels que l'électricité, les transports, la santé , la finance, etc., elle peut maîtriser et contrôler tous ces systèmes et prendre et exécuter des décisions en cas d'urgence. Lorsque l'IA est « équipée » d'objectifs « ambitieux » supplémentaires (mal conçus), elle peut avoir de nombreuses conséquences graves, telles que la perturbation du système de circulation en désactivant les feux de circulation ou en coupant l'alimentation du réseau ferroviaire urbain, provoquant une série d'accidents, des pannes de courant généralisées, etc.
De nombreux films hollywoodiens et étrangers ont été inspirés par ce scénario. Cependant, grâce à la technologie d'IA actuelle, ce n'est plus une perspective lointaine, mais peut devenir une réalité. Elon Musk estime que si l'IA se développe de manière incontrôlable, au point d'automatiser les décisions sans intervention humaine, cela pourrait menacer la survie de l'humanité. C'est pourquoi lui et des milliers d'experts en technologie ont signé une lettre demandant un arrêt temporaire et un contrôle strict et transparent du processus de développement de l'IA. Selon Elon Musk, les systèmes d'intelligence artificielle sont très complexes, difficiles à comprendre et à contrôler. Sans transparence, l'utilisation de l'intelligence artificielle à des fins contraires à l'éthique, causant des dommages aux humains, est inévitable.
Risque de perte d'emploi, de violation de la vie privée
Utilisée pour collecter des informations personnelles, l'intelligence artificielle peut servir à violer la vie privée, à mener des activités de désinformation et à diffuser de fausses informations qui compromettent la stabilité sociale et politique. L'attaque du système réseau de l'Office of Personnel Management (OPM) du gouvernement américain est un incident marquant pour tout pays ou organisation : des données personnelles détaillées et hautement sensibles de 21,5 millions de fonctionnaires américains, actuels et retraités, des informations sur leurs conjoints, des données sur les candidats à des emplois gouvernementaux, telles que leur état de santé, leur lieu de résidence, leur emploi, leurs empreintes digitales et leurs informations financières, sont tombées entre les mains de pirates informatiques. Cependant, une réalité encore plus effrayante s'est produite lorsque la CIA a découvert que le voleur de données de l'OPM avait utilisé l'intelligence artificielle pour scanner, falsifier des informations personnelles et créer des espions virtuels afin de voler des données. Les informations volées seront analysées, classifiées et exploitées par le Big Data à des fins spécifiques. L'intelligence artificielle permet au voleur d'informations de réduire le temps d'exploitation des informations, car les humains ne sont pas capables de traiter une telle quantité d'informations en si peu de temps.
Outre les dangers mentionnés ci-dessus, l'IA engendre d'autres risques, tels que la dépendance excessive à son égard, qui peut entraîner une perte de contrôle et une réduction de la capacité décisionnelle. L'IA entraînera également la perte d'emplois pour des millions, voire des centaines de millions de personnes, notamment pour des emplois purement manuels et peu qualifiés. Par conséquent, de graves problèmes sociaux, tels que le chômage, la criminalité et l'écart entre riches et pauvres, s'aggraveront. La fiabilité est également un enjeu important. La fiabilité des décisions dans des domaines hautement spécialisés comme la médecine et le droit pénal est cruciale. L'utilisation de l'IA pour aider à la prise de décision dans des domaines où la technologie est insuffisamment fiable, fonctionne sur la base de données favorisant une personne ou un groupe de personnes, ou est intentionnellement déformée, risque d'entraîner de graves conséquences.
Comment prévenir ?
Les risques susmentionnés expliquent l'inquiétude d'Elon Musk et des experts en technologie face au développement incontrôlé de l'IA. Ils ont rédigé une lettre appelant les Nations Unies et les organisations internationales à contrôler strictement le développement de l'IA, à garantir sa sécurité et son éthique, et à renforcer la coopération internationale afin de garantir une utilisation bénéfique de l'IA pour l'homme et la société. Voici quelques mesures concrètes :
- Contrôle de la fiabilité du système : l'IA doit être conçue et développée pour garantir la sécurité et la fiabilité grâce à des méthodes rigoureuses, régulières et continues de tests de qualité, de contrôle et de surveillance afin de garantir que le système d'IA fonctionne conformément aux attentes humaines et évite les effets indésirables de son manque de fiabilité.
- L'intelligence artificielle doit être programmée pour fonctionner conformément aux valeurs éthiques et aux normes sociales. Ces règles et normes doivent être clairement établies et surveillées afin de garantir qu'elles ne nuisent ni aux personnes ni aux organisations. L'analyse, l'évaluation de l'impact et le suivi du fonctionnement des systèmes d'IA doivent également être effectués régulièrement afin de garantir leur bon fonctionnement, de ne pas violer ni éroder les valeurs communes de la société, de ne pas engendrer d'impacts négatifs et de garantir la transmission de connaissances et de valeurs justes.
- Une pause dans la « formation » des systèmes d'IA pendant au moins six mois afin de permettre une réévaluation complète. Cette pause doit être publique et contrôlée, et tous les acteurs clés impliqués dans la formation doivent y participer. Si nécessaire, les gouvernements devraient imposer un moratoire temporaire. Cela ne signifie pas un arrêt complet du développement de l'IA, mais simplement une pause dans la dangereuse course vers d'autres modèles de développement, rendant les systèmes d'IA plus précis, plus sûrs, plus compréhensibles, plus transparents, plus cohérents, plus fiables et plus loyaux. Il s'agit d'une solution globale qu'Elon Musk et ses collègues appellent de leurs vœux dans leur lettre ouverte, mais elle est difficilement réalisable. Il est très difficile pour tous les laboratoires indépendants de se conformer à un tel appel non contraignant et transnational.
- Renforcer la coopération et le partage d'informations entre les pays et les organismes indépendants de recherche en IA afin de garantir le développement et l'utilisation sûrs de l'IA à l'avenir. La coopération et le partage d'informations constituent également des mesures permettant d'alerter rapidement et de prévenir tout risque potentiel.
De manière générale, l'IA est omniprésente autour de nous, et des histoires comme celle de l'intelligence artificielle écrivant de la poésie, de la musique ou des articles sont devenues réalité et ne relèvent plus de la fiction. L'auteur de cet article a lui-même utilisé l'intelligence artificielle sur ses ordinateurs et ses téléphones pour faciliter et accélérer son processus d'écriture. Plus précisément, le chapitre de cet article et certaines idées, et plus précisément toutes les photos utilisées dans cet article, sont inspirés par l'IA. L'intelligence artificielle est très utile pour améliorer la qualité de vie et de travail des humains, mais elle doit être rigoureusement contrôlée afin d'éviter qu'elle ne devienne incontrôlable et ne risque de remplacer l'homme à l'avenir, comme l'avait prédit le physicien théoricien Stephen Hawking.
Article et photos : HUU DUONGSource
Comment (0)