En fait, ce n’est pas la première fois que des scientifiques mettent en garde contre la possibilité que l’intelligence artificielle devienne dangereuse pour les humains. En 2014, le célèbre physicien théoricien britannique Stephen Hawking a déclaré : « Le développement complet de l’intelligence artificielle pourrait détruire l’humanité. » Il a également déclaré que les humains seront complètement remplacés par l’intelligence artificielle dans les 500 prochaines années s’ils ne font pas attention à la recherche et au développement de cette technologie dangereuse. Il y a huit ans, en juillet 2015, plus de 1 000 experts en recherche sur les technologies de l'intelligence artificielle, dont Stephen Hawking, Elon Musk, Noam Chomsky... ont signé une pétition mettant en garde contre le risque d'une course aux armements dans le domaine de l'IA militaire et appelant à une interdiction complète des armes autonomes. Le lancement de l'application Chat GPT par OpenAI en novembre 2022 a ajouté une nouvelle sonnette d'alarme aux risques existentiels liés à l'intelligence artificielle. En fait, ce que fait Chat GPT montre que l’IA est, dans une certaine mesure, beaucoup plus dangereuse que ce que les humains pensaient autrefois.
Les risques potentiels de l’intelligence artificielle dépendent de la manière dont elle est utilisée. Initialement, l'IA a été développée pour aider les humains dans leur travail, en particulier dans les tâches ennuyeuses et répétitives telles que la classification d'images, l'examen des informations, etc. Cependant, avec le développement rapide de l'IA ces derniers temps, les scientifiques et les experts en technologie craignent que si elle est développée de manière incontrôlable ou programmée dans un mauvais but, l'intelligence artificielle puisse avoir de graves conséquences pour les humains et la société.
Risque d'insécurité
L’intelligence artificielle pourrait constituer une menace pour la sécurité nationale et la sécurité personnelle. Elon Musk a averti que l’IA pourrait devenir un outil terrifiant dans la guerre. Si un pays peut développer un système d’intelligence artificielle supérieur, il peut l’utiliser pour attaquer d’autres pays. Stuart Russell, professeur d’informatique à l’Université de Californie, a passé des décennies à faire des recherches sur l’intelligence artificielle. Mettant en garde contre la menace que représente l’IA pour la sécurité, il a déclaré que nous pouvons désormais produire des armes d’attaque autonomes en intégrant et en miniaturisant les technologies existantes.
L'expérience a été menée par le professeur Stuart Russell et le Future of Life Institute (FLI) à l'aide d'un robot tueur (slaughterbot), un appareil volant microscopique équipé de caméras, de capteurs, d'un logiciel de traitement d'images, d'une reconnaissance faciale, d'un explosif de 3 grammes et d'un microprocesseur à grande vitesse, permettant une analyse des données et une réaction 100 fois plus rapide que le cerveau humain. Selon les paramètres de programmation, le robot tueur accède en permanence aux données du cloud pour rechercher des informations sur la cible et trouver un moyen de l'approcher. Une fois trouvé, il se précipitera directement sur la cible à grande vitesse, activant l'explosif de 3 gr, perçant profondément le crâne, tuant la victime en un clin d'œil.
C’était juste une expérience avec l’IA à son niveau le plus simple. Si l’IA est utilisée pour développer de nouvelles méthodes d’attaque plus sophistiquées, elle pourrait également augmenter les capacités d’attaque des attaquants et entraîner des conséquences plus graves que les attaques conventionnelles. Lorsque l’IA sera développée au point de pouvoir prendre ses propres décisions pour faire face aux changements de l’environnement qui l’entoure, rechercher des cibles alternatives ou élargir sa portée de cibles, alors les humains ne seront peut-être plus en sécurité. De nombreux collègues du domaine sont d’accord avec le professeur Stuart Russell et affirment qu’il existe encore une chance d’éviter un avenir aussi sombre, mais il ne nous reste plus beaucoup de temps.
Le risque que l’IA devienne organisée, autonome et contrôle le système
L’IA peut être mal conçue ou mal « formée » par l’apprentissage automatique et peut effectuer des actions indésirables, causant des dommages aux personnes et à l’environnement. Un exemple concret est le suivant : avec l’apprentissage automatique, l’IA devient de plus en plus intelligente. Lorsque l’intelligence artificielle atteint un niveau d’intelligence qui va du support de systèmes importants tels que l’électricité, les transports, les soins de santé , la finance, etc., elle peut maîtriser et contrôler tous ces systèmes et prendre et exécuter ces décisions dans les situations d’urgence. Lorsque l’IA est « équipée » d’objectifs « délibérés » supplémentaires (conception erronée), elle peut entraîner de nombreuses conséquences graves telles que la perturbation du système de circulation en désactivant le système de feux de circulation ou en coupant l’alimentation du système d’exploitation des trains urbains, provoquant une série d’accidents, provoquant des pannes de courant généralisées…
De nombreux films hollywoodiens et internationaux ont été basés sur ce scénario. Cependant, avec la technologie d’IA actuelle, ce n’est plus une perspective lointaine, mais peut devenir une réalité. Elon Musk estime que si l’IA est autorisée à se développer sans contrôle, au point de pouvoir automatiser les décisions sans intervention humaine, elle pourrait constituer une menace pour la survie de l’humanité. C'est pourquoi lui et des milliers d'experts en technologie ont signé une lettre exigeant l'arrêt et le contrôle strict du développement de l'IA de manière transparente. Selon Elon Musk, les systèmes d’intelligence artificielle sont complexes, difficiles à comprendre et très difficiles à contrôler. Sans transparence, l’utilisation de l’intelligence artificielle à des fins contraires à l’éthique et portant préjudice aux humains est inévitable.
Risque de perte d'emploi, de violation de la vie privée
Lorsqu’elle est utilisée pour collecter des informations personnelles, la technologie de l’intelligence artificielle peut être utilisée pour violer la vie privée, mener des activités de désinformation et propager de fausses informations qui affectent les situations sociales et la stabilité politique. L'incident de l'attaque du système de réseau du Bureau de gestion du personnel (OPM) du gouvernement américain par des pirates informatiques est remarquable pour tout pays ou organisation lorsque des données personnelles détaillées et hautement sensibles de 21,5 millions de fonctionnaires américains actuels et retraités, des informations sur leurs conjoints, des données sur les personnes ayant postulé à des emplois gouvernementaux telles que l'état de santé, le lieu de résidence, l'emploi, les empreintes digitales et les informations financières sont tombées entre les mains de pirates informatiques. Mais il y a une réalité encore plus effrayante lorsque la CIA a découvert que le voleur de données de l'OPM utilisait une technologie d'intelligence artificielle pour scanner, falsifier des informations personnelles et créer des espions virtuels pour voler des données. Les informations volées seront analysées, classées et exploitées par la technologie Bigdata à des fins spécifiques. La technologie de l’intelligence artificielle aide les voleurs d’informations à réduire le temps nécessaire à l’exploitation des informations, car les humains ne sont pas capables de traiter une telle quantité d’informations en si peu de temps.
Outre les dangers existants mentionnés ci-dessus, la technologie de l’IA crée également d’autres risques tels que : une dépendance excessive à son égard, entraînant la perte de contrôle de la situation par les humains et réduisant leur capacité à prendre des décisions. L’intelligence artificielle entraînera également la perte d’emplois pour des millions, voire des centaines de millions de personnes, en particulier pour les emplois purement manuels et peu axés sur les connaissances. En conséquence, les graves problèmes sociaux tels que le chômage, la criminalité, l’écart entre riches et pauvres… deviendront encore plus profonds. De plus, la fiabilité est également un problème à prendre en compte. La fiabilité des décisions dans des domaines hautement spécialisés comme la médecine, la justice pénale... est extrêmement importante. Lorsque l’IA est utilisée pour aider à prendre des décisions dans des domaines où la technologie n’est pas fiable, fonctionne sur des données biaisées en faveur d’une personne ou d’un groupe de personnes, ou est intentionnellement déformée, ces décisions peuvent avoir de graves conséquences.
Comment prévenir ?
Les risques ci-dessus sont la raison pour laquelle Elon Musk et les experts en technologie s'inquiètent du développement incontrôlé de l'IA et ont écrit une lettre appelant les Nations Unies et les organisations internationales à contrôler strictement, à garantir la sécurité et l'éthique dans le développement de l'IA ; Renforcer la coopération internationale pour garantir que la technologie de l’IA soit utilisée au profit des personnes et de la société. Certaines mesures spécifiques qui peuvent être identifiées sont :
- Contrôle de la fiabilité du système : l'IA doit être conçue et développée pour garantir la sécurité et la fiabilité grâce à des méthodes rigoureuses, régulières et continues de tests de qualité, de contrôle et de surveillance pour garantir que le système d'IA fonctionne conformément aux attentes humaines et évite les effets indésirables de son manque de fiabilité.
- La technologie de l’intelligence artificielle doit être programmée pour fonctionner selon des valeurs éthiques et des normes sociales. Ces règles et normes doivent être clairement établies et surveillées pour garantir qu’elles ne causent rien de mal ou de nuisible aux personnes ou aux organisations. Le processus d'analyse, d'évaluation de l'impact et de suivi du fonctionnement des systèmes d'IA doit également être effectué régulièrement pour garantir un fonctionnement standard, ne pas violer ni éroder les valeurs communes de l'ensemble de la société, ne pas provoquer d'impacts négatifs et assurer la transmission de connaissances et de valeurs correctes.
- Suspendre la « formation » pendant au moins 6 mois pour que les systèmes d’intelligence artificielle réévaluent l’ensemble du problème. Cette suspension doit être publique, contrôlée et tous les acteurs clés impliqués dans cette formation doivent être impliqués. Si nécessaire, les gouvernements devraient émettre des interdictions temporaires. Cela ne signifie pas arrêter complètement le développement de l’IA, mais simplement faire une pause dans la course dangereuse vers d’autres modèles de développement, rendant les systèmes d’IA plus précis, plus sûrs, plus compréhensibles, plus transparents, plus pertinents, plus fiables et plus loyaux. Il s’agit d’une solution globale qu’Elon Musk et ses collègues ont réclamée dans la lettre ouverte, mais la faisabilité n’est pas élevée. Il est difficile pour tous les laboratoires indépendants de se conformer à un tel appel non contraignant et transnational.
- Renforcer la coopération et le partage d’informations entre les pays et les organisations de recherche indépendantes en IA pour garantir que l’IA soit développée et utilisée en toute sécurité à l’avenir. La coopération et le partage d’informations sont également des mesures permettant d’avertir rapidement et de prévenir tout risque pouvant survenir à l’avenir.
En général, l’IA a été et est présente partout autour de nous et des histoires comme l’intelligence artificielle écrivant de la poésie, de la musique et des articles sont devenues réalité et ne relèvent plus de la science-fiction. L'auteur de cet article a lui-même utilisé la technologie de l'intelligence artificielle sur les ordinateurs et les téléphones pour l'aider, rendant son processus d'écriture plus pratique et plus rapide. Plus précisément, le chapeau de cet article et certaines idées ont été suggérés par l'IA et plus précisément, toutes les photos utilisées dans cet article ont été générées par l'IA. La technologie de l’intelligence artificielle est très utile pour améliorer la qualité du travail et de la vie humaine, mais elle doit être étroitement contrôlée afin qu’elle ne devienne pas incontrôlable et ne devienne pas un risque de remplacement des humains à l’avenir, comme l’a prédit le physicien théoricien Stephen Hawking.
Article et photos : HUU DUONGSource
Comment (0)