Illustration d'un appel à considérer l'IA comme une arme biologique. (Source : gizmodo.com) |
Dans l'article Treat AI as a biological weapon, not a nuclear weapon d'Emilia Javorsky, scientifique -médecin et directrice du Future of Life Institute (USA), l'auteur soutient que malgré le fait que le monde ait récemment comparé à plusieurs reprises l'IA aux bombes nucléaires, il existe une approche plus appropriée, qui consiste à réglementer ce type de technologie comme une arme biologique ou une biotechnologie.
Selon l'auteur, l'IA est peut-être la technologie la plus puissante de l'histoire de l'humanité, développée aujourd'hui. Ses effets néfastes, notamment la discrimination, les menaces pour la démocratie et la concentration d'influence, sont largement documentés.
Pourtant, les principales entreprises d’IA s’efforcent de créer des systèmes d’IA de plus en plus puissants, augmentant les risques à un rythme sans précédent dans l’histoire de l’humanité.
Alors que les dirigeants cherchent à savoir comment contenir et contrôler l’essor de l’IA et les risques qui y sont associés, ils doivent tenir compte des mêmes règles et normes que celles que l’humanité a utilisées pour la créer dans le passé.
L’adaptation et l’innovation peuvent coexister, surtout lorsque des vies humaines sont en jeu.
Un avertissement concernant la technologie nucléaire
Bien que l’énergie nucléaire soit plus de 600 fois plus sûre que le pétrole en termes de mortalité et qu’elle soit extrêmement efficace, peu de pays y ont recours en raison des conséquences qu’ils ont constatées de leur approche à long terme du nucléaire.
Le monde a découvert la technologie nucléaire grâce à la bombe atomique et à la bombe à hydrogène. Grâce à ces armes, pour la première fois dans l'histoire, l'humanité a développé une technologie capable de mettre fin à la civilisation humaine, fruit d'une course aux armements privilégiant la rapidité et l'innovation au détriment de la sécurité et du contrôle.
Les défaillances ultérieures en matière de sécurité technique et de gestion des risques, responsables notamment des catastrophes nucléaires de Tchernobyl et de Fukushima, ont détruit toute chance de voir les gens accepter les aspects positifs de l’énergie nucléaire.
Malgré l’évaluation globalement favorable des risques liés à l’énergie nucléaire et les décennies de travail des scientifiques pour convaincre le monde de sa viabilité, le concept même de « nucléaire » reste… souillé.
Lorsqu'une technologie cause des dommages dès ses débuts, la sensibilisation et les réactions excessives de la société peuvent limiter définitivement ses bénéfices potentiels. En raison des erreurs précoces du nucléaire, l'humanité n'a pas pu tirer profit de cette source d'énergie propre et sûre, et la neutralité carbone et la stabilité énergétique restent un rêve illusoire.
La bonne approche de la biotechnologie
Pourtant, dans certains domaines, les solutions ont été judicieuses. La biotechnologie est l'un d'entre eux, encouragée à se développer rapidement face aux nombreux patients qui souffrent et meurent chaque jour de maladies incurables.
L'éthique de cette recherche n'est pas d'« aller vite et de tout casser », mais d'innover aussi vite et sûrement que possible. L'être humain limite le rythme de l'innovation dans ce domaine par un système de réglementations, d'éthique et de normes qui protège le bien-être de la société et des individus, et préserve l'industrie d'une paralysie par des réactions négatives potentiellement catastrophiques.
Lorsque les armes biologiques furent interdites par la Convention sur les armes biologiques pendant la Guerre froide, les superpuissances rivales s'accordèrent à dire que la création de telles armes n'était dans l'intérêt de personne. Les dirigeants comprirent que ces technologies difficiles à contrôler, mais très accessibles, ne devaient pas être considérées comme un moyen de remporter la course aux armements, mais comme une menace pour l'humanité elle-même.
Emilia Javorsky fait partie des scientifiques qui ont récemment signé une lettre ouverte prônant un moratoire de six mois sur le développement de l'IA. Elle a également signé une déclaration avertissant que l'IA représente un « risque d'extinction » pour l'humanité. |
La pause dans la course aux armes biologiques permet aux humains de les développer à un rythme responsable, les scientifiques et les régulateurs appliquant des normes strictes à toute nouvelle innovation susceptible de nuire aux humains.
Ces ajustements n’ont pas été sans coût, mais ils ont également permis d’établir une bioéconomie , avec de nombreuses applications dans des domaines allant de l’énergie propre à l’agriculture.
Pendant la pandémie de Covid-19, les biologistes ont appliqué la technologie de l’ARNm pour produire des vaccins efficaces à une vitesse sans précédent dans l’histoire de l’humanité.
Une enquête récente menée auprès de chercheurs en IA a révélé que 36 % des personnes interrogées estimaient que l'IA pourrait provoquer une catastrophe de niveau nucléaire. Cependant, la réaction et la réglementation des gouvernements ont été lentes, ce qui est incompatible avec le rythme d'adoption des technologies. L'application ChatGPT compte désormais plus de 100 millions d'utilisateurs.
L'escalade rapide des risques liés à l'IA a incité 1 800 PDG et 1 500 professeurs américains à signer récemment une lettre appelant à une pause de six mois dans le développement de l'IA et à un processus urgent de réglementation et d'atténuation des risques. Cette pause donnerait à la communauté internationale le temps de limiter les dommages causés par l'IA et de prévenir le risque d'une catastrophe irréversible pour notre société.
Tout en évaluant les risques et les dangers potentiels de l'IA, nous devons également réfléchir à la manière de ne pas perdre de vue son potentiel positif. Si nous développons l'IA de manière responsable dès maintenant, nous pourrons en tirer d'incroyables bénéfices. Par exemple, l'application de l'IA à la découverte et au développement de médicaments, l'amélioration de la qualité et du coût des soins de santé, et l'amélioration de l'accès aux médecins et aux traitements médicaux.
DeepMind de Google a démontré que l'IA a le potentiel de résoudre des problèmes biologiques fondamentaux que les humains ont longtemps évités. Selon l'étude, l'IA pourrait accélérer la réalisation de tous les Objectifs de développement durable des Nations Unies, guidant l'humanité vers un avenir de meilleure santé, d'équité, de prospérité et de paix.
Il est temps que la communauté internationale s'unisse, comme elle l'a fait il y a 50 ans lors de la Convention sur les armes biologiques, afin de garantir un développement sûr et responsable de l'IA. Si nous n'agissons pas rapidement, nous risquons de compromettre l'avenir prometteur de l'IA et notre société actuelle.
Source
Comment (0)