Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

La course au contrôle de l'intelligence artificielle

VietNamNetVietNamNet14/08/2023


En 2023, nous percevons déjà le potentiel de ChatGPT et des technologies d'IA de nouvelle génération pour transformer notre façon d'apprendre, de travailler et d'interagir. Ce ne sont là que les premiers pas d'une technologie qui, dans le meilleur des cas, repoussera les frontières de la connaissance et de la productivité humaines, transformera les marchés du travail, réinventera les économies et conduira à des niveaux de croissance sociale et économique sans précédent.

La pression monte pour contrôler la course à l’IA sans étouffer complètement le développement de la technologie.

Parallèlement, le rythme rapide du développement de l'IA suscite l'inquiétude des inventeurs, des leaders technologiques et des régulateurs. Sam Altman, PDG d'OpenAI, la société de recherche à l'origine de ChatGPT, a même mis en garde contre les dangers que l'IA représente pour les individus, les économies et les sociétés si elle n'est pas maîtrisée. Les scénarios les plus pessimistes reposent sur la possibilité que l'IA prenne le pas sur l'humain, lui permettant de perturber le marché du travail, de rendre l'humain inutile, voire de provoquer l'extinction de l'humanité, comme l'ont suggéré certains films de science-fiction hollywoodiens.

Dans ce contexte, les gouvernements du monde entier – notamment ceux des États-Unis, de la Chine et de l'Union européenne (UE) – subissent une pression croissante pour réguler la course à l'IA entre les entreprises technologiques sans pour autant étouffer complètement le développement de cette technologie. Malgré ces mêmes préoccupations, les États-Unis, la Chine et l'UE ont commencé à développer des approches très différentes de la réglementation de l'IA, fondées sur les valeurs et les idéologies considérées comme les plus importantes dans leurs sociétés.

Le gagnant de l'approche IA aura un impact considérable sur l'avenir de la technologie et de la société, car les décisions sont prises à un moment où l'IA est encore nouvelle et n'a pas d'orientation claire pour son développement. Et personne ne peut se permettre d'être laissé pour compte.

Amérique

L'approche moins réglementée des États-Unis en matière d'IA témoigne de leur profonde conviction dans le capitalisme de libre marché et de la manière dont ces valeurs favorisent l'innovation technologique. Ancré dans un modèle de gouvernance économique qui permet aux entreprises d'opérer librement, leur conférant ainsi un pouvoir politique considérable, le cadre réglementaire américain de l'IA est clairement de nature laxiste. Il met l'accent sur la protection de la liberté d'expression, d'un Internet libre et de politiques gouvernementales encourageant l'innovation.

L’approche moins réglementée des États-Unis en matière de contrôle de l’IA a conduit aux avancées remarquables du pays en matière de technologie de l’IA.

L'une des principales raisons de cette approche réside dans la conviction de la société américaine que l'innovation et les nouvelles initiatives sont les principaux moteurs du progrès social et de la prospérité économique. Les décideurs politiques américains sont largement convaincus qu'une réglementation trop restrictive peut freiner l'innovation qui a prospéré dans le pays grâce aux principes du libre marché. Cette approche a permis aux États-Unis d'enregistrer des avancées remarquables en matière d'IA, de l'outil ChatGPT d'OpenAI destiné aux utilisateurs quotidiens aux innovations en matière de diagnostic médical, de modélisation prédictive et de tendances climatiques.

Par conséquent, les États-Unis n'ont pas élaboré de politique fédérale de réglementation significative en matière d'IA, mais ont plutôt proposé quelques normes volontaires que les entreprises technologiques peuvent choisir d'adopter ou d'ignorer. L'exemple le plus récent est le Blueprint for an AI Bill of Rights, un manuel publié par la Maison Blanche en octobre 2022. Ce document fournit des orientations aux développeurs et utilisateurs d'IA sur la manière de protéger les droits du public américain à l'ère de l'IA, mais, en fin de compte, il fait confiance aux entreprises pour gérer leur propre technologie. Ce soutien au développement de l'IA privée se reflète dans l'accent accru mis par Washington sur l'investissement dans la recherche et le développement (R&D) en IA et sur l'amélioration de la capacité du gouvernement fédéral à utiliser l'IA dans ses opérations administratives.

Washington voit également dans l'IA une opportunité de consolider la suprématie militaire et technologique des États-Unis, dans un contexte de concurrence technologique croissante entre les États-Unis et la Chine et d'inquiétudes croissantes quant au conflit géopolitique entre les deux puissances. L'accent mis par les États-Unis sur la domination économique et géopolitique a relégué le contrôle technologique au second plan. Cette approche passive reflète également la stratégie géopolitique de Washington, les décideurs politiques étant convaincus que les États-Unis peuvent utiliser leur soft power pour acquérir un avantage technologique et un leadership en matière d'IA. Ces considérations géopolitiques nourrissent la vision de Washington selon laquelle une réglementation excessive freinerait l'innovation en IA, menaçant ainsi le leadership mondial des États-Unis dans ce domaine. Washington privilégie plutôt les normes volontaires, espérant que l'influence des entreprises américaines dans le développement de l'IA permettra aux États-Unis de promouvoir cette approche à l'échelle mondiale, consolidant ainsi leur puissance.

Union européenne (UE)

L'approche de l'UE en matière de réglementation de l'IA s'appuie sur un cadre axé sur les droits humains, s'appuyant sur les précédents sociétaux qui ont façonné le Règlement général sur la protection des données (RGPD). Entré en vigueur en 2018, le RGPD a jeté les bases de l'approche de l'UE en matière d'IA, fondée sur les droits humains.

Les principes de minimisation des données, de limitation des finalités et d'exigences de transparence restent pertinents pour façonner la réglementation européenne de l'IA. De même, les décideurs politiques doivent concilier considérations éthiques et innovation technologique afin d'établir un cadre réglementaire de l'IA qui place l'intérêt humain au cœur de leurs préoccupations. Cette approche vise à protéger la vie privée des individus, à garantir la transparence des activités des entreprises et à préserver la confiance du public dans l'IA.

L’UE aborde l’IA en se basant sur les droits de l’homme.

La preuve la plus probante de l'engagement de l'UE en faveur d'une gouvernance solide de l'IA est le cadre réglementaire proposé par la Commission européenne pour l'IA. Il s'agit du premier cadre réglementaire visant à encadrer les technologies de l'IA. Il vise à définir des exigences et des obligations claires pour les développeurs, les implémenteurs et les utilisateurs d'IA, en mettant l'accent sur les applications à haut risque. La proposition vise à relever les différents défis posés par l'IA, notamment les difficultés de compréhension des processus décisionnels des systèmes d'IA et l'évaluation des cas d'utilisation abusive de la technologie. Outre la garantie de la sécurité et des droits fondamentaux des citoyens et des entreprises, la proposition vise également à utiliser l'IA pour alléger la charge administrative et financière des entreprises, en particulier des petites et moyennes entreprises (PME).

La stratégie de l'UE propose également une approche fondée sur les risques, distinguant les applications d'IA selon quatre niveaux : inacceptable, à haut risque, restreinte et sans risque. Les applications d'IA considérées comme constituant une menace claire pour la sécurité, les moyens de subsistance et les droits humains seraient interdites, tandis que les applications à haut risque – notamment les technologies d'IA utilisées dans les infrastructures critiques et dans l'emploi – seraient soumises à une réglementation stricte. Les systèmes d'IA présentant un risque minimal seraient également soumis à une surveillance réglementaire, mais à un niveau minimal.

Peut-être moins explicitement que les États-Unis et la Chine, l'UE reconnaît également le rôle de l'IA dans la compétition géopolitique. En prenant l'initiative de définir des normes réglementaires en matière d'IA en Europe, Bruxelles espère diffuser ses valeurs de droits humains, de transparence et de protection des consommateurs dans le monde entier. La capacité de l'UE à réguler les technologies, démontrée notamment dans le domaine de la protection des données avec le RGPD, lui donne l'opportunité de façonner les normes mondiales en matière d'IA et de se doter ainsi d'une importante source de soft power.

L'approche de l'UE n'est toutefois pas sans poser de difficultés. Le potentiel de développement de l'IA dans les pays de l'UE n'est actuellement pas comparable à celui observé aux États-Unis et en Chine. Certains observateurs affirment que la réglementation stricte de l'UE pourrait freiner l'innovation et nuire à la compétitivité des entreprises européennes à l'échelle mondiale. Cela suggère que, même si l'UE espère établir des normes en matière de réglementation de l'IA, elle ne sera pas en mesure de développer la majorité de ces technologies, s'appuyant plutôt sur sa capacité à contrôler la technologie de l'extérieur. Cela pourrait renforcer l'impression dans les pays tiers que l'UE tente d'imposer des valeurs européennes à des sociétés qui ne leur conviennent pas, avec l'effet inverse de perdre son influence géopolitique.

Chine

Contrairement à l'approche libérale des États-Unis et au contrôle européen fondé sur les droits de l'homme, la Chine adopte un modèle de contrôle de l'IA plus affirmé et centralisé. Ce modèle de contrôle descendant peut être considéré comme l'incarnation même du mélange de gouvernance autoritaire et d'économie de marché que connaît la Chine.

Cette approche repose sur le rôle central du gouvernement dans le développement et la supervision de l'IA. Fort d'une vision stratégique à long terme et d'une volonté de mobiliser d'importantes ressources pour développer cette technologie, Pékin a placé l'IA au cœur de sa politique de développement.

Contrairement à l’approche de libre marché des États-Unis et au contrôle fondé sur les droits de l’homme en Europe, la Chine adopte un modèle affirmé et centralisé de contrôle de l’intelligence artificielle.

Le « Nouveau Plan de développement de l'intelligence artificielle », publié en 2017, définit un plan pour que la Chine devienne un leader mondial de l'IA d'ici 2030. Cette stratégie considère l'IA comme un moteur essentiel de la modernisation industrielle et de la transformation économique de la Chine et, ce faisant, intégrera profondément l'IA à la gouvernance et à la gestion sociale, notamment la gouvernance urbaine, les services publics et la surveillance de la sécurité intérieure. Le gouvernement chinois est convaincu que l'IA peut être déployée pour maintenir l'ordre et un contrôle social strict. Le modèle d'État de surveillance chinois a intégré l'IA à sa stratégie de gouvernance nationale, l'utilisant comme un outil pour surveiller, censurer et contrôler non seulement les sources d'information de la société.

Les « Mesures temporaires pour la gestion des services innovants d'intelligence artificielle », qui entreront en vigueur le 15 août, illustrent la manière dont la Chine concilie l'utilisation de l'IA pour stimuler le dynamisme économique et le maintien du contrôle de l'État sur la société. Cette politique prévoit des contrôles de l'IA similaires à ceux en vigueur dans l'UE et aux États-Unis, tels que la protection des droits de propriété intellectuelle, la garantie d'un développement technologique transparent et l'interdiction de la discrimination entre utilisateurs. Elle inclut également des éléments politiques reflétant le contexte social chinois.

Cela inclut l'obligation pour le développement de l'IA de respecter les valeurs socialistes, interdisant son utilisation pour commettre des actes d'incitation ou des activités anti-étatiques. Cette politique exige également que les entreprises de développement d'IA obtiennent des licences approuvées par l'État pour fournir des services d'IA, démontrant ainsi l'intention de Pékin de maintenir un niveau élevé de contrôle sur le déploiement de cette technologie.

À l'instar des États-Unis et de l'UE, l'approche chinoise est également façonnée par les attitudes sociales, culturelles et politiques nationales, et influencée par l'approche gouvernementale. L'effort national pour maîtriser l'IA a favorisé une société où l'IA est devenue un élément accepté du quotidien, des systèmes de paiement par reconnaissance faciale aux assistants pédagogiques IA. La volonté de Pékin d'intégrer ces technologies au quotidien, contrairement aux États-Unis et à l'UE, devrait servir de catalyseur pour accélérer le développement rapide de l'IA en Chine. Alors que les pays occidentaux sont confrontés à de profonds débats sur l'application de l'IA à la société, la Chine peut s'appuyer sur le soutien renouvelé de son public pour déployer l'IA à grande échelle, sans se heurter à la résistance populaire qui accompagne l'Occident.

Au-delà de la mise en œuvre sociétale, la supériorité de la Chine se manifeste également dans la manière dont Pékin régule le marché pour soutenir la recherche en IA, plutôt que de s'appuyer sur le libre marché pour stimuler l'innovation. En 2021, la Chine a représenté près d'un cinquième des investissements privés mondiaux dans l'IA, et en termes de recherche universitaire, elle a publié environ un tiers de tous les articles et citations sur l'IA la même année. Les investissements et le soutien importants du gouvernement chinois ont favorisé un secteur technologique de l'IA de plus en plus dynamique, avec pour objectif de faire de l'IA une ressource essentielle pour tous les domaines du développement du pays.

La politique chinoise est profondément ancrée dans la tradition confucéenne, qui met l'accent sur l'harmonie sociale et le pouvoir de l'État pour la garantir. Si l'approche chinoise en matière de réglementation de l'IA peut continuer de susciter des inquiétudes quant à la vie privée et aux libertés civiles – compte tenu du potentiel des applications de l'IA pour surveiller et contrôler la société –, elle démontre également la capacité de Pékin à s'adapter rapidement aux évolutions technologiques. Cela témoigne de la rapidité avec laquelle les décideurs politiques chinois sont capables de proposer, de mettre en œuvre et de modifier les lois réglementaires sur l'IA. Comparativement à l'Europe et aux États-Unis, la Chine sera mieux à même d'adapter ses politiques pour suivre le développement rapide de l'IA.

Leçon 2 : Qui va gagner la course à l’IA ?

Pham Vu Thieu Quang



Source

Comment (0)

No data
No data

Même catégorie

Les soldats disent au revoir avec émotion à Hanoï après plus de 100 jours de mission A80
Regarder Ho Chi Minh-Ville scintiller de lumières la nuit
Après de longs adieux, les habitants de la capitale ont salué les soldats de l'A80 quittant Hanoi.
À quel point le sous-marin Kilo 636 est-il moderne ?

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit