Vietnam.vn - Nền tảng quảng bá Việt Nam

Trouver des normes de sécurité pour l'intelligence artificielle

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng31/07/2023


SGGP

Après que l'Europe a commencé à rédiger et à lancer rapidement la première loi au monde sur l'intelligence artificielle (IA), les quatre principaux géants américains de l'exploration de données sur Internet viennent de lancer un groupe appelé Frontier Model Forum.

L'objectif principal du Frontier Model Forum est de promouvoir l'IA de manière responsable. Photo : THINKWITHNICHE
L'objectif principal du Frontier Model Forum est de promouvoir l'IA de manière responsable. Photo : THINKWITHNICHE

Les partis se rapprochent

Le groupe, qui comprend Anthropic, Google, Microsoft et OpenAI, propriétaire de ChatGPT, a déclaré que les principaux objectifs du Frontier Model Forum sont de contribuer à réduire les risques liés aux plateformes d'IA et d'élaborer des normes industrielles. Le Frontier Model Forum créera un nouveau forum dont les principaux objectifs sont les suivants : promouvoir la recherche sur la sécurité de l'IA afin de soutenir le développement, d'atténuer les risques et de normaliser les évaluations et les niveaux de sécurité ; identifier les meilleures pratiques pour le développement et le déploiement de modèles ; aider le public à comprendre la nature, les capacités, les limites et les impacts de cette technologie ; et collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques et la sécurité.

Les géants de la technologie ont traditionnellement résisté à une réglementation accrue, mais cette fois-ci, le secteur technologique a globalement changé de position face aux inquiétudes croissantes concernant les risques posés par l'IA. Les entreprises participant à l'initiative Frontier Model Forum se sont engagées à partager leurs meilleures pratiques et à mettre ces informations à la disposition des gouvernements et de la société civile.

Plus précisément, le Frontier Model Forum se concentrera sur les plateformes d'apprentissage automatique à grande échelle, encore embryonnaires, qui propulsent l'IA vers de nouveaux sommets de sophistication – ce qui constitue également un facteur de risque potentiel. De plus, le Frontier Model Forum soutiendra le développement d'applications répondant à des défis sociétaux majeurs tels que l'atténuation et l'adaptation au changement climatique, la détection et la prévention précoces du cancer, et la lutte contre les cybermenaces.

Place à une destruction potentielle

L'annonce du Frontier Model Forum par des entreprises américaines intervient quelques jours après que des sénateurs américains ont mis en garde, le 25 juillet, contre le risque d'utilisation de l'IA pour des attaques biologiques, lors d'une audition devant une sous-commission de la Commission judiciaire du Sénat américain. Récemment, sept grandes entreprises technologiques, dont OpenAI, Alphabet et Meta, se sont engagées volontairement auprès de la Maison Blanche à développer un système permettant d'identifier tous les contenus créés par l'IA (textes, images, fichiers audio et vidéo ), afin de garantir la transparence pour les utilisateurs et de garantir la sécurité de cette technologie.

Dario Amodei, PDG d'AI Anthropic, a souligné que si l'IA n'est pas encore capable de créer des armes biologiques, elle représente un risque à moyen terme et une menace sérieuse pour la sécurité nationale des États-Unis dans les deux ou trois prochaines années. En effet, les auteurs d'attaques biologiques à grande échelle ne sont plus limités aux spécialistes en la matière.

Le monde est confronté à une explosion de contenus créés par l'IA générative. Des États-Unis à l'Europe en passant par l'Asie, les contrôles se durcissent progressivement. Selon CNN, à partir de septembre, le Sénat américain organisera une série de neuf ateliers supplémentaires pour permettre à ses membres de comprendre l'impact de l'IA sur l'emploi, la sécurité nationale et la propriété intellectuelle. Avant les États-Unis, si un accord est trouvé, l'Union européenne se dotera l'année prochaine de la première loi mondiale sur la gestion de l'IA, qui devrait entrer en vigueur en 2026.

Les avantages de l'IA pour la société sont indéniables, mais les avertissements concernant les risques potentiels de cette nouvelle technologie se multiplient. En juin, le secrétaire général de l'ONU, Antonio Guterres, a soutenu une proposition de plusieurs responsables de l'IA visant à créer un organisme international de surveillance de l'IA, similaire à l'Agence internationale de l'énergie atomique (AIEA).

De retour au Frontier Model Forum, le président de Microsoft, Brad Smith, a déclaré que cette initiative constituait une étape importante pour rassembler les entreprises technologiques afin de promouvoir une utilisation responsable de l'IA au bénéfice de l'humanité tout entière. De même, Anna Makanju, vice-présidente des affaires mondiales d'OpenAI, a déclaré que les technologies d'IA avancées pouvaient apporter de profonds bénéfices à la société, ce qui nécessitait une supervision et une gouvernance accrues.



Source

Comment (0)

No data
No data

Même sujet

Même catégorie

Reconstitution de la fête de la mi-automne de la dynastie Ly à la citadelle impériale de Thang Long
Les touristes occidentaux aiment acheter des jouets de la fête de la mi-automne dans la rue Hang Ma pour les offrir à leurs enfants et petits-enfants.
La rue Hang Ma est resplendissante avec les couleurs de la mi-automne, les jeunes s'y rendent avec enthousiasme sans arrêt
Message historique : les tablettes de bois de la pagode Vinh Nghiem, patrimoine documentaire de l'humanité

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Événements actuels

Système politique

Locale

Produit