Vietnam.vn - Nền tảng quảng bá Việt Nam

Trouver des normes de sécurité pour l'intelligence artificielle

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng31/07/2023


SGGP

Après que l'Europe a commencé à rédiger et à lancer rapidement la première loi au monde sur l'intelligence artificielle (IA), les quatre principaux « géants » américains de l'exploration de données sur Internet viennent de lancer un groupe appelé Frontier Model Forum.

L'objectif principal du Frontier Model Forum est de promouvoir une IA responsable. Photo : THINKWITHNICHE
L'objectif principal du Frontier Model Forum est de promouvoir une IA responsable. Photo : THINKWITHNICHE

Les parties se réunissent

Le groupe, qui comprend Anthropic, Google, Microsoft et OpenAI, propriétaire de ChatGPT, a déclaré que les principaux objectifs du Frontier Model Forum sont de contribuer à réduire les risques posés par les plateformes d'IA et d'élaborer des normes industrielles. Le Frontier Model Forum créera un nouveau forum dont les principaux objectifs sont les suivants : promouvoir la recherche sur la sécurité de l'IA afin de soutenir le développement, de réduire les risques et de normaliser les évaluations et les niveaux de sécurité ; identifier les meilleures pratiques pour le développement et le déploiement de modèles, et aider le public à comprendre la nature, les capacités, les limites et les impacts de cette technologie ; et collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques et la sécurité.

Les géants de la technologie ont traditionnellement résisté à une réglementation accrue, mais cette fois-ci, le secteur technologique a largement changé de position face aux risques posés par l'IA. Les entreprises participant à l'initiative Frontier Model Forum se sont engagées à partager leurs meilleures pratiques et à mettre ces informations à la disposition des gouvernements et de la société civile.

Plus précisément, le Frontier Model Forum se concentrera sur les plateformes d'apprentissage automatique à grande échelle, encore naissantes, qui propulsent l'IA vers de nouveaux sommets de sophistication – ce qui constitue également un facteur de risque potentiel. De plus, le Frontier Model Forum soutiendra le développement d'applications répondant à des défis sociétaux majeurs tels que l'atténuation et l'adaptation au changement climatique, la détection et la prévention précoces du cancer, et la protection contre les cybermenaces.

Place à une destruction potentielle

L'annonce du Frontier Model Forum par des entreprises américaines intervient quelques jours après que des sénateurs américains ont mis en garde, le 25 juillet, contre le risque d'utilisation de l'IA pour des attaques biologiques, lors d'une audition devant une sous-commission de la Commission judiciaire du Sénat américain. Récemment, sept grandes entreprises technologiques, dont OpenAI, Alphabet et Meta, se sont engagées volontairement auprès de la Maison Blanche à développer un système permettant d'étiqueter tous les contenus créés par l'IA, qu'il s'agisse de textes, d'images, d'audio ou de vidéo , afin d'offrir aux utilisateurs une transparence des informations et de garantir la sécurité de cette technologie.

Bien que l'IA ne soit pas encore capable de créer des armes biologiques, il s'agit d'un risque à moyen terme qui pourrait constituer une menace sérieuse pour la sécurité nationale des États-Unis dans les deux à trois prochaines années, a souligné Dario Amodei, PDG d'AI Anthropic. En effet, les acteurs qui mènent des attaques biologiques à grande échelle ne se limitent plus à ceux qui possèdent des connaissances spécialisées en la matière.

Le monde est confronté à une explosion de contenus créés par l'IA générative. Des États-Unis à l'Europe en passant par l'Asie, les réglementations se durcissent progressivement. Selon CNN, à partir de septembre, le Sénat américain organisera une série de neuf ateliers supplémentaires pour permettre à ses membres de comprendre l'impact de l'IA sur l'emploi, la sécurité nationale et la propriété intellectuelle. Avant les États-Unis, si un accord est trouvé, l'Union européenne se dotera l'année prochaine de la première loi mondiale sur la gestion de l'IA, qui devrait entrer en vigueur en 2026.

Les avantages de l'IA pour la société sont indéniables, mais les avertissements concernant les risques potentiels de cette nouvelle technologie se multiplient. En juin, le secrétaire général de l'ONU, Antonio Guterres, a soutenu une proposition de plusieurs responsables de l'IA visant à créer un organisme international de surveillance de l'IA, similaire à l'Agence internationale de l'énergie atomique (AIEA).

De retour au Frontier Model Forum, le président de Microsoft, Brad Smith, a déclaré que cette initiative constituait une étape importante pour rassembler les entreprises technologiques afin de promouvoir une utilisation responsable de l'IA au bénéfice de l'humanité tout entière. De même, Anna Makanju, vice-présidente des affaires mondiales d'OpenAI, a déclaré que les technologies d'IA avancées avaient le potentiel d'apporter de profonds bénéfices à la société, ce qui nécessite une supervision et une gouvernance accrues.



Source

Comment (0)

No data
No data

Même sujet

Même catégorie

Le ciel du fleuve Han est « absolument cinématographique »
Miss Vietnam 2024 nommée Ha Truc Linh, une fille de Phu Yen
DIFF 2025 - Un coup de pouce explosif pour la saison touristique estivale de Da Nang
Suivez le soleil

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit