Vietnam.vn - Nền tảng quảng bá Việt Nam

Une nouvelle IA pourrait être utilisée pour créer des armes biologiques

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024


OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

Téléphone affichant l'interface d'apprentissage GPT-o1 d'OpenAI - Photo : FINANCIAL TIMES

Selon le Financial Times du 13 septembre, la société OpenAI a admis que le modèle GPT-o1, qui vient d'être lancé le 12 septembre, augmente « considérablement » le risque que l'intelligence artificielle (IA) soit exploitée pour créer des armes biologiques.

Un document expliquant le fonctionnement de GPT-o1, publié par OpenAI, indique que le nouveau modèle présente un « niveau de risque moyen » pour les problèmes liés aux armes chimiques, biologiques, radiologiques et nucléaires. Il s'agit du niveau de risque le plus élevé jamais attribué par OpenAI à ses modèles d'IA.

Selon OpenAI, cela signifie que GPT-o1 pourrait « améliorer considérablement » la capacité des experts qui souhaitent les utiliser à mauvais escient pour créer des armes biologiques.

Mira Murati, directrice technique (CTO) d'OpenAI, a déclaré que même si GPT-o1 est encore en phase de test, les capacités avancées du modèle obligent toujours l'entreprise à être extrêmement « prudente » quant à sa feuille de route destinée au public.

Mme Murati a également confirmé que le modèle avait été minutieusement testé par une équipe multidisciplinaire d'experts embauchés par OpenAI pour tester les limites du modèle développé par l'entreprise.

Le processus de test a montré que le modèle GPT-o1 répond aux critères généraux de sécurité bien mieux que ses prédécesseurs, a partagé Mme Murati.

Ne s'arrêtant pas là, les représentants d'OpenAI ont également rassuré que la version d'essai de GPT-o1 est « sûre pour le déploiement » et ne peut pas créer de risques plus complexes que les technologies développées.

Malgré les assurances ci-dessus, une grande partie de la communauté scientifique et de ceux qui s’intéressent à l’IA ne sont toujours pas très optimistes quant à l’orientation du développement de cette technologie.

Les inquiétudes grandissent quant au fait que l’IA se développe trop rapidement et dépasse le développement et l’approbation des réglementations qui la régissent.

Le professeur Yoshua Bengio, étudiant en informatique à l'Université de Montréal et l'un des plus grands scientifiques en IA au monde , a déclaré que si OpenAI présente désormais un « risque moyen » d'armes chimiques et biologiques, « cela ne fait que renforcer l'importance et l'urgence » de lois, comme celle qui fait l'objet de vifs débats en Californie pour réglementer le domaine.

Ce scientifique a souligné que les institutions susmentionnées sont particulièrement nécessaires dans le contexte d'une IA qui se rapproche de plus en plus du niveau d'intelligence artificielle générale (AGI), ce qui signifie avoir la capacité de raisonner à égalité avec les humains.

« Plus les modèles d'IA innovants se rapprochent de l'IA générale, plus les risques augmentent si les précautions appropriées ne sont pas prises. Les capacités de raisonnement améliorées de l'IA et son utilisation à des fins frauduleuses sont extrêmement dangereuses », a estimé M. Bengio.



Source: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

Comment (0)

No data
No data

Même sujet

Même catégorie

Découvrez le seul village du Vietnam dans le top 50 des plus beaux villages du monde
Pourquoi les lanternes à drapeau rouge avec des étoiles jaunes sont-elles populaires cette année ?
Le Vietnam remporte le concours musical Intervision 2025
Embouteillages à Mu Cang Chai jusqu'au soir, les touristes affluent pour chasser le riz mûr de la saison

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Événements actuels

Système politique

Locale

Produit