Vietnam.vn - Nền tảng quảng bá Việt Nam

Une nouvelle intelligence artificielle pourrait être utilisée pour créer des armes biologiques.

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024


OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

Téléphone affichant l'interface d'apprentissage GPT-O1 d'OpenAI - Photo : FINANCIAL TIMES

Selon le Financial Times du 13 septembre, la société OpenAI a admis que le modèle GPT-o1, qui venait d'être lancé le 12 septembre, augmentait « significativement » le risque que l'intelligence artificielle (IA) soit exploitée pour créer des armes biologiques.

Un document d'OpenAI expliquant le fonctionnement de GPT-O1 indique que ce nouveau modèle présente un « niveau de risque moyen » concernant les questions liées aux armes chimiques, biologiques, radiologiques et nucléaires. Il s'agit du niveau de risque le plus élevé jamais attribué par OpenAI à ses modèles d'IA.

Selon OpenAI, cela signifie que GPT-o1 pourrait « améliorer considérablement » la capacité des experts qui souhaitent l'utiliser à mauvais escient pour créer des armes biologiques.

Mira Murati, directrice technique (CTO) d'OpenAI, a déclaré que même si GPT-o1 est encore en phase de test, les capacités avancées du modèle obligent toujours l'entreprise à être extrêmement « prudente » quant à sa feuille de route pour le public.

Mme Murati a également confirmé que le modèle avait été testé de manière approfondie par une équipe multidisciplinaire d'experts engagés par OpenAI pour tester les limites du modèle développé par l'entreprise.

Le processus de test a démontré que le modèle GPT-o1 répond beaucoup mieux aux critères généraux de sécurité que ses prédécesseurs, a indiqué Mme Murati.

Ne s'arrêtant pas là, les représentants d'OpenAI ont également assuré que la version d'essai de GPT-o1 est « sûre pour le déploiement » et ne peut pas créer de risques plus complexes que les technologies développées.

Malgré ces assurances, une grande partie de la communauté scientifique et des personnes intéressées par l'IA restent peu optimistes quant à l'évolution de cette technologie.

Les inquiétudes grandissent quant au développement trop rapide de l'IA, qui devance celui des réglementations la régissant et leur approbation.

Le professeur Yoshua Bengio, spécialiste en informatique à l'Université de Montréal et l'un des plus grands experts mondiaux en intelligence artificielle, a déclaré que si OpenAI représente désormais un « risque moyen » d'armes chimiques et biologiques, « cela ne fait que renforcer l'importance et l'urgence » de lois, comme celle qui fait l'objet de vifs débats en Californie pour réglementer ce domaine.

Ce scientifique a souligné que les institutions susmentionnées sont particulièrement nécessaires dans le contexte de l'IA qui se rapproche de plus en plus du niveau de l'intelligence artificielle générale (IAG), ce qui signifie avoir la capacité de raisonner à égalité avec les humains.

« Plus les modèles d'IA pionniers se rapprochent de l'IA générale, plus les risques augmenteront si les précautions nécessaires ne sont pas prises. L'amélioration des capacités de raisonnement de l'IA et son utilisation à des fins frauduleuses sont extrêmement dangereuses », a estimé M. Bengio.



Source : https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

Comment (0)

No data
No data

Même sujet

Même catégorie

G-Dragon a enflammé le public lors de sa performance au Vietnam.
Une fan porte une robe de mariée au concert de G-Dragon à Hung Yen
Fascinée par la beauté du village de Lo Lo Chai pendant la saison des fleurs de sarrasin
Me Tri, les jeunes rizières sont en pleine effervescence, rythmées par le martèlement du pilon pour la nouvelle récolte.

Même auteur

Patrimoine

Chiffre

Entreprise

Me Tri, les jeunes rizières sont en pleine effervescence, rythmées par le martèlement du pilon pour la nouvelle récolte.

Événements actuels

Système politique

Locale

Produit