Téléphone affichant l'interface d'apprentissage GPT-O1 d'OpenAI - Photo : FINANCIAL TIMES
Selon le Financial Times du 13 septembre, la société OpenAI a admis que le modèle GPT-o1, qui venait d'être lancé le 12 septembre, augmentait « significativement » le risque que l'intelligence artificielle (IA) soit exploitée pour créer des armes biologiques.
Un document d'OpenAI expliquant le fonctionnement de GPT-O1 indique que ce nouveau modèle présente un « niveau de risque moyen » concernant les questions liées aux armes chimiques, biologiques, radiologiques et nucléaires. Il s'agit du niveau de risque le plus élevé jamais attribué par OpenAI à ses modèles d'IA.
Selon OpenAI, cela signifie que GPT-o1 pourrait « améliorer considérablement » la capacité des experts qui souhaitent l'utiliser à mauvais escient pour créer des armes biologiques.
Mira Murati, directrice technique (CTO) d'OpenAI, a déclaré que même si GPT-o1 est encore en phase de test, les capacités avancées du modèle obligent toujours l'entreprise à être extrêmement « prudente » quant à sa feuille de route pour le public.
Mme Murati a également confirmé que le modèle avait été testé de manière approfondie par une équipe multidisciplinaire d'experts engagés par OpenAI pour tester les limites du modèle développé par l'entreprise.
Le processus de test a démontré que le modèle GPT-o1 répond beaucoup mieux aux critères généraux de sécurité que ses prédécesseurs, a indiqué Mme Murati.
Ne s'arrêtant pas là, les représentants d'OpenAI ont également assuré que la version d'essai de GPT-o1 est « sûre pour le déploiement » et ne peut pas créer de risques plus complexes que les technologies développées.
Malgré ces assurances, une grande partie de la communauté scientifique et des personnes intéressées par l'IA restent peu optimistes quant à l'évolution de cette technologie.
Les inquiétudes grandissent quant au développement trop rapide de l'IA, qui devance celui des réglementations la régissant et leur approbation.
Le professeur Yoshua Bengio, spécialiste en informatique à l'Université de Montréal et l'un des plus grands experts mondiaux en intelligence artificielle, a déclaré que si OpenAI représente désormais un « risque moyen » d'armes chimiques et biologiques, « cela ne fait que renforcer l'importance et l'urgence » de lois, comme celle qui fait l'objet de vifs débats en Californie pour réglementer ce domaine.
Ce scientifique a souligné que les institutions susmentionnées sont particulièrement nécessaires dans le contexte de l'IA qui se rapproche de plus en plus du niveau de l'intelligence artificielle générale (IAG), ce qui signifie avoir la capacité de raisonner à égalité avec les humains.
« Plus les modèles d'IA pionniers se rapprochent de l'IA générale, plus les risques augmenteront si les précautions nécessaires ne sont pas prises. L'amélioration des capacités de raisonnement de l'IA et son utilisation à des fins frauduleuses sont extrêmement dangereuses », a estimé M. Bengio.
Source : https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm






Comment (0)