Vietnam.vn - Nền tảng quảng bá Việt Nam

Le monde n’est pas prêt à développer une IA aussi intelligente que le cerveau humain.

Báo Giao thôngBáo Giao thông27/10/2024

Le monde n’est pas prêt pour l’intelligence artificielle générale (AGI), ou le point où l’intelligence artificielle sera aussi intelligente que le cerveau humain, selon un chercheur senior d’OpenAI.


L’intelligence artificielle générale est-elle un risque ?

Depuis des années, les chercheurs spéculent sur l'émergence de l'intelligence artificielle générale, ou IA, où les systèmes artificiels seront capables de résoudre des problèmes comme les humains dans diverses tâches. Nombreux sont ceux qui voient dans cette émergence un risque existentiel, car elle pourrait permettre aux ordinateurs de se comporter d'une manière inimaginable pour les humains.

Thế giới chưa sẵn sàng phát triển AI thông minh như bộ não con người- Ảnh 1.

Selon M. Miles Brindage, le monde n’est pas prêt pour l’ère de l’intelligence artificielle générale (AGI).

Aujourd'hui, celui qui est chargé de s'assurer que le développeur de ChatGPT, OpenAI, soit prêt pour l'AGI admet que ni le monde ni l'entreprise elle-même ne sont prêts pour la prochaine étape. Miles Brundage était le conseiller principal d'OpenAI pour la préparation à l'AGI, mais a annoncé son départ cette semaine, suite à la dissolution du groupe.

« Ni OpenAI ni aucun autre laboratoire pionnier n'est prêt (pour l'IAG), et le monde non plus. Soyons clairs : je ne pense pas qu'il s'agisse d'une déclaration controversée au sein de la direction d'OpenAI, mais plutôt de la question de savoir si l'entreprise et le monde sont en bonne voie pour être prêts au bon moment », a déclaré Brundage, qui a passé six ans à contribuer à l'élaboration des initiatives de sécurité de l'IA de l'entreprise.

Le départ de Brundage marque le dernier d'une série de départs notables au sein des équipes de sécurité d'OpenAI. Jan Leike, éminent chercheur, a quitté l'entreprise après avoir déclaré que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits performants ». Le cofondateur, Ilya Sutskever, a également quitté l'entreprise pour lancer sa propre start-up d'IA axée sur le développement d'IAG sûres.

La dissolution du groupe « AGI Readiness » de Brundage intervient quelques mois seulement après que la société a dissous son groupe « Superalignment » dédié à l'atténuation des risques à long terme de l'IA, exposant les tensions entre la mission initiale d'OpenAI et ses ambitions commerciales.

La pression sur les bénéfices pousse OpenAI hors du chemin sûr

OpenAI serait confrontée à des pressions pour passer d'une organisation à but non lucratif à une organisation à but lucratif d'ici deux ans, sous peine de perdre le financement de sa récente levée de fonds de 6,6 milliards de dollars. Cette orientation vers la commercialisation préoccupe depuis longtemps Brundage, qui a exprimé des réserves depuis 2019, année de la création de la division à but lucratif d'OpenAI.

Thế giới chưa sẵn sàng phát triển AI thông minh như bộ não con người- Ảnh 2.

Le PDG d'OpenAI, Sam Altman, souffre d'un « mal de tête » en raison de la pression exercée sur l'entreprise pour rechercher des profits.

Pour justifier son départ, Brundage a évoqué les restrictions croissantes imposées à sa liberté de recherche et de publication au sein de cette entreprise de renom. Il a insisté sur la nécessité d'une voix indépendante dans les discussions sur les politiques d'IA, exempte de tout parti pris de l'industrie et de tout conflit d'intérêts. Ayant conseillé la direction d'OpenAI sur les préparatifs internes, il estime pouvoir désormais exercer un impact plus important sur la gouvernance mondiale de l'IA depuis l'extérieur de l'organisation.

Ces départs reflètent également une fracture culturelle plus profonde au sein d'OpenAI. De nombreux chercheurs ont rejoint OpenAI pour faire progresser la recherche en IA et évoluent désormais dans un environnement de plus en plus axé sur les produits. L'allocation des ressources internes est devenue un point sensible : des rapports indiquent que l'équipe de Leike s'est vu refuser la puissance de calcul nécessaire à ses recherches sur la sécurité avant sa dissolution.

Ces derniers mois, OpenAI a été interrogé sur ses projets de développement de l'intelligence artificielle et sur l'importance qu'elle accorde à la sécurité. Bien qu'il ait été fondé en tant qu'organisme à but non lucratif dédié à la recherche sur la conception d'une intelligence artificielle sûre, le succès de ChatGPT a généré d'importants investissements et une pression pour exploiter cette nouvelle technologie à des fins lucratives.



Source : https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm

Comment (0)

No data
No data

Même sujet

Même catégorie

Les fleurs « Rich » coûtant 1 million de VND chacune sont toujours populaires le 20 octobre
Les films vietnamiens et le parcours vers les Oscars
Les jeunes se rendent dans le Nord-Ouest pour s'enregistrer pendant la plus belle saison du riz de l'année
À la saison de la « chasse » au roseau à Binh Lieu

Même auteur

Patrimoine

Chiffre

Entreprise

Les pêcheurs de Quang Ngai empochent des millions de dongs chaque jour après avoir décroché le jackpot avec des crevettes

Événements actuels

Système politique

Locale

Produit