Le monde n’est pas prêt pour l’intelligence artificielle générale (AGI), ni pour le moment où l’intelligence artificielle sera aussi intelligente que le cerveau humain, selon un chercheur senior d’OpenAI.
L’intelligence artificielle générale est-elle un risque ?
Pendant des années, les chercheurs ont spéculé sur l’émergence de l’intelligence artificielle générale, ou IA, lorsque les systèmes artificiels géreront des problèmes comme les humains dans une variété de tâches. Beaucoup considèrent son apparition comme un risque existentiel, car elle pourrait permettre aux ordinateurs de fonctionner d’une manière que les humains n’auraient pas pu imaginer.
Selon M. Miles Brindage, le monde n’est pas prêt pour l’avènement de l’intelligence artificielle générale (AGI).
Aujourd'hui, l'homme chargé de s'assurer que le développeur de ChatGPT, OpenAI, est prêt pour l'arrivée de l'AGI admet que le monde et l'entreprise elle-même ne sont « pas prêts » pour la prochaine étape. Miles Brundage était le « conseiller principal d'OpenAI sur la préparation à l'AGI », mais a annoncé son départ cette semaine alors que la société dissolvait le groupe.
« Ni OpenAI ni aucun autre laboratoire pionnier n'est prêt [pour l'AGI], et le monde non plus. Soyons clairs : je ne pense pas qu'il s'agisse d'une déclaration controversée au sein de la direction d'OpenAI, mais plutôt de la question de savoir si l'entreprise et le monde sont en bonne voie pour être prêts au bon moment », a déclaré Brundage, qui a contribué pendant six ans à façonner les initiatives de sécurité de l'IA de l'entreprise.
Le départ de Brundage marque le dernier d'une série de départs notables au sein des équipes de sécurité d'OpenAI. Jan Leike, un éminent chercheur, est parti après avoir affirmé que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants ». Le cofondateur Ilya Sutskever est également parti pour lancer sa propre startup d'IA axée sur le développement d'AGI sûres.
La dissolution par Brundage de son groupe « AGI Readiness » intervient quelques mois seulement après que la société a dissous son groupe « Superalignment » dédié à l'atténuation des risques à long terme de l'IA, exposant les tensions entre la mission initiale d'OpenAI et les ambitions commerciales de l'entreprise.
La pression sur les bénéfices éloigne OpenAI de la voie sûre
OpenAI serait confronté à la pression de passer d'une entreprise à but non lucratif à une entreprise à but lucratif dans les deux ans, sous peine de perdre le financement de son récent tour d'investissement de 6,6 milliards de dollars. Cette évolution vers la commercialisation inquiète depuis longtemps Brundage, qui a exprimé des réserves dès 2019, lorsque OpenAI a créé sa division à but lucratif.
Le PDG d'OpenAI, Sam Altman, a un « mal de tête » en raison de la pression que subit l'entreprise pour trouver un profit.
Pour expliquer son départ, Brundage a cité les restrictions croissantes imposées à sa liberté de recherche et de publication au sein de cette entreprise de premier plan. Il a souligné la nécessité de voix indépendantes dans les discussions sur les politiques d’IA, libres de tout parti pris de l’industrie et de tout conflit d’intérêt. Après avoir conseillé la direction d’OpenAI sur les préparatifs internes, il estime qu’il peut désormais avoir un plus grand impact sur la gouvernance mondiale de l’IA depuis l’extérieur de l’organisation.
Ce départ reflète également une fracture culturelle plus profonde au sein d’OpenAI. De nombreux chercheurs se sont associés pour faire progresser la recherche en IA et se retrouvent désormais dans un environnement de plus en plus axé sur les produits. L'allocation des ressources internes est devenue un point sensible : des rapports indiquent que l'équipe de Leike s'est vu refuser la puissance de calcul nécessaire à la recherche sur la sécurité avant sa dissolution.
OpenAI a été confronté ces derniers mois à des questions sur ses projets de développement de l'intelligence artificielle et sur le sérieux avec lequel l'entreprise prend la sécurité. Bien que fondée en tant qu'organisation à but non lucratif dans le but de rechercher comment construire une intelligence artificielle en toute sécurité, le succès de ChatGPT a généré d'énormes investissements et une pression pour utiliser la nouvelle technologie à des fins lucratives.
Source : https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
Comment (0)