La lettre qui a marqué un tournant.
Reuters a rapporté le 23 novembre, citant des sources exclusives, que quatre jours avant le limogeage du PDG Sam Altman, plusieurs chercheurs d'OpenAI avaient adressé une lettre au conseil d'administration de l'entreprise pour alerter sur une puissante découverte en intelligence artificielle (IA) susceptible de menacer l'humanité. Cette lettre, restée jusque-là secrète, et l'algorithme d'IA en question ont constitué des éléments déterminants dans le limogeage de Sam Altman, cofondateur d'OpenAI, le 17 novembre. Il a repris ses fonctions le 21 novembre (heure américaine) après deux cycles de négociations avec OpenAI. Selon les sources, cette lettre a été l'une des raisons de la décision du conseil d'administration d'OpenAI de le licencier, bien que le communiqué officiel se soit contenté d'indiquer qu'Altman avait eu une communication « incohérente et ambiguë avec le conseil ».
M. Altman ( à droite ) et des dirigeants d'entreprises technologiques discutent lors de la conférence APEC à San Francisco, aux États-Unis, le 16 novembre.
Selon certaines sources, Mira Murati, cadre dirigeante historique d'OpenAI, a évoqué le projet Q* auprès des employés le 22 novembre et a indiqué que le conseil d'administration avait reçu une lettre à ce sujet avant le licenciement d'Altman. Une source a révélé qu'OpenAI avait progressé sur le projet Q*, qui pourrait constituer une avancée majeure dans la recherche de la superintelligence, également appelée intelligence artificielle générale (IAG).
Bien que le nouveau modèle ne maîtrise les mathématiques qu'au niveau de l'école primaire, sa capacité à résoudre de tels problèmes rend les chercheurs très optimistes quant à l'avenir de Q*. Ces derniers considèrent les mathématiques comme un prérequis au développement de l'IA générative. Actuellement, l'IA générative peut écrire et traduire des langues, même si les réponses à une même question peuvent varier considérablement. Cependant, la maîtrise des mathématiques, un domaine où il n'existe qu'une seule réponse correcte, implique que l'IA possédera de meilleures capacités de raisonnement, comparables à celles des humains. Les chercheurs estiment que cela pourrait ouvrir la voie à de nouvelles recherches scientifiques .
Sam Altman reprend son poste de PDG d'OpenAI.
Danger potentiel ?
Dans une lettre adressée au conseil d'administration d'OpenAI, les chercheurs ont exposé la puissance et les dangers potentiels de l'IA, selon certaines sources. Les informaticiens débattent depuis longtemps des risques posés par les machines superintelligentes, notamment de la possibilité qu'elles décident d'anéantir l'humanité à leur profit. Dans ce contexte, Altman a piloté le développement de ChatGPT, l'une des applications logicielles à la croissance la plus rapide de l'histoire, et a attiré les investissements et les ressources informatiques nécessaires pour progresser vers une intelligence artificielle générale (IAG). Outre l'annonce d'une série de nouveaux outils lors d'un événement ce mois-ci, Altman a déclaré la semaine dernière à San Francisco, devant des dirigeants mondiaux , qu'il était convaincu que l'IAG était imminente. Le lendemain, il était limogé par le conseil d'administration d'OpenAI. OpenAI et Altman n'ont pas commenté la lettre.
Préoccupés par les risques potentiels de l'IA, de nombreux gouvernements occidentaux et entreprises technologiques se sont entendus sur un nouveau mécanisme de tests sécurisés. Cependant, selon l'AFP, le secrétaire général de l'ONU, António Guterres, a déclaré que le monde « tâtonne encore » dans ses efforts pour réglementer l'IA, qui risque d'avoir des conséquences négatives à long terme sur de nombreux aspects, de l'emploi à la culture.
OpenAI et Microsoft sont poursuivis en justice pour violation de droits d'auteur.
Le 23 novembre, The Hill a rapporté qu'un groupe d'auteurs d'ouvrages non romanesques a porté plainte contre OpenAI et Microsoft, les accusant d'avoir entraîné leur outil ChatGPT à copier leurs œuvres sans leur consentement. Dans la plainte déposée devant un tribunal fédéral de New York, le plaignant principal, Julian Sancton, affirme que lui et les autres auteurs n'ont perçu aucune compensation pour les œuvres copiées par l'IA, tandis qu'OpenAI et Microsoft ont tiré profit de la commercialisation de leurs travaux, engrangeant des milliards de dollars de revenus grâce à leurs produits d'IA. Selon Reuters, un porte-parole d'OpenAI a refusé de commenter la plainte, tandis qu'un représentant de Microsoft n'a pas immédiatement répondu à une demande de commentaires.
Lien source







Comment (0)