Vietnam.vn - Nền tảng quảng bá Việt Nam

Nouveaux détails dans le scandale du personnel d'OpenAI

Báo Thanh niênBáo Thanh niên23/11/2023


La lettre du tournant

Le 23 novembre, Reuters citait des sources exclusives selon lesquelles quatre jours avant le limogeage du PDG Sam Altman, des chercheurs d'OpenAI avaient envoyé une lettre au conseil d'administration de l'entreprise pour l'avertir d'une puissante découverte en intelligence artificielle (IA) susceptible de menacer l'humanité. Cette lettre n'avait jamais été mentionnée auparavant, et l'algorithme d'IA mentionné ci-dessus constituait une avancée importante avant le licenciement de M. Sam Altman, cofondateur d'OpenAI, le 17 novembre. Il a repris ses fonctions le 21 novembre (heure des États-Unis) après deux négociations avec OpenAI. Selon certaines sources, cette lettre figurait parmi les raisons ayant conduit à la décision de limoger le conseil d'administration d'OpenAI, bien que dans l'annonce officielle, l'entreprise se soit contentée de déclarer que M. Altman « manquait de cohérence et de franchise dans ses communications avec le conseil d'administration ».

Tình tiết mới vụ sóng gió nhân sự OpenAI - Ảnh 1.

M. Altman ( à droite ) et des dirigeants d'entreprises technologiques ont discuté lors de la conférence de l'APEC à San Francisco (États-Unis) le 16 novembre.

Mira Murati, l'une des dirigeantes historiques d'OpenAI, a évoqué le projet Q* auprès des employés le 22 novembre et a déclaré que le conseil d'administration de l'entreprise avait reçu une lettre avant le licenciement d'Altman, selon les sources. L'une des sources a indiqué qu'OpenAI avait progressé sur Q*, ce qui pourrait constituer une avancée majeure dans la quête de la superintelligence, également appelée intelligence artificielle générale (IAG).

Bien que le modèle ne soit capable de réaliser que des mathématiques de niveau élémentaire, la résolution de tels problèmes rend les chercheurs optimistes quant au succès futur de Q*. Les chercheurs considèrent les mathématiques comme une condition préalable au développement de l'IA générative. L'IA générative est actuellement capable d'écrire et de traduire des langues, même si les réponses aux mêmes questions peuvent être très différentes. Mais la maîtrise des mathématiques, où il n'existe qu'une seule bonne réponse, implique que l'IA sera capable de mieux raisonner, comme les humains. Les chercheurs pensent que cela pourrait être appliqué à de nouvelles recherches scientifiques .

Sam Altman revient en tant que PDG d'OpenAI

Danger potentiel ?

Dans une lettre adressée au conseil d'administration d'OpenAI, les chercheurs ont souligné le potentiel et les dangers de l'IA, selon les sources. Les informaticiens débattent depuis longtemps des dangers posés par les machines superintelligentes, notamment de la possibilité qu'elles décident de détruire l'humanité à leur profit. Dans ce contexte, Altman a mené des efforts pour faire de ChatGPT l'une des applications logicielles à la croissance la plus rapide de l'histoire et attirer les investissements et les ressources informatiques nécessaires pour se rapprocher de l'IA générale. Outre l'annonce d'une série de nouveaux outils lors d'un événement ce mois-ci, Altman a déclaré la semaine dernière aux dirigeants mondiaux à San Francisco qu'il pensait que l'IA générale était à portée de main. Le lendemain, il a été licencié par le conseil d'administration d'OpenAI. OpenAI et Altman n'ont pas immédiatement répondu aux demandes de commentaires sur cette lettre.

Préoccupés par les risques potentiels posés par l'IA, de nombreux gouvernements et entreprises technologiques occidentaux ont convenu d'un nouveau régime de tests de sécurité. Cependant, selon l'AFP, le secrétaire général de l'ONU, Antonio Guterres, a déclaré que le monde manquait encore de « rattrapage » dans les efforts de réglementation de l'IA, ce qui risque d'avoir des conséquences négatives à long terme sur tous les aspects, de l'emploi à la culture.

OpenAI et Microsoft poursuivis en justice pour violation de droits d'auteur

Un groupe d'auteurs de non-fiction a intenté une action en justice contre OpenAI et Microsoft, les accusant d'avoir entraîné un outil appelé ChatGPT à copier leurs œuvres sans leur consentement, a rapporté The Hill le 23 novembre. Dans la plainte déposée devant un tribunal fédéral de New York, le plaignant principal, Julian Sancton, a déclaré que lui et d'autres auteurs n'avaient reçu aucune compensation pour les œuvres copiées par l'IA, tandis qu'OpenAI et Microsoft ont obtenu un succès financier grâce à la commercialisation de leurs travaux, engrangeant des milliards de dollars de revenus grâce aux produits d'IA. Selon Reuters, un porte-parole d'OpenAI a refusé de commenter la plainte, tandis qu'un représentant de Microsoft n'a pas immédiatement répondu à une demande de commentaire.



Lien source

Comment (0)

No data
No data
Beauté sauvage sur la colline herbeuse de Ha Lang - Cao Bang
L'armée de l'air vietnamienne s'entraîne à se préparer pour l'A80
Des missiles et des véhicules de combat « Made in Vietnam » démontrent leur puissance lors d'une séance d'entraînement conjointe A80
Admirez le volcan Chu Dang Ya, vieux d'un million d'années, à Gia Lai
Il a fallu 6 semaines à Vo Ha Tram pour terminer le projet musical faisant l'éloge de la patrie.
Le café de Hanoi est illuminé de drapeaux rouges et d'étoiles jaunes pour célébrer le 80e anniversaire de la fête nationale le 2 septembre
Des ailes en vol sur le terrain d'entraînement de l'A80
Des pilotes spéciaux en formation de défilé pour célébrer la fête nationale le 2 septembre
Les soldats marchent sous le soleil brûlant sur le terrain d'entraînement
Regardez les hélicoptères répéter dans le ciel de Hanoi en préparation de la fête nationale du 2 septembre

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit