Vietnam.vn - Nền tảng quảng bá Việt Nam

Nouveaux détails sur le scandale du personnel d'OpenAI

Báo Thanh niênBáo Thanh niên23/11/2023


La lettre du tournant

Le 23 novembre, Reuters citait des sources exclusives affirmant que quatre jours avant le limogeage du PDG Sam Altman, des chercheurs d'OpenAI avaient envoyé une lettre au conseil d'administration de l'entreprise pour l'avertir d'une puissante découverte en intelligence artificielle (IA) susceptible de menacer l'humanité. Cette lettre n'avait jamais été mentionnée auparavant, et l'algorithme d'IA mentionné ci-dessus constituait une avancée importante avant le licenciement de M. Sam Altman, cofondateur d'OpenAI, le 17 novembre. Il a repris ses fonctions le 21 novembre (heure des États-Unis) après deux négociations avec OpenAI. Selon certaines sources, cette lettre figurait parmi les raisons ayant conduit à la décision de limoger le conseil d'administration d'OpenAI, bien que dans l'annonce officielle, l'entreprise se soit contentée de déclarer que M. Altman « manquait de cohérence et de franchise dans ses communications avec le conseil d'administration ».

Tình tiết mới vụ sóng gió nhân sự OpenAI - Ảnh 1.

M. Altman ( à droite ) et des dirigeants d'entreprises technologiques ont discuté lors de la conférence de l'APEC à San Francisco (USA) le 16 novembre.

Mira Murati, l'une des cadres dirigeants de longue date d'OpenAI, a évoqué le projet Q* auprès des employés le 22 novembre et a déclaré que le conseil d'administration de l'entreprise avait reçu une lettre avant de licencier M. Altman, selon certaines sources. L'une d'elles a révélé qu'OpenAI avait progressé sur Q*, ce qui pourrait constituer une avancée majeure dans la quête de la superintelligence, également appelée intelligence artificielle générale (IAG).

Bien que le modèle ne prenne en charge que les mathématiques de niveau primaire, la résolution de tels problèmes rend les chercheurs optimistes quant au succès futur de Q*. Ils considèrent les mathématiques comme une condition préalable au développement de l'IA générative. Celle-ci peut actuellement écrire et traduire des langues, même si les réponses aux mêmes questions peuvent être très différentes. Mais la maîtrise des mathématiques, où il n'existe qu'une seule bonne réponse, implique que l'IA sera capable de mieux raisonner, comme les humains. Les chercheurs pensent que cela pourrait être appliqué à de nouvelles recherches scientifiques .

Sam Altman revient en tant que PDG d'OpenAI

Danger potentiel ?

Dans une lettre adressée au conseil d'administration d'OpenAI, les chercheurs ont souligné le potentiel et les dangers de l'IA, selon certaines sources. Les informaticiens débattent depuis longtemps des dangers posés par les machines superintelligentes, notamment de la possibilité qu'elles décident de détruire l'humanité à leur profit. Dans ce contexte, M. Altman a piloté les efforts visant à faire de ChatGPT l'une des applications logicielles à la croissance la plus rapide de l'histoire et à attirer les investissements et les ressources informatiques nécessaires pour se rapprocher de l'IA générale. Outre l'annonce d'une série de nouveaux outils lors d'un événement ce mois-ci, M. Altman a déclaré la semaine dernière aux dirigeants mondiaux réunis à San Francisco qu'il pensait que l'IA générale était à portée de main. Le lendemain, il a été licencié par le conseil d'administration d'OpenAI. OpenAI et M. Altman n'ont pas immédiatement répondu aux demandes de commentaires concernant cette lettre.

Préoccupés par les risques potentiels posés par l'IA, de nombreux gouvernements et entreprises technologiques occidentaux se sont mis d'accord sur un nouveau mécanisme de tests de sécurité. Cependant, selon l'AFP, le secrétaire général de l'ONU, Antonio Guterres, a déclaré que le monde manquait encore de temps pour réglementer l'IA, ce qui risque d'avoir des conséquences négatives à long terme sur tous les aspects, de l'emploi à la culture.

OpenAI et Microsoft poursuivis en justice pour atteinte aux droits d'auteur

Le journal The Hill a rapporté le 23 novembre qu'un groupe d'auteurs de non-fiction avait intenté une action en justice, accusant deux entreprises, OpenAI et Microsoft, d'avoir entraîné l'outil ChatGPT à copier leurs œuvres sans leur consentement. Dans la plainte déposée devant un tribunal fédéral de New York (États-Unis), le principal plaignant, M. Julian Sancton, a déclaré que lui et d'autres auteurs n'avaient reçu aucune compensation pour les œuvres copiées par l'IA, tandis qu'OpenAI et Microsoft avaient tiré un succès financier de la commercialisation de leurs travaux, générant des milliards de dollars de revenus grâce aux produits d'IA. Selon Reuters, un porte-parole d'OpenAI a refusé de commenter la plainte, tandis qu'un représentant de Microsoft n'a pas immédiatement répondu à une demande de commentaire.



Lien source

Comment (0)

No data
No data

Même sujet

Même catégorie

Garder l'esprit de la fête de la mi-automne à travers les couleurs des figurines
Découvrez le seul village du Vietnam dans le top 50 des plus beaux villages du monde
Pourquoi les lanternes à drapeau rouge avec des étoiles jaunes sont-elles populaires cette année ?
Le Vietnam remporte le concours musical Intervision 2025

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Événements actuels

Système politique

Locale

Produit