Selon une annonce du blog officiel d'OpenAI, le Comité de sécurité et de sûreté deviendra un groupe de surveillance indépendant sous l'égide du conseil d'administration. Zico Kolter, professeur à l'Université Carnegie Mellon, présidera le comité, aux côtés d'autres membres, dont le PDG de Quora, Adam D'Angelo, le général à la retraite de l'armée américaine Paul Nakasone et l'ancienne vice-présidente exécutive de Sony, Nicole Seligman. Tous ces membres sont actuellement membres du conseil d’administration d’OpenAI.
Après la démission d'Altman, la Commission a achevé une évaluation de sécurité du dernier modèle d'IA de l'entreprise — o1. L'équipe continuera de recevoir des informations de l'équipe de sécurité d'OpenAI et se réserve le droit de retarder la publication si les problèmes de sécurité ne sont pas résolus.
Selon OpenAI, le Comité conservera un rôle important dans la supervision technique des modèles actuels et futurs, ainsi que dans le suivi après la publication des modèles. L'entreprise s'engage à créer des processus de sécurité intégrés avec des critères d'évaluation clairs pour garantir que chacun de ses modèles d'IA est déployé en toute sécurité.
La décision d'Altman de quitter le comité intervient après qu'un groupe de cinq sénateurs américains a envoyé une lettre demandant à OpenAI de clarifier ses politiques de sécurité. Au cours de l’année écoulée, près de la moitié du personnel d’OpenAI, qui se concentrait sur la recherche sur les risques à long terme de l’IA, a quitté l’entreprise. D'anciens chercheurs d'OpenAI ont critiqué Altman pour ne pas avoir plaidé en faveur d'une réglementation forte de l'IA, mais plutôt pour des politiques qui font progresser les objectifs commerciaux de l'entreprise.
Crédit photo : Justin Sullivan / Getty Images
De plus, OpenAI a considérablement augmenté ses dépenses de lobbying auprès du Congrès américain. L'entreprise a budgété 800 000 $ pour les six premiers mois de 2024, contre 260 000 $ pour l'ensemble de l'année 2023. Altman siège également au Conseil de sécurité et de sûreté de l'intelligence artificielle du Département de la sécurité intérieure, où il contribue à formuler des recommandations liées à l'IA dans l'ensemble des infrastructures critiques du pays.
Bien qu'Altman ait quitté le Comité de sécurité et de confidentialité, il semble y avoir peu d'indications que le comité prendra des décisions qui pourraient sérieusement entraver la voie commerciale d'OpenAI. En mai, OpenAI a déclaré qu’elle chercherait à répondre aux « critiques valables » de son travail par l’intermédiaire de ce comité, bien que les « critiques valables » dépendent en grande partie du point de vue de l’examinateur.
Dans un éditorial paru dans The Economist en mai, deux anciens membres du conseil d'administration d'OpenAI, Helen Toner et Tasha McCauley, ont exprimé des inquiétudes quant à la capacité de l'entreprise à se gouverner elle-même. Ils soutiennent qu’OpenAI est actuellement incapable de se tenir responsable sous la pression du profit.
Les bénéfices d’OpenAI deviennent un moteur de plus en plus important. La société est en train de lever 6,5 milliards de dollars lors d'un nouveau cycle de financement, valorisant OpenAI à plus de 150 milliards de dollars. Pour attirer les investisseurs, OpenAI pourrait envisager d’abandonner sa structure hybride à but non lucratif, conçue pour limiter les rendements pour les investisseurs, en faveur de son objectif de développer l’IA pour le bien commun de l’humanité.
Hung Nguyen (selon TechCrunch)
Source : https://www.congluan.vn/sam-altman-roi-uy-ban-an-toan-cua-openai-nhuong-quyen-cho-nhom-doc-lap-post312681.html
Comment (0)