En conséquence, l'entreprise propriétaire de ChatGPT et de Dall-E a pris plusieurs engagements en matière de politique d'IA. « L'entreprise s'engage à collaborer avec le gouvernement américain et les décideurs politiques du monde entier afin de soutenir l'élaboration d'exigences de licence pour tous les futurs modèles d'IA haute performance. »
L'idée d'un processus de licence d'IA, co-promue par des leaders de l'industrie comme OpenAI et le gouvernement, ouvre la voie à un conflit potentiel entre les startups et les développeurs open source, qui y voient une tentative de rendre plus difficile l'accès à l'espace de l'IA.
Lors d'une audition devant le Congrès américain, le PDG d'OpenAI, Sam Altman, a un jour évoqué l'idée de créer une agence chargée d'octroyer des licences ou de rappeler les produits d'IA s'ils enfreignent les règles établies.
La révélation d'OpenAI intervient alors que d'autres grandes sociétés d'IA comme Microsoft et Google envisagent également des mesures similaires.
Cependant, Anna Makanju, vice-présidente des affaires internationales de l'entreprise, a déclaré que le document de politique internet serait différent de celui que la Maison Blanche devrait publier. OpenAI a déclaré que l'entreprise ne « fait pas pression », mais estime que l'octroi de licences est un moyen « pratique » pour les gouvernements de réglementer les systèmes émergents.
« Il est important que les gouvernements sachent si ces systèmes super puissants pourraient provoquer des dommages », et « il existe très peu de moyens pour les autorités d'être informées de l'existence de ces systèmes sans auto-déclaration. »
Makanju a déclaré qu'OpenAI ne prend en charge que les modèles d'IA sous licence plus puissants que GPT-4 et souhaite garantir que les petites startups n'étaient pas à supporter le fardeau réglementaire.
Responsabilité et transparence
OpenAI a également indiqué dans sa documentation internet sa volonté d'être plus transparente sur les données utilisées pour entraîner des générateurs d'images comme Dall-E. L'entreprise affirme son engagement envers une approche transparente et responsable des données de développement de l'IA.
Les analystes ont souligné que les engagements décrits dans la note d'OpenAI concordent parfaitement avec certaines des propositions politiques formalisées par Microsoft en mai. OpenAI est un signe d'âme, malgré un investissement de 10 milliards de dollars de Microsoft, elle demeure une entreprise indépendante.
De plus, la société propriétaire de ChatGPT a également mené une enquête sur les filigranes pour suivre l'authenticité et le droit d'auteur des images générées par l'IA.
Dans sa note, OpenAI semble reconnaître les risques potentiels que les systèmes d'IA représentent pour le marché du travail, ainsi que les inégalités. L'entreprise indique dans le projet de note qu'elle mènera des recherches et formulera des recommandations aux décideurs politiques afin de protéger l'économie d'éventuelles « perturbations ».
La société a également déclaré qu'elle était ouverte à l'idée de permettre aux gens d'accéder à ses systèmes et de les testeurs pour détecter les vulnérabilités dans divers domaines, notamment le contenu offensant, la manipulation et la désinformation, et qu'elle soutenait la création d'un centre collaboratif de partage d'informations sur la cybersécurité.
(Bloomberg)
Source
Comment (0)