En consecuencia, la empresa propietaria de ChatGPT y Dall-E asumió muchos compromisos en materia de políticas de inteligencia artificial. La empresa se compromete a colaborar con el gobierno de EE. UU. y los legisladores de todo el mundo para respaldar los requisitos de licencia para todos los modelos de IA de alta potencia en el futuro.
La idea de un proceso de licencia de IA, co-promovido por líderes de la industria como OpenAI y el gobierno, está preparando el escenario para un posible conflicto entre nuevas empresas y desarrolladores de código abierto, quienes lo ven como un intento de dificultar la entrada al espacio de la IA.
En una audiencia ante el Congreso de Estados Unidos, el CEO de OpenAI, Sam Altman, planteó una vez la idea de establecer una agencia responsable de otorgar licencias o revocar productos de IA si violan las reglas establecidas.
La revelación de OpenAI se produce mientras otras grandes empresas de inteligencia artificial como Microsoft y Google también están considerando medidas similares.
Sin embargo, la vicepresidenta de asuntos globales de la compañía, Anna Makanju, dijo que el contenido del documento de política interna diferirá de la política que la Casa Blanca está a punto de anunciar. OpenAI dice que la compañía no está “presionando”, pero cree que la concesión de licencias es una forma “práctica” para que los gobiernos regulen los sistemas emergentes.
“Es importante que los gobiernos sepan si estos sistemas superpoderosos podrían causar daños” y “existen muy pocas maneras de que las autoridades conozcan estos sistemas sin informarse ellas mismas”.
Makanju dijo que OpenAI sólo admite la concesión de licencias a modelos de IA más potentes que GPT-4 y quiere asegurarse de que las empresas emergentes más pequeñas no tengan que soportar la carga regulatoria.
Rendición de cuentas y transparencia
OpenAI también ha señalado en documentación interna que está dispuesto a ser más abierto sobre los datos que utiliza para entrenar generadores de imágenes como Dall-E. La empresa afirma que está comprometida con un enfoque transparente y responsable de los datos de desarrollo de IA.
Los analistas señalaron que los compromisos delineados en el memorando de OpenAI son muy consistentes con algunas de las propuestas de políticas que Microsoft hizo en mayo. OpenAI señaló que, a pesar de recibir una inversión de 10 mil millones de dólares de Microsoft, sigue siendo una empresa independiente.
Además, la empresa propietaria de ChatGPT también realizó una encuesta sobre marcas de agua para rastrear la autenticidad y los derechos de autor de las imágenes generadas por IA.
En el memorando, OpenAI parece reconocer los riesgos potenciales que los sistemas de IA plantean al mercado laboral, así como la desigualdad. La compañía dijo en el borrador que realizaría investigaciones y haría recomendaciones a los responsables políticos para proteger la economía de posibles “disrupciones”.
La compañía también dijo que está abierta a permitir que las personas accedan y prueben sus sistemas en busca de vulnerabilidades en una variedad de áreas que incluyen contenido ofensivo, manipulación y desinformación, y apoya la creación de un centro colaborativo de intercambio de información sobre ciberseguridad.
(Según Bloomberg)
[anuncio_2]
Fuente
Kommentar (0)