La Comisión Federal de Comercio de Estados Unidos (FTC) está ampliando su investigación sobre OpenAI en medio de preocupaciones de que ChatGPT pueda violar las regulaciones de protección al consumidor.
La solicitud de 20 páginas para que la empresa con sede en San Francisco explique cómo evalúa los riesgos de sus modelos de IA es la amenaza legal más importante hasta el momento para las operaciones estadounidenses de OpenAI, mientras la empresa propietaria de ChatGPT lanza una campaña global para dar forma al futuro de la regulación de la IA.
Además, las autoridades también pidieron a OpenAI que proporcionara detalles de todas las quejas que la empresa recibió relacionadas con el producto que hacían afirmaciones que eran “falsas, engañosas, desacreditantes o perjudiciales” para las personas.
En marzo, la empresa responsable de ChatGPT reveló una falla de seguridad en su sistema que permitía a algunos usuarios acceder a la información de pago y el historial de chat de otros. La FTC investiga si el incidente violó las normas de protección al consumidor.
Esfuerzos para contener a Silicon Valley
La FTC se está convirtiendo en la “policía federal” de Silicon Valley, habiendo impuesto importantes multas a Meta, Amazon y Twitter por presuntas violaciones de las normas de protección al consumidor.
La presidenta de la FTC, Lina Khan, testificó ante el Comité Judicial de la Cámara de Representantes mientras el ambicioso plan de la agencia para controlar el poder de Silicon Valley sufría graves pérdidas en los tribunales.
También esta semana, un juez federal rechazó el intento de la FTC de bloquear la adquisición del fabricante de juegos Activision por parte de Microsoft por 69 mil millones de dólares.
Mientras tanto, Samuel Levine, director de la Oficina de Protección al Consumidor de la FTC, afirmó que la agencia está preparada para abordar las amenazas emergentes. «La FTC acoge con satisfacción la innovación, pero eso no implica imprudencia. Estamos preparados para utilizar todas nuestras herramientas para combatir las prácticas perjudiciales en este ámbito».
La agencia advierte contra el fraude de IA, que consiste en usar IA artificial para manipular a usuarios potenciales o exagerar las capacidades de un producto. Entre la información que la FTC solicita a OpenAI se encuentran estudios, pruebas o encuestas relacionadas que evalúen la percepción de los usuarios sobre la precisión o fiabilidad de los resultados generados por la herramienta de IA.
(Según el Washington Post)
[anuncio_2]
Fuente
Kommentar (0)