En una medida considerada como una protección a la propiedad intelectual de la empresa, OpenAI acaba de implementar un requisito de verificación de identidad gubernamental para los desarrolladores que buscan acceso a sus modelos de Inteligencia Artificial (IA) más avanzados.
OpenAI no ha respondido a una solicitud de comentarios sobre la información anterior.
Sin embargo, en el anuncio, el "creador" de la aplicación ChatGPT explicó que la razón para introducir el nuevo proceso de verificación fue porque algunos desarrolladores utilizaron intencionalmente las interfaces de programación de aplicaciones (API) de OpenAI, violando así la política de uso de la compañía.
Aunque la compañía declaró oficialmente que el motivo era evitar el uso indebido, la acción parece surgir de una preocupación más profunda: que los resultados de los modelos de OpenAI están siendo recopilados por competidores para entrenar sus propios sistemas de IA.
Así lo demuestra un nuevo estudio de Copyleaks, empresa especializada en la detección de contenidos mediante IA.
Utilizando un sistema de reconocimiento de huellas dactilares similar al de los grandes modelos de IA, Copyleaks descubrió que aproximadamente el 74 % de los resultados del modelo rival DeepSeek-R1 (China) podían clasificarse como escritos por OpenAI. Esta cifra no solo indica duplicación, sino también imitación.
Copyleaks también examinó otros modelos de IA, como el phi-4 de Microsoft y el Grok-1 de xAI. Los resultados mostraron una similitud casi nula con OpenAI, con índices de desacuerdo del 99,3 % y el 100 %, respectivamente. El modelo Mixtral de Mistral sí presentó algunas similitudes.
Este estudio destaca un hecho: incluso cuando se pide a los modelos que escriban con tonos o formatos diferentes, aún dejan huellas estilísticas detectables, similares a huellas lingüísticas.
Estas huellas digitales persisten en diferentes tareas, temas y estímulos, y pueden rastrearse hasta su origen con cierto grado de precisión.
Mientras tanto, algunos críticos señalan que OpenAI construyó sus modelos iniciales recopilando datos de la web, incluido contenido de editores de noticias, autores y creadores, a menudo sin su consentimiento.
El director ejecutivo de Copyleaks, Alon Yamin, señaló dos problemas: entrenar modelos humanos en contenido protegido por derechos de autor sin permiso y usar el resultado de sistemas de IA propietarios para entrenar modelos de la competencia, esencialmente realizando ingeniería inversa del producto de un competidor.
Yamin sostiene que, si bien ambos métodos son éticamente controvertidos, el entrenamiento con los resultados de OpenAI plantea un riesgo competitivo, ya que esencialmente explota innovaciones difíciles de lograr sin el consentimiento o la compensación del desarrollador original.
A medida que las empresas de IA compiten por construir modelos cada vez más potentes, el debate sobre quién posee qué y quién puede entrenar con qué datos se está volviendo más intenso.
Herramientas como el sistema de huellas digitales de Copyleaks ofrecen un método potencial para rastrear y verificar los derechos de autor en patrones.
Fuente: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Kommentar (0)