La cuestionable actuación de OpenAI en la demanda por derechos de autor
Según TechCrunch , la demanda por derechos de autor entre el New York Times y OpenAI ha dado un nuevo giro cuando los abogados del New York Times (NYT) acusaron a OpenAI de eliminar datos de entrenamiento de ChatGPT relacionados con contenido sospechoso de infringir los derechos de autor. Esta medida se produce después de que expertos del NYT y el Daily News dedicaran más de 150 horas a buscar pruebas en el conjunto de datos de entrenamiento proporcionado por OpenAI.
Según una carta enviada al Distrito Sur de Nueva York el 14 de noviembre, los ingenieros de la compañía eliminaron los datos de una de las dos máquinas virtuales que OpenAI proporcionó al equipo legal. Aunque OpenAI afirmó que se trató de un error técnico involuntario, el New York Times y otros demandantes afirmaron que esto comprometía gravemente sus esfuerzos por encontrar pruebas.
OpenAI demandado por el New York Times y varios otros editores por presunta infracción de derechos de autor al usar contenido para entrenar ChatGPT sin permiso
FOTO: CAPTURA DE PANTALLA THE ECONOMIC TIMES
OpenAI había acordado previamente permitir que los demandantes inspeccionaran los datos de entrenamiento de ChatGPT en un entorno seguro, un paso importante en los esfuerzos de los editores por demostrar que su contenido se utilizó indebidamente para entrenar modelos de IA. Sin embargo, la eliminación de los datos significó que los abogados perdieron el acceso a información importante.
Los datos eliminados se han recuperado, pero en un formato legalmente inutilizable, lo que dificulta que el New York Times presente pruebas ante los tribunales. Esta medida plantea dudas sobre la capacidad y el compromiso de OpenAI para garantizar la integridad de los datos, especialmente en el contexto del aumento de demandas por infracción de derechos de autor.
Reacción de las partes interesadas
El New York Times afirmó que la eliminación de los datos perturbó gravemente el proceso de revisión y podría considerarse una falta de transparencia. OpenAI, por su parte, insistió en que se trató de un fallo técnico y no de un intento de ocultar pruebas. Aun así, el incidente pone de relieve los desafíos legales cada vez más complejos que supone exigir responsabilidades a las empresas de IA por utilizar datos protegidos por derechos de autor para desarrollar modelos de inteligencia artificial.
La demanda podría tener importantes implicaciones para la gestión de datos y el cumplimiento de los requisitos regulatorios por parte de las empresas de IA en el futuro. Ahora, los editores de noticias están considerando nuevas medidas para proteger sus intereses, mientras que OpenAI se enfrenta a la presión de mejorar sus procesos de almacenamiento y verificación de datos para evitar contratiempos similares.
[anuncio_2]
Fuente: https://thanhnien.vn/openai-vo-tinh-xoa-chung-cu-chatgpt-khien-vu-kien-voi-new-york-times-them-cang-thang-185241122213504967.htm
Kommentar (0)