La démarche douteuse d'OpenAI dans le cadre d'un procès pour atteinte aux droits d'auteur
Selon TechCrunch , le procès pour violation de droits d'auteur entre le New York Times et OpenAI prend une nouvelle tournure lorsque les avocats du New York Times (NYT) accusent OpenAI d'avoir supprimé des données d'entraînement ChatGPT liées à des contenus suspectés de violation de droits d'auteur. Cette décision fait suite à plus de 150 heures de recherches de preuves dans les données d'entraînement fournies par OpenAI par des experts du NYT et du Daily News .
Selon une lettre envoyée au district sud de New York le 14 novembre, les données de l'une des deux machines virtuelles fournies par OpenAI à l'équipe juridique ont été supprimées par les ingénieurs de l'entreprise. Bien qu'OpenAI ait affirmé qu'il s'agissait d'une erreur technique involontaire, le New York Times et d'autres plaignants ont affirmé que cela avait gravement compromis leurs efforts de recherche de preuves.
OpenAI poursuivi par le New York Times et plusieurs autres éditeurs pour violation présumée du droit d'auteur en utilisant du contenu pour former ChatGPT sans autorisation
PHOTO : CAPTURE D'ÉCRAN THE ECONOMIC TIMES
OpenAI avait précédemment accepté de laisser les plaignants consulter les données d'entraînement de ChatGPT dans un environnement sécurisé, une étape majeure dans les efforts des éditeurs pour prouver que leur contenu avait été utilisé abusivement pour entraîner des modèles d'IA. Mais la suppression des données a privé les avocats de l'accès à des informations importantes.
Les données supprimées ont été récupérées, mais dans un format juridiquement inutilisable, ce qui complique la présentation de preuves au tribunal par le New York Times . Cette décision soulève des questions quant à la capacité et à la volonté d'OpenAI de garantir l'intégrité des données, notamment dans un contexte de multiplication des poursuites pour violation de droits d'auteur.
Réaction des parties prenantes
Le New York Times a déclaré que la suppression des données avait gravement perturbé le processus d'examen et pouvait être perçue comme un manque de transparence. OpenAI, quant à elle, a insisté sur le fait qu'il s'agissait d'un problème technique et non d'une tentative de dissimulation de preuves. Néanmoins, cet incident met en lumière les défis juridiques de plus en plus complexes que pose la responsabilisation des entreprises d'IA lorsqu'elles utilisent des données protégées par le droit d'auteur pour développer des modèles d'intelligence artificielle.
Ce procès pourrait avoir des conséquences majeures sur la manière dont les entreprises d'IA gèrent les données et se conforment aux exigences réglementaires à l'avenir. Les éditeurs de presse envisagent désormais de nouvelles mesures pour protéger leurs intérêts, tandis qu'OpenAI subit des pressions pour améliorer ses processus de stockage et de contrôle des données afin d'éviter de tels incidents.
Source : https://thanhnien.vn/openai-vo-tinh-xoa-chung-cu-chatgpt-khien-vu-kien-voi-new-york-times-them-cang-thang-185241122213504967.htm
Comment (0)