ChatGPT saksøkt
Nylig saksøkte to amerikanske forfattere OpenAI i en føderal domstol i San Francisco, og hevdet at selskapet brukte verkene deres til å «trene» det populære kunstige intelligenssystemet ChatGPT.
Forfatterne Paul Tremblay og Mona Awad fra Massachusetts sier at ChatGPT har utvunnet data kopiert fra tusenvis av bøker uten tillatelse, og dermed krenket forfatternes opphavsrett. Søksmålet deres argumenterer for at ChatGPT har laget «svært nøyaktige sammendrag» av verkene deres uten forfatternes tillatelse, noe som er et brudd på opphavsretten.
The Guardian siterte Andres Guadamuz, som studerer immateriell rett ved University of Sussex, som sa at dette er det første søksmålet knyttet til immaterielle rettigheter for ChatGPT. Guadamuz sa derfor at dette søksmålet vil avsløre de uklare «juridiske grensene» i prosessen med å bruke innovative AI-applikasjoner i dag.
OpenAI saksøkt for brudd på opphavsretten i forbindelse med AI-opplæring.
Innen journalistikkfeltet har det vært en rekke spørsmål om både muligheter og utfordringer, og også sinne og virkninger kunstig intelligens har på journalistikk generelt og på journalisters jobber.
ChatGPT kan generere svært kompleks tekst fra enkle brukerkommandoer, og generere alt fra essays til jobbsøknader til dikt og fiktive historier. ChatGPT er en stor språkmodell, trent ved å laste opp milliarder av ord fra hverdagslivet til systemet fra internett. Derfra utleder den setninger og ord fra bestemte sekvenser.
Imidlertid har det blitt stilt spørsmål ved nøyaktigheten av svarene. Akademikere i Australia har funnet eksempler på at systemet forfalsker referanser fra nettsteder og deretter siterer falske sitater. Bruken av kunstig intelligens i journalistikk har også vært kontroversiell.
Teknologinettstedet CNET bruker AI til å generere artikler som deretter sjekkes for feil av menneskelige redaktører før publisering. Nettstedet erkjente at programmet har begrensninger, etter at en artikkel på teknologinettstedet Futurism avslørte at mer enn halvparten av artiklene generert av AI-verktøy måtte redigeres for feil. Ved en anledning ble CNET tvunget til å rette en artikkel som inneholdt for mange enkle feil.
Men potensialet for at AI kan skape feilinformasjon er ikke den eneste bekymringen. Det finnes også en rekke juridiske og etiske spørsmål å vurdere, inkludert immaterielle rettigheter (IP), innholdsmoderering og potensiell forstyrrelse av nyhetsredaksjonenes nåværende økonomiske modeller.
Hvem eier rettighetene til immaterielle rettigheter og innholdspublisering?
Ifølge Le Quoc Minh – medlem av partiets sentralkomité, sjefredaktør for avisen Nhan Dan, nestleder for den sentrale propagandaavdelingen og leder av Vietnams journalistforening – oppstår et viktig spørsmål hvis nyhetsredaksjoner begynner å integrere AI for å produsere innhold: Hvem eier den intellektuelle eiendommen og rettighetene til å publisere innhold? Har pressebyrået kontroll over AI-plattformen, eller er det selve AI-plattformen?
Le Quoc Minh viste til at i motsetning til i USA tillater britisk lov opphavsrettsbeskyttelse for datagenererte verk, selv om bare enkeltpersoner eller organisasjoner har rett til å «eie» åndsverk, aldri AI. Dette betyr spesifikt at hvis et AI-system har gitt minimale bidrag utover grunnleggende brukerkommandoer, og den automatiserte beslutningsprosessen har drevet den kreative prosessen, kan skaperen av plattformen betraktes som «forfatter» og eier av det intellektuelle produktet.
Sjefredaktør Gideon Lichfield sa at de ikke vil publisere innhold skrevet eller redigert av AI, og at de ikke vil bruke AI-genererte bilder eller videoer .
Hvis det kreves mye input gjennom opplasting av dokumenter til systemet, og AI bare er et støtteverktøy, kan den immaterielle eiendommen til outputtet tilhøre brukeren. Faktisk, hvis journalister bruker AI, må de nøye sjekke plattformenes tjenestevilkår for å vurdere regelverket for immaterielle rettigheter. Noen plattformer «gir» immaterielle rettigheter til brukere, mens andre kan beholde denne retten og gi den under en «lisens» (muligens med forskrifter som begrenser bruken av nyhetsrom).
«Uansett hvem som eier den immaterielle eiendommen, må nyhetsredaksjoner være forberedt på å ta ansvar for alt AI-generert innhold de publiserer – inkludert muligheten for at innholdet anses som ærekrenkende eller villedende», sa Minh.
Sjefredaktøren i Nhan Dan Newspaper la til at mange AI-verktøy så langt ikke «publiserer» svar til noen andre enn brukerne selv, og alle som bruker disse teknologiene er ansvarlige for innholdet de legger ut. Den største risikoen for nyhetsredaksjoner som publiserer AI-genererte verk er utilsiktet brudd på tredjeparts immaterielle rettigheter. Journalister kan ikke vite hvilke bilder eller tekst som brukes til å trene AI, eller hvilke som hentes inn for å lage innhold på forespørsel.
« Nyhetsredaksjoner må akseptere det faktum at tilsynelatende originalt AI-generert innhold kan være sterkt påvirket av – eller direkte kopiert fra – tredjepartskilder uten tillatelse», understreket Le Quoc Minh.
Herr Minh bemerket også at tjenestevilkårene til AI-plattformer ikke garanterer at resultatene ikke vil krenke opphavsretten, og dermed vil nyhetsredaksjonene ikke ha noe juridisk grunnlag hvis de blir saksøkt av forfatteren. For eksempel har fotolagringsselskapet Getty Images anlagt sak mot Stability AI – morselskapet som lager bildeopprettingsverktøyet Stable Diffusion – for «ulovlig kopiering og behandling av millioner av opphavsrettsbeskyttede bilder som eies eller representeres av Getty Images».
«Selv om Stability AI unngår et søksmål om opphavsrett, vil det fortsatt bli funnet at det er brutt Getty Images’ tjenestevilkår, som forbyr «all datautvinning, robotikk eller lignende datainnsamlingsmetoder». Medieutsalg som bruker AI til å forstyrre Getty Images-innhold uten tillatelse, kan også bli saksøkt», sa Minh.
I en positiv utvikling ble teknologinyhetsnettstedet Wired nylig det første mediehuset som publiserte offisielle forskrifter om AI, som skisserte hvordan de planlegger å bruke teknologien.
Forskriftene, som ble publisert av sjefredaktør Gideon Lichfield tidlig i mars, forplikter redaksjonen til en rekke ting, som å ikke publisere innhold skrevet eller redigert av kunstig intelligens, ikke bruke bilder eller videoer laget av kunstig intelligens, men kun bruke kunstig intelligens til å få ideer til artikler, eller til å foreslå attraktive overskrifter, eller innhold lagt ut på sosiale nettverk for effektivitet. Dette kan betraktes som et positivt og nødvendig tiltak i sammenheng med at kunstig intelligens forårsaker mye kontrovers rundt juridiske og etiske spørsmål i dagens journalistiske virksomhet.
Hoa Giang
[annonse_2]
Kilde






Kommentar (0)