Etter at oppstartsbedriften OpenAI lanserte sin første AI-applikasjon, ChatGPT, sent i 2022, ble det utløst en bølge av kappløp om å utvikle AI-applikasjoner, spesielt generativ AI, som brakte med seg mange bekvemmeligheter på alle områder av livet. Dette medfører imidlertid også mange risikoer.
Krenkelse av privatlivets fred
I de senere årene har mange organisasjoner og enkeltpersoner lidd tap når teknologikriminelle har brukt kunstig intelligens til å lage videoklipp som forfalsket bilder og stemmer til ekte mennesker. Et eksempel er «fake becomes real»-trikset kalt Deepfake.
Ifølge rapporten om identitetssvindel publisert av Sumsub i slutten av november 2023, økte deepfake-svindel globalt med 10 gangers økning i perioden 2022–2023. Dette er også tiden da kunstig AI-applikasjoner eksploderte i verden .
Status Labs bemerker at Deepfake har hatt stor innvirkning på kultur, personvern og personlig omdømme. Mye av nyhetene og oppmerksomheten rundt Deepfake har fokusert på kjendisporno, hevnporno, desinformasjon, falske nyheter, utpressing og svindel. For eksempel ble et energiselskap i USA i 2019 svindlet for 243 000 dollar av en hacker som forfalsket bildet og stemmen til selskapets ledelse og ba ansatte om å overføre penger til partnere.
Nyhetsbyrået Reuters rapporterte at rundt 500 000 deepfake-innhold i video og tale ble delt på sosiale nettverk over hele verden i 2023. I tillegg til deepfakes for moro skyld, finnes det triks laget av skurker for å lure samfunnet. Noen kilder sa at deepfake-svindel rundt om i verden forårsaket et anslått tap på 11 millioner dollar i 2022.
Mange teknologieksperter har advart om de negative effektene av AI, inkludert immaterielle rettigheter og autentisitet, og videre tvister om immaterielle rettigheter mellom «verk» skapt av AI. For eksempel ber én person en AI-applikasjon om å tegne et bilde med et bestemt tema, men en annen person ber AI om å gjøre det samme, noe som resulterer i malerier med mange likheter.
Dette vil høyst sannsynlig føre til eierskapstvister. Verden har imidlertid ennå ikke tatt noen avgjørelse om opphavsrettsanerkjennelse for AI-generert innhold (anerkjennelse av forfatterskap for enkeltpersoner som bestiller kreativ AI eller selskaper som utvikler AI-applikasjoner).
Et bilde generert av en AI-applikasjon
Vanskelig å skille mellom ekte og falskt
Så kan AI-generert innhold krenke opphavsretten? Teknologisk sett syntetiseres AI-generert innhold av algoritmer fra data det er trent på. Disse databasene samles inn av AI-applikasjonsutviklere fra mange kilder, hovedsakelig fra kunnskapsbasen på internett. Mange av disse verkene er opphavsrettsbeskyttet av eierne sine.
27. desember 2023 saksøkte The New York Times (USA) OpenAI (med ChatGPT) og Microsoft, og hevdet at millioner av artiklene deres ble brukt til å trene AI-chatboter og AI-plattformene til disse to selskapene. Bevisene tyder på at det finnes innhold laget av chatboter på forespørsel fra brukere som er det samme eller ligner på innholdet i artiklene. Denne avisen kan ikke ignorere når deres «immaterielle eiendom» brukes av selskaper for profitt.
New York Times er den første store amerikanske avisen som har anlagt et søksmål om opphavsrett knyttet til AI. Det er mulig at andre aviser vil følge etter i fremtiden, spesielt etter New York Times' suksess.
Tidligere inngikk OpenAI en lisensavtale om opphavsrett med nyhetsbyrået Associated Press i juli 2023 og Axel Springer – det tyske forlaget som eier avisene Politico og Business Insider – i desember 2023.
Skuespillerinnen Sarah Silverman sluttet seg også til et søksmål i juli 2023, der hun anklaget Meta og OpenAI for å bruke memoarene hennes som opplæringstekst for AI-programmer. Mange forfattere uttrykte også bekymring da det ble avslørt at AI-systemer hadde absorbert titusenvis av bøker i databasene sine, noe som førte til søksmål fra forfattere som Jonathan Franzen og John Grisham.
I mellomtiden har fototjenesten Getty Images også saksøkt et AI-selskap for å ha laget bilder basert på tekstmeldinger på grunn av uautorisert bruk av selskapets opphavsrettsbeskyttede bildemateriale ...
Brukere kan få problemer med opphavsretten når de «uforsiktig» bruker «verk» som de har bedt AI-verktøy om å «lage». Eksperter anbefaler alltid å kun bruke AI-verktøy til å søke, samle inn data og komme med forslag til referanseformål.
På den annen side forvirrer AI-applikasjoner brukere når de ikke kan skille mellom sannheten og usannheten i et bestemt innhold. Forlag og aviskontorer kan bli forvirret når de mottar manuskripter. Lærere har også problemer med å vite om elevenes arbeid bruker AI eller ikke.
Samfunnet må nå være mer årvåkent fordi man ikke vet hva som er ekte og hva som er falskt. For eksempel vil det være vanskelig for gjennomsnittspersonen å oppdage om et bilde har blitt «fortryllet» eller redigert av AI.
Det er behov for lovbestemmelser om bruk av kunstig intelligens
Mens de venter på applikasjonsverktøy som kan oppdage AI-intervensjon, må forvaltningsorganer snart ha klare og spesifikke juridiske forskrifter for bruk av denne teknologien til å lage privat innhold. Juridiske forskrifter må vise alle at innhold og verk har blitt intervenert av AI, for eksempel som standard vannmerking av bilder som har blitt manipulert av AI.
[annonse_2]
Kilde: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm






Kommentar (0)