Nadat de startup OpenAI eind 2022 haar eerste AI-applicatie, ChatGPT, lanceerde, ontstond er een golf van concurrentie om AI-applicaties te ontwikkelen, met name generatieve AI. Deze applicaties brengen veel gemak met zich mee op alle vlakken van het leven. Dit brengt echter ook veel risico's met zich mee.
Schending van de privacy
De afgelopen jaren hebben veel organisaties en individuen schade geleden doordat cybercriminelen AI gebruikten om videoclips te maken die de beelden en stemmen van echte mensen nabootsten. Een voorbeeld hiervan is de deepfake-truc.
Volgens het Identity Fraud Report dat Sumsub eind november 2023 publiceerde, is het aantal deepfake-fraudes wereldwijd vertienvoudigd in de periode 2022-2023. Dit is ook de periode waarin toepassingen voor kunstmatige intelligentie (AI) wereldwijd explosief zijn toegenomen.
Status Labs merkt op dat deepfakes een grote impact hebben gehad op cultuur, privacy en persoonlijke reputatie. Veel van het nieuws en de aandacht rond deepfakes is gericht op celebrityporno, wraakporno, desinformatie, nepnieuws, chantage en oplichting. Zo werd in 2019 een Amerikaans energiebedrijf voor $ 243.000 opgelicht door een hacker die de afbeelding en stem van de leidinggevenden van het bedrijf vervalste en werknemers vroeg geld over te maken naar partners.
Reuters meldde dat er in 2023 wereldwijd ongeveer 500.000 deepfake-video's en -audio's werden gedeeld op sociale netwerken. Naast deepfakes voor de lol, zijn er ook trucs bedacht door criminelen om de community op te lichten. Volgens bronnen veroorzaakten deepfakes in 2022 wereldwijd naar schatting tot wel 11 miljoen dollar aan verliezen.
Veel technologie-experts waarschuwen voor de negatieve effecten van AI, waaronder intellectuele-eigendomsrechten en authenticiteit, en bovendien voor geschillen over intellectueel eigendom tussen door AI gecreëerde 'werken'. Bijvoorbeeld: de ene persoon vraagt een AI-applicatie om een tekening te maken met een bepaald thema, terwijl een andere persoon de AI vraagt hetzelfde te doen, wat resulteert in schilderijen met veel overeenkomsten.
Dit zal zeer waarschijnlijk leiden tot geschillen over eigendom. Tot op heden heeft de wereld echter nog geen besluit genomen over de erkenning van auteursrechten op door AI gegenereerde content (het erkennen van auteursrechten voor individuen die creatieve AI bestellen of bedrijven die AI-toepassingen ontwikkelen).
Een afbeelding gegenereerd door een AI-applicatie
Moeilijk om echt van nep te onderscheiden
Kan door AI gegenereerde content inbreuk maken op auteursrechten? Technologisch gezien wordt door AI gegenereerde content gesynthetiseerd door algoritmen op basis van data waarmee het is getraind. Deze databases worden door AI-applicatieontwikkelaars verzameld uit diverse bronnen, voornamelijk uit de kennisbank op internet. Veel van deze werken zijn auteursrechtelijk beschermd en eigendom van hun eigenaren.
Op 27 december 2023 klaagde The New York Times (VS) OpenAI (met ChatGPT) en Microsoft aan, omdat miljoenen van hun artikelen gebruikt zouden zijn om AI-chatbots en AI-platforms van deze twee bedrijven te trainen. Het bewijs is dat er content is die door chatbots op verzoek van gebruikers is gemaakt en die gelijk is aan of vergelijkbaar is met de inhoud van de artikelen. Deze krant kan niet negeren dat hun "intellectuele eigendom" door bedrijven wordt gebruikt voor winst.
De New York Times is de eerste grote Amerikaanse krant die een auteursrechtzaak aanspant met betrekking tot AI. Mogelijk zullen andere kranten in de toekomst volgen, vooral na het succes van The New York Times.
OpenAI sloot eerder al in juli 2023 een overeenkomst over auteursrechten met persbureau Associated Press en in december 2023 met Axel Springer, een Duitse uitgever die eigenaar is van twee kranten: Politico en Business Insider.
Actrice Sarah Silverman spande in juli 2023 ook twee rechtszaken aan, waarin ze Meta en OpenAI ervan beschuldigde haar memoires te gebruiken als trainingstekst voor AI-programma's. Veel schrijvers uitten ook hun bezorgdheid toen bleek dat AI-systemen tienduizenden boeken in hun databases hadden opgenomen, wat leidde tot rechtszaken van auteurs zoals Jonathan Franzen en John Grisham.
Ondertussen heeft de fotodienst Getty Images ook een AI-bedrijf aangeklaagd, omdat het bedrijf afbeeldingen creëerde op basis van tekstprompts. Het bedrijf zou daarbij ongeoorloofd gebruik hebben gemaakt van auteursrechtelijk beschermd beeldmateriaal van het bedrijf...
Gebruikers kunnen auteursrechtelijke problemen tegenkomen wanneer ze "onzorgvuldig" gebruik maken van "werken" die ze door AI-tools hebben laten "creëren". Experts raden altijd aan om AI-tools alleen te gebruiken voor het zoeken, verzamelen van gegevens en het doen van suggesties ter referentie.
Aan de andere kant verwarren AI-toepassingen gebruikers wanneer ze niet kunnen onderscheiden of bepaalde content waar of onwaar is. Uitgevers en krantenredacties kunnen in de war raken bij het ontvangen van manuscripten. Ook docenten vinden het lastig om te bepalen of het werk van leerlingen gebruikmaakt van AI.
De gemeenschap zal nu waakzamer moeten zijn, omdat niet bekend is wat echt is en wat nep. Zo zal het voor de gemiddelde persoon moeilijk zijn om te zien of een foto 'betoverd' of bewerkt is door AI.
Er zijn wettelijke regels nodig voor het gebruik van AI
In afwachting van toepassingstools die AI-interventie kunnen detecteren, moeten beheersinstanties snel duidelijke en specifieke wettelijke voorschriften hebben voor het gebruik van deze technologie om privécontent te creëren. Wettelijke voorschriften moeten iedereen laten zien dat content en werken door AI zijn geïntervenieerd, zoals het standaard toevoegen van een watermerk aan afbeeldingen die door AI zijn gemanipuleerd.
Bron: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
Reactie (0)