In een stap die wordt gezien als een bescherming van het intellectuele eigendom van het bedrijf, heeft OpenAI onlangs een overheidsidentificatieplicht ingevoerd voor ontwikkelaars die toegang willen tot de meest geavanceerde kunstmatige intelligentiemodellen (AI).
OpenAI heeft niet gereageerd op een verzoek om commentaar op bovenstaande informatie.
In de aankondiging legde de "maker" van de ChatGPT-applicatie echter uit dat de reden voor de invoering van het nieuwe verificatieproces was dat sommige ontwikkelaars opzettelijk de API's (Application Programming Interfaces) van OpenAI gebruikten en daarmee het gebruiksbeleid van het bedrijf schonden.
Hoewel het bedrijf officieel verklaarde dat de reden was om misbruik te voorkomen, lijkt de actie voort te komen uit een dieperliggende zorg: dat de output van OpenAI-modellen wordt verzameld door concurrenten om hun eigen AI-systemen te trainen.
Dit blijkt uit een nieuwe studie van Copyleaks, een bedrijf dat gespecialiseerd is in AI-gebaseerde contentdetectie.
Met behulp van een "vingerafdruk"-herkenningssysteem, vergelijkbaar met dat van grote AI-modellen, ontdekte Copyleaks dat ongeveer 74% van de output van het concurrerende model DeepSeek-R1 (China) kon worden geclassificeerd als geschreven door OpenAI. Dit cijfer wijst niet alleen op duplicatie, maar ook op imitatie.
Copyleaks onderzocht ook andere AI-modellen, zoals Microsofts phi-4 en xAI's Grok-1. De resultaten lieten vrijwel geen overeenkomst zien met OpenAI, met een 'discrepantie'-percentage van respectievelijk 99,3% en 100%. Het Mixtral-model van Mistral vertoonde wel enkele overeenkomsten.
Deze studie benadrukt een feit: zelfs wanneer modellen gevraagd worden om in verschillende tonen of formaten te schrijven, laten ze nog steeds herkenbare stilistische kenmerken achter – vergelijkbaar met taalkundige vingerafdrukken.
Deze vingerafdrukken blijven behouden bij verschillende taken, onderwerpen en opdrachten, en kunnen met een zekere mate van nauwkeurigheid naar hun oorsprong worden herleid.
Ondertussen wijzen sommige critici erop dat OpenAI zelf zijn eerste modellen heeft gebouwd door gegevens van het web te verzamelen, waaronder content van nieuwswebsites, auteurs en makers – vaak zonder hun toestemming.
Alon Yamin, CEO van Copyleaks, wees op twee problemen: het trainen van menselijke modellen op auteursrechtelijk beschermd materiaal zonder toestemming en het gebruiken van de output van eigen AI-systemen om concurrerende modellen te trainen – in feite het reverse-engineeringproces van een concurrerend product.
Yamin betoogt dat, hoewel beide methoden ethisch controversieel zijn, het trainen op de output van OpenAI een concurrentierisico vormt, omdat het in feite moeilijk te realiseren innovaties exploiteert zonder de toestemming of compensatie van de oorspronkelijke ontwikkelaar.
Naarmate AI-bedrijven een wedloop houden om steeds krachtigere modellen te bouwen, wordt het debat over wie wat bezit en wie op welke data mag trainen steeds heviger.
Tools zoals het digitale vingerafdruksysteem van Copyleaks bieden een potentiële methode om auteursrecht in patronen te traceren en te verifiëren.
Bron: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Reactie (0)