I et trekk som anses som å beskytte selskapets immaterielle rettigheter, har OpenAI nettopp implementert et krav om bekreftelse av ID-er fra myndighetene for utviklere som ønsker tilgang til deres mest avanserte modeller for kunstig intelligens (KI).
OpenAI har ikke svart på en forespørsel om kommentar til informasjonen ovenfor.
I kunngjøringen forklarte imidlertid «skaperen» av ChatGPT-applikasjonen at grunnen til å introdusere den nye verifiseringsprosessen var fordi noen utviklere med vilje brukte OpenAIs applikasjonsprogrammeringsgrensesnitt (API-er), og dermed brøt selskapets brukspolicy.
Selv om selskapet offisielt oppga at årsaken var å forhindre misbruk, ser det ut til at handlingen stammer fra en dypere bekymring: at resultatene fra OpenAIs modeller samles inn av konkurrenter for å trene sine egne AI-systemer.
Dette demonstreres av en ny studie fra Copyleaks, et selskap som spesialiserer seg på innholdsdeteksjon basert på kunstig intelligens.
Ved å bruke et «fingeravtrykks»-gjenkjenningssystem som ligner på det store AI-modellene, oppdaget Copyleaks at omtrent 74 % av resultatet fra den konkurrerende modellen DeepSeek-R1 (Kina) kunne klassifiseres som skrevet av OpenAI. Dette tallet indikerer ikke bare duplisering, men også imitasjon.
Copyleaks undersøkte også andre AI-modeller som Microsofts phi-4 og xAIs Grok-1. Resultatene viste nesten ingen likhet med OpenAI, med "uenighetsrater" på henholdsvis 99,3 % og 100 %. Mistrals Mixtral-modell hadde noen likheter.
Denne studien fremhever et faktum: Selv når modeller blir bedt om å skrive med forskjellige toner eller formater, etterlater de seg fortsatt merkbare stilistiske signaturer – lik språklige fingeravtrykk.
Disse fingeravtrykkene vedvarer på tvers av ulike oppgaver, emner og spørsmål, og kan spores tilbake til opprinnelsen med en viss grad av nøyaktighet.
I mellomtiden påpeker noen kritikere at OpenAI selv bygde sine første modeller ved å samle inn data fra nettet, inkludert innhold fra nyhetsutgivere, forfattere og skapere – ofte uten deres samtykke.
Copyleaks-sjef Alon Yamin påpekte to problemer: å trene menneskelige modeller på opphavsrettsbeskyttet innhold uten tillatelse og å bruke resultatet fra proprietære AI-systemer til å trene konkurrerende modeller – i hovedsak å reversere utviklingen av en konkurrents produkt.
Yamin argumenterer for at selv om begge metodene er etisk kontroversielle, utgjør opplæring på OpenAIs resultater en konkurranserisiko, ettersom den i hovedsak utnytter vanskelig oppnåelige innovasjoner uten den opprinnelige utviklerens samtykke eller kompensasjon.
Etter hvert som AI-selskaper kjemper om å bygge stadig kraftigere modeller, blir debatten om hvem som eier hva og hvem som kan trene på hvilke data stadig mer intens.
Verktøy som Copyleaks' digitale fingeravtrykkssystem tilbyr en potensiell metode for å spore og verifisere opphavsrett i mønstre.
Kilde: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Kommentar (0)