A vállalat szellemi tulajdonának védelmét szolgáló lépésként az OpenAI nemrégiben bevezette a kormányzati személyazonosító okmányok ellenőrzését a fejlesztők számára, akik hozzáférést szeretnének a legfejlettebb mesterséges intelligencia (MI) modelljeihez.
Az OpenAI nem reagált a fenti információkkal kapcsolatos megkeresésre.
A bejelentésben azonban a ChatGPT alkalmazás „készítője” kifejtette, hogy az új ellenőrzési folyamat bevezetésének oka az volt, hogy egyes fejlesztők szándékosan az OpenAI alkalmazásprogramozási felületeit (API-kat) használták, ezzel megsértve a vállalat használati szabályzatát.
Bár a vállalat hivatalosan kijelentette, hogy az ok a visszaélések megelőzése, a lépés látszólag egy mélyebb aggodalomból fakad: hogy az OpenAI modelljeinek kimenetét a versenytársak gyűjtik össze saját MI-rendszereik betanításához.
Ezt bizonyítja a Copyleaks, egy mesterséges intelligencia alapú tartalomészlelésre szakosodott cég új tanulmánya.
A nagyméretű MI-modellekhez hasonló „ujjlenyomat-felismerő” rendszer segítségével a Copyleaks felfedezte, hogy a rivális DeepSeek-R1 (Kína) modell kimenetének körülbelül 74%-a az OpenAI által írtként osztályozható. Ez a szám nemcsak duplikációra, hanem utánzásra is utal.
A Copyleaks más MI-modelleket is vizsgált, például a Microsoft phi-4-ét és az xAI Grok-1-ét. Az eredmények szinte semmilyen hasonlóságot nem mutattak az OpenAI-val, az „egyet nem értés” aránya 99,3%, illetve 100% volt. A Mistral Mixtral modelljében voltak hasonlóságok.
Ez a tanulmány rávilágít egy tényre: Még akkor is, ha a modelleket arra kérik, hogy különböző hangnemben vagy formátumban írjanak, továbbra is észrevehető stilisztikai jellegzetességeket hagynak maguk után – hasonlóan a nyelvi ujjlenyomatokhoz.
Ezek az ujjlenyomatok különböző feladatokon, témákon és promptokon keresztül is megmaradnak, és bizonyos fokú pontossággal visszavezethetők az eredetükig.
Eközben néhány kritikus rámutat, hogy maga az OpenAI építette fel kezdeti modelljeit az internetről gyűjtött adatok, többek között hírkiadók, szerzők és alkotók tartalmainak felhasználásával – gyakran az ő beleegyezésük nélkül.
Alon Yamin, a Copyleaks vezérigazgatója két problémára mutatott rá: az emberi modellek engedély nélküli betanítása szerzői joggal védett tartalmakon, valamint a saját fejlesztésű mesterséges intelligenciarendszerek kimenetének használata versengő modellek betanítására – lényegében egy versenytárs termékének visszafejtése.
Yamin azzal érvel, hogy bár mindkét módszer etikailag vitatott, az OpenAI kimenetén történő képzés versenykockázatot jelent, mivel lényegében nehezen megvalósítható innovációkat használ ki az eredeti fejlesztő beleegyezése vagy kompenzációja nélkül.
Miközben a mesterséges intelligenciával foglalkozó vállalatok egyre erősebb modelleket fejlesztenek, egyre intenzívebbé válik a vita arról, hogy ki mit birtokol, és ki milyen adatokon tud betanítani.
Az olyan eszközök, mint a Copyleaks digitális ujjlenyomat-olvasó rendszere, potenciális módszert kínálnak a minták szerzői jogainak nyomon követésére és ellenőrzésére.
Forrás: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Hozzászólás (0)