V kroku, který je vnímán jako ochrana duševního vlastnictví společnosti, zavedla společnost OpenAI požadavek na ověření totožnosti vládou pro vývojáře, kteří chtějí mít přístup k jejím nejpokročilejším modelům umělé inteligence (AI).
OpenAI na žádost o komentář k výše uvedeným informacím nereagovala.
V oznámení však „tvůrce“ aplikace ChatGPT vysvětlil, že důvodem zavedení nového ověřovacího procesu bylo to, že někteří vývojáři úmyslně používali aplikační programovací rozhraní (API) OpenAI, čímž porušovali zásady používání společnosti.
Ačkoli společnost oficiálně uvedla, že důvodem bylo zabránění zneužití, zdá se, že tento krok pramení z hlubší obavy: že výstupy z modelů OpenAI shromažďují konkurenti za účelem trénování vlastních systémů umělé inteligence.
Dokazuje to nová studie společnosti Copyleaks, která se specializuje na detekci obsahu s využitím umělé inteligence.
Server Copyleaks zjistil pomocí systému rozpoznávání „otisků prstů“, podobného systému velkých modelů umělé inteligence, že přibližně 74 % výstupu z konkurenčního modelu DeepSeek-R1 (Čína) lze klasifikovat jako napsané OpenAI. Toto číslo naznačuje nejen duplikaci, ale také napodobeninu.
Copyleaks také zkoumal další modely umělé inteligence, jako například phi-4 od Microsoftu a Grok-1 od xAI. Výsledky neprokázaly téměř žádnou podobnost s OpenAI, s mírou „neshod“ 99,3 %, respektive 100 %. Model Mixtral od Mistralu určité podobnosti vykazoval.
Tato studie zdůrazňuje fakt: I když jsou modely požádány, aby psaly v různých tónech nebo formátech, stále zanechávají detekovatelné stylistické podpisy – podobné jazykovým otiskům prstů.
Tyto otisky prstů přetrvávají napříč různými úkoly, tématy a výzvami a lze je s určitou mírou přesnosti vysledovat až k jejich původu.
Mezitím někteří kritici poukazují na to, že OpenAI sama vytvořila své počáteční modely shromažďováním dat z webu, včetně obsahu od vydavatelů zpráv, autorů a tvůrců – často bez jejich souhlasu.
Generální ředitel společnosti Copyleaks Alon Yamin poukázal na dva problémy: trénování lidských modelů na obsahu chráněném autorskými právy bez povolení a používání výstupů proprietárních systémů umělé inteligence k trénování konkurenčních modelů – v podstatě reverzní inženýrství produktu konkurence.
Yamin tvrdí, že ačkoli jsou obě metody eticky kontroverzní, školení na výstupech OpenAI představuje konkurenční riziko, protože v podstatě využívá těžko dosažitelné inovace bez souhlasu nebo kompenzace původního vývojáře.
Vzhledem k tomu, že se společnosti zabývající se umělou inteligencí předhánějí ve vytváření stále výkonnějších modelů, debata o tom, kdo co vlastní a kdo se může učit na jakých datech, se stává intenzivnější.
Nástroje jako systém digitálních otisků prstů od Copyleaks nabízejí potenciální metodu pro sledování a ověřování autorských práv ke vzorcům.
Zdroj: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Komentář (0)