W posunięciu postrzeganym jako ochrona własności intelektualnej firmy, OpenAI właśnie wprowadziło wymóg weryfikacji tożsamości przez organ rządowy dla programistów, którzy chcą uzyskać dostęp do najnowocześniejszych modeli sztucznej inteligencji (AI) firmy.
OpenAI nie odpowiedziało na prośbę o komentarz do powyższych informacji.
Jednak w ogłoszeniu „twórca” aplikacji ChatGPT wyjaśnił, że powodem wprowadzenia nowego procesu weryfikacji było to, że niektórzy programiści celowo korzystali z interfejsów programowania aplikacji (API) OpenAI, naruszając tym samym politykę użytkowania firmy.
Chociaż firma oficjalnie podała, że powodem była chęć zapobiegania nadużyciom, wydaje się, że działanie to wynikało z głębszego problemu: konkurencja może gromadzić dane wyjściowe z modeli OpenAI w celu trenowania własnych systemów sztucznej inteligencji.
Dowodzi tego nowe badanie firmy Copyleaks, specjalizującej się w wykrywaniu treści za pomocą sztucznej inteligencji.
Korzystając z systemu rozpoznawania „odcisków palców”, podobnego do tego stosowanego w dużych modelach AI, Copyleaks odkrył, że około 74% danych wyjściowych konkurencyjnego modelu DeepSeek-R1 (Chiny) można zaklasyfikować jako napisane przez OpenAI. Liczba ta wskazuje nie tylko na duplikację, ale także na imitację.
Copyleaks zbadał również inne modele sztucznej inteligencji, takie jak phi-4 firmy Microsoft i Grok-1 firmy xAI. Wyniki nie wykazały prawie żadnego podobieństwa do OpenAI, ze wskaźnikami „niezgodności” odpowiednio na poziomie 99,3% i 100%. Model Mixtral firmy Mistral wykazywał pewne podobieństwa.
Badanie to podkreśla pewien fakt: nawet gdy prosi się modelki o pisanie w różnym tonie lub formacie, nadal pozostawiają one po sobie wykrywalne sygnatury stylistyczne — podobne do odcisków palców językowych.
Te odciski palców utrzymują się w różnych zadaniach, tematach i podpowiedziach i można je z pewną dokładnością prześledzić do ich źródła.
Tymczasem niektórzy krytycy wskazują, że samo OpenAI zbudowało swoje pierwotne modele, gromadząc dane z sieci, w tym treści od wydawców wiadomości, autorów i twórców — często bez ich zgody.
Dyrektor generalny Copyleaks, Alon Yamin, wskazał na dwa problemy: trenowanie modeli ludzkich na treściach chronionych prawem autorskim bez pozwolenia oraz wykorzystywanie wyników zastrzeżonych systemów sztucznej inteligencji do trenowania konkurencyjnych modeli — co w istocie jest inżynierią wsteczną produktu konkurencji.
Yamin twierdzi, że chociaż obie metody są etycznie kontrowersyjne, szkolenie na wynikach OpenAI wiąże się z ryzykiem konkurencyjnym, ponieważ w istocie wykorzystuje trudne do osiągnięcia innowacje bez zgody lub wynagrodzenia pierwotnego twórcy.
W miarę jak firmy zajmujące się sztuczną inteligencją prześcigają się w tworzeniu coraz potężniejszych modeli, debata nad tym, kto jest właścicielem czego i kto może trenować na jakich danych, staje się coraz bardziej zacięta.
Narzędzia takie jak system cyfrowego odcisku palca Copyleaks oferują potencjalną metodę śledzenia i weryfikowania praw autorskich do wzorców.
Source: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Komentarz (0)