Według agencji Reuters rok 2025 może przynieść istotne rozstrzygnięcia w serii procesów dotyczących praw autorskich, co może okazać się punktem zwrotnym w kształtowaniu przyszłości handlu sztuczną inteligencją.
Rok 2024 to rok, w którym nastąpił wysyp pozwów od właścicieli praw autorskich, w tym autorów, agencji prasowych, artystów wizualnych, muzyków i innych właścicieli praw autorskich. Pozwy te oskarżają firmy OpenAI, Anthropic, Meta Platforms i inne firmy technologiczne o wykorzystywanie ich prac do szkolenia chatbotów i innych generatorów treści opartych na sztucznej inteligencji bez konieczności uzyskiwania licencji lub płacenia tantiem.
W obecnej sytuacji sądy mogłyby rozpocząć rozpatrywanie spraw w 2025 r. i orzekać, czy kopiowanie przez pozwanych mieści się w ramach „dozwolonego użytku”, co mogłoby być decydującym momentem w przyszłości prawa autorskiego do sztucznej inteligencji.
W odpowiedzi na pozwy firmy technologiczne argumentowały, że ich systemy sztucznej inteligencji korzystają z materiałów chronionych prawem autorskim, analizując je i ucząc się, jak tworzyć nowe, transformacyjne treści. Właściciele praw autorskich odpowiedzieli, że firmy nielegalnie kopiują ich dzieła, aby tworzyć konkurencyjne treści, które zagrażają ich źródłom utrzymania.
OpenAI, Meta, firma inwestycyjna z Doliny Krzemowej Andreessen Horowitz i inne firmy technologiczne ostrzegają, że przymus płacenia właścicielom praw autorskich do ich treści może sparaliżować rozwijający się amerykański przemysł sztucznej inteligencji.
Firmy zajmujące się sztuczną inteligencją mogłyby całkowicie uniknąć odpowiedzialności za naruszenie praw autorskich w USA, gdyby sądy zgodziły się z nimi w kwestii dozwolonego użytku. Sędziowie rozpatrujący sprawy w różnych jurysdykcjach mogliby dojść do sprzecznych wniosków dotyczących dozwolonego użytku i innych kwestii, co mogłoby skutkować wieloma rundami apelacji.
Trwający proces sądowy pomiędzy Thomson Reuters i Ross Intelligence może wyznaczyć kierunek, w jakim sędziowie będą rozpatrywać argumenty dotyczące dozwolonego użytku.
W tej sprawie Thomson Reuters, spółka macierzysta Reuters News, oskarżyła Ross Intelligence o niewłaściwe wykorzystanie materiałów chronionych prawem autorskim z platformy Westlaw do badań prawnych, aby zbudować wyszukiwarkę opartą na sztucznej inteligencji. Ross Intelligence później zaprzeczył zarzutom i stwierdził, że materiały te były zgodne z zasadami dozwolonego użytku, zgodnie z przepisami prawa.
Dodatkowo, spór między wydawcami muzycznymi a firmą Anthropic dotyczący wykorzystania ich tekstów do szkolenia chatbota Claude'a może również posłużyć jako wskazówka w podobnych sprawach. W tej sprawie sędzia Sądu Okręgowego USA Jacqueline Corley rozważa kwestię dozwolonego użytku w ramach wniosku wydawców o wydanie nakazu tymczasowego przeciwko firmie. Corley przedstawiła ustne argumenty dotyczące proponowanego nakazu w zeszłym miesiącu.
W listopadzie sędzia Colleen McMahon Sądu Okręgowego w Nowym Jorku oddaliła pozew serwisów informacyjnych Raw Story i AlterNet przeciwko OpenAI, uznając, że powodowie nie zdołali udowodnić szkody, jaka wynikła z rzekomego naruszenia praw autorskich przez OpenAI.
Pozwy organizacji medialnych różnią się od większości innych, ponieważ oskarżają OpenAI o nielegalne usuwanie informacji o zarządzaniu prawami autorskimi z ich artykułów, zamiast bezpośredniego naruszenia ich praw autorskich. Jednak inne pozwy mogą również zakończyć się bez rozstrzygnięcia w sprawie dozwolonego użytku, jeśli sędzia uzna, że właściciele praw autorskich nie ponieśli szkody w wyniku wykorzystania ich prac w szkoleniach z zakresu sztucznej inteligencji.
W obliczu fali pozwów, niektórzy właściciele treści zaczęli w tym roku dobrowolnie udzielać licencji na swoje materiały firmom technologicznym, w tym Redditowi, News Corp i Financial Times. Reuters udzielił licencji na swoje artykuły serwisowi Meta w październiku.
Zgodnie z własnością intelektualną
Source: https://doanhnghiepvn.vn/cong-nghe/ban-quyen-ai-khien-nhieu-doanh-nghiep-cong-nghe-doi-mat-thach-thuc-lon/20241229122015173






Komentarz (0)