După ce startup-ul OpenAI a lansat prima sa aplicație de inteligență artificială, ChatGPT, la sfârșitul anului 2022, a declanșat un val de concurență pentru dezvoltarea de aplicații de inteligență artificială, în special inteligență artificială generativă, aducând multe facilități în toate domeniile vieții. Cu toate acestea, acest lucru aduce și multe riscuri.
Încălcarea vieții private
În ultimii ani, multe organizații și persoane fizice au suferit pierderi atunci când infractorii cibernetici au folosit inteligența artificială pentru a crea videoclipuri care falsificau imaginile și vocile unor persoane reale. Un exemplu este trucul Deepfake.
Conform Raportului privind Frauda de Identitate publicat de Sumsub la sfârșitul lunii noiembrie 2023, escrocheriile Deepfake au crescut la nivel global de 10 ori în perioada 2022-2023. Aceasta este și perioada în care aplicațiile de inteligență artificială au explodat în lume .
Status Labs notează că Deepfake-urile au avut un impact major asupra culturii, confidențialității și reputației personale. O mare parte din știrile și atenția legate de Deepfake-uri s-au concentrat pe pornografia cu celebrități, pornografia revenge, dezinformarea, știrile false, șantajul și escrocheriile. De exemplu, în 2019, o companie energetică din SUA a fost fraudată cu 243.000 de dolari de către un hacker care a falsificat imaginea și vocea directorilor companiei și le-a cerut angajaților să transfere bani partenerilor.
Reuters a raportat că, în 2023, aproximativ 500.000 de videoclipuri și înregistrări audio Deepfake au fost distribuite pe rețelele sociale din întreaga lume. Pe lângă Deepfake-urile folosite pentru distracție, există și trucuri create de răufăcători pentru a înșela comunitatea. Conform surselor, în 2022, se estimează că escrocheriile Deepfake la nivel mondial au cauzat pierderi de până la 11 milioane de dolari.
Mulți experți în tehnologie au avertizat cu privire la efectele negative ale inteligenței artificiale, inclusiv drepturile de proprietate intelectuală și autenticitatea, și, mai departe, disputele privind proprietatea intelectuală între „operele” create de inteligență artificială. De exemplu, o persoană cere unei aplicații de inteligență artificială să deseneze o imagine cu o anumită temă, dar o altă persoană cere inteligenței artificiale să facă același lucru, rezultând picturi cu multe asemănări.
Este foarte probabil ca acest lucru să ducă la dispute privind proprietatea. Cu toate acestea, până în prezent, lumea nu a luat încă o decizie privind recunoașterea drepturilor de autor pentru conținutul generat de inteligența artificială (recunoașterea drepturilor de autor pentru persoanele care comandă inteligență artificială creativă sau companiile care dezvoltă aplicații de inteligență artificială).
O imagine generată de o aplicație de inteligență artificială
Dificil de distins între real și fals
Deci, poate conținutul generat de inteligența artificială să încalce drepturile de autor? În ceea ce privește tehnologia, conținutul generat de inteligența artificială este sintetizat de algoritmi din datele pe care a fost antrenat. Aceste baze de date sunt colectate de dezvoltatorii de aplicații de inteligență artificială din numeroase surse, în principal din baza de cunoștințe de pe internet. Multe dintre aceste lucrări au fost protejate prin drepturi de autor deținătorilor lor.
Pe 27 decembrie 2023, The New York Times (SUA) a dat în judecată OpenAI (împreună cu ChatGPT) și Microsoft, susținând că milioane dintre articolele lor au fost folosite pentru a antrena chatboți și platforme de inteligență artificială ale acestor două companii. Dovezile sunt că există conținut creat de chatboți la cererea utilizatorilor, care este identic sau similar cu conținutul articolelor. Acest ziar nu poate ignora atunci când „proprietatea lor intelectuală” este utilizată de companii în scop lucrativ.
The New York Times este primul ziar important din SUA care a intentat un proces pentru drepturile de autor legate de inteligența artificială. Este posibil ca și alte ziare să-i urmeze exemplul în viitor, mai ales după succesul The New York Times.
Anterior, OpenAI a încheiat un acord de licențiere a drepturilor de autor cu agenția de știri Associated Press în iulie 2023 și cu Axel Springer - o editură germană care deține două ziare, Politico și Business Insider - în decembrie 2023.
Actrița Sarah Silverman s-a alăturat, de asemenea, unei perechi de procese în iulie 2023, acuzând Meta și OpenAI că i-au folosit memoriile drept text de instruire pentru programele de inteligență artificială. Mulți scriitori și-au exprimat, de asemenea, alarma atunci când s-a dezvăluit că sistemele de inteligență artificială au absorbit zeci de mii de cărți în bazele lor de date, ceea ce a dus la procese intentate de autori precum Jonathan Franzen și John Grisham.
Între timp, serviciul foto Getty Images a dat în judecată o companie de inteligență artificială pentru crearea de imagini bazate pe solicitări text din cauza utilizării neautorizate a materialelor vizuale protejate prin drepturi de autor ale companiei...
Utilizatorii se pot confrunta cu probleme legate de drepturile de autor atunci când utilizează „în mod neglijent” „opere” pe care le-au solicitat instrumentelor de inteligență artificială să le „creeze”. Experții recomandă întotdeauna utilizarea instrumentelor de inteligență artificială doar pentru căutare, colectarea de date și oferirea de sugestii în scop informativ.
Pe de altă parte, aplicațiile de inteligență artificială creează confuzie între utilizatori și aceștia care nu pot distinge între adevăr și falsitate în ceea ce privește un anumit conținut. Editurile și ziarele pot fi confuze atunci când primesc manuscrise. De asemenea, profesorii au dificultăți în a ști dacă lucrările elevilor utilizează sau nu inteligența artificială.
Comunitatea va trebui acum să fie mai vigilentă, deoarece nu se știe ce este real și ce este fals. De exemplu, va fi dificil pentru o persoană obișnuită să detecteze dacă o fotografie a fost „vrăjită” sau editată de inteligența artificială.
Sunt necesare reglementări legale privind utilizarea IA
În așteptarea unor instrumente aplicative care pot detecta intervenția inteligenței artificiale, agențiile de management trebuie să aibă în curând reglementări legale clare și specifice privind utilizarea acestei tehnologii pentru crearea de conținut privat. Reglementările legale trebuie să arate tuturor că IA a intervenit asupra conținutului și a operelor, cum ar fi atașarea implicită a unui filigran la imaginile care au fost manipulate de aceasta.
Sursă: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
Comentariu (0)