Dezvoltarea rapidă și neașteptată a ChatGPT - un chatbot cu inteligență artificială (IA) cu funcții superioare - a schimbat într-o oarecare măsură viața oamenilor, în special modul de lucru. Cu toate acestea, riscurile asociate cu această tehnologie au stârnit numeroase îngrijorări pentru autoritățile din multe țări, în special îngrijorări legate de datele utilizatorilor.
În contextul în care lumea încă nu are un cadru legal solid pentru a gestiona eficient inteligența artificială și a asigura o fiabilitate ridicată pentru utilizatori, multe țări au început să ia măsuri pentru a reglementa utilizarea ChatGPT și a inteligenței artificiale în general, pentru a minimiza riscurile pe care le aduce această tehnologie.
Multe țări „iau măsuri” cu IA
Italia se află în prima linie în emiterea unei decizii de interzicere a ChatGPT.
Pe 31 martie, autoritățile italiene au interzis temporar aplicația ChatGPT din cauza preocupărilor legate de confidențialitate și a eșecului aplicației de a verifica utilizatorii cu vârsta de 13 ani și peste, așa cum este cerut de Italia. În același timp, Italia a declarat, de asemenea, că va deschide o anchetă privind modul în care OpenAI utilizează datele utilizatorilor.
În urma interzicerii ChatGPT de către Italia, multe țări au luat măsuri împotriva aplicației. (Foto: Reuters).
Autoritatea italiană pentru protecția datelor a acordat OpenAI - compania care a creat ChatGPT - un termen limită până la sfârșitul lunii aprilie pentru a îndeplini cerințele de protecție a datelor și confidențialitate înainte de a relua operațiunile normale în țară.
Imediat după decizia Italiei, multe țări au început să „urmeze” această situație în blocarea ChatGPT din cauza preocupărilor legate de securitatea și confidențialitatea datelor.
Autoritățile franceze și irlandeze de reglementare în domeniul confidențialității și securității și-au contactat omologii italieni pentru a afla despre temeiul interdicției. Autoritatea franceză de supraveghere a confidențialității, CNIL, a declarat pe 11 aprilie că investighează mai multe plângeri privind ChatGPT.
Comisarul pentru protecția datelor din Germania a declarat că Berlinul este probabil „să calce pe urmele Italiei” în blocarea ChatGPT.
În special, Autoritatea Europeană pentru Protecția Datelor (CEPD) a înființat un grup operativ privind ChatGPT pe 13 aprilie, declarând: „Statele membre CEPD au discutat recenta acțiune de aplicare a legii întreprinsă de autoritatea italiană pentru protecția datelor împotriva OpenAI în ceea ce privește serviciul ChatGPT. CEPD a decis să lanseze un grup operativ pentru a promova cooperarea și a face schimb de informații cu privire la posibile acțiuni de aplicare a legii.”
În plus, legiuitorii Uniunii Europene (UE) discută și Legea UE privind inteligența artificială, care ar reglementa pe oricine furnizează produse sau servicii utilizând inteligența artificială, inclusiv sistemele care generează conținut, predicții, recomandări sau decizii care afectează mediul. UE a propus, de asemenea, clasificarea diferitelor instrumente de inteligență artificială în funcție de nivelul lor de risc, de la scăzut la inacceptabil.
Agenția spaniolă pentru protecția datelor, AEPD, a anunțat că desfășoară o investigație preliminară privind încălcările de date ale ChatGPT.
În Australia, Ministerul Științei și Tehnologiei a anunțat pe 12 aprilie că guvernul a solicitat consiliere organismului său consultativ științific cu privire la modul de răspuns la IA și analizează următorii pași.
Această mișcare ridică semne de întrebare cu privire la siguranța inteligenței artificiale și la ce pot face guvernele pentru a atenua riscurile acesteia. Un raport din martie al firmei de consultanță KPMG și al Asociației Industriei Informaționale din Australia a constatat că două treimi dintre australieni au declarat că nu există suficiente legi sau reglementări pentru a preveni utilizarea abuzivă a inteligenței artificiale, în timp ce mai puțin de jumătate credeau că inteligența artificială este utilizată în siguranță la locul de muncă.
Multe țări au început să ia măsuri pentru a reglementa tehnologia IA. (Foto: Reuters).
În Regatul Unit, guvernul a declarat că intenționează să împartă responsabilitatea pentru reglementarea inteligenței artificiale între organismele responsabile cu drepturile omului, sănătatea și siguranța și concurența, în loc să creeze un nou organism de reglementare.
Recent, liderul majorității democrate din Senatul SUA, Chuck Schumer, a elaborat și a emis un nou cadru de reglementare privind inteligența artificială, care ar putea preveni daune catastrofale pentru țară. Propunerea domnului Schumer impune companiilor să permită experților independenți să revizuiască și să testeze tehnologia inteligenței artificiale înainte de a o lansa sau actualiza.
Anterior, pe 11 aprilie, Departamentul Comerțului din SUA a declarat că solicită comentarii publice cu privire la măsurile de responsabilitate în domeniul inteligenței artificiale.
Între timp, Centrul pentru Inteligență Artificială și Politică Digitală din SUA a solicitat Comisiei pentru Comerț să împiedice OpenAI să lanseze noi versiuni comerciale ale GPT-4, argumentând că tehnologia este „părtinitoare, înșelătoare și prezintă riscuri pentru confidențialitate și siguranța publică”.
Între timp, în Japonia, ministrul Transformării Digitale, Taro Kono, a declarat că dorește ca viitoarea reuniune a miniștrilor digitali din G7, programată să aibă loc la sfârșitul lunii aprilie, să discute despre tehnologiile de inteligență artificială, inclusiv ChatGPT, și să transmită un mesaj unificat al G7.
China a anunțat recent măsuri planificate pentru reglementarea serviciilor de inteligență artificială, precizând că firmele care livrează tehnologie de inteligență artificială trebuie să prezinte autorităților evaluări de securitate înainte de a lansa serviciile pe piață.
Experții avertizează asupra pericolelor reprezentate de inteligența artificială
Unii experți spun că inteligența artificială ar putea duce la un „dezastru la nivel nuclear”. (Foto: Reuters).
Un sondaj publicat de Institutul de Inteligență Artificială al Universității Stanford la începutul lunii aprilie a constatat că 36% dintre cercetători cred că IA ar putea duce la o „catastrofă la nivel nuclear”, subliniind și mai mult îngrijorările existente cu privire la dezvoltarea rapidă a tehnologiei.
Între timp, 73% din inteligența artificială va duce la „schimbări sociale revoluționare”.
Raportul arată că, deși aceste tehnologii oferă capacități de neimaginat în urmă cu un deceniu, ele sunt, de asemenea, predispuse la iluzii, prejudecăți și abuzuri în scopuri nefaste, creând provocări etice pentru utilizatorii acestor servicii.
Raportul a menționat, de asemenea, că numărul de „incidente și controverse” legate de inteligența artificială a crescut de 26 de ori în ultimul deceniu.
Luna trecută, miliardarul Elon Musk și cofondatorul Apple, Steve Wozniak, s-au numărat printre miile de experți în tehnologie care au semnat o scrisoare prin care cereau o pauză în instruirea sistemelor de inteligență artificială mai puternice decât chatbot-ul GPT-4 al Open AI, spunând că „sistemele de inteligență artificială puternice ar trebui dezvoltate doar după ce suntem încrezători că impactul lor va fi pozitiv, iar riscurile aferente vor fi gestionabile”.
Yongkang (Reuters, AL Jazeera, ABC)
Sursă
Comentariu (0)