Vietnam.vn - Nền tảng quảng bá Việt Nam

Riscuri de securitate la utilizarea ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023


Cea mai mare bancă din America, JPMorgan Chase, Amazon și compania de tehnologie Accenture au restricționat angajaților utilizarea ChatGPT din motive de securitate a datelor.

Conform CNN, îngrijorările acestor companii sunt complet întemeiate. Pe 20 martie, chatbot-ul OpenAI a avut o eroare care a expus datele utilizatorilor. Deși eroarea a fost remediată rapid, compania a dezvăluit că incidentul a afectat 1,2% dintre utilizatorii ChatGPT Plus. Informațiile scurse au inclus nume complete, adrese de e-mail, adrese de facturare, ultimele patru cifre ale numerelor cardurilor de credit și datele de expirare ale cardurilor.

Pe 31 martie, autoritatea italiană pentru protecția datelor (Garante) a emis o interdicție temporară asupra ChatGPT, invocând preocupări legate de confidențialitate, după ce OpenAI a dezvăluit vulnerabilitatea.

Mark McCreary, copreședinte al departamentului de securitate a datelor și confidențialitate la firma de avocatură Fox Rothschild LLP, a declarat pentru CNN că preocupările legate de securitate legate de ChatGPT nu sunt exagerate. El a comparat chatbot-ul cu inteligență artificială cu o „cutie neagră”.

ChatGPT a fost lansat de OpenAI în noiembrie 2022 și a atras rapid atenția datorită capacității sale de a scrie eseuri, de a compune povești sau versuri de cântece, oferindu-le sugestii. Giganți tehnologici precum Google și Microsoft au lansat, de asemenea, instrumente de inteligență artificială care funcționează similar, bazate pe modele lingvistice mari, antrenate pe depozite uriașe de date online.

chatgpt.jpg

În urma acțiunii Italiei, Germania ia în considerare și interzicerea ChatGPT.

„Când utilizatorii introduc informații în aceste instrumente, nu știu cum vor fi utilizate acestea”, a adăugat dl. McCreay. Acest lucru este îngrijorător pentru companii, deoarece tot mai mulți angajați folosesc instrumente pentru a scrie e-mailuri de serviciu sau pentru a lua notițe pentru întâlniri, ceea ce duce la un risc mai mare de expunere a secretelor comerciale.

Steve Mills, directorul departamentului de etică în domeniul inteligenței artificiale de la Boston Consulting Group (BCG), a declarat că firmele sunt îngrijorate de faptul că angajații dezvăluie accidental informații sensibile. Dacă datele introduse de oameni sunt folosite pentru a antrena acest instrument de inteligență artificială, aceștia au cedat controlul asupra datelor altcuiva.

Conform politicii de confidențialitate OpenAI, compania poate colecta toate informațiile și datele personale de la utilizatorii serviciilor pentru a-și îmbunătăți modelele de inteligență artificială. Aceștia pot utiliza aceste informații pentru a-și îmbunătăți sau analiza serviciile, a efectua cercetări, a comunica cu utilizatorii și a dezvolta noi programe și servicii.

Politica de confidențialitate prevede că OpenAI poate furniza informații personale unor terțe părți fără a notifica utilizatorii, cu excepția cazului în care acest lucru este impus de lege. OpenAI are, de asemenea, propriul document privind Termenii și condițiile de utilizare, dar compania atribuie o mare parte din responsabilitate utilizatorilor de a lua măsuri adecvate atunci când interacționează cu instrumentele de inteligență artificială.

Proprietarii ChatGPT au postat pe blogul lor despre abordarea lor privind inteligența artificială sigură. Compania subliniază că nu folosește date pentru a vinde servicii, a face publicitate sau a crea profiluri de utilizatori. În schimb, OpenAI folosește date pentru a face modelele sale mai utile. De exemplu, conversațiile utilizatorilor vor fi folosite pentru a antrena ChatGPT.

06DRHXAVI9Fvj02541vbBqy-1.webp

Politica de confidențialitate a ChatGPT este considerată destul de vagă.

Google, compania din spatele Bard AI, are prevederi suplimentare privind confidențialitatea pentru utilizatorii săi de inteligență artificială. Compania va selecta o mică parte a conversației și va utiliza instrumente automate pentru a elimina informațiile de identificare personală, ceea ce va contribui la îmbunătățirea Bard, protejând în același timp confidențialitatea utilizatorilor.

Conversațiile eșantion vor fi revizuite de instructori umani și stocate timp de până la trei ani, separat de contul Google al utilizatorului. De asemenea, Google le reamintește utilizatorilor să nu includă informații personale despre ei înșiși sau despre alte persoane în conversațiile de pe Bard AI. Gigantul tehnologic subliniază că aceste conversații nu vor fi utilizate în scopuri publicitare și va anunța modificări în viitor.

Bard AI permite utilizatorilor să renunțe la salvarea conversațiilor în conturile lor Google, precum și să revizuiască sau să șteargă conversațiile prin intermediul unui link. În plus, compania are măsuri de siguranță concepute pentru a împiedica Bard să includă informații personale în răspunsuri.

Steve Mills spune că uneori utilizatorii și dezvoltatorii descoperă riscurile de securitate ascunse în noile tehnologii doar atunci când este prea târziu. De exemplu, funcțiile de completare automată pot dezvălui accidental numerele de securitate socială ale utilizatorilor.

Utilizatorii nu ar trebui să introducă în aceste instrumente nimic ce nu ar dori să fie partajat cu alții, a spus dl Mills.



Legătură sursă

Comentariu (0)

No data
No data

Pe aceeași temă

În aceeași categorie

Păstrând spiritul Festivalului de la Mijlocul Toamnei prin culorile figurinelor
Descoperă singurul sat din Vietnam din top 50 cele mai frumoase sate din lume
De ce sunt populare anul acesta felinarele cu steaguri roșii și stele galbene?
Vietnamul câștigă concursul muzical Intervision 2025

De același autor

Patrimoniu

Figura

Afaceri

No videos available

Ştiri

Sistem politic

Local

Produs