Dezvoltarea rapidă a inteligenței artificiale (IA) a ridicat îngrijorări că aceasta se dezvoltă mai repede decât oamenii îi pot înțelege impactul.
Foto: ST
Utilizarea inteligenței artificiale generale a crescut semnificativ după apariția unor instrumente precum ChatGPT. Deși aceste instrumente au multe beneficii, ele pot fi, de asemenea, utilizate în mod abuziv în moduri dăunătoare.
Pentru a gestiona acest risc, SUA și alte câteva țări au încheiat acorduri cu șapte companii, inclusiv Amazon, Anthropic, Google, Inflection, Meta, Microsoft și OpenAI, pentru a se angaja să respecte practici sigure în dezvoltarea tehnologiei IA.
Anunțul Casei Albe vine cu o terminologie proprie, care poate fi nefamiliară persoanei obișnuite, cu termeni precum „red teaming” și „watermarking”. Iată șapte termeni legați de inteligența artificială la care trebuie să fiți atenți.
Învățare automată
Această ramură a inteligenței artificiale își propune să antreneze mașinile să îndeplinească o sarcină specifică cu precizie, prin identificarea tiparelor. Mașina poate apoi face predicții pe baza acestor date.
Învățare profundă
Sarcinile creative de inteligență artificială se bazează adesea pe învățarea profundă, o metodă care implică antrenarea computerelor folosind rețele neuronale, un set de algoritmi concepuți pentru a imita neuronii din creierul uman, pentru a realiza conexiuni complexe între modele pentru a genera text, imagini sau alt conținut.
Deoarece modelele de deep learning au mai multe straturi de neuroni, acestea pot învăța modele mai complexe decât învățarea automată tradițională.
Model de limbaj mare
Un model lingvistic extins, sau LLM, este antrenat pe baza unor cantități masive de date și își propune să modeleze limbajul sau să prezică următorul cuvânt dintr-o secvență. Modelele lingvistice extinse, precum ChatGPT și Google Bard, pot fi utilizate pentru sarcini precum rezumatul, traducerea și conversația.
Algoritm
Un set de instrucțiuni sau reguli care permit mașinilor să facă predicții, să rezolve probleme sau să finalizeze sarcini. Algoritmii pot oferi recomandări de cumpărături și pot ajuta la detectarea fraudelor și la funcțiile de chat pentru serviciul clienți.
Părtinire
Deoarece inteligența artificială este antrenată folosind seturi de date mari, aceasta poate încorpora informații dăunătoare în date, cum ar fi discursul instigator la ură. Rasismul și sexismul pot apărea, de asemenea, în seturile de date utilizate pentru antrenarea inteligenței artificiale, ducând la conținut înșelător.
Companiile de inteligență artificială au convenit să aprofundeze modalitățile de evitare a prejudecăților dăunătoare și a discriminării în sistemele de inteligență artificială.
Echipaj roșu
Unul dintre angajamentele pe care companiile și le-au luat față de Casa Albă este de a realiza „echipe roșii” (red teaming) intern și extern privind modelele și sistemele de inteligență artificială.
„Echipa roșie” implică testarea unui model pentru a descoperi potențiale vulnerabilități. Termenul provine dintr-o practică militară în care o echipă simulează acțiunile unui atacator pentru a veni cu strategii.
Această metodă este utilizată pe scară largă pentru a testa vulnerabilitățile de securitate în sisteme precum platformele de cloud computing de la companii precum Microsoft și Google.
Filigranizare
Un filigran este o modalitate de a spune dacă un sunet sau o imagine a fost creată de inteligența artificială. Faptele verificate pentru verificare pot include informații despre cine le-a creat, precum și cum și când au fost create sau editate.
De exemplu, Microsoft s-a angajat să filigreneze imaginile create de instrumentele sale de inteligență artificială. De asemenea, companiile s-au angajat față de Casa Albă să filigreneze imaginile sau să înregistreze originea acestora pentru a le identifica ca fiind generate de inteligența artificială.
Filigranele sunt, de asemenea, utilizate în mod obișnuit pentru a urmări încălcările proprietății intelectuale. Filigranele pentru imaginile generate de inteligență artificială pot apărea ca un zgomot imperceptibil, cum ar fi o ușoară modificare la fiecare șapte pixeli.
Totuși, filigranarea textului generat de inteligența artificială poate fi mai complexă și poate implica modificarea șablonului Word, astfel încât acesta să poată fi identificat ca și conținut generat de inteligența artificială.
Hoang Ton (conform lui Poynter)
Sursă






Comentariu (0)