Trăim în era revoluției industriale 4.0, în care inteligența artificială (IA) devine treptat o parte indispensabilă a multor domenii ale vieții sociale. Mass-media, ca punte de informare între public și evenimente, nu poate fi în afara acestei tendințe.
| Dna Nguyen Thi Hai Van - directoarea Centrului pentru Formare Jurnalistică, Asociația Jurnaliștilor din Vietnam , la atelierul de lucru privind tehnologia inteligenței artificiale. (Sursa: Asociația Jurnaliștilor din Vietnam) |
Pentru a profita la maximum de avantajele pe care le aduce IA, comunicatorii trebuie să se doteze cu cunoștințele necesare pentru a utiliza IA eficient, asigurând în același timp fiabilitatea și etica în transmiterea informațiilor.
Din „extremitatea” IA
Este absolut clar că IA (Inteligența Artificială) este unul dintre cele mai căutate cuvinte cheie în prezent. În septembrie 2024, o căutare pe Google cu cuvântul cheie „IA” în 0,3 secunde a înregistrat 15 miliarde 900 de milioane de rezultate; cu cuvântul cheie „instrumente IA”, în 0,4 secunde s-au înregistrat peste 3 miliarde 400 de milioane de rezultate. Aceste cifre uriașe arată acoperirea și interesul pentru IA și instrumentele bazate pe IA la nivel global.
În prezent, apar din ce în ce mai multe instrumente de inteligență artificială pentru diverse domenii, inclusiv în industria media. Pe lângă cunoscutul ChatGPT, există numeroase aplicații de inteligență artificială dezvoltate într-o direcție specializată, care deservesc sarcini specifice. Nu este dificil să enumerăm aici numeroase instrumente, de exemplu: Bing AI, Clause, Zapier Central pentru grupul de activități Chatbot; Jasper, Copy.ai, Anyword pentru sarcini de creare de conținut; Descript, Wondershare, Runway pentru sarcini de producție și editare video ; DALL-E3, Midjourney, Stable Diffusion pentru sarcini de creare de imagini; Murf, AIVA pentru sarcini de conținut audio etc. și, recent, gigantul Amazon a introdus și instrumentele de inteligență artificială pe care le-a dezvoltat, Video Generator și Image generator, cu scopul de a „inspira creativitatea și a aduce mai multă valoare”.
Deși instrumentele de inteligență artificială sunt foarte diverse ca scară sau nivel de specializare, în esență tehnologia are două lucruri în comun: instrumentele de inteligență artificială sunt dezvoltate pe baza algoritmilor și a datelor pentru a „antrena” instrumentele de inteligență artificială.
Controlul etic al utilizării inteligenței artificiale în mass-media
Nu se poate nega facilitățile pe care le aduc instrumentele de inteligență artificială, iar odată cu ritmul rapid al actualizărilor tehnologice, vor exista din ce în ce mai multe instrumente de inteligență artificială specializate la fiecare pas, răspunzând la sarcini de la simple la complexe în industria media. Odată cu această dezvoltare copleșitoare, apar multe întrebări cu privire la problema controlului etic în dezvoltarea și utilizarea instrumentelor de inteligență artificială în industria media? Ce se va întâmpla dacă algoritmii și datele instrumentului de inteligență artificială respectiv sunt manipulate într-un mod dăunător comunității? Cine garantează drepturile de proprietate intelectuală pentru datele de intrare pe care instrumentul de inteligență artificială le folosește pentru instruire? Cine evaluează nivelul de prejudiciu pe care îl provoacă?
Există inegalitate între grupul de persoane care au acces la instrumente de inteligență artificială și grupul care nu are acces la acestea în cadrul aceleiași sarcini? Au existat chiar întrebări cu privire la nivelul potențial de daune necontrolate cauzate de instrumentele de inteligență artificială, în special în domenii sensibile care pot afecta mulți oameni la scară largă, cum ar fi mass-media și rețelele sociale.
Recunoscând preocupările menționate mai sus, numeroase organizații, asociații, guverne și chiar companii și corporații care dezvoltă instrumente de inteligență artificială au emis recomandări, explicații și chiar Coduri de conduită legate de problema controlului etic în tehnologia IA. Adoptată de 193 de țări în 2021, Declarația privind etica inteligenței artificiale - Recomandarea UNESCO - Organizația Națiunilor Unite pentru Educație , Știință și Cultură, afirmă clar că „Ascensiunea rapidă a inteligenței artificiale (IA) a creat numeroase oportunități la nivel global, de la asistarea diagnosticelor medicale până la permiterea conexiunii umane prin intermediul rețelelor sociale și crearea de eficiență a forței de muncă prin sarcini automatizate.”
Totuși, aceste schimbări rapide ridică și preocupări etice profunde. Astfel de riscuri asociate cu IA au început să amplifice inegalitățile existente, ducând la daune suplimentare grupurilor deja dezavantajate...". Și de acolo „solicită UNESCO să dezvolte instrumente pentru a sprijini statele membre, inclusiv Metodologia de evaluare a pregătirii, un instrument prin care guvernele să își poată construi o imagine cuprinzătoare a pregătirii lor de a implementa IA în mod etic și responsabil pentru toți cetățenii lor.”
În abordarea sa globală, UNESCO a lansat Observatorul Global de Etică și Guvernanță în domeniul Inteligenței Artificiale (IA), despre care spune că „oferă informații privind disponibilitatea țărilor de a adopta IA în mod etic și responsabil. De asemenea, găzduiește Laboratorul de Etică și Guvernanță în domeniul IA, care reunește contribuții, cercetări cu impact, seturi de instrumente și practici pozitive pe o gamă largă de probleme de etică în domeniul IA...”
Pe lângă organizațiile globale precum UNESCO, multe asociații profesionale lucrează, de asemenea, la dezvoltarea propriilor standarde. De exemplu, IABC - Asociația Internațională de Comunicare în Afaceri, o asociație cu mii de membri din întreaga lume, a dezvoltat un set de principii care ghidează utilizarea etică a IA de către profesioniștii în comunicare, care își propune să ghideze membrii IABC cu privire la relevanța Codului de Etică IABC pentru IA. Aceste linii directoare pot fi actualizate și completate în timp, în paralel cu dezvoltarea tehnologiei IA. În acest set de principii, există multe puncte specifice pe care un profesionist în comunicare ar trebui să le respecte, cum ar fi:
„Resursele de inteligență artificială utilizate trebuie să fie conduse de oameni pentru a crea experiențe pozitive și transparente care să promoveze respectul și să construiască încredere în profesia media. Este important să rămânem informați cu privire la oportunitățile și riscurile profesionale pe care le prezintă instrumentele de inteligență artificială. Informațiile trebuie comunicate cu acuratețe, obiectivitate și corectitudine. Instrumentele de inteligență artificială pot fi supuse multor erori, inconsecvențe și alte probleme tehnice. Acest lucru necesită judecata umană pentru a verifica independent dacă conținutul meu generat de inteligența artificială este corect, transparent și plagiat.”
Va proteja informațiile personale și/sau confidențiale ale altora și nu le va utiliza fără permisiunea acestora. Va evalua rezultatele inteligenței artificiale pe baza implicării umane și a înțelegerii comunității pe care își propune să o servească. Va elimina prejudecățile pe cât posibil și va fi sensibil la valorile și credințele culturale ale celorlalți.
Trebuie să își verifice independent faptele și să își verifice propriile rezultate cu rigoarea profesională necesară pentru a se asigura că documentația, informațiile sau referințele provenite de la terți sunt corecte, au atribuirea și verificarea necesare și sunt licențiate sau autorizate corespunzător pentru utilizare. Nu încercați să ascundeți sau să deghizați utilizarea IA în rezultatele lor profesionale. Recunoașteți natura open-source a IA și problemele legate de confidențialitate, inclusiv introducerea de informații false, înșelătoare sau care induc în eroare.
Companiile și corporațiile care dețin, dezvoltă și comercializează instrumente de inteligență artificială sunt cele care înțeleg detaliile instrumentelor de inteligență artificială mai bine decât oricine altcineva, cunosc algoritmii care stau la baza funcționării instrumentelor de inteligență artificială și datele din care sunt antrenate. Prin urmare, aceste companii trebuie să furnizeze și informații legate de principiile etice în dezvoltarea inteligenței artificiale. De fapt, există companii interesate de această problemă.
Google se angajează să nu dezvolte instrumente de inteligență artificială pentru domenii în care există un risc semnificativ de vătămare corporală, vom continua doar acolo unde considerăm că beneficiile depășesc semnificativ riscurile și vom include măsuri de siguranță adecvate. Arme sau alte tehnologii al căror scop principal sau utilizare este de a provoca sau facilita direct vătămări umane. Tehnologii care colectează sau utilizează informații pentru supraveghere ce încalcă normele acceptate la nivel internațional. Tehnologii al căror scop încalcă principiile general acceptate ale dreptului internațional și ale drepturilor omului.
În ceea ce privește securitatea și siguranța, Google se angajează: „Vom continua să dezvoltăm și să implementăm măsuri robuste de securitate și siguranță pentru a evita rezultatele neintenționate care creează riscuri de vătămare. Vom proiecta sistemele noastre de inteligență artificială astfel încât să fie suficient de precaute și vom căuta să le dezvoltăm în conformitate cu cele mai bune practici în cercetarea siguranței inteligenței artificiale. Vom încorpora principiile noastre de confidențialitate în dezvoltarea și utilizarea tehnologiilor noastre de inteligență artificială. Vom oferi oportunități de notificare și consimțământ, vom încuraja arhitecturi de protecție a confidențialității și vom oferi transparență și controale adecvate asupra utilizării datelor.”
Similar cu Google, Microsoft a emis și o declarație privind Principiile și Abordarea IA, subliniind: „Ne angajăm să ne asigurăm că sistemele IA sunt dezvoltate în mod responsabil și într-un mod care să asigure încrederea oamenilor...”. În plus, într-un fel sau altul, marile companii de tehnologie care investesc masiv în dezvoltarea de instrumente IA, precum Amazon și OpenAI, și-au asumat și ele propriile angajamente.
Numeroase exemple din istorie au dovedit dualitatea tehnologiei, cu factori pozitivi și factori negativi. La urma urmei, deși este o platformă tehnologică foarte „high-tech”, IA se bazează încă pe algoritmi și date dezvoltate și colectate de oameni; în același timp, majoritatea produselor IA fac parte din planurile de afaceri ale companiilor care le dețin.
Prin urmare, există întotdeauna riscuri potențiale atât din partea tehnică, cât și din partea echipei de dezvoltare și management a produsului. Problema aici este amploarea impactului pe care instrumentele de inteligență artificială îl pot avea asupra majorității, chiar și la nivelul socio-economic al unei comunități. Atenția acordată la timp controlului etic atunci când se utilizează tehnologia de inteligență artificială este un semn binevenit, cu participarea unor organizații internaționale de mari dimensiuni, cum ar fi Națiunile Unite, guverne, asociații industriale și, mai ales, chiar a unităților de dezvoltare tehnologică.
Cu toate acestea, întrucât lista instrumentelor de IA lansează în mod continuu noi versiuni, fiecare mai sofisticată și mai complexă decât precedenta, Codurile, Principiile sau Orientările trebuie, de asemenea, actualizate și completate în timp util și, în plus, trebuie să fie proactive în prevenirea, limitarea și controlul dezvoltatorilor și utilizatorilor de produse într-un cadru în care capacitatea de a respecta controlul etic în tehnologia IA în general și în rândul lucrătorilor din mass-media în special poate atinge cea mai mare eficiență.
Sursă






Comentariu (0)