Panelul de discuții „IA pentru umanitate: etica și siguranța IA în noua eră” din cadrul Săptămânii Științei și Tehnologiei VinFuture 2025 reunește oameni de știință, politicieni și inventatori pentru a discuta despre dezvoltarea responsabilă a IA, în direcția valorilor umaniste.
În marja discuției, profesorul Toby Walsh - Universitatea din New South Wales (Australia), academician al Asociației Americane pentru Mașini de Calcul, a vorbit despre utilizarea etică și responsabilă a inteligenței artificiale.
Utilizarea responsabilă a inteligenței artificiale ar trebui să fie obligatorie
- Potrivit profesorului, ar trebui ca utilizarea responsabilă a IA să fie voluntară sau obligatorie? Și cum ar trebui să ne comportăm, de fapt, față de IA?
Profesorul Toby Walsh: Cred cu tărie că utilizarea responsabilă a inteligenței artificiale ar trebui să fie obligatorie. Există stimulente perverse în prezent, având în vedere sumele uriașe de bani care se câștigă cu ajutorul inteligenței artificiale, iar singura modalitate de a asigura un comportament corect este de a avea reglementări stricte, astfel încât interesul public să fie întotdeauna echilibrat cu interesele comerciale.
- Puteți oferi exemple specifice din diferite țări de aplicații responsabile și etice ale inteligenței artificiale?
Profesorul Toby Walsh: Un exemplu clasic îl reprezintă deciziile cu miză mare, cum ar fi condamnarea și pronunțarea pedepselor în Statele Unite, unde un sistem de inteligență artificială este utilizat pentru a face recomandări cu privire la pedeapsa cu închisoarea a unei persoane și probabilitatea de recidivă.
Din păcate, acest sistem a fost antrenat pe baza datelor istorice și reflectă, în mod neintenționat, prejudecățile rasiale din trecut care duc la discriminarea persoanelor de culoare. Nu ar trebui să permitem ca sisteme de acest gen să decidă cine este închis.
- Când IA greșește, cine este responsabil? Mai ales în cazul agenților IA, avem capacitatea de a le repara mecanismele de operare?
Profesorul Toby Walsh: Problema principală atunci când inteligența artificială face greșeli este că nu o putem trage la răspundere. Inteligența artificială nu este umană, iar acesta este un defect în fiecare sistem juridic din lume . Doar oamenii sunt responsabili pentru deciziile și acțiunile lor.
Dintr-o dată, avem un nou „agent” numit IA, care poate – dacă îi permitem – să ia decizii și să acționeze în lumea noastră, ceea ce reprezintă o provocare: pe cine vom trage la răspundere?
Răspunsul este de a trage la răspundere companiile care implementează și operează sisteme de inteligență artificială pentru consecințele pe care le provoacă aceste „mașini”.

Profesorul Toby Walsh - Universitatea din New South Wales a participat la seminarul „IA pentru umanitate: etica și siguranța IA în noua eră”, desfășurat în cadrul Săptămânii Științei și Tehnologiei VinFuture 2025. (Foto: Minh Son/Vietnam+)
Multe companii vorbesc și despre inteligența artificială responsabilă. Cum putem avea încredere în ele? De unde știm că sunt serioase și cuprinzătoare și nu folosesc „IA responsabilă” doar ca pe o stratagemă de marketing?
Profesorul Toby Walsh: Trebuie să creștem transparența. Este important să înțelegem capacitățile și limitele sistemelor de inteligență artificială. De asemenea, ar trebui să „votăm prin acțiune” – să alegem să utilizăm serviciile în mod responsabil.
Cred cu tărie că modul în care companiile utilizează inteligența artificială în mod responsabil va deveni un factor de diferențiere pe piață, oferindu-le un avantaj comercial. Dacă o companie respectă datele clienților, va aduce beneficii și va atrage clienți.
Companiile își vor da seama că a face ceea ce trebuie nu este doar etic, ci le va spori și succesul. Văd asta ca pe o modalitate de a diferenția între companii, iar companiile responsabile sunt cele cu care ne putem simți confortabil să facem afaceri.
„Dacă nu suntem atenți, am putea trece printr-o perioadă de colonizare digitală”
- Vietnamul este una dintre puținele țări care iau în considerare promulgarea Legii privind Inteligența Artificială. Care este evaluarea dumneavoastră în acest sens? În opinia dumneavoastră, pentru țările în curs de dezvoltare precum Vietnamul, care sunt provocările legate de etică și securitate în dezvoltarea IA? Ce recomandări are profesorul pentru Vietnam pentru a-și atinge obiectivele din strategia IA - să fie în vârful regiunii și al lumii în cercetarea și stăpânirea IA?
Profesorul Toby Walsh: Sunt încântat că Vietnamul este una dintre țările pioniere care va avea o lege dedicată privind inteligența artificială. Acest lucru este important deoarece fiecare țară are propriile valori și cultură și are nevoie de legi care să protejeze aceste valori.
Valorile și cultura vietnameză sunt diferite de cele din Australia, China și Statele Unite. Nu ne putem aștepta ca firmele de tehnologie din China sau Statele Unite să protejeze automat cultura și limba vietnameză. Vietnamul trebuie să ia inițiativa de a proteja aceste lucruri.

Profesorul Toby Walsh avertizează că, dacă nu suntem atenți, am putea trece printr-o perioadă de colonizare digitală. (Foto: Minh Son/Vietnam+)
Sunt conștient că, în trecut, multe țări în curs de dezvoltare au trecut printr-o perioadă de colonizare fizică. Dacă nu suntem atenți, am putea trece printr-o perioadă de „colonizare digitală”. Datele dumneavoastră vor fi exploatate și veți deveni o resursă ieftină.
Acest lucru este în pericol dacă țările în curs de dezvoltare dezvoltă industria inteligenței artificiale într-un mod care exploatează doar datele, fără a controla sau proteja propriile interese.
- Deci, cum să depășim această situație, domnule profesor?
Profesorul Toby Walsh: E simplu, investiți în oameni. Îmbunătățiți-vă competențele oamenilor, asigurați-vă că înțeleg inteligența artificială. Sprijiniți antreprenorii din domeniul inteligenței artificiale, companiile, sprijiniți universitățile. Fiți proactivi. În loc să așteptăm ca alte țări să transfere tehnologie sau să ne îndrume, trebuie să fim proactivi și să ne asumăm responsabilitatea pentru tehnologie.
Mai important, trebuie să pledăm cu tărie pentru ca platformele de socializare să creeze un mediu sigur pentru utilizatorii din Vietnam, fără a afecta democrația țării.
De fapt, există numeroase exemple despre cum conținutul de pe rețelele de socializare a influențat rezultatele alegerilor, a divizat țări și chiar a incitat la terorism.
- Inteligența artificială este foarte dezvoltată în Vietnam. În ultima vreme, Vietnamul a avut numeroase politici de promovare a inteligenței artificiale, dar se confruntă și cu o problemă, și anume frauda cauzată de inteligența artificială. Așadar, potrivit profesorului, cum ar trebui Vietnamul să gestioneze această situație?
Profesorul Toby Walsh: Pentru persoane fizice, cred că cea mai simplă modalitate este verificarea informațiilor. De exemplu, când primim un apel telefonic sau un e-mail, de exemplu de la o bancă, trebuie să îl verificăm din nou: putem suna înapoi la acel număr de telefon sau putem contacta direct banca pentru a verifica informațiile. În zilele noastre, există multe e-mailuri false, numere de telefon false, chiar și apelurile Zoom pot fi falsificate. Aceste escrocherii sunt foarte simple, ieftine și nu necesită mult timp.
În familia mea, avem și noi propria noastră măsură de securitate: o „întrebare secretă” pe care doar membrii familiei o știu, cum ar fi numele iepurelui nostru de companie. Acest lucru asigură că informațiile importante rămân în cadrul familiei și nu sunt scurse.
- Mulțumesc foarte mult./.
Profesorul Toby Walsh este bursier onorific ARC și profesor științific în domeniul inteligenței artificiale (IA) la Universitatea din New South Wales, Sydney (UNSW). Este un susținător ferm al stabilirii unor limite pentru a asigura utilizarea IA pentru a îmbunătăți viața oamenilor.
De asemenea, este membru al Academiei Australiene de Științe și a fost inclus pe lista internațională a „persoanelor influente din domeniul inteligenței artificiale”.
(Vietnam+)
Sursă: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp






Comentariu (0)