A VinFuture 2025 Tudományos és Technológiai Hét keretében megrendezett „Mesterséges intelligencia az emberiségért: MI etika és biztonság az új korszakban” című panelbeszélgetés tudósokat, politikusokat és feltalálókat hoz össze, hogy megvitassák a felelős mesterséges intelligencia fejlesztését a humanista értékek felé.
A vita margóján Toby Walsh professzor – az Új-Dél-Walesi Egyetem (Ausztrália), az Amerikai Számítógépészeti Szövetség akadémikusa – a mesterséges intelligencia etikus és felelősségteljes használatáról beszélt.
A mesterséges intelligencia felelős használatának kötelezővé kellene válnia
- A professzor szerint a mesterséges intelligencia felelős használatának önkéntesnek vagy kötelezőnek kellene lennie? És hogyan kellene valójában viselkednünk a mesterséges intelligenciával szemben?
Toby Walsh professzor: Szilárdan hiszem, hogy a mesterséges intelligencia felelősségteljes használatát kötelezővé kellene tenni. Jelenleg perverz ösztönzők vannak, mivel hatalmas összegeket keresnek a mesterséges intelligenciával, és a helyes magatartás biztosításának egyetlen módja a szigorú szabályozás, hogy a közérdek mindig egyensúlyban legyen a kereskedelmi érdekekkel.
- Tudna konkrét példákat mondani különböző országokból a felelős és etikus MI-alkalmazásokra?
Toby Walsh professzor: Klasszikus példa erre a nagy téttel bíró döntések, mint például az ítélethozatal és az ítélethozatal az Egyesült Államokban, ahol egy mesterséges intelligenciarendszert használnak arra, hogy ajánlásokat tegyen egy személy börtönbüntetésére és a visszaesés valószínűségére vonatkozóan.
Sajnos ezt a rendszert történelmi adatokon képezték ki, és akaratlanul is tükrözi a múltbeli faji előítéleteket, amelyek a fekete emberek elleni diszkriminációhoz vezetnek. Nem szabad hagynunk, hogy az ilyen rendszerek döntsék el, kit börtönöznek be.
- Amikor a mesterséges intelligencia hibázik, ki a felelős? Különösen a mesterséges intelligencia által vezérelt ágensek esetében van-e lehetőségünk helyrehozni a működési mechanizmusaikat?
Toby Walsh professzor: A mesterséges intelligencia hibáinak fő problémája az, hogy nem vonhatjuk felelősségre. A mesterséges intelligencia nem ember, és ez a világ minden jogrendszerében hiba. Csak az emberek felelősek a döntéseikért és a tetteikért.
Hirtelen itt van egy új „ügynökünk”, a mesterséges intelligencia, amely – ha engedjük – döntéseket hozhat és cselekedhet a világunkban, ami kihívást jelent: kit fogunk felelősségre vonni?
A megoldás az, hogy felelősségre vonjuk a mesterséges intelligencia rendszereket telepítő és üzemeltető vállalatokat ezeknek a „gépeknek” a következményeiért.

Toby Walsh professzor - Új-Dél-Walesi Egyetem - előadást tartott a VinFuture 2025 Tudományos és Technológiai Hét keretében tartott "Mesterséges intelligencia az emberiségért: MI etika és biztonság az új korszakban" című szemináriumon. (Fotó: Minh Son/Vietnam+)
- Sok vállalat beszél a felelős mesterséges intelligenciáról is. Hogyan bízhatunk meg bennük? Honnan tudhatjuk, hogy komolyan veszik és átfogóan gondolkodnak, és nem csak marketingfogásként használják a "felelős mesterséges intelligenciát"?
Toby Walsh professzor: Növelnünk kell az átláthatóságot. Fontos megértenünk a mesterséges intelligenciarendszerek képességeit és korlátait. Emellett „tevékenységünkkel kell szavaznunk” – azaz felelősségteljesen kell választanunk a szolgáltatások használatát.
Őszintén hiszem, hogy a vállalkozások felelősségteljes mesterséges intelligenciahasználata megkülönböztető tényezővé válik a piacon, és kereskedelmi előnyt biztosít számukra. Ha egy vállalat tiszteletben tartja az ügyféladatokat, az előnyös lesz számára, és ügyfeleket vonz.
A vállalkozások rájönnek, hogy a helyes cselekedet nemcsak etikus, de sikeresebbé is teszi őket. Úgy látom, hogy ez egy módja annak, hogy megkülönböztessük a vállalkozásokat, és a felelős vállalkozások azok, amelyekkel kényelmesen tudunk üzletelni.
„Ha nem vigyázunk, digitális gyarmatosítás időszakát élhetjük át”
- Vietnam egyike azon kevés országnak, amelyek fontolgatják a mesterséges intelligenciáról szóló törvény kihirdetését. Mi az Ön véleménye erről? Véleménye szerint a fejlődő országok, mint például Vietnam, számára milyen etikai és biztonsági kihívások állnak a mesterséges intelligencia fejlesztése során? Milyen ajánlásokat fogalmaz meg a professzor Vietnam számára, hogy elérje a mesterséges intelligencia stratégiájában kitűzött céljait - hogy a régió és a világ élvonalába kerüljön a mesterséges intelligencia kutatásában és elsajátításában?
Toby Walsh professzor: Örömmel tölt el, hogy Vietnam egyike azon úttörő országoknak, amelyek külön törvényt fogadnak el a mesterséges intelligenciáról. Ez azért fontos, mert minden országnak megvannak a saját értékei és kultúrája, és törvényekre van szüksége ezen értékek védelméhez.
A vietnami értékek és kultúra különbözik Ausztráliától, Kínától és az Egyesült Államoktól. Nem várhatjuk el a kínai vagy amerikai technológiai vállalatoktól, hogy automatikusan megvédjék a vietnami kultúrát és nyelvet. Vietnamnak kell kezdeményeznie ezeknek a dolgoknak a védelmét.

Toby Walsh professzor figyelmeztet, hogy ha nem vigyázunk, a digitális gyarmatosítás időszakát élhetjük át. (Fotó: Minh Son/Vietnam+)
Tudatában vagyok annak, hogy a múltban sok fejlődő ország átesett a fizikai gyarmatosítás időszakán. Ha nem vigyázunk, egy „digitális gyarmatosítás” időszakán mehet keresztül. Az adatainkat ki fogják használni, és olcsó erőforrássá válunk.
Ez veszélybe kerül, ha a fejlődő országok úgy fejlesztik a mesterséges intelligencia iparágat, hogy csak az adatokat használják ki anélkül, hogy ellenőriznék vagy védenék saját érdekeiket.
- Szóval, hogyan lehet ezt a helyzetet legyűrni, professzor úr?
Toby Walsh professzor: Egyszerű: fektessünk be az emberekbe. Képezzük tovább az embereket, biztosítsuk, hogy értsék a mesterséges intelligenciát. Támogassuk a mesterséges intelligenciával foglalkozó vállalkozókat, vállalatokat, egyetemeket. Legyünk proaktívak. Ahelyett, hogy más országokra várnánk a technológia átadásával vagy az iránymutatással, nekünk kell proaktívnak lennünk, és magunkénak valljuk a technológiát.
Ennél is fontosabb, hogy határozottan ki kell állnunk amellett, hogy a közösségi média platformok biztonságos környezetet teremtsenek a vietnami felhasználók számára, anélkül, hogy befolyásolnák az ország demokráciáját.
Valójában számos példa van arra, hogy a közösségi média tartalmai hogyan befolyásolták a választási eredményeket, megosztották az országokat, sőt, terrorizmust is szítottak.
- A mesterséges intelligencia nagyon fejlett Vietnámban. Az utóbbi időben Vietnam számos politikát folytatott a mesterséges intelligencia előmozdítására, de Vietnam egy problémával is szembesül, mégpedig a mesterséges intelligencia által okozott csalással. Tehát a professzor szerint hogyan kellene Vietnamnak kezelnie ezt a helyzetet?
Toby Walsh professzor: Magánszemélyek számára a legegyszerűbb módszernek azt tartom, hogy ellenőrizzék az információkat. Például, amikor telefonhívást vagy e-mailt kapunk, mondjuk egy banktól, újra ellenőriznünk kell: visszahívhatjuk a telefonszámot, vagy közvetlenül felvehetjük a kapcsolatot a bankkal az információk ellenőrzése érdekében. Manapság sok hamis e-mail, hamis telefonszám van, sőt, még a Zoom-hívások is hamisak lehetnek. Ezek a csalások nagyon egyszerűek, olcsók és nem vesznek igénybe sok időt.
A családomban van egy saját biztonsági intézkedésünk is: egy „titkos kérdés”, amelyet csak a családtagok tudnak, például a házinyulunk neve. Ez biztosítja, hogy a fontos információk a családon belül maradjanak, és ne szivárogjanak ki.
- Köszönöm szépen./.
Toby Walsh professzor az ARC tiszteletbeli ösztöndíjasa és a Sydney-i Új-Dél-Walesi Egyetem (UNSW) mesterséges intelligencia (MI) Scientia professzora. Határozottan kiáll amellett, hogy korlátokat kell szabni annak érdekében, hogy a mesterséges intelligenciát az emberek életének javítására használják.
Emellett az Ausztrál Tudományos Akadémia tagja, és szerepel a „mesterséges intelligencia befolyásos emberei” nemzetközi listáján.
(Vietnám+)
Forrás: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp






Hozzászólás (0)