Explosionen av artificiell intelligens (AI) medför stora fördelar för mänskligheten men medför också otaliga konsekvenser: från rasfördomar, sofistikerade onlinebedrägerier till risken att utvecklingsländer blir billiga "datagruvor".
Med tanke på den verkligheten, bör ansvarsfull användning av AI vara frivillig eller obligatorisk? Vad bör Vietnam göra när de bygger en rättslig korridor för detta område?
I anslutning till evenemanget VinFuture Science and Technology Week hade reportern ett samtal med professor Toby Walsh - University of New South Wales (Australien), akademiker vid American Computer Society.
Professorn ger insikter i hur vi "beter oss" med AI, från att hålla "maskiner" ansvariga till tips för familjer om hur de kan skydda sig mot vågen av högteknologiska bedrägerier.
Vem är ansvarig för AI?
Professor, borde ansvarsfull användning av AI vara frivillig eller obligatorisk? Och hur borde vi egentligen bete oss gentemot AI?
– Jag är övertygad om att ansvarsfull användning av AI borde vara obligatorisk . Det finns perversa incitament i spel , med enorma summor pengar som tjänas på AI, och det enda sättet att säkerställa korrekt beteende är att införa strikta regler , så att allmänintresset alltid balanseras mot kommersiella intressen .
När AI gör ett misstag, vem är ansvarig? Speciellt med AI-agenter, har vi möjlighet att åtgärda deras funktionsmekanismer?
Kärnproblemet med att AI gör misstag är att vi inte kan hålla AI ansvarig. AI är inte mänskligt – och detta är en brist i alla rättssystem i världen . Endast människor kan hållas ansvariga för sina beslut och handlingar.

Plötsligt har vi en ny ”agent”, AI, som – om vi tillåter det – kan fatta beslut och vidta åtgärder i vår värld, vilket innebär en utmaning: Vem kommer vi att hålla ansvarig?
Svaret är: Företag som driftsätter och driver AI-system måste hållas ansvariga för de konsekvenser som dessa ”maskiner” orsakar.
Många företag pratar också om ansvarsfull AI. Hur kan vi lita på dem? Hur vet vi att de är seriösa och heltäckande, och inte bara använder "ansvarsfull AI" som ett marknadsföringsknep?
– Vi behöver öka transparensen. Det är viktigt att förstå AI-systemens möjligheter och begränsningar. Vi bör också ”rösta genom att göra”, det vill säga välja att använda tjänster ansvarsfullt.
Jag tror verkligen att hur företag använder AI ansvarsfullt kommer att bli en differentiator på marknaden och ge dem en kommersiell fördel.
Om ett företag respekterar kunddata kommer det att gynna och attrahera kunder. Företag kommer att inse att det inte bara är etiskt att göra rätt sak, utan också att det hjälper dem att bli mer framgångsrika. Jag ser detta som ett sätt att skilja mellan företag, och ansvarsfulla företag är de vi kan känna oss bekväma med att göra affärer med.
Vietnam behöver proaktivt skydda kulturella värden.
Vietnam är ett av få länder som överväger att utfärda lagen om artificiell intelligens. Vad är din bedömning av detta? Vilka är enligt din åsikt utmaningarna gällande etik och säkerhet i AI-utveckling för utvecklingsländer som Vietnam?
– Jag är väldigt glad att Vietnam är ett av de föregångarländer som kommer att få en specialiserad lag om artificiell intelligens. Detta är viktigt eftersom varje land har sina egna värderingar och sin kultur, och behöver lagar för att skydda dessa värderingar.
Vietnamesiska värderingar och kultur skiljer sig från Australiens, Kinas och USA:s. Vi kan inte förvänta oss att teknikföretag från Kina eller USA automatiskt ska skydda vietnamesisk kultur och språk. Vietnam måste ta initiativ till att skydda dessa saker.
Jag är medveten om att många utvecklingsländer tidigare har gått igenom en period av fysisk kolonisering. Om vi inte är försiktiga kan vi gå igenom en period av "digital kolonisering". Dina data kommer att utnyttjas och du kommer att bli en billig resurs.
Detta är i fara om utvecklingsländer utvecklar AI-industrin på ett sätt som endast utnyttjar data utan att kontrollera eller skydda sina egna intressen.
Så hur ska man övervinna den här situationen?
– Det är enkelt: Investera i människor. Utveckla kompetensen hos människor, se till att de förstår AI. Stöd entreprenörer, AI-företag, stöd universitet. Var proaktiva. Istället för att vänta på att andra länder ska överföra teknik eller vägleda oss måste vi vara proaktiva och bemästra tekniken.

Professor Toby Walsh delar med sig på VinFuture Science and Technology Week (Foto: Organisationskommittén).
För det andra måste vi starkt förespråka sociala medieplattformar för att skapa en säker miljö för användare i Vietnam, utan att landets demokrati påverkas.
Det finns faktiskt många exempel på hur innehåll på sociala medier har påverkat valresultat, splittrat länder och till och med uppviglat till terrorism.
Jag har arbetat med artificiell intelligens i 40 år. Under de första 30 åren var jag intresserad av hur man skulle kunna göra AI kraftfullare. Under de senaste 10 åren har jag blivit alltmer intresserad av och uttryckt mig mer högljudd kring att utveckla AI på ett ansvarsfullt sätt.
Kan du ge några råd eftersom Vietnam håller på att utarbeta lagen om artificiell intelligens?
– Det finns många fall där nya lagar inte behövs. Vi har redan integritetslagar, vi har redan konkurrenslagar. Dessa befintliga lagar gäller för det digitala rummet, precis som de gäller för den fysiska världen.
Det är viktigt att upprätthålla dessa lagar lika strikt i den digitala miljön som vi gör i den fysiska miljön.
Det finns dock några nya risker som framträder och vi börjar se det. Människor börjar skapa relationer med AI, använder AI som terapeuter och ibland kan det skada användarna, så vi måste vara försiktiga.
Vi håller alltid tillverkare ansvariga när de släpper produkter. Om till exempel AI-företag släpper AI-produkter som skadar människor, bör de också hållas ansvariga.
Så hur kan vi förhindra att AI orsakar skadliga effekter på barn och skapa en trygg miljö för barn närhelst AI dyker upp, sir?
– Jag tror att vi inte har lärt oss många läxor från sociala medier. Många länder börjar nu inse att sociala medier har stora fördelar men också många nackdelar, särskilt påverkan på psykisk hälsa, ångestnivåer och kroppsuppfattning hos unga människor, särskilt flickor.
Många länder har redan börjat implementera åtgärder för att ta itu med detta problem. I Australien träder åldersgränsen för att använda sociala medier i kraft den 10 december. Jag tror att vi behöver liknande åtgärder för AI.
Vi bygger verktyg som kan ha positiva effekter men också orsaka skada, och vi måste skydda våra barns sinnen och hjärtan från dessa negativa effekter.
Dessutom hoppas jag att länder också kommer att utfärda strikta regler för att hantera sociala nätverk, och därigenom skapa en verkligt säker miljö för alla när de använder AI.
Faktum är att inte bara barn utan även vuxna står inför de risker som AI i sig orsakar. Så hur kan människor använda AI för att förbättra sina liv utan att vara en fara?
- AI tillämpas inom många områden och bidrar till att förbättra vår livskvalitet. Inom medicin hjälper AI till att upptäcka nya läkemedel. Inom utbildning medför AI också många positiva fördelar.
Att ge tillgång till AI utan tillräckliga skyddsåtgärder är dock för riskabelt. Vi har sett stämningar i USA där föräldrar stämt teknikföretag som drivit deras barn till självmord efter att ha interagerat med AI-chattrobotar.
Även om andelen ChatGPT-användare som upplever psykiska problem bara är några få procent, med hundratals miljoner användare, är det faktiska antalet hundratusentals.
Data är mycket viktigt för AI-utveckling, men ur ett ledningsperspektiv, om datahanteringen är för strikt, kommer det att hindra utvecklingen av AI. Vilka faror anser du kan en lättad datahantering orsaka? Hur balanserar man datainsamling och säker datahantering med att skapa utveckling för AI?
– Jag håller helt med. Data är kärnan i AI-framstegen , eftersom det är data som driver dem. Utan data kommer vi inte att göra några framsteg. Högkvalitativ data är kärnan i allt vi gör. Faktum är att det kommersiella värde och den konkurrensfördel som företag får kommer från data. Oavsett om vi har kvalitetsdata eller inte, det är den viktigaste frågan.
Det är upprörande att se böcker av författare runt om i världen – inklusive mina – användas utan tillstånd och utan ersättning. Det är att stjäla frukterna av andra människors arbete. Om denna situation fortsätter kommer författare att förlora motivationen att skriva böcker, och vi kommer att förlora de kulturella värden som vi vårdar.
Vi måste hitta en mer rättvis lösning än den vi har nu.
Just nu tar ”Silicon Valley” innehåll och kreativitet från upphovsmän utan att betala för det – detta är ohållbart. Jag jämför den nuvarande situationen med Napster och onlinemusikens tidiga dagar på 2000-talet. Då var all onlinemusik ”stulen”, men det kunde inte vara för evigt, eftersom musiker behövde inkomster för att fortsätta skapa.
Slutligen har vi betalda streamingsystem , som Spotify eller Apple Music, eller reklamfinansierad musik, där en del av intäkterna går tillbaka till artisten. Vi måste göra detsamma med böcker, så att författare får värde från sin data. Annars kommer ingen att vara motiverad att skriva böcker, och världen kommer att vara mycket sämre utan nya böcker.

Inom ramen för VinFuture Science and Technology Week kommer utställningen "Toa V - Touchpoint of Science" också att äga rum på Vincom Royal City Contemporary Art Center (Foto: Organisationskommittén).
AI är mycket utvecklat i Vietnam. På senare tid har Vietnam haft många strategier för att främja AI, men Vietnam står också inför ett problem, nämligen bedrägerier orsakade av AI. Så, enligt professorn, hur bör Vietnam hantera denna situation? Vilka är professorns råd till dem som använder AI idag för att garantera säkerhet och skydda sina data?
– För varje individ tror jag att det enklaste sättet är att verifiera informationen. Till exempel, när vi får ett telefonsamtal eller e-postmeddelande, till exempel från en bank, behöver vi kontrollera igen: Vi kan ringa tillbaka till det abonnentnumret eller kontakta banken direkt för att verifiera informationen.
Det finns många falska e-postmeddelanden, falska telefonnummer och till och med falska Zoom-samtal nuförtiden. Dessa bedrägerier är enkla, billiga och tar inte mycket tid.
I min familj har vi också vår egen säkerhetsåtgärd: en "hemlig fråga" som bara familjemedlemmar känner till, till exempel namnet på vår kanin. Detta säkerställer att viktig information stannar inom familjen och inte läcker ut.
Vietnam har också inkluderat AI-utbildning i den allmänna utbildningen, så vad bör man notera i den processen?
– AI förändrar vad som lärs ut och hur det lärs ut. Det påverkar viktiga färdigheter i framtiden, såsom kritiskt tänkande, kommunikationsförmåga, social intelligens och emotionell intelligens. Dessa färdigheter kommer att bli avgörande.
AI kan hjälpa till att lära ut dessa färdigheter, till exempel som personlig handledare, personlig granskningsassistent och tillhandahålla mycket effektiva utbildningsverktyg genom AI-applikationer.
Tack professorn för att du tog dig tid för vårt samtal!
Källa: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm






Kommentar (0)