Vietnam.vn - Nền tảng quảng bá Việt Nam

Hva bør Vietnam gjøre for å unngå risikoen for å bli en billig ressurs?

(Dan Tri) – I lys av at Vietnam er et av pionerlandene som vurderer å kunngjøre AI-loven, er problemet ikke bare å fremme teknologi, men også å beskytte digital suverenitet og folks sikkerhet.

Báo Dân tríBáo Dân trí03/12/2025


Eksplosjonen av kunstig intelligens (KI) bringer store fordeler for menneskeheten, men medfører også utallige konsekvenser: fra rasefordommer og sofistikert nettsvindel til risikoen for at utviklingsland blir billige «datagruver».

Gitt denne realiteten, bør ansvarlig bruk av kunstig intelligens være frivillig eller obligatorisk? Hva bør Vietnam gjøre når de bygger en juridisk korridor for dette feltet?

I forbindelse med VinFuture Science and Technology Week-arrangementet hadde reporteren en samtale med professor Toby Walsh - University of New South Wales (Australia), akademiker i American Computer Society.

Professoren gir innsikt i hvordan vi «oppfører oss» med AI, fra å holde «maskiner» ansvarlige til tips for familier som kan beskytte seg mot bølgen av høyteknologiske svindelforsøk.

Hvem er ansvarlig for AI?

Professor, bør ansvarlig bruk av AI være frivillig eller obligatorisk? Og hvordan bør vi egentlig oppføre oss overfor AI?

Jeg mener bestemt at ansvarlig bruk av AI bør være obligatorisk . Det er perverse insentiver i spill , med enorme summer penger som tjenes på AI, og den eneste måten å sikre riktig oppførsel på er å innføre strenge reguleringer , slik at allmennhetens interesser alltid balanseres med kommersielle interesser .

Når AI gjør en feil, hvem er ansvarlig? Spesielt med AI-agenter, har vi muligheten til å fikse operasjonsmekanismene deres?

Kjerneproblemet med at AI gjør feil er at vi ikke kan holde AI ansvarlig. AI er ikke menneskelig – og dette er en svakhet i alle rettssystemer i verden . Bare mennesker kan holdes ansvarlige for sine avgjørelser og handlinger.

Hva bør Vietnam gjøre for å unngå risikoen for å bli en billig ressurs? - 1

Plutselig har vi en ny «agent», AI, som – hvis vi tillater det – kan ta avgjørelser og iverksette tiltak i vår verden, noe som byr på en utfordring: Hvem skal vi holde ansvarlig?

Svaret er: Selskaper som distribuerer og driver AI-systemer må holdes ansvarlige for konsekvensene disse «maskinene» forårsaker.

Mange selskaper snakker også om ansvarlig AI. Hvordan kan vi stole på dem? Hvordan vet vi at de er seriøse og omfattende, og ikke bare bruker «ansvarlig AI» som et markedsføringsknep?

Vi må øke åpenheten. Det er viktig å forstå mulighetene og begrensningene til AI-systemer. Vi bør også «stemme ved å gjøre», det vil si velge å bruke tjenester ansvarlig.

Jeg tror virkelig at hvordan bedrifter bruker AI ansvarlig vil bli et differensieringselement i markedet, og gi dem et kommersielt fortrinn.

Hvis et selskap respekterer kundedata, vil det være til fordel for og tiltrekke seg kunder. Bedrifter vil innse at det å gjøre det rette ikke bare er etisk, men også vil hjelpe dem å lykkes mer. Jeg ser dette som en måte å skille mellom bedrifter, og ansvarlige bedrifter er de vi kan føle oss komfortable med å gjøre forretninger med.

Vietnam må proaktivt beskytte kulturelle verdier.

Vietnam er et av få land som vurderer å kunngjøre loven om kunstig intelligens. Hva er din vurdering av dette? Hva er etter din mening utfordringene angående etikk og sikkerhet i AI-utvikling for utviklingsland som Vietnam?

Jeg er veldig glad for at Vietnam er et av pionerlandene som vil få en spesialisert lov om kunstig intelligens. Dette er viktig fordi hvert land har sine egne verdier og kultur, og trenger lover for å beskytte disse verdiene.

Vietnamesiske verdier og kultur er annerledes enn i Australia, Kina og USA. Vi kan ikke forvente at teknologiselskaper fra Kina eller USA automatisk skal beskytte vietnamesisk kultur og språk. Vietnam må ta initiativ til å beskytte disse tingene.

Jeg er klar over at mange utviklingsland tidligere har gått gjennom en periode med fysisk kolonisering. Hvis vi ikke er forsiktige, kan vi gå gjennom en periode med «digital kolonisering». Dataene dine vil bli utnyttet, og du vil bli en billig ressurs.

Dette er i faresonen dersom utviklingsland utvikler AI-industrien på en måte som kun utnytter data uten å kontrollere eller beskytte sine egne interesser.

Så hvordan overvinne denne situasjonen?

Det er enkelt: Invester i folk. Oppkvalifiser folk, sørg for at de forstår KI. Støtt gründere, KI-selskaper, støtt universiteter. Vær proaktiv. I stedet for å vente på at andre land skal overføre teknologi eller veilede oss, må vi være proaktive og mestre teknologien.

Hva bør Vietnam gjøre for å unngå risikoen for å bli en billig ressurs? - 2

Professor Toby Walsh deler på VinFuture Science and Technology Week (Foto: Organisasjonskomiteen).

For det andre må vi sterkt argumentere for at sosiale medieplattformer skal skape et trygt miljø for brukere i Vietnam, uten at det påvirker landets demokrati.

Faktisk finnes det en rekke eksempler på hvordan innhold på sosiale medier har påvirket valgresultater, splittet land og til og med oppfordret til terrorisme.

Jeg har jobbet med kunstig intelligens i 40 år. De første 30 årene var jeg opptatt av hvordan jeg kunne gjøre kunstig intelligens kraftigere. I løpet av de siste 10 årene har jeg blitt stadig mer interessert i og mer åpen for å utvikle kunstig intelligens på en ansvarlig måte.

Kan du gi noen råd ettersom Vietnam er i ferd med å utarbeide loven om kunstig intelligens?

Det finnes mange tilfeller der nye lover ikke er nødvendige. Vi har allerede personvernlover, vi har allerede konkurranselover. Disse eksisterende lovene gjelder for det digitale rommet, akkurat som de gjelder for den fysiske verden.

Det er viktig å håndheve disse lovene like strengt i det digitale miljøet som vi gjør i det fysiske miljøet.

Det dukker imidlertid opp noen nye risikoer, og det begynner vi å se. Folk begynner å danne relasjoner med AI, bruker AI som terapeuter, og noen ganger vil det skade brukerne, så vi må være forsiktige.

Vi holder alltid produsenter ansvarlige når de lanserer produkter. Hvis for eksempel AI-selskaper lanserer AI-produkter som skader mennesker, bør de også holdes ansvarlige.

Så hvordan kan vi forhindre at AI forårsaker skadelige effekter på barn og skape et trygt miljø for barn når AI dukker opp, sir?

Jeg tror ikke vi har lært mye av sosiale medier. Mange land begynner nå å innse at sosiale medier har store fordeler, men også mange ulemper, spesielt virkningen på mental helse, angstnivå og kroppsbilde hos unge mennesker, spesielt jenter.

Mange land har allerede begynt å iverksette tiltak for å håndtere dette problemet. I Australia trer aldersgrensen for bruk av sosiale medier i kraft 10. desember. Jeg tror vi trenger lignende tiltak for AI.

Vi bygger verktøy som kan ha positive effekter, men som også kan forårsake skade, og vi må beskytte barnas sinn og hjerter mot disse negative effektene.

I tillegg håper jeg at landene også vil innføre strenge forskrifter for å administrere sosiale nettverk, og dermed skape et virkelig trygt miljø for alle når de bruker AI.

Faktisk er det ikke bare barn, men også voksne som står overfor risikoene som AI forårsaker. Så hvordan kan folk bruke AI til å forbedre livene sine uten å være en fare?

KI brukes på mange felt og bidrar til å forbedre livskvaliteten vår. Innen medisin bidrar KI til å oppdage nye legemidler. Innen utdanning gir KI også mange positive fordeler.

Det er imidlertid for risikabelt å gi tilgang til AI uten tilstrekkelige sikkerhetstiltak. Vi har sett søksmål i USA der foreldre saksøkte teknologiselskaper som drev barna deres til selvmord etter å ha samhandlet med AI-chatboter.

Selv om andelen ChatGPT-brukere som opplever psykiske helseproblemer bare er noen få prosent, med hundrevis av millioner brukere, er det faktiske tallet i hundretusenvis.

Data er svært viktig for AI-utvikling, men fra et ledelsesperspektiv vil det hindre utviklingen av AI hvis datahåndteringen er for stram. Hvilke farer kan etter din mening en løsnende datahåndtering forårsake? Hvordan balansere datainnsamling og sikker datahåndtering med å skape utvikling for AI?

Jeg er helt enig. Data er kjernen i fremgangen innen kunstig intelligens , fordi det er data som driver den. Uten data vil vi ikke gjøre noen fremskritt. Data av høy kvalitet er kjernen i alt vi gjør. Faktisk kommer den kommersielle verdien og det konkurransefortrinnet som bedrifter får fra data. Enten vi har kvalitetsdata eller ikke, er det det viktigste.

Det er opprørende å se bøkene til forfattere over hele verden – inkludert mine – bli brukt uten tillatelse og uten kompensasjon. Det er å stjele fruktene av andres arbeid. Hvis denne situasjonen fortsetter, vil forfattere miste motivasjonen til å skrive bøker, og vi vil miste de kulturelle verdiene vi verdsetter.

Vi må finne en mer rettferdig løsning enn den vi har nå.

Akkurat nå tar «Silicon Valley» innhold og kreativitet fra forfattere uten å betale for det – dette er uholdbart. Jeg sammenligner dagens situasjon med Napster og de tidlige dagene med nettmusikk på 2000-tallet. Den gang ble nettmusikk «stjålet», men det kunne ikke vare evig, fordi musikere trengte inntekt for å fortsette å skape.

Til slutt har vi betalte strømmesystemer , som Spotify eller Apple Music, eller annonsefinansiert musikk, der en del av inntektene går tilbake til artisten. Vi må gjøre det samme med bøker, slik at forfattere får verdi fra dataene sine. Ellers vil ingen være motiverte til å skrive bøker, og verden vil være mye verre stilt uten at det skrives nye bøker.

Hva bør Vietnam gjøre for å unngå risikoen for å bli en billig ressurs? - 3

Innenfor rammene av VinFuture Science and Technology Week vil utstillingen «Toa V – Touchpoint of Science» også finne sted på Vincom Royal City Contemporary Art Center (Foto: Organisasjonskomiteen).

AI er svært utviklet i Vietnam. I den senere tid har Vietnam hatt mange tiltak for å fremme AI, men Vietnam står også overfor et problem, nemlig svindel forårsaket av AI. Så, ifølge professoren, hvordan bør Vietnam håndtere denne situasjonen? Hva er professorens råd til de som bruker AI i dag for å sikre sikkerhet og beskytte dataene sine?

For hver enkelt person tror jeg den enkleste måten er å bekrefte informasjonen. Når vi for eksempel mottar en telefonsamtale eller e-post, for eksempel fra en bank, må vi sjekke på nytt: Vi kan ringe tilbake til det abonnentnummeret eller kontakte banken direkte for å bekrefte informasjonen.

Det finnes mange falske e-poster, falske telefonnumre og til og med falske Zoom-samtaler i disse dager. Disse svindelforsøkene er enkle, rimelige og tar ikke mye tid.

I familien min har vi også vårt eget sikkerhetstiltak: et «hemmelig spørsmål» som bare familiemedlemmer vet, for eksempel navnet på kjæledyrkaninen vår. Dette sikrer at viktig informasjon forblir innenfor familien og ikke lekker ut.

Vietnam har også inkludert AI-utdanning i allmennutdanningen, så hva bør man merke seg i den prosessen?

AI endrer hva som læres og hvordan det læres. Det påvirker viktige ferdigheter i fremtiden, som kritisk tenkning, kommunikasjonsferdigheter, sosial intelligens og emosjonell intelligens. Disse ferdighetene vil bli essensielle.

AI kan bistå i å lære bort disse ferdighetene, for eksempel som personlig veileder, personlig studieassistent, og tilby svært effektive pedagogiske verktøy gjennom AI-applikasjoner.

Takk professoren for at du tok deg tid til samtalen vår!

Kilde: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm


Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

I samme emne

I samme kategori

Notre Dame-katedralen i Ho Chi Minh-byen er sterkt opplyst for å ønske julen 2025 velkommen
Hanoi-jenter «kler seg» vakkert ut til jul
Lysere etter stormen og flommen håper Tet-krysantemumlandsbyen i Gia Lai at det ikke blir strømbrudd for å redde plantene.
Hovedstaden for gul aprikos i den sentrale regionen led store tap etter doble naturkatastrofer

Av samme forfatter

Arv

Figur

Forretninger

Dalat kaffebar ser 300 % økning i kunder fordi eieren spiller en rolle i en «kampsportfilm»

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt