Eksperter sammenligner AI med «maskiner» skapt av teknologiingeniører, hvis oppførsel etterligner mennesker og i økende grad nærmer seg ekte intelligens.
Hvis AI ikke utformes og kontrolleres etisk, kan samfunnet møte mange negative konsekvenser.
KI kan føre til diskriminering basert på kjønn og etnisitet hvis den utvikles med bruk av partiske data. KI kan erstatte mange jobber og utgjøre en betydelig utfordring for arbeidsmarkedet. Personer med funksjonsnedsettelser, personer med begrensede teknologiske ferdigheter og etniske minoriteter trenger støtte for å unngå å bli hengende etter i tilgangen til KI-integrerte tjenester.
Utviklingen av AI vil også medføre visse utfordringer for miljøet og ressursene. Oppsett og vedlikehold av datasentre, skybasert datainfrastruktur og superdatamaskiner krever enorme mengder strøm og vann, samt betydelig landareal for å huse utstyret.
Når KI går inn i kritiske felt som helsevesen , hvordan vil ansvarlighet være hvis det oppstår feil i diagnose eller behandling? Spesielt sikkerheten til pasientinformasjon, beskyttelse av personopplysninger generelt, og å sikre datanøyaktighet er alle spørsmål av spesiell interesse ...
De nevnte risikoene utgjør ikke bare en trussel mot Vietnam, men mot hele verden. Derfor må utvikling og anvendelse av kunstig intelligens vurderes nøye, ledsaget av passende kontroll- og veiledningsmekanismer.
AI-etikk krever at enkeltpersoner og organisasjoner involvert i AI-utvikling er ansvarlige for å designe, drifte og utnytte denne «maskinen» på en transparent, rettferdig og trygg måte for brukere og samfunnet. Samtidig vektlegger AI-etikk også rollen til det globale samfunnet og nasjoner i å håndtere de negative virkningene av AI på livet.
![]() |
| Utviklingen av AI stiller miljøet og ressursene overfor visse utfordringer. (Illustrasjonsbilde) |
Partiet og staten Vietnam har identifisert kjerneformålet med digital transformasjon som å tjene folket, med mennesket i sentrum. Derfor har vi, i tillegg til å fremme og utvikle den, fokusert på å minimere uønskede konsekvenser for folket under den digitale transformasjonsprosessen.
Nasjonalforsamlingen har bedt om forskning på politikk for å støtte de som er berørt av den fjerde industrielle revolusjonen under revisjonen av arbeidsretten.
Vi vedtok dataloven i 2024, utvikler for tiden personvernloven og endrer cybersikkerhetsloven ... for å bidra til å kontrollere risikoer fra kunstig intelligens.
Etater og organisasjoner innenfor det politiske systemet forsker på ulike løsninger for å hjelpe innbyggerne med å få enklere tilgang til smarte administrative tjenester. Driftsmodellen til Hanoi City Public Administrative Service Center er et eksempel ...
Den største utfordringen er imidlertid hvordan man skal balansere det å fremme innovasjon med å overvåke etisk samsvar innen kunstig intelligens. For streng kontroll kan kvele innovasjon, men slapp kontroll kan lett føre til de negative konsekvensene som allerede er skissert.
Videre krever implementering av flere strategier og programmer for vitenskap og teknologiutvikling samtidig nøye planlegging og balansering, spesielt når ressursene er begrensede.
![]() |
| Utfordringen ligger i å balansere fremme av innovasjon med overvåking av etisk samsvar innen kunstig intelligens. (Illustrasjonsbilde) |
I denne sammenhengen er den proaktive rollen til profesjonelle foreninger, bedrifter, forskningsinstitutter, sosiale organisasjoner osv. i samarbeid med myndighetene for å veilede en ansvarlig utvikling av AI avgjørende.
Nylig, 22. mars 2025, ble National Data Association lansert, med mål om å bygge et robust dataøkosystem, bidra til å fremme digital økonomisk utvikling og øke verdien av data i den nasjonale økonomien.
Tidligere opprettet Vietnam Software and Information Technology Services Association (VINASA) en etisk komité for kunstig intelligens. Denne komiteen forsker for å gi råd til relevante myndigheter om utvikling av etiske retningslinjer for AI-utviklingsselskaper. Samtidig foreslår komiteen å bygge et standardisert datasett som krever at utenlandske selskaper som utvikler AI i Vietnam, overholder visse kriterier.
VINASAS modell bør kopieres og oppmuntres, fordi AI-etikk tydeligvis ikke bare er et spørsmål for reguleringsorganer, men krever en kollektiv innsats fra hele samfunnet.
På lang sikt må Vietnam vurdere å utvikle en ansvarlig strategi for utvikling av kunstig intelligens innenfor den overordnede nasjonale strategien for utvikling av kunstig intelligens, som sikrer full overholdelse av verdiene rettferdighet, inkludering, åpenhet, sikkerhet og ansvarlighet.
Enda viktigere er det at overholdelse av loven er et obligatorisk krav, som krever at alle individer og organisasjoner har en dyp forståelse av både tanke og handling når de utvikler og anvender AI.
Rettssystemet trenger ytterligere forbedringer for å tydelig definere juridisk ansvar, etablere mekanismer for håndtering av brudd og beskytte de legitime rettighetene til interessenter i det digitale miljøet.
Internasjonale erfaringer fungerer også som et viktig grunnlag for Vietnam å referere til, og dermed bygge en passende styringsmodell for AI. Et komplett rettssystem og en effektiv overvåkingsmekanisme vil bidra til å kontrollere risikoer og forhindre misbruk av teknologi uten å hindre innovasjon. Først da vil AI virkelig bli et verktøy for å tjene menneskeheten og fremme sosial fremgang.
Kilde: https://nhandan.vn/dao-duc-ai-thach-thuc-and-huong-di-post873031.html








Kommentar (0)