Å bruke kunstig intelligens (KI) i jobben har blitt en uunngåelig trend, noe som bidrar til å forbedre effektiviteten og spare tid.
Bak denne bekvemmeligheten ligger det imidlertid potensielle risikoer for datasikkerhet, spesielt fenomenet «skygge-AI» – når ansatte bruker AI-verktøy uforsiktig og uten kontroll, og ved et uhell legger konfidensielle bedriftsdata ut på offentlige plattformer.
Avhengighet og innledende bekymringer
Thanh Huyen (21 år gammel), en innholdsmarkedsføringsansatt i et kosmetikk- og funksjonell matselskap, fortalte at hun er avhengig av AI i 90 % av arbeidet sitt, fra planlegging og innholdsbygging til design av bilder og videoer .
Men da hun ved et uhell kom over en artikkel som lignet på ideen hun spurte ChatGPT om, begynte Huyen å bekymre seg for AIs evne til å huske og dele inndatainformasjon.

Å bruke AI i jobben har nærmest blitt standard for mange bransjer for tiden (Foto: Bao Ngoc).
Selv om Huyens historie kan være en tilfeldighet, er det ubestridelige faktum at det å gi informasjon til AI betyr at disse verktøyene kan samle inn og lagre data for å trene modellen.
Problemet blir alvorlig hvis AI-plattformen blir hacket eller dårlig sikret, noe som fører til informasjonslekkasjer og negative konsekvenser.
«Skygge-AI» – en potensiell fare
HM (20 år gammel), en kundeservicespesialist, gir jevnlig en liste med kundeinformasjon (fullt navn, fødselsdato, telefonnummer, kjøpshistorikk) til AI for analyse, noe som sparer tid og forbedrer ytelsen.
M. mener at dette ikke er en potensiell risiko fordi selskapet er lite og dataene ikke vil bli offentliggjort. M.s tilfelle er imidlertid typisk for «skygge-AI» – bruk av AI av ansatte uten godkjenning eller tilsyn fra IT- eller cybersikkerhetsavdelingen.

Fenomenet «skygge-AI» refererer til bruk av AI av ansatte i bedrifter uten kontroll eller ledelse (Illustrasjon: CV).
En Cisco-rapport fant at 62 % av organisasjoner i Vietnam mangler tillit til å oppdage uregulert bruk av AI av ansatte. En britisk undersøkelse fant også at 75 % av cybersikkerhetsledere er bekymret for innsidetrusler som skygge-AI.
Dette viser at skygge-AI er i ferd med å bli en vanlig trussel, spesielt når mange bedrifter ikke har klare retningslinjer for bruk av AI og ansatte mangler bevissthet om datasikkerhet.
Aksepter avveininger for å unngå å bli hengende etter
Til tross for at hun er klar over risikoene, aksepterer Thanh Huyen fortsatt å «satse» på AI. Hun mener at de umiddelbare fordelene AI gir er for store, og hjelper henne med å produsere dusinvis av artikler og ideer hver dag.
Bekvemmeligheten, hastigheten og evnen til å øke ytelsen har gjort Huyen villig til å gi sensitiv, konfidensiell informasjon til AI, til og med overordnedes personlige informasjon.

Til tross for de potensielle risikoene ved å bruke AI uten kontroll, aksepterer mange ansatte fortsatt avveiningen for umiddelbare fordeler (Illustrasjon: CV).
På samme måte gir Trung Hieu (20 år), en ansatt i innholdsmarkedsføring, også jevnlig interne dokumenter og forretningsinformasjon til AI-chatboter.
Hieu la merke til en betydelig økning i produktiviteten, noe som skapte et konkurransefortrinn, og mener at dette ikke påvirker selskapets drift i for stor grad.
Disse tilfellene viser at skygge-AI sprer seg på grunn av mangel på klare retningslinjer fra selskapet og utilstrekkelig bevissthet blant ansatte om sikkerhets-, kvalitets- og avhengighetsrisikoer.
En rekke risikoer ved å stole for mye på AI
Nguyen Viet Hung, administrerende direktør i et selskap som utvikler AI-applikasjonsprogramvare, forklarer populariteten til Shadow AI med tre faktorer: AI bidrar til å jobbe raskere og mer effektivt; vanen med å raskt stole på AI-skjemaer; og bedrifter mangler advarsler og opplæring om risikoer.

Herr Nguyen Viet Hung, administrerende direktør i et programvareutviklingsselskap for AI-applikasjoner (Foto: Cong Khanh).
Eksperter advarer om at skygge-AI kan føre til datalekkasjer (kunde-, interne) når den brukes på gratis AI-verktøy.
I tillegg blir ikke kvaliteten på AI-generert innhold verifisert, noe som lett kan føre til skjevheter og påvirke forretningsbeslutninger.
Enda mer alvorlig er det at ukontrollert bruk av AI kan skape sikkerhetssårbarheter, noe som gjør det vanskelig for IT-systemer å overvåke og reagere raskt, og det er vanskelig å fastslå ansvar når hendelser inntreffer.
Mørke områder er vanskelige å kontrollere.
Overvåking og administrasjon av ansatte ved hjelp av AI er en lang og koordinert prosess. Eksperter sier at ansattes tilgang til interne data utgjør en stor hindring for å forhindre at de overfører private data gjennom personlige AI-verktøy.
Videre er AI-verktøy nå lett tilgjengelige, noe som gjør dem vanskelige for IT å oppdage eller administrere.

Enkel tilgang til AI-verktøy er en av barrierene som gjør det vanskeligere å kontrollere informasjonen som ansatte legger ut på AI-plattformer (Illustrasjon: CV).
For å håndtere dette, foreslo ekspert Nguyen Viet Hung at bedrifter må øke opplæringen til ansatte i risikobevissthet ved bruk av AI og få en dypere forståelse av «skygge-AI».
Samtidig må du raskt utstede juridiske forskrifter og interne retningslinjer. En annen viktig løsning er å styrke sikkerhetskapasiteten i bedriften, inkludert atferdsovervåking, datatilgangskontroll og nøye autorisering for hver ansatt.
For tiden har mange selskaper fortsatt ikke en klar prosess for bruk av AI, men oppmuntrer kun til bruk for å øke produktiviteten. For å håndtere skygge-AI har mange store bedrifter begynt å distribuere interne AI-plattformer eller kreve at ansatte bruker godkjente verktøy med klare retningslinjer for informasjonssikkerhet.
Kilde: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
Kommentar (0)