Vietnam.vn - Nền tảng quảng bá Việt Nam

Sikkerhetssårbarhet i Microsoft Copilot: Ny advarsel om risiko for datalekkasje i AI

Et kritisk sikkerhetsproblem i Microsoft Copilot gjør at brukerdata kan stjeles uten at det kreves noen handling. Denne hendelsen reiser et viktig spørsmål: Hjelper kunstig intelligens oss, eller setter vi oss i fare?

Báo Tuổi TrẻBáo Tuổi Trẻ20/06/2025

Lỗ hổng bảo mật - Ảnh 1.

EchoLeak og de potensielle risikoene fra kunstig intelligens.

Etter hvert som kunstig intelligens (KI) blir en integrert del av enhver oppgave, fra å bistå med rapportskriving og e-postsvar til dataanalyse, ser det ut til at brukerne lever i en tid med enestående bekvemmelighet. Men ulempene med denne bekvemmeligheten begynner også å dukke opp, spesielt i sikkerhetsspørsmål.

Et nylig sikkerhetsproblem, kalt EchoLeak, har satt brukere av Microsoft Copilot-tjenesten i fare for lekkasjer av sensitive data uten at det kreves noen handling.

Når AI blir en sikkerhetsbrist

Ifølge Tuoi Tre Onlines undersøkelse er EchoLeak et nylig identifisert sikkerhetsproblem med koden CVE-2025-32711, som eksperter har vurdert som farlig til 9,3/10 på NIST-skalaen.

Det som bekymrer sikkerhetseksperter er dens "nullklikk" -natur: angripere kan utnytte data fra Copilot uten at brukeren klikker, åpner filer eller engang vet at noe skjer.

Dette er ingen enkel feil. Forskningsteamet hos Aim Labs, som oppdaget sårbarheten, mener at EchoLeak gjenspeiler en vanlig designfeil i RAG-baserte (retrieval-augmented generation) AI-systemer og -agenter. Fordi Copilot er en del av Microsoft 365-applikasjonspakken, som inneholder e-poster, dokumenter, regneark og møtekalendere for millioner av brukere, er risikoen for datalekkasje svært alvorlig.

Problemet ligger ikke bare i den spesifikke kodebiten, men også i hvordan store modellspråk (LLM-er) fungerer. AI trenger mye kontekst for å gi nøyaktige svar, og derfor får den tilgang til enorme mengder bakgrunnsdata. Uten klar kontroll over input-output-flyten kan AI manipuleres fullstendig uten brukerens viten. Dette skaper en ny type «bakdør», ikke på grunn av en sårbarhet i koden, men fordi AI oppfører seg utenfor menneskelig forståelse.

Microsoft ga raskt ut en oppdatering, og det er ikke rapportert om faktiske tap så langt. Men lærdommen fra EchoLeak er klar: Når AI er dypt integrert i arbeidssystemer, kan selv et lite feiltrinn i hvordan den forstår kontekst føre til store sikkerhetsmessige konsekvenser.

Jo mer praktisk AI blir, desto mer sårbare blir personopplysninger.

EchoLeak-hendelsen reiser et bekymringsfullt spørsmål: stoler brukere for mye på AI uten å innse at de kan bli sporet eller få sin personlige informasjon eksponert etter bare én melding? Den nylig oppdagede sårbarheten, som lar hackere stille trekke ut data uten at brukeren trykker på noen knapper, var noe man tidligere bare så i science fiction, men har nå blitt en realitet.

Selv om AI-applikasjoner blir stadig mer populære, fra virtuelle assistenter som Copilot og chatboter innen bank og utdanning , til AI-plattformer for innholdsskriving og e-postbehandling, blir folk flest ikke advart om hvordan dataene deres behandles og lagres.

Å «chatte» med et AI-system handler ikke lenger bare om å sende noen få praktiske spørsmål; det kan utilsiktet avsløre din posisjon, vaner, følelser eller til og med kontoinformasjon.

I Vietnam er mange kjent med å bruke AI på telefoner og datamaskiner uten grunnleggende kunnskap om digital sikkerhet . Mange deler privat informasjon med AI, i den tro at «det bare er en maskin». Men i virkeligheten ligger det et system bak den som er i stand til å registrere, lære og overføre data andre steder, spesielt når AI-plattformen kommer fra en tredjepart og ikke har blitt grundig sikkerhetskontrollert.

For å redusere risikoer trenger ikke brukerne nødvendigvis å gi opp teknologi, men de må være mer bevisste: de bør nøye sjekke om AI-applikasjonene de bruker kommer fra en pålitelig kilde, om dataene er krypterte, og spesielt bør de ikke dele sensitiv informasjon som ID-nummer, bankkontodetaljer, helseinformasjon osv. med noe AI-system uten klar forvarsel.

Akkurat som da internett først dukket opp, trenger også AI tid til å modnes, og i løpet av den tiden bør brukerne være de første til å proaktivt beskytte seg selv.

Har du noen gang delt for mye informasjon med AI?

Når man skriver kommandoer som «skriv om denne rapporten for meg, men på en mildere måte» eller «oppsummer gårsdagens møte», er det mange som ikke innser at all informasjonen de skriver inn, inkludert interne detaljer, personlige følelser eller arbeidsvaner, kan registreres av AI. Vi blir vant til å samhandle med intelligente verktøy og glemmer grensen mellom bekvemmelighet og personvern.

Tilbake til emnet
TUAN VI

Kilde: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm


Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

I samme emne

I samme kategori

Huynh Nhu skriver historie i SEA Games: En rekord som blir svært vanskelig å slå.
Den fantastiske kirken på Highway 51 lyste opp til jul og tiltrakk seg oppmerksomheten til alle som gikk forbi.
Øyeblikket da Nguyen Thi Oanh spurtet til målstreken, uten sidestykke i fem SEA-leker.
Bønder i blomsterlandsbyen Sa Dec er travelt opptatt med å stelle blomstene sine som forberedelse til festivalen og Tet (månens nyttår) 2026.

Av samme forfatter

Arv

Figur

Forretninger

Hanois kirker er strålende opplyste, og julestemningen fyller gatene.

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt