Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Sårbarhet i Microsoft Copilot: Ny advarsel om risiko for datalekkasje i AI

En alvorlig sikkerhetsfeil i Microsoft Copilot gjør at brukerdata kan stjeles uten at man gjør noe. Hendelsen reiser et stort spørsmål: Hjelper kunstig intelligens oss, eller setter den oss i fare?

Báo Tuổi TrẻBáo Tuổi Trẻ20/06/2025

Lỗ hổng bảo mật - Ảnh 1.

EchoLeak og de potensielle risikoene ved kunstig intelligens

Etter hvert som kunstig intelligens (KI) blir en del av alt fra å skrive rapporter og svare på e-poster til å analysere data, virker det som om vi lever i en tid med enestående bekvemmelighet. Men ulempene med bekvemmelighet begynner også å bli tydelige, spesielt når det gjelder sikkerhet.

Et nylig sikkerhetsproblem kalt EchoLeak har gjort at brukere av Microsoft Copilot-tjenesten risikerer å få sensitive data lekket uten at de har foretatt seg noe.

Når AI blir en sikkerhetsbrist

Ifølge Tuoi Tre Onlines forskning er EchoLeak et nylig registrert sikkerhetsproblem med koden CVE-2025-32711, som eksperter har vurdert som farlig til 9,3/10 i henhold til NISTs skala.

Det som bekymrer sikkerhetseksperter er at det er av «nullklikk» -natur: angripere kan utnytte data fra Copilot uten at brukeren trenger å klikke, åpne en fil eller engang vite at noe skjer.

Dette er ingen enkel feil. Forskningsteamet hos Aim Labs, som oppdaget feilen, mener EchoLeak gjenspeiler en vanlig designfeil i agent- og RAG-baserte AI-systemer. Fordi Copilot er en del av Microsoft 365-apppakken som inneholder e-poster, dokumenter, regneark og møteplaner for millioner av brukere, er potensialet for datalekkasje spesielt alvorlig.

Problemet ligger ikke bare i den spesifikke koden, men også i måten store språkmodeller (LLM-er) opererer. KI-er trenger mye kontekst for å reagere nøyaktig, og derfor får de tilgang til mye bakgrunnsdata. Uten klare kontroller for input og output kan KI-er «styres» på måter som brukerne ikke er klar over. Dette skaper en ny type «bakdør» som ikke skyldes en feil i koden, men fordi KI-er oppfører seg utenfor menneskelig forståelse.

Microsoft ga raskt ut en oppdatering, og det er ikke rapportert om noen reell skade så langt. Men lærdommen fra EchoLeak er klar: Når AI er dypt integrert i fungerende systemer, kan selv små feil i hvordan den forstår kontekst ha store sikkerhetsmessige konsekvenser.

Jo mer praktisk AI blir, desto mer sårbare blir personopplysninger

EchoLeak-hendelsen reiser et urovekkende spørsmål: Har folk så stor tillit til AI at de ikke innser at de kan spores eller få sin personlige informasjon eksponert med bare en tekstmelding? En nylig oppdaget sårbarhet som lar hackere stille trekke ut data uten at brukere trenger å trykke på noen knapper, er noe som en gang bare ble sett i science fiction-filmer, men som nå er en realitet.

Selv om AI-applikasjoner blir stadig mer populære, fra virtuelle assistenter som Copilot, chatboter i bank og utdanning , til AI-plattformer som skriver innhold og behandler e-poster, blir folk flest ikke advart om hvordan dataene deres behandles og lagres.

«Å chatte» med et AI-system handler ikke lenger bare om å stille noen få spørsmål for enkelhets skyld, men kan også utilsiktet avsløre din posisjon, vaner, følelser eller til og med kontoinformasjon.

I Vietnam er mange kjent med bruk av kunstig intelligens på telefoner og datamaskiner uten grunnleggende kunnskap om digital sikkerhet . Mange deler privat informasjon med kunstig intelligens fordi de tror at «det bare er en maskin». Men i virkeligheten ligger det et system bak den som kan registrere, lære og overføre data til andre steder, spesielt når kunstig intelligens-plattformen kommer fra en tredjepart og ikke har blitt tydelig sikkerhetstestet.

For å begrense risikoer trenger ikke brukerne nødvendigvis å gi opp teknologi, men de må være mer bevisste: de bør nøye sjekke om AI-applikasjonen de bruker har en pålitelig kilde, om dataene er kryptert, og spesielt ikke dele sensitiv informasjon som ID-nummer, bankkontoer, helseinformasjon ... med noe AI-system uten å bli tydelig advart.

Akkurat som da internett først ble født, trenger også AI tid til å perfeksjonere seg, og i løpet av den tiden bør brukerne være de første til å proaktivt beskytte seg selv.

Deler du noen gang for mye med AI?

Når man skriver inn en kommando som «skriv om denne rapporten for meg på en mer vennlig måte» eller «oppsummer gårsdagens møte», tror mange ikke at all informasjonen de skriver inn, inkludert interne detaljer, personlige følelser og arbeidsvaner, kan registreres av AI. Vi har blitt så vant til å chatte med smarte verktøy at vi glemmer grensen mellom bekvemmelighet og privatliv.

Tilbake til emnet
TUAN VI

Kilde: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm


Kommentar (0)

No data
No data

I samme emne

I samme kategori

Y Ty er strålende med den gylne fargen av moden rissesong
Hang Ma Old Street «skifter klær» for å ønske midthøstfestivalen velkommen
Suoi Bon lilla sim-ås blomstrer blant det flytende skyhavet i Son La
Turister strømmer til Y Ty, omgitt av de vakreste terrassefeltene i nordvest

Av samme forfatter

Arv

Figur

Forretninger

No videos available

Nyheter

Det politiske systemet

Lokalt

Produkt