Kunstig intelligens (KI)-selskapet Anthropic kunngjorde at de har oppdaget og stoppet en cyberangrepskampanje utført av utenlandske hackere, der de registrerte den første bruken av KI for å koordinere angrepsaktiviteter på en nærmest automatisert måte.
Hackere har brukt AI-systemer til å planlegge, dirigere og utføre inntrenginger, en utvikling som forskere sier er «bekymringsfull», og som truer med å øke omfanget og hastigheten på cyberangrepskampanjer betydelig, ifølge en rapport publisert denne uken av Anthropic.
Anthropic, produsenten av den generative AI-chatboten Claude, sa at de oppdaget aktiviteten i september og deretter stoppet den og varslet rundt 30 potensielle ofre, inkludert ansatte i teknologiselskaper, finansinstitusjoner, kjemiske selskaper og flere offentlige etater. «Bare et lite antall saker ble kompromittert», heter det i rapporten.
Selv om bekymringer rundt bruken av AI til å drive cyberoperasjoner ikke er nye, er det bekymringsfullt i hvilken grad AI kan automatisere enkelte oppgaver.
«Selv om vi forventer at disse mulighetene vil fortsette å utvikle seg, er det som er bemerkelsesverdig for oss hastigheten de utvikler seg med i stor skala», heter det i Anthropics rapport.
Forskere advarer om at AI-teknologi kan bli våpenbasert. AI-agenter – verktøy som automatisk kan utføre handlinger på datamaskiner – kan øke muligheten for storskala cyberangrep hvis de havner i hendene på hackere.
Tidligere i år advarte Microsoft også om at amerikanske motstandere, sammen med nettkriminelle og hackertjenester, utnytter kunstig intelligens for å øke angrepseffektiviteten, lage sofistikerte phishing-e-poster eller simulere stemmer og bilder av høytstående tjenestemenn for å utføre interferensaktiviteter og infiltrere sensitive systemer.
Kilde: https://www.vietnamplus.vn/lan-dau-tien-phat-hien-tin-tac-nuoc-ngoai-su-dung-ai-tu-dong-hoa-tan-cong-mang-post1077119.vnp






Kommentar (0)