![]() |
Den nye AI-modellen Anthropic er i stand til å finne alle sikkerhetssårbarheter. Foto: Bloomberg . |
Anthropic annonserte nylig en ny AI-modell kalt Claude Mythos Preview, men nektet å lansere den bredt på grunn av bekymringer om at den kunne misbrukes til å angripe kritisk infrastruktur. I stedet ga selskapet mer enn 40 store teknologipartnere, inkludert Apple, Amazon, Microsoft og Google, tilgang til modellen for å finne og oppdatere sikkerhetssårbarheter i programvaren.
Denne alliansen, kalt Project Glasswing, inkluderer maskinvareleverandører som Cisco og Broadcom, samt Linux Foundation, en organisasjon som vedlikeholder mye av den viktige programvaren med åpen kildekode. Anthropic har lovet å bidra med opptil 100 millioner dollar i Claude-baserte kreditter til dette arbeidet.
Ny AI-supermodell
Det som gjør Claude Mythos Preview spesielt bekymringsverdig er dens evne til automatisk å oppdage nulldagssårbarheter – programvarefeil som selv utviklerne ikke er klar over. Tidligere ble denne typen sårbarheter vanligvis funnet etter måneder med forskning av ledende sikkerhetseksperter. Anthropics nyeste AI-modell kan imidlertid gjøre dette i stor skala, automatisk og kontinuerlig.
![]() |
Claude Mythos sjokkerte nettsikkerhetsmiljøet. Foto: Bloomberg . |
Ifølge Anthropic oppdaget Claude Mythos tusenvis av feil i populære operativsystemer og nettlesere. En av dem var en sårbarhet som hadde eksistert i 27 år i OpenBSD, et operativsystem med åpen kildekode spesielt utviklet for sikkerhet og integrert i mange rutere. En annen sårbarhet var i en populær videoprogramvare som automatiserte skanninger ikke hadde klart å oppdage 5 millioner ganger.
«Claude Mythos-modellen fant sårbarheter som sikkerhetsforskere hadde oversett i flere tiår», sa Logan Graham, leder for modellens sårbarhetstestteam hos Anthropic.
Elia Zaitsev, teknologidirektør i CrowdStrike, mener denne modellen utgjør en global cybersikkerhetsrisiko.
«Ting som pleide å ta måneder, tar nå bare minutter takket være AI», sa Zaitsev. Han advarte også om at konkurrenter ville prøve å utnytte lignende muligheter takket være Claude Mythos.
Potensielle risikoer
Nikesh Arora, administrerende direktør i Palo Alto Networks, beskrev Claude Mythos som en uforutsigbar trussel.
«Se for deg at det er som en sverm av agenter som konstant og omhyggelig katalogiserer alle svakheter i teknologiinfrastrukturen din», observerte Nikesh Arora.
Jared Kaplan, vitenskapelig sjef i Anthropic, forklarer at Claude Mythos' sikkerhetsfunksjoner ikke er et resultat av spesialtrening. Det er en naturlig konsekvens av modellens utmerkede programmeringsferdigheter og evne til å automatisk korrigere feil over tid. Han spår at andre AI-modeller snart vil ha lignende funksjoner, noe som vil eskalere kappløpet mellom hackere og sikkerhetsteam til et nytt nivå.
![]() |
Det er usannsynlig at Claude Mythos blir utgitt i stor skala. Foto: Bloomberg . |
Beslutningen om å beholde sikkerhetsmodellen har en presedens fra 2019, da OpenAI nektet å lansere GPT-2 på grunn av bekymringer om at den kunne brukes til å automatisere produksjonen av desinformasjon. De som ledet GPT-2-prosjektet forlot senere OpenAI og grunnla Anthropic.
Denne kunngjøringen kommer dagen etter at Anthropic annonserte en anslått årlig omsetningsvekst på mer enn tredobling i 2026, fra 9 milliarder dollar til over 30 milliarder dollar . Mye av denne veksten kommer fra etterspørselen etter Claude som programmeringsverktøy. Denne overlegne kapasiteten er det som gjør det mulig for modellen å finne sikkerhetssårbarheter på måter som aldri har vært sett før.
Anthropic befinner seg i en svært motstridende posisjon i dagens AI-landskap. Selskapet kjemper samtidig om å utvikle kraftige systemer for å generere inntekter, samtidig som de må stadig advare om risikoen knyttet til selve teknologien de skaper.
Kilde: https://znews.vn/anthropic-lai-gay-chan-dong-post1641929.html









Kommentar (0)