![]() |
Den nya AI-modellen Anthropic kan hitta alla säkerhetsbrister. Foto: Bloomberg . |
Anthropic tillkännagav nyligen en ny AI-modell som heter Claude Mythos Preview men avböjde att släppa den i stor utsträckning på grund av oro för att den skulle kunna missbrukas för att attackera kritisk infrastruktur. Istället gav företaget mer än 40 stora teknikpartners, inklusive Apple, Amazon, Microsoft och Google, tillgång till modellen för att hitta och åtgärda säkerhetsbrister i programvaran.
Denna allians, kallad Project Glasswing, inkluderar hårdvaruleverantörer som Cisco och Broadcom, tillsammans med Linux Foundation, en organisation som underhåller mycket av den viktiga programvaran med öppen källkod. Anthropic har lovat att bidra med upp till 100 miljoner dollar i Claude-baserade krediter till denna insats.
Ny AI-supermodell
Det som gör Claude Mythos Preview särskilt oroande är dess förmåga att automatiskt upptäcka zero-day-sårbarheter – programvarufel som även utvecklarna inte känner till. Tidigare upptäcktes den här typen av sårbarheter vanligtvis efter månader av forskning av ledande säkerhetsexperter. Anthropics senaste AI-modell kan dock göra detta i stor skala, automatiskt och kontinuerligt.
![]() |
Claude Mythos chockerade cybersäkerhetsgemenskapen. Foto: Bloomberg . |
Enligt Anthropic upptäckte Claude Mythos tusentals brister i populära operativsystem och webbläsare. En av dem var en sårbarhet som hade funnits i 27 år i OpenBSD, ett operativsystem med öppen källkod som är specifikt utformat för säkerhet och integrerat i många routrar. En annan sårbarhet fanns i en populär videoprogramvara som automatiserade skanningar hade misslyckats med att upptäcka 5 miljoner gånger.
”Claude Mythos-modellen hittade sårbarheter som säkerhetsforskare hade förbisett i årtionden”, säger Logan Graham, chef för modellens sårbarhetstestteam på Anthropic.
Elia Zaitsev, teknisk chef på CrowdStrike, anser att den här modellen utgör en global cybersäkerhetsrisk.
"Saker som brukade ta månader tar nu bara minuter tack vare AI", sa Zaitsev. Han varnade också för att konkurrenter skulle försöka utnyttja liknande funktioner tack vare Claude Mythos.
Potentiella risker
Nikesh Arora, VD för Palo Alto Networks, beskrev Claude Mythos som ett oförutsägbart hot.
"Tänk dig att det är som en svärm av agenter som konstant och noggrant katalogiserar varje svaghet i din tekniska infrastruktur", observerade Nikesh Arora.
Jared Kaplan, vetenskaplig chef på Anthropic, förklarar att Claude Mythos säkerhetsfunktioner inte är ett resultat av specialutbildning. Det är en naturlig konsekvens av modellens utmärkta programmeringsfärdigheter och förmåga att automatiskt korrigera fel över tid. Han förutspår att andra AI-modeller snart kommer att ha liknande funktioner, vilket trappar upp kapplöpningen mellan hackare och säkerhetsteam till en ny nivå.
![]() |
Claude Mythos kommer sannolikt inte att släppas i stor skala. Foto: Bloomberg . |
Beslutet att behålla säkerhetsmodellen har ett prejudikat från 2019, då OpenAI vägrade att släppa GPT-2 på grund av oro för att det kunde användas för att automatisera produktionen av desinformation. De som ledde GPT-2-projektet lämnade senare OpenAI och grundade Anthropic.
Detta tillkännagivande kommer dagen efter att Anthropic tillkännagav en förväntad årlig intäktstillväxt på mer än tre gånger under 2026, från 9 miljarder dollar till över 30 miljarder dollar . Mycket av denna tillväxt kommer från efterfrågan på Claude som programmeringsverktyg. Denna överlägsna kapacitet är det som gör det möjligt för modellen att hitta säkerhetsbrister på sätt som aldrig tidigare skådats.
Anthropic befinner sig i en mycket motsägelsefull position i det nuvarande AI-landskapet. Företaget kämpar för att utveckla kraftfulla system för att generera intäkter samtidigt som de ständigt måste varna för riskerna med just den teknik de skapar.
Källa: https://znews.vn/anthropic-lai-gay-chan-dong-post1641929.html









Kommentar (0)