![]() |
Das neue KI-Modell Anthropic ist in der Lage, jede Sicherheitslücke aufzuspüren. Foto: Bloomberg . |
Anthropic kündigte kürzlich ein neues KI-Modell namens Claude Mythos Preview an, verzichtete jedoch aufgrund von Bedenken hinsichtlich eines möglichen Missbrauchs für Angriffe auf kritische Infrastrukturen auf eine breite Veröffentlichung. Stattdessen gewährte das Unternehmen über 40 führenden Technologiepartnern, darunter Apple, Amazon, Microsoft und Google, Zugriff auf das Modell, um Sicherheitslücken in Software zu finden und zu beheben.
Diese Allianz, genannt Project Glasswing, umfasst Hardwarehersteller wie Cisco und Broadcom sowie die Linux Foundation, eine Organisation, die einen Großteil der wichtigen Open-Source-Software pflegt. Anthropic hat zugesagt, bis zu 100 Millionen US-Dollar in Form von Claude-basierten Credits für dieses Projekt bereitzustellen.
Neues KI-Supermodel
Besonders besorgniserregend an Claude Mythos Preview ist seine Fähigkeit, Zero-Day-Schwachstellen – Softwarefehler, die selbst den Entwicklern unbekannt sind – automatisch zu erkennen. Bisher wurden solche Schwachstellen typischerweise erst nach monatelanger Forschung führender Sicherheitsexperten entdeckt. Das neueste KI-Modell von Anthropic kann dies jedoch in großem Umfang, automatisch und kontinuierlich leisten.
![]() |
Claude Mythos verblüffte die Cybersicherheitsgemeinschaft. Foto: Bloomberg . |
Laut Anthropic entdeckte Claude Mythos Tausende von Sicherheitslücken in gängigen Betriebssystemen und Browsern. Eine davon war eine Schwachstelle in OpenBSD, einem Open-Source-Betriebssystem, das speziell für Sicherheit entwickelt wurde und in viele Router integriert ist. Sie bestand bereits seit 27 Jahren. Eine weitere Schwachstelle befand sich in einer beliebten Videosoftware und wurde von automatisierten Scans fünf Millionen Mal nicht erkannt.
„Das Claude-Mythos-Modell hat Schwachstellen aufgedeckt, die Sicherheitsforscher jahrzehntelang übersehen hatten“, sagte Logan Graham, Leiter des Teams für Schwachstellentests des Modells bei Anthropic.
Elia Zaitsev, Chief Technology Officer von CrowdStrike, ist der Ansicht, dass dieses Modell ein globales Cybersicherheitsrisiko darstellt.
„Was früher Monate dauerte, ist dank KI jetzt in Minuten erledigt“, sagte Zaitsev. Er warnte außerdem davor, dass Konkurrenten versuchen würden, ähnliche Fähigkeiten dank Claude Mythos auszunutzen.
Mögliche Risiken
Nikesh Arora, CEO von Palo Alto Networks, bezeichnete Claude Mythos als eine unberechenbare Bedrohung.
„Stellen Sie sich das wie einen Schwarm von Agenten vor, die ständig und akribisch jede Schwachstelle Ihrer technologischen Infrastruktur katalogisieren“, bemerkte Nikesh Arora.
Jared Kaplan, wissenschaftlicher Leiter von Anthropic, erklärt, dass die Sicherheitsfähigkeiten von Claude Mythos nicht auf speziellem Training beruhen. Sie sind vielmehr eine natürliche Folge der exzellenten Programmierkenntnisse des Modells und seiner Fähigkeit, Fehler im Laufe der Zeit automatisch zu korrigieren. Er prognostiziert, dass andere KI-Modelle bald über ähnliche Fähigkeiten verfügen werden, wodurch der Wettlauf zwischen Hackern und Sicherheitsteams auf eine neue Ebene gehoben wird.
![]() |
Claude Mythos wird voraussichtlich nicht in großem Umfang veröffentlicht. Foto: Bloomberg . |
Die Entscheidung, das Sicherheitsmodell beizubehalten, hat einen Präzedenzfall aus dem Jahr 2019, als OpenAI die Veröffentlichung von GPT-2 verweigerte, da Bedenken bestanden, es könne zur automatisierten Verbreitung von Desinformation missbraucht werden. Die Verantwortlichen des GPT-2-Projekts verließen später OpenAI und gründeten Anthropic.
Diese Ankündigung erfolgt einen Tag, nachdem Anthropic ein prognostiziertes jährliches Umsatzwachstum von mehr als einer Verdreifachung im Jahr 2026 bekannt gegeben hat – von 9 Milliarden US-Dollar auf über 30 Milliarden US-Dollar . Ein Großteil dieses Wachstums ist auf die Nachfrage nach Claude als Programmierwerkzeug zurückzuführen. Dank dieser überlegenen Leistungsfähigkeit kann das Modell Sicherheitslücken auf bisher unbekannte Weise aufspüren.
Anthropic befindet sich in einer sehr widersprüchlichen Lage im aktuellen KI-Umfeld. Das Unternehmen arbeitet mit Hochdruck an der Entwicklung leistungsstarker Systeme zur Umsatzgenerierung und muss gleichzeitig ständig vor den Risiken ebendieser Technologie warnen.
Quelle: https://znews.vn/anthropic-lai-gay-chan-dong-post1641929.html









Kommentar (0)