Das Dokument „Frontier AI Framework“ identifiziert zwei Arten von KI-Systemen, die Meta nicht veröffentlichen möchte: „mit hohem Risiko“ und „mit schwerwiegendem Risiko“. Dies zeigt, dass der Mutterkonzern Facebook der KI-Technologie gegenüber zurückhaltender ist.

Zuvor hatte CEO Mark Zuckerberg versprochen, künstliche allgemeine Intelligenz (AGI) alltäglich zu machen.

Deepseek Techcrunch
Meta identifiziert zwei Arten von KI-Systemen, die möglicherweise nicht veröffentlicht werden, weil sie zu riskant sind. Foto: TechCrunch

Gemäß der Definition von Meta können sowohl Systeme mit „hohem Risiko“ als auch Systeme mit „schwerem Risiko“ Cyberangriffe sowie biologische und chemische Angriffe unterstützen. Der Unterschied besteht jedoch darin, dass Systeme mit „schwerem Risiko“ zu „absolut katastrophalen Folgen“ führen.

Meta schlägt eine Reihe von Szenarien vor, etwa das automatische Infiltrieren einer gut geschützten Unternehmensumgebung oder die Verbreitung einer hochwirksamen biologischen Waffe.

Dies sind die „dringendsten“ Szenarien, die nach Ansicht des Unternehmens mit der Veröffentlichung eines leistungsstarken KI-Systems eintreten könnten.

Die Systemklassifizierung basiert nicht auf empirischen Tests, sondern auf dem Input interner und externer Experten.

Wenn ein System als „hohes Risiko“ eingestuft wird, beschränkt Meta den Zugriff auf das System intern und startet es erst, wenn Minderungsmaßnahmen vorhanden sind, um das Risiko auf ein moderates Niveau zu reduzieren.

Wenn ein System hingegen als „kritisches Risiko“ eingestuft wird, ergreift Meta nicht näher spezifizierte Schutzmaßnahmen, um eine Gefährdung des Systems zu verhindern und stoppt die Entwicklung, bis die Gefahr geringer wird.

Laut TechCrunch soll das Frontier AI Framework offenbar die Kritik an Metas offenem Ansatz bei der Systementwicklung zerstreuen.

Meta veröffentlicht den Quellcode seiner KI-Technologie häufig öffentlich, anstatt ihn wie OpenAI zu verschließen. Für Unternehmen hat der offene Ansatz sowohl Vor- als auch Nachteile. Das KI-Modell Llama des Unternehmens wurde Hunderte Millionen Mal heruntergeladen, doch Llama soll auch dazu missbraucht worden sein, einen den USA feindlich gesinnten Chatbot zu entwickeln.

Mit der Ankündigung des Frontier AI Framework zielt Meta möglicherweise auf DeepSeek ab, das derzeit bekannteste chinesische KI-Startup. DeepSeek verfolgt ebenfalls eine Open-Source-KI-Strategie, verfügt jedoch nicht über viele Sicherheitsvorkehrungen und kann leicht so angepasst werden, dass schädliche Ausgaben erzeugt werden.

Laut Meta kann die Technologie der Gesellschaft auf eine Weise dienen, die sowohl den Nutzen als auch das Risiko auf einem angemessenen Niveau hält, wenn man bei Entscheidungen über die Entwicklung und Anwendung fortschrittlicher KI die Vor- und Nachteile abwägt.

(Laut TechCrunch)