Das von US-Forschern entwickelte KI-Modell (künstliche Intelligenz) s1 soll Betriebskosten von nur 50 US-Dollar verursachen, bietet aber die gleichen Argumentationsfähigkeiten wie das deutlich teurere Modell o1 von OpenAI. Das Erscheinen von s1 folgt auf den beeindruckenden Erfolg von DeepSeek, das in den letzten Tagen im Silicon Valley für Aufsehen gesorgt hat.
Der Krieg um „billige KI“ heizt sich seit dem Aufkommen von DeepSeek auf
Das Team hat den S1-Quellcode sowie den Code und die Daten, die zum Erstellen des Modells verwendet wurden, auf GitHub veröffentlicht. Ein letzte Woche veröffentlichtes Dokument erläutert den Entwicklungsprozess des Modells und hebt die cleveren Techniken hervor, die dabei zum Einsatz kamen. Anstatt mit einem neuen Denkmodell von Grund auf neu zu beginnen, verwendete das Team ein bestehendes Sprachmodell und führte einen „Feintuning“-Prozess durch, indem es die Denkfähigkeiten aus Googles experimentellem Modell „Gemini 2.0 Flash Thinking“ extrahierte.
Betriebskosten für KI knapp unter 50 US-Dollar
Das Training des S1-Modells dauerte mit 16 Nvidia H100 GPUs nur 30 Minuten. Obwohl jede GPU rund 25.000 US-Dollar kostet, lagen die Mietkosten dank Cloud-Computing-Diensten unter 50 US-Dollar. Insbesondere entdeckte das Team einen nützlichen Trick: Es wies das Modell an, vor der endgültigen Antwort zu „warten“, was seine Argumentation verbesserte und zu besseren Lösungen führte.
Obwohl das S1 bei geringen Kosten deutliche Fortschritte erzielt hat, bestehen Bedenken hinsichtlich seiner Skalierbarkeit. Die Nutzung des Google-Modells als „Lehrer“ wirft Fragen hinsichtlich seiner Wettbewerbsfähigkeit mit den führenden KI-Modellen von heute auf. Google wird die Situation wahrscheinlich genau beobachten, insbesondere angesichts des laufenden Rechtsstreits zwischen OpenAI und DeepSeek.
[Anzeige_2]
Quelle: https://thanhnien.vn/my-tao-ra-mo-hinh-ai-sieu-re-hoat-dong-tuong-tu-gpt-o1-185250207182535164.htm
Kommentar (0)