Das von US-Forschern entwickelte KI-Modell (künstliche Intelligenz) s1 soll Betriebskosten von lediglich 50 US-Dollar verursachen, bietet aber Argumentationsfähigkeiten, die denen des deutlich teureren Modells o1 von OpenAI entsprechen. Das Erscheinen von s1 erfolgt nach dem beeindruckenden Erfolg von DeepSeek, das in den letzten Tagen im Silicon Valley für Aufsehen gesorgt hat.
Der Krieg um „billige KI“ wird seit dem Aufkommen von DeepSeek immer lebhafter
Das Team hat den Quellcode für s1 zusammen mit dem Code und den Daten, die zum Erstellen des Modells verwendet wurden, auf GitHub öffentlich gemacht. In einem letzte Woche veröffentlichten Artikel wurde der Entwicklungsprozess dieses Modells erläutert und die cleveren Techniken hervorgehoben, die dabei zum Einsatz kamen. Anstatt mit einem neuen Denkmodell von vorne zu beginnen, verwendete das Team ein vorhandenes Sprachmodell und führte einen „Feintuning“-Prozess durch, indem es Denkfähigkeiten aus Googles experimentellem Modell „Gemini 2.0 Flash Thinking“ destillierte.
Die Betriebskosten der KI liegen unter 50 US-Dollar
Das Training des S1-Modells dauerte mit 16 Nvidia H100-GPUs nur 30 Minuten. Während jede dieser GPUs rund 25.000 US-Dollar kostet, betragen die Mietkosten für diesen Prozess dank Cloud-Computing-Diensten weniger als 50 US-Dollar. Insbesondere entdeckte das Team einen nützlichen Trick: Es wies das Modell an, zu „warten“, bevor es eine endgültige Antwort gab. Dies verbesserte seine Argumentation und führte zu besseren Lösungen.
Obwohl S1 bei geringen Kosten erhebliche Erfolge erzielt, bestehen weiterhin Bedenken hinsichtlich der Skalierbarkeit dieses Modells. Die Verwendung des Google-Modells als „Lehrer“ wirft Fragen hinsichtlich der Fähigkeit des S1 auf, mit den führenden KI-Modellen von heute zu konkurrieren. Google wird die Situation wahrscheinlich genau beobachten, insbesondere angesichts des laufenden Rechtsstreits zwischen OpenAI und DeepSeek.
[Anzeige_2]
Quelle: https://thanhnien.vn/my-tao-ra-mo-hinh-ai-sieu-re-hoat-dong-tuong-tu-gpt-o1-185250207182535164.htm
Kommentar (0)