Da die Nachfrage nach hochwertigen Halbleiterchips durch US-Sanktionen stark eingeschränkt ist, hat Huawei nun einen überraschenden Schritt in der Technologiewelt gewagt. Der chinesische Konzern behauptet, seine neue Software könne einen „simulierten KI-Chip“ erzeugen, dessen Verarbeitungsgeschwindigkeit 1.000-mal höher sei als die des Konkurrenten Nvidia.
Huawei hat kürzlich offiziell Flex:ai vorgestellt, ein Open-Source-Orchestrierungstool, das die Kapazität von groß angelegten Rechenclustern umfassend optimieren soll.

Einführung des Flex:ai-Orchestrierungstools für Supercomputercluster.
Flex:ai basiert auf Kubernetes und wird über die ModelEngine-Community veröffentlicht. Es ist mehr als nur ein Management-Tool.
Es wird als dringende Lösung für Chinas aktuelle Strategie angesehen, „Hardware durch Software zu kompensieren“.
Huaweis bemerkenswerteste Behauptung ist, dass es „einen simulierten KI-Chip entwickeln kann, der 1.000 Mal schneller ist als der von Nvidia“. Zwar hat das Unternehmen die technischen Details hinter dieser enormen Zahl nicht veröffentlicht, doch in puncto praktischer Effizienz behauptet Huawei, dass Flex:ai die durchschnittliche Auslastung von KI-Chips um etwa 30 % steigert.
Anstatt Beschleuniger (GPU/NPU) separat laufen zu lassen und dadurch Ressourcen zu verschwenden, nutzt Flex:ai einen intelligenten Virtualisierungsmechanismus. Dieses Tool unterteilt physische GPU- oder NPU-Karten in mehrere virtuelle Recheninstanzen.

Erreichen die emulierten Chips die von Huawei angegebene Geschwindigkeit?
Für kleinere Aufgaben: Flex:ai stapelt diese, um die verfügbaren Ressourcen optimal zu nutzen. Für umfangreiche KI-Modelle: Es ermöglicht die Verteilung von Arbeitslasten auf mehrere Karten und überwindet so die physikalischen Grenzen eines einzelnen Geräts.
Das Herzstück des Systems ist der „Hi Scheduler“ – er ist in der Lage, ungenutzte Ressourcen in Echtzeit zuzuweisen und so sicherzustellen, dass keine Rechenleistung verschwendet wird, während KI-Aufgaben in der Warteschlange stehen.
Zielsetzung zur Vereinheitlichung heterogener Chipsysteme
Der größte Unterschied zwischen Flex:ai und bestehenden Lösungen liegt in der plattformübergreifenden Kompatibilität. Während Tools wie Run:ai (2024 von Nvidia übernommen) auf das Nvidia-Ökosystem ausgerichtet sind, zielt Flex:ai darauf ab, verschiedene Hardwaretypen zu integrieren. Es bietet umfassende Unterstützung für Huaweis hauseigene Ascend-Chips sowie für andere Standard-GPUs.
Das Tool wurde unter Mitwirkung von Forschern der Shanghai Jiaotong University, der Xi'an Jiaotong University und der Xiamen University (China) entwickelt.
Huawei hat bisher weder den Quellcode noch konkrete Testergebnisse veröffentlicht. Experten stellen daher die Frage, ob Flex:ai tatsächlich reibungslos mit gängigen GPUs über Standard-Plugins kompatibel ist. Und ist die Angabe „1.000-mal schneller“ ein echter Durchbruch oder lediglich ein Marketing-Vergleich in einer Emulatorumgebung? Die Antwort darauf wird sich zeigen, sobald Flex:ai offiziell für die Programmierer-Community verfügbar ist.
Quelle: https://khoahocdoisong.vn/phai-chang-huawei-tao-ra-chip-ai-mo-phong-nhanh-hon-1000-lan-nvidia-post2149072921.html






Kommentar (0)