Vietnam.vn - Nền tảng quảng bá Việt Nam

Laget Huawei en AI-brikke som er 1000 ganger raskere enn Nvidia?

Sannheten om «virtualiseringsteknologi» som hjelper Huawei med å lage simulerte AI-brikker med en ufattelig hastighet.

Báo Khoa học và Đời sốngBáo Khoa học và Đời sống02/12/2025

Ettersom amerikanske sanksjoner har dempet tørsten etter halvlederbrikker av høy kvalitet, har Huawei nettopp gjort et sjokkerende trekk i teknologiverdenen. Den kinesiske giganten hevder at den nye programvaren deres kan lage en «simulert AI-brikke» med behandlingshastigheter 1000 ganger raskere enn den voldsomme rivalen Nvidia.

Huawei introduserte nylig offisielt Flex:ai, et åpen kildekode-orkestreringsverktøy designet for å optimalisere kapasiteten til store dataklynger grundig.

Lansering av Flex:ai-orkestreringsverktøyet for superdataklynger.

Flex:ai er bygget på Kubernetes og utgitt gjennom ModelEngine-fellesskapet, og er mer enn bare et administrasjonsverktøy.

Det blir sett på som en presserende løsning på Kinas nåværende strategi om å «bruke programvare for å kompensere for maskinvare».

Huaweis mest bemerkelsesverdige påstand er at de kan «lage en simulert AI-brikke som er 1000 ganger raskere enn Nvidias.» Selv om de ikke har gitt ut de tekniske detaljene bak dette enorme tallet, hevder Huawei at Flex:ai øker den gjennomsnittlige utnyttelsen av AI-brikker med omtrent 30 % når det gjelder praktisk effektivitet.

I stedet for å la akseleratorer (GPU/NPU) kjøre separat og sløse med ressurser, bruker Flex:ai en smart virtualiseringsmekanisme. Dette verktøyet «deler» fysiske GPU- eller NPU-kort inn i flere virtuelle databehandlingsinstanser.

Har de emulerte brikkene den hastigheten som Huawei hevder?

For små oppgaver: Flex:ai stabler dem for å maksimere ressurskapasiteten. For massive AI-modeller: Det lar arbeidsbelastninger spres over flere kort, og overvinner dermed de fysiske begrensningene til én enkelt enhet.

Hjertet i systemet er «Hi Scheduler» – som kan sende ut inaktive ressurser i sanntid, og dermed sikre at ingen datakraft går tapt mens AI-oppgaver står i kø.

Ambisjon om å forene heterogene chipsystemer

Den store forskjellen mellom Flex:ai og eksisterende løsninger er krysskompatibilitet. Mens verktøy som Run:ai (kjøpt opp av Nvidia i 2024) fokuserer på Nvidia-økosystemet, har Flex:ai som mål å forene ulike typer maskinvare. Den har sterk støtte for Huaweis hjemmelagde Ascend-brikker sammen med andre standard GPU-er.

Verktøyet ble utviklet med bidrag fra forskere ved Shanghai Jiaotong University, Xi'an Jiaotong University og Xiamen University (Kina).

Foreløpig har ikke Huawei gitt ut kildekoden og spesifikke testresultater. Eksperter reiser store spørsmål om hvorvidt Flex:ai virkelig er kompatibel med populære GPU-er uten problemer gjennom standard plugins? Og er tallet «1000 ganger raskere» et reelt gjennombrudd eller bare en markedsføringssammenligning i et emulatormiljø? Svaret vil være tilgjengelig når Flex:ai offisielt er tilgjengelig for programmeringsmiljøet.

Hvordan Huawei bryter fysiske grenser for å akselerere AI-prosessering.
36 KR.ECS
Lenke til originalt innlegg Kopier lenke
https://eu.36kr.com/en/p/3568501130460297

Kilde: https://khoahocdoisong.vn/phai-chang-huawei-tao-ra-chip-ai-mo-phong-nhanh-hon-1000-lan-nvidia-post2149072921.html


Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

I samme kategori

Notre Dame-katedralen i Ho Chi Minh-byen er sterkt opplyst for å ønske julen 2025 velkommen
Hanoi-jenter «kler seg» vakkert ut til jul
Lysere etter stormen og flommen håper Tet-krysantemumlandsbyen i Gia Lai at det ikke blir strømbrudd for å redde plantene.
Hovedstaden for gul aprikos i den sentrale regionen led store tap etter doble naturkatastrofer

Av samme forfatter

Arv

Figur

Forretninger

Pho-bolle med «flygende» 100 000 VND skaper kontrovers, fortsatt overfylt med kunder

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt