Com a demanda por chips semicondutores de alta qualidade sendo sufocada pelas sanções dos EUA, a Huawei acaba de dar um passo surpreendente no mundo da tecnologia. A gigante chinesa afirma que seu novo software pode criar um "chip de IA simulado" com velocidades de processamento 1.000 vezes maiores que as de sua rival Nvidia.
A Huawei apresentou recentemente o Flex:ai, uma ferramenta de orquestração de código aberto projetada para otimizar completamente a capacidade de clusters de computação de grande escala.

Lançamento da ferramenta de orquestração Flex:ai para clusters de supercomputadores.
Construído sobre o Kubernetes e lançado pela comunidade ModelEngine, o Flex:ai é mais do que apenas uma ferramenta de gerenciamento.
É vista como uma solução urgente para a estratégia atual da China de "usar software para compensar a falta de hardware".
A alegação mais notável da Huawei é que ela pode "criar um chip de IA simulado que é 1.000 vezes mais rápido que o da Nvidia". Embora não tenha divulgado os detalhes técnicos por trás desse número impressionante, em termos de eficiência prática, a Huawei afirma que o Flex:ai aumenta a utilização média dos chips de IA em cerca de 30%.
Em vez de permitir que aceleradores (GPU/NPU) funcionem separadamente e desperdicem recursos, o Flex:ai utiliza um mecanismo de virtualização inteligente. Essa ferramenta "fatia" as placas físicas de GPU ou NPU em múltiplas instâncias de computação virtuais.

Os chips emulados possuem a velocidade que a Huawei alega?
Para tarefas pequenas: o Flex:ai as empilha para maximizar a disponibilidade de recursos. Para modelos de IA complexos: ele permite que as cargas de trabalho sejam distribuídas por várias placas, superando as limitações físicas de um único dispositivo.
O núcleo do sistema é o 'Hi Scheduler' - capaz de alocar recursos ociosos em tempo real, garantindo que nenhum poder computacional seja desperdiçado enquanto as tarefas de IA aguardam na fila.
A ambição de unificar sistemas de chips heterogêneos
A grande diferença entre o Flex:ai e as soluções existentes é a compatibilidade entre plataformas. Enquanto ferramentas como o Run:ai (adquirido pela Nvidia em 2024) focam no ecossistema da Nvidia, o Flex:ai visa unificar diferentes tipos de hardware. Ele oferece forte suporte aos chips Ascend da Huawei, além de outras GPUs padrão.
A ferramenta foi desenvolvida com a contribuição de pesquisadores da Universidade Jiaotong de Xangai, da Universidade Jiaotong de Xi'an e da Universidade de Xiamen (China).
Atualmente, a Huawei ainda não divulgou o código-fonte nem os resultados específicos dos testes. Especialistas questionam se o Flex:ai é realmente compatível com GPUs populares sem problemas por meio de plugins padrão. E será que a afirmação de "1.000 vezes mais rápido" representa um avanço real ou apenas uma comparação de marketing em um ambiente de emulador? A resposta virá quando o Flex:ai for oficialmente disponibilizado para a comunidade de programadores.
Fonte: https://khoahocdoisong.vn/phai-chang-huawei-tao-ra-chip-ai-mo-phong-nhanh-hon-1000-lan-nvidia-post2149072921.html






Comentário (0)