미국의 제재로 고품질 반도체 칩에 대한 갈증이 억눌리는 가운데, 화웨이는 기술계에 충격적인 행보를 보였습니다. 이 중국 거대 기업은 자사의 새로운 소프트웨어가 치열한 경쟁사인 엔비디아보다 1,000배 빠른 처리 속도를 가진 '인공지능 시뮬레이션 칩'을 개발할 수 있다고 주장합니다.
Huawei는 최근 대규모 컴퓨팅 클러스터의 용량을 철저히 최적화하도록 설계된 오픈소스 오케스트레이션 도구인 Flex:ai를 공식 출시했습니다.

슈퍼컴퓨팅 클러스터를 위한 Flex:ai 오케스트레이션 도구 출시.
Kubernetes를 기반으로 구축되고 ModelEngine 커뮤니티를 통해 출시된 Flex:ai는 단순한 관리 도구가 아닙니다.
이는 하드웨어를 보완하기 위해 소프트웨어를 활용한다는 중국의 현재 전략에 대한 시급한 해결책으로 여겨진다.
화웨이의 가장 주목할 만한 주장은 "엔비디아보다 1,000배 빠른 시뮬레이션 AI 칩을 만들 수 있다"는 것입니다. 이 엄청난 성능에 대한 기술적 세부 사항은 공개되지 않았지만, 화웨이는 Flex:ai가 실질적인 효율성 측면에서 AI 칩의 평균 활용도를 약 30% 증가시킨다고 주장합니다.
Flex:ai는 가속기(GPU/NPU)를 개별적으로 실행하여 리소스를 낭비하는 대신, 스마트 가상화 메커니즘을 사용합니다. 이 도구는 물리적인 GPU 또는 NPU 카드를 여러 개의 가상 컴퓨팅 인스턴스로 '분할'합니다.

에뮬레이션된 칩은 화웨이가 주장하는 속도를 가지고 있나요?
소규모 작업의 경우: Flex:ai는 작업들을 스택하여 리소스 여유 공간을 극대화합니다. 대규모 AI 모델의 경우: 여러 카드에 워크로드를 분산하여 단일 장치의 물리적 한계를 극복할 수 있습니다.
이 시스템의 핵심은 '하이 스케줄러'입니다. 이 기능은 유휴 리소스를 실시간으로 할당하여 AI 작업이 대기하는 동안 컴퓨팅 전력이 낭비되지 않도록 보장합니다.
이기종 칩 시스템 통합을 위한 야망
Flex:ai와 기존 솔루션의 가장 큰 차이점은 교차 호환성입니다. Run:ai(2024년 엔비디아에 인수됨)와 같은 툴이 엔비디아 생태계에 초점을 맞춘 반면, Flex:ai는 다양한 유형의 하드웨어를 통합하는 것을 목표로 합니다. Flex:ai는 다른 표준 GPU와 함께 화웨이 자체 개발 Ascend 칩을 강력하게 지원합니다.
이 도구는 상하이 교통대학, 시안 교통대학, 샤먼 대학(중국)의 연구자들의 기여로 개발되었습니다.
현재 화웨이는 소스 코드와 구체적인 테스트 결과를 공개하지 않았습니다. 전문가들은 Flex:ai가 표준 플러그인을 통해 널리 사용되는 GPU와 원활하게 호환되는지에 대해 큰 의문을 제기하고 있습니다. 그리고 '1,000배 더 빠르다'는 수치는 진정한 혁신일까요, 아니면 에뮬레이터 환경에서의 마케팅 비교일까요? Flex:ai가 프로그래밍 커뮤니티에 공식적으로 공개되면 그 답을 알 수 있을 것입니다.
출처: https://khoahocdoisong.vn/phai-chang-huawei-tao-ra-chip-ai-mo-phong-nhanh-hon-1000-lan-nvidia-post2149072921.html






댓글 (0)