엔비디아는 12월 3일에 새로운 인공지능(AI) 서버가 중국의 인기 모델을 포함한 고급 AI 모델의 성능을 이전 세대 서버에 비해 최대 10배까지 향상시킬 수 있다는 것을 보여주는 새로운 데이터를 공개했습니다.
AI 산업이 모델 학습(현재 엔비디아가 선도하고 있는 분야)에서 수백만 명의 사용자에게 모델을 배포하는 분야로 초점을 옮기고 있는 가운데, 이 데이터가 나왔습니다. 이 분야는 Advanced Micro Devices(AMD)와 Cerebras와 같은 경쟁업체와의 경쟁이 심화되고 있습니다.
엔비디아는 이러한 개선이 다수의 칩을 단일 서버에 집적하고 칩 간 고속 연결을 구현하는 능력에서 비롯되었다고 설명하며, 이 분야에서 엔비디아는 여전히 선두를 달리고 있으며 경쟁사 대비 확실한 우위를 유지하고 있다고 덧붙였습니다. 엔비디아의 최신 AI 서버에는 엔비디아의 최고급 칩 72개가 탑재되어 있습니다.
엔비디아가 공개한 데이터는 주로 MoE(전문가 혼합) 아키텍처를 사용하는 AI 모델에 초점을 맞춥니다. MoE 아키텍처는 작업을 여러 부분으로 나누고 모델 내의 서로 다른 "전문가"에게 할당하여 처리함으로써 AI 모델의 성능을 최적화하는 방법입니다.
MoE 아키텍처는 2025년에 인기를 얻었는데, 특히 중국 AI 회사인 DeepSeek이 다른 경쟁사보다 Nvidia 칩에서 학습 시간이 덜 걸리는 고성능 오픈소스 모델을 도입한 이후였습니다.
그 이후 ChatGPT 개발사인 OpenAI, 프랑스의 Mistral, 중국의 Moonshot AI 등 주요 기업들이 MoE 기법을 자사 모델에 적용하기 시작했습니다. Moonshot AI는 지난 7월 이 기법을 활용한 높은 평가를 받는 오픈소스 모델을 출시했습니다.
엔비디아가 AI 모델 구축에서 우위를 유지하는 한편, AMD와 같은 경쟁사들도 경쟁력 있는 제품을 개발하기 위해 노력하고 있습니다.
AMD는 내년에 많은 강력한 칩을 통합하여 유사한 AI 서버를 출시할 예정이며, 이를 통해 추론(모델 처리 및 배포) 분야에서 Nvidia의 서버와 직접 경쟁할 계획입니다.
출처: https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






댓글 (0)