
데이터센터 내에 AI 전용 인프라를 구축하세요.
정부와 대규모 조직들이 인공지능(AI) 프로젝트를 확대함에 따라, 데이터 주권 및 규제 준수와 관련된 특정 요구 사항을 충족하기 위해 "AI 공장"이라는 개념으로 눈을 돌리는 사례가 늘고 있습니다.
하지만 고성능 AI 공장을 구축하려면 관리 프로세스, 데이터베이스, 스토리지 및 보안을 포괄하는 종합적인 시스템이 필요하며, 이러한 복잡성 때문에 고객들이 스스로 이를 감당하려 하지 않습니다.
엄격한 규제를 받는 분야와 공공 부문의 조직들은 대규모 프로젝트를 배포할 때 AI 인프라 구축에 상당한 어려움을 겪습니다. 자체 AI 역량을 구축하려면 GPU, 데이터 센터, 에너지에 대한 막대한 투자는 물론, 복잡한 조달 프로세스를 거쳐 각 사용 사례에 맞는 적절한 모델을 선택하고 여러 AI 공급업체의 라이선스를 취득해야 합니다.
이러한 모든 요인으로 인해 구현 프로세스가 수년간 지연되고, 운영 복잡성이 증가하며, 조직이 핵심 사업 목표에서 벗어나게 됩니다.
이러한 문제를 해결하기 위해 AWS는 12월 11일 기업과 정부에 고객 데이터 센터 내에 전용 AI 인프라를 제공하고 고객만을 위해 운영하는 새로운 서비스인 AWS AI 팩토리를 출시했습니다.
AWS AI 팩토리는 최첨단 NVIDIA AI 컴퓨팅 기술부터 Trainium 칩에 이르기까지 고급 AI 가속 도구를 통합하고, 고속 저지연 네트워킹 기능, 고성능 스토리지 및 데이터베이스, 포괄적인 보안, 에너지 효율적인 인프라, 그리고 Amazon Bedrock 및 SageMaker AI와 같은 강력한 AWS AI 서비스를 결합합니다.
그 결과, 고객은 AI 애플리케이션을 신속하게 개발 및 배포하여 성능을 최적화하고 특정 비즈니스 요구 사항을 충족할 수 있습니다.
AWS AI 팩토리는 별도의 AWS 리전으로 운영되어 컴퓨팅, 스토리지, 데이터베이스 및 AI 서비스에 안전하고 지연 시간이 짧은 액세스를 제공합니다. 이러한 접근 방식을 통해 사용 가능한 데이터 센터 공간과 성능을 활용하는 동시에 최첨단 AI 칩을 사용한 학습 및 추론부터 AI 모델 구축, 학습 및 배포 도구에 이르기까지 AWS AI 인프라 및 서비스 전체에 액세스할 수 있습니다.
또한, 관리형 서비스는 개별 공급업체와 별도의 계약을 체결할 필요 없이 주요 기반 모델에 대한 접근을 제공하는 동시에 고객이 데이터 처리 및 저장 위치와 관련된 보안, 데이터 주권 및 규정 준수 요구 사항을 완벽하게 충족할 수 있도록 지원합니다.
AWS는 클라우드 컴퓨팅 분야에서 거의 20년간 선도적인 위치를 차지하고 대규모 AI 시스템 설계에 대한 탁월한 경험을 바탕으로, 대부분의 조직이 자체적으로 구축하는 것보다 훨씬 빠르게 안전하고 안정적인 AI 인프라를 배포하여 수년간의 노력과 운영 복잡성을 크게 줄일 수 있습니다.
AWS와 NVIDIA의 15년 파트너십
AWS와 NVIDIA의 관계는 AWS가 세계 최초의 GPU 클라우드를 출시했던 15년 전으로 거슬러 올라갑니다. 그 이후로 AWS는 고객에게 가장 다양한 GPU 솔루션 포트폴리오를 제공해 왔습니다.
AWS와 NVIDIA는 오랜 파트너십을 바탕으로 첨단 AI 인프라를 제공하며, 고객이 자체 데이터 센터 내에서 그 어느 곳보다 빠르고 효율적이며 안전하게 대규모 언어 모델을 구축하고 실행할 수 있도록 지원합니다.
NVIDIA-AWS AI 팩토리 통합을 통해 AWS 고객은 NVIDIA의 가속 컴퓨팅 플랫폼, 포괄적인 AI 소프트웨어 제품군, 그리고 수천 개의 GPU 가속 애플리케이션에 원활하게 액세스할 수 있게 되어 차세대 AI 솔루션 개발을 위한 탁월한 성능, 높은 효율성, 그리고 유연한 확장성을 확보할 수 있습니다.
양측은 AWS Nitro System, 페타비트급 Elastic Fabric Adapter(EFA) 네트워킹, 그리고 최신 NVIDIA Grace Blackwell 및 차세대 NVIDIA Vera Rubin 플랫폼을 지원하는 Amazon EC2 UltraClusters 등 최첨단 기술을 지속적으로 결합하고 있습니다.
향후 AWS는 차세대 Trainium4 및 Graviton 칩과 Nitro Systems에 NVIDIA NVLink Fusion 고속 칩 연결 기술 지원을 추가할 예정입니다. 이러한 통합을 통해 고객은 제품 출시 기간을 단축하면서 탁월한 성능을 구현할 수 있습니다.
NVIDIA의 하이퍼스케일 및 HPC 컴퓨팅 부문 부사장 겸 총괄 매니저인 이안 벅은 다음과 같이 말했습니다. "대규모 AI 구현에는 고급 GPU 및 네트워킹 인프라부터 데이터 센터의 모든 계층을 최적화하는 소프트웨어 및 서비스에 이르기까지 전체적인 접근 방식이 필요합니다. AWS와 협력하여 이러한 모든 요소를 고객 환경에 직접 제공합니다."
"AWS AI 팩토리는 NVIDIA의 최신 Grace Blackwell 및 Vera Rubin 아키텍처를 AWS의 안전하고 고성능 인프라 및 포괄적인 AI 소프트웨어 제품군과 결합하여 조직이 통합에 대한 걱정 없이 혁신에만 집중하면서 강력한 AI 기능을 훨씬 짧은 시간 안에 배포할 수 있도록 지원합니다."라고 Ian Buck은 말했습니다.
공공 부문의 인공지능 도입 가속화를 지원합니다.
AWS AI 팩토리는 AWS의 가장 엄격한 보안 표준을 충족하도록 설계되어 정부 고객이 모든 등급(미분류, 민감, 기밀 및 극비)에서 민감한 워크로드를 안심하고 실행할 수 있도록 지원합니다.
동시에 AWS AI 팩토리는 전 세계 정부에 경제 성장을 촉진하고 AI 기술의 이점을 극대화하는 데 필요한 준비성, 신뢰성, 보안 및 제어 기능을 제공합니다.
AWS와 NVIDIA는 포괄적인 AI 역량 개발을 전문으로 하는 사우디아라비아 기반의 글로벌 기업인 HUMAIN과 전략적 파트너십을 맺었습니다.
이번 협력의 일환으로 AWS는 사우디아라비아에 최초의 선구적인 "AI 존"을 구축할 예정이며, 이 존은 GB300 GPU를 포함한 최대 15만 개의 AI 칩, AWS의 전용 AI 인프라 및 AWS AI 서비스를 모두 HUMAIN이 맞춤 설계한 데이터 센터에 배포할 것입니다.
휴메인(HUMAIN)의 CEO인 타렉 아민(Tareq Amin)은 “AWS가 새로운 AI 존에 구축하고 있는 AI 팩토리는 휴메인과 AWS에게 있어 수 기가와트 규모의 여정의 시작을 의미합니다. 이 인프라는 처음부터 국내외에서 급증하는 AI 컴퓨팅 수요를 충족하도록 설계되었습니다.”라고 밝혔습니다.
"글로벌 시장 확장에 대한 공동의 노력을 통해 우리는 전 세계적으로 AI 아이디어가 구축, 배포 및 확장되는 방식을 형성할 생태계를 만들어가고 있습니다."라고 타렉 아민은 덧붙였습니다.
출처: https://nhandan.vn/nha-may-tri-tue-nhan-tao-aws-nang-cao-hieu-nang-ha-tang-ai-trong-trung-tam-du-lieu-post929637.html






댓글 (0)