HPE·엔비디아, AI 인프라 운영 경쟁 본격화…차세대 AI 팩토리·슈퍼컴 공개
컨텐츠 정보
- 조회 95
본문
HPE의 액체 냉각과 엔비디아 가속 컴퓨팅이 결합되면서, AI 데이터센터는 성능뿐 아니라 ‘에너지 효율 경쟁’의 무대로 확장되고 있다.
휴렛팩커드 엔터프라이즈(HPE)가 엔비디아와 협력해 대규모 AI 인프라와 슈퍼컴퓨팅 환경을 위한 통합 AI 컴퓨팅 포트폴리오의 주요 업데이트를 발표했다. AI 구축과 확장을 단순화하고, 데이터 분석과 인사이트 도출 속도를 높이는 데 초점을 맞춘 개편이다.
양사가 공동 설계한 풀스택 AI 인프라는 컴퓨팅, GPU, 네트워크, 액체 냉각, 소프트웨어를 통합한 형태로, 대규모 데이터센터와 국가 단위(소버린) 환경에 최적화됐다. 아르곤 국립연구소, HLRS, 허드슨리버트레이딩, 한국과학기술정보연구원(KISTI) 등 주요 기관과 기업이 해당 플랫폼을 도입했다.
슈퍼컴퓨팅 플랫폼에 AI 통합 가속
HPE는 AI와 고성능컴퓨팅(HPC)을 결합한 2세대 엑사스케일급 시스템 ‘HPE 크레이 슈퍼컴퓨팅 GX5000’에 엔비디아 기술을 적용했다.
우선, 엔비디아의 차세대 CPU 기반 컴퓨트 블레이드를 업계 최초로 도입했다. GX240 블레이드는 최대 16개의 베라 CPU를 탑재하며, 랙 단위로 최대 640개 CPU까지 확장 가능하다. 고집적 설계를 통해 대규모 AI 워크로드 처리에 적합하다.
네트워크 측면에서는 초당 800Gb 속도를 지원하는 ‘퀀텀-X800 인피니밴드’를 선택할 수 있다. 144포트 구성과 전력 최적화 기능을 통해 대규모 시스템에서 성능과 효율을 동시에 확보하도록 했다.
‘HPE AI 팩토리’ 포트폴리오 확대
HPE는 엔비디아 차세대 플랫폼을 기반으로 AI 인프라 제품군도 강화했다.
대표적으로 ‘베라 루빈 NVL72’ 랙 스케일 시스템은 수조 개 매개변수 모델 학습을 겨냥한 대형 AI 시스템이다. CPU, GPU, 고속 인터커넥트, 데이터 처리 장치를 통합해 초대형 AI 학습 환경을 지원한다.
또한 ‘컴퓨트 XD700’은 GPU 집적도를 높인 AI 서버로, 랙당 최대 128개의 GPU를 구성할 수 있다. 기존 대비 공간과 전력 효율을 개선하면서 학습·추론 성능을 끌어올렸다.
이와 함께 ‘RTX 프로 6000 블랙웰 서버용 GPU’를 포트폴리오 전반에 적용해 AI 워크로드 대응 범위를 확대했다.
멀티테넌시·운영 자동화 기능 강화
소프트웨어 측면에서도 AI 인프라 운영 효율성을 높였다.
HPE는 GPU 자원을 분할 활용할 수 있는 멀티 인스턴스 GPU 기반 멀티테넌시를 지원해, 서비스 사업자가 다양한 고객 요구에 맞는 인프라를 구성할 수 있도록 했다. 수세 가상화 및 쿠버네티스 환경과 연계해 VM과 컨테이너 기반 운영을 모두 지원한다.
레드햇 엔터프라이즈 리눅스 및 오픈시프트와의 통합도 제공해 기업 환경에서의 호환성을 높였다.
또한 엔비디아 ‘미션 컨트롤’을 통해 AI 워크로드 오케스트레이션, 모니터링, 장애 복구까지 통합 관리할 수 있도록 했다.
AI 인프라 시장 공략 가속
이번 협력은 AI 인프라 경쟁의 축이 ‘연산 성능’에서 ‘통합 운영 역량’으로 이동하고 있음을 보여준다. 초대형 모델 학습과 HPC 워크로드가 결합되면서, 데이터센터 단위에서 이를 안정적으로 운영할 수 있는 아키텍처가 핵심 경쟁력으로 떠오르고 있다.
HPE와 엔비디아는 하드웨어부터 소프트웨어까지 통합된 구조를 앞세워, 빠르게 성장하는 AI 인프라 시장 주도권 확보에 나선 모습이다.
출시 일정
- 베라 CPU 기반 GX240 블레이드 : 2027년
- 퀀텀-X800 인피니밴드 : 2027년
- 베라 루빈 NVL72 시스템 : 2026년 12월
- 컴퓨트 XD700 서버 : 2027년 초
- RTX 프로 6000 블랙웰 GPU : 현재 공급 중
- 멀티테넌시 지원 AI 팩토리 : 2026년 봄
- 미션 컨트롤 : 2026년 예정
관련자료
-
링크
-
이전
-
다음






