NVIDIA의 최신 최고 계층 AI SuperComputers는 처음으로 배포되었습니다-Grace Blackwell Ultra Superchip Systems는 Coreweave에 배포되었습니다.
Dell은 목요일 NVIDIA의 GB300 NVL72 플랫폼을 기반으로 한 업계 최초의 시스템을 주요 AI 클라우드 서비스 제공 업체 (CSP) 인 Coreweave에 제공했다고 밝혔다. Coreweave는 데이터 센터 호스팅 제공 업체 스위치와 함께 Blackwell Ultra 기반 클러스터를 배포했다고 밝혔다.
Dell ‘s와 Coreweave의 초기 롤아웃에는 72 개의 Nvidia Blackwell Ultra GPU가 장착 된 Dell 통합 랙, 36 개의 ARM 기반 72 코어 그레이스 CPU 및 랙 당 36 Bluefield DPU가 포함됩니다. 각 GB300 NVL72 랙은 밀도가 높은 FP4 추론의 1.1 엑사 플롭 및 FP8 훈련 성능의 0.36 엑사 플롭을 제공하며, 이는 GB200 NVL에 비해 50% 더 높습니다. 또한 각 GB300 NVL72 랙은 20TB의 HBM3E 및 40TB의 총 RAM을 특징으로합니다. 마지막으로, 새로운 랙 스케일 솔루션은 NVIDIA의 Quantum-X800 Infiniband 스위치와 ConnectX-8 수퍼 네닉스에 의존하여 최대 14.4GB/s의 스케일 아웃 연결을 위해 이전보다 두 배 빠릅니다.
최대화 된 훈련 및 추론 성능을 위해 구축 된이 조밀하게 구성된 시스템은 극도의 전력 소비 (GPU 당 최대 1,400W)로 인해 액체 냉각됩니다.
“Dell의 NVIDIA GB300 구동 솔루션을 제공하는 것은 이정표 이상입니다.”라고 회사의 성명서는 말합니다. “이것은 우리의 고객과 파트너가 우리의 전문 지식에 계속 배치하고 있습니다. 통합 및 배포 서비스로 한 지붕 아래에 컴퓨팅, 네트워크 및 스토리지를 원활하게 엔지니어링함으로써 고객은 전례없는 속도와 규모로 고객이 움직일 수 있도록 도와줍니다. 우리는 우리가 우리가 엄청나게 멋진 고객과 다른 사람들과 함께 일할 수있는 지속적인 혁신과 속도입니다.
Dell은 랙 스케일 시스템이 조립되고 테스트되었으며 생산 사용을 위해 빠른 설치 및 배포를 위해 설계되었습니다. Dell과 Coreweave가 업계보다 NVIDIA의 최신 AI GPU 플랫폼을 배치 한 것은 이번이 두 번째입니다. 이 성과는 NVIDIA와의 긴밀한 작업으로 인해 하드웨어, 소프트웨어 및 서비스를 신속하게 배치 할 수있는 통합 제품으로 결합합니다.
배포는 Coreweave가 클라우드 플랫폼을 향상시켜 고급 언어 모델 교육, 추론 프로세스 및 추론을 처리 할 수 있도록합니다. Coreweave가 더 많은 GB300 NVL72 기반 랙을 사용함에 따라 고객이 이용할 수있는 총 성능이 증가합니다.
흥미로운 점은 Dell과 Coreweave가 GB300 NVL72 랙이 첫 번째 GB200 NVL72 기계를 배포 한 지 약 7 개월 만에 GB300 NVL72 랙을 배포하여 원래 GB200 플랫폼의 장수에 대한 의문을 제기한다는 것입니다 (비트로 지연되었지만 여전히). CSPS 관점에서 볼 때 원래 Blackwell 시스템보다 고성능 블랙웰 울트라 머신에 투자하는 것이 더 합리적입니다. 따라서 Nvidia의 Blackwell Ultra에 대한 수요가 상당히 많기 때문에 Nvidia는 상반기보다 훨씬 더 많은 판매를 즐길 것입니다.
따르다 Google 뉴스의 Tom의 하드웨어 피드에서 최신 뉴스, 분석 및 리뷰를 얻으려면. 다음 버튼을 클릭하십시오.
Post Comment