인공지능(AI) 컴퓨팅 분야의 선두주자인 엔비디아(Nvidia)의 차세대 AI 그래픽 프로세서인 '블랙웰 울트라(Blackwell Ultra)' 칩이 클라우드 제공업체 코어위브(CoreWeave)에 상용화 되었다고 양사가 발표했습니다. 코어위브는 엔비디아의 최신예 AI 시스템을 설치한 세계 최초의 클라우드 제공업체로 기록되며, 급변하는 AI 인프라 시장에서 독보적인 경쟁 우위를 확보하게 되었습니다.
최첨단 '블랙웰 울트라'와 GB200 NVL72 시스템의 상세 사양
코어위브가 배치한 시스템은 델(Dell)이 제작한 엔비디아의 GB200 NVL72 AI 시스템을 기반으로 합니다. 이 시스템은 엔비디아의 블랙웰 아키텍처를 기반으로 설계되었으며, 특히 AI 모델 훈련 및 배포에 최적화된 혁신적인 기능들을 대거 탑재하고 있습니다.
-
블랙웰 울트라 칩의 특징
-
트랜지스터 집적도: 이전 세대 호퍼(Hopper) 아키텍처의 H100 GPU(800억 개)보다 훨씬 많은 2,080억 개의 트랜지스터를 집적했습니다.
-
성능 향상: 대규모 언어 모델(LLM) 추론에서 이전 세대 대비 최대 11배 빠른 성능을 제공하며, 특정 AI 콘텐츠 생성 능력은 블랙웰(Blackwell) 아키텍처 기반 칩보다도 50배 더 뛰어나다고 엔비디아는 밝히고 있습니다. 특히 FP4(4비트 부동 소수점) 추론 성능은 HGX H100 대비 70배 향상되었습니다.
-
향상된 엔진: 두 번째 세대 트랜스포머 엔진(Transformer Engine 2.0)과 데이터베이스 쿼리를 가속화하는 압축 해제 엔진(Decompression Engine)을 내장하여 데이터 처리 효율성을 극대화합니다.
-
보안 강화: 민감한 데이터와 AI 모델을 보호하는 기밀 컴퓨팅(Confidential Computing) 기능도 탑재되었습니다.
-
-
GB200 NVL72 시스템의 구성:
-
이 시스템은 액체 냉각 방식을 채택하여 고성능 AI 칩에서 발생하는 막대한 열을 효율적으로 관리합니다. 액체 냉각은 전통적인 공랭식보다 최대 1,000배 이상 효율적이며, 고밀도 서버 배치를 가능하게 하여 데이터센터의 공간 효율성을 높이고 하드웨어 수명을 연장하는 핵심 기술입니다.
-
단일 랙에 72개의 블랙웰 울트라 GPU와 36개의 엔비디아 그레이스(Grace) CPU가 통합되어 있습니다. 이는 '그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)' 개념을 기반으로, CPU와 GPU 간에 초고속 NVLink-Chip-to-Chip(C2C) 인터페이스를 통해 900GB/s의 양방향 대역폭을 제공하여 방대한 AI 모델 훈련 및 실시간 추론에 최적화된 성능을 발휘합니다.
-
델에 따르면 이 시스템들은 미국에서 조립 및 테스트되어 공급망의 안정성을 더합니다.
-
엔비디아의 AI 지배력 강화와 코어위브의 차별화 전략
이번 배포는 엔비디아에게 매우 중요한 이정표입니다. AI 개발자들은 대규모 언어 모델(LLM)과 복잡한 AI 작업을 훈련하고 배포하기 위해 엔비디아의 최신 칩에 대한 수요가 폭발적입니다. 엔비디아 CFO 콜레트 크레스(Colette Kress)는 지난 5월 블랙웰 울트라 칩의 출하가 현재 분기부터 시작될 것이라고 밝히며, 시장의 기대감을 충족시키려 노력했습니다. 새로운 칩 발표 시 생산 차질이나 지연 없이 원활한 전환을 관리하는 것은 엔비디아가 AI 칩 시장에서의 지배적인 리더십을 유지하는 데 핵심적인 과제입니다.
한편, 이번 선제적 배포는 코어위브에게도 큰 승리입니다. 코어위브는 아마존(Amazon), 구글(Google), 마이크로소프트(Microsoft)와 같은 거대 클라우드 기업들보다 규모는 작지만, 엔비디아 GPU 클라우드 서비스에 특화하여 AI 개발자들에게 최첨단 GPU를 가장 먼저 제공하는 것으로 차별화를 꾀하고 있습니다. AI 스타트업이나 연구 기관들은 경쟁 우위를 확보하기 위해 최신 칩에 대한 즉각적인 접근을 절실히 필요로 하므로, 코어위브의 이러한 '선점 효과'는 매우 중요합니다.
코어위브는 엔비디아와 역사적으로 긴밀한 관계를 유지해왔으며, 엔비디아는 이 클라우드 제공업체의 지분(2025년 3월 말 기준 9억 달러 상당, 약 7% 지분)을 소유하고 있습니다. 이러한 전략적 투자는 엔비디아가 AI 가치 사슬 전반에 걸쳐 통합을 심화하고 하드웨어 판매를 넘어 클라우드 서비스 수익을 확보하려는 의지를 보여줍니다. 코어위브는 올해 초 상장한 이래 주가가 4배 이상 급등했으며, 이번 블랙웰 울트라 배포 소식 이후 목요일 거래에서 주가가 6% 추가 상승하며 그 전략의 성공을 입증했습니다. 델 주가는 약 2% 올랐고, 엔비디아는 2% 미만으로 상승했습니다.
관련 사항
-
AI 칩 공급망의 복잡성과 도전 과제: 엔비디아의 고성능 AI 칩은 HBM(고대역폭 메모리)과 같은 첨단 부품에 크게 의존하며, 이들의 생산은 소수의 기업에 집중되어 있습니다. AI 수요의 급증과 반도체 제조 역량의 한계, 지정학적 문제들이 겹치면서 AI 칩의 공급 부족은 심화될 수 있으며, 이는 AI 산업 전반의 성장에 영향을 미칠 수 있습니다.
-
클라우드 시장의 '니치(Niche) 전략': 아마존 웹 서비스(AWS), 마이크로소프트 애저(Azure), 구글 클라우드(Google Cloud Platform)와 같은 거대 클라우드 기업들은 방대한 서비스와 인프라를 제공합니다. 반면 코어위브처럼 특정 분야(예: GPU 클라우드)에 특화하여 최신 하드웨어를 빠르게 제공하는 '니치' 전략을 통해 대형 클라우드 기업들과 차별점을 두고 경쟁력을 확보할 수 있습니다.
-
AI 컴퓨팅의 '군비 경쟁': 대규모 AI 모델(예: LLM)을 개발하고 배포하는 데 필요한 컴퓨팅 자원은 천문학적인 수준입니다. 이로 인해 AI 기업과 클라우드 제공업체 간에 최신 AI 칩을 선점하려는 치열한 '군비 경쟁'이 벌어지고 있으며, 이는 엔비디아와 같은 AI 칩 제조업체의 수익을 견인하는 주요 요인입니다.
관련기사: https://www.cnbc.com/2025/07/03/coreweave-dell-blackwell-ultra-nvidia.html