문의하기

NVIDIA

BN I&C는 인공지능 컴퓨팅 분야의 세계적인 선도기업 NVIDIA의 Elite Partner로
AI/Deep Learning을 주도하고 있습니다.

NVIDIA DGX Spark

여러분의 책상 위에 있는 Grace Blackwell AI 슈퍼컴퓨터

DGX Spark

NVIDIA GB10 Grace Blackwell Superchip으로 구동되는 NVIDIA DGX™ Spark는 전력 효율적인 소형 폼팩터에서 1000 AI TOPS(최고 성능의 AI) 성능을 제공합니다. NVIDIA AI 소프트웨어 스택이 사전 설치되어 있고 128GB 메모리를 탑재하여 개발자는 DeepSeek, Meta, Google 등의 최신 추론 AI 모델을 최대 2,000억 개의 매개변수로 로컬에서 프로토타입을 제작하고, 미세 조정하고, 추론하고, 데이터 센터 또는 클라우드에 원활하게 배포할 수 있습니다.

기능

NVIDIA GPU, CPU, 네트워킹 및 AI 소프트웨어 기술

GB10

NVIDIA GB10 슈퍼칩

NVIDIA Grace Blackwell 아키텍처를
바탕으로 최대 1000 AI TOPS의 AI 성능을
FP4 정밀도로 경험해 보세요.

메모리

128GB의 일관된 통합 시스템 메모리

대용량 통합 시스템 메모리와 함께
최대 2,000억 개의 매개변수가 있는 AI
모델을 통해 AI 개발 및 테스트
워크로드를 실행해 보세요.

ConnectX

NVIDIA ConnectX 네트워킹

고성능 NVIDIA ConnectX 네트워킹으로
2기와 DGX Spark 시스템을 함께 연결하면
최대 4,050억 개의 매개변수가 있는
AI 모델을 처리할 수 있습니다.

AI 소프트웨어

NVIDIA AI Software Stack

도구, 프레임워크, 라이브러리, 사전 학습된
모델을 포함한 전체 스택 솔루션을 사용하여
생성형 AI 워크로드를 처리합니다.

사양

NVIDIA DGX Spark

아키텍처NVIDIA Grace Blackwell
GPU블랙웰 아키텍처
CPU20코어 Arm, 10 Cortex-X925 + 10 Cortex-A725 Arm
CUDA 코어블랙웰 세대
텐서 코어5세대
텐서 성능1000 AI TOPS
시스템 메모리128GB LPDDR5x, 통합 시스템 메모리
메모리 인터페이스256비트
메모리 대역폭273GB/초
저장자체 암호화 기능이 있는 1 또는 4TB NVME.M2
USB4x USB 4 TypeC (최대 40Gb/s)
이더넷1x RJ-45 커넥터 10GbE
NICConnectX-7 스마트 NIC
와이파이와이파이 7
블루투스BT 5.3 w/LE
오디오 출력HDMI 멀티채널 오디오 출력
전력 소비170와트
디스플레이 커넥터1x HDMI 2.1a
NVENC | NVDEC1배 | 1배
OS엔비디아 DGX™ OS
시스템 사이즈150mm 길이 × 150mm 너비 × 50.5mm 높이
시스템 무게1.2kg

NVIDIA GB300 NVL72

AI 추론시대를 위해 설계된 랙 스케일 아키텍처

DGX Spark

NVIDIA GB300 NVL72는 완전 수냉식 랙 스케일 설계를 특징으로 하며, 72개의 NVIDIA Blackwell Ultra GPU와 36개의 Arm® 기반 NVIDIA Grace™ CPU를 단일 플랫폼에 통합하여 테스트 시간 확장 추론에 최적화되어 있습니다. NVIDIA Quantum-X800 InfiniBand 또는 Spectrum™-X 이더넷과 ConnectX®-8 SuperNIC을 함께 사용하는 GB300 NVL72 기반 AI 팩토리는 NVIDIA Hopper™ 플랫폼 대비 50배 더​​높은 추론 모델 추론 성능을 제공합니다 .

성능

AI 팩토리를 전례 없는 수준으로 확장

GB10

DeepSeek R1 ISL = 32K, OSL = 8K, FP4 Dynamo 분할 기능을 갖춘 GB300 NVL72. FP8 인플라이트 배칭 기능을 갖춘 H100. 예상 성능은 변경될 수 있습니다.
NVIDIA GB300 NVL72 플랫폼으로 차원이 다른 AI 추론 성능을 경험해 보세요. GB300 NVL72는 Hopper 대비 사용자 응답성(사용자당 TPS)이 10배,
처리량(메가와트(MW)당 TPS)이 5배 향상되었습니다. 이러한 발전은 AI 팩토리의 전체 생산량을 50배나 증가시키는 놀라운 성과로 이어집니다.

사양

NVIDIA DGX Spark

AI 추론

AI 추론

테스트 시간 확장 및 AI 추론은 서비스 품질과 최대 처리량 달성에 필요한 컴퓨팅 성능을 향상시킵니다. NVIDIA Blackwell Ultra의 텐서 코어는 NVIDIA Blackwell GPU 대비 이전세대 계층 가속이 2배, AI 컴퓨팅 초당 부동 소수점 연산(FLOPS)이 1.5배 더 강력합니다.

288GB의 HBM3e

288GB의 HBM3e

더 큰 메모리 용량으로 더 큰 배치 크기와 최대 처리량 성능이 가능합니다. NVIDIA Blackwell Ultra GPU는 추가된 AI 컴퓨팅과 함께 1.5배 더 큰 HBM3e 메모리를 제공하여 가장 긴 컨텍스트 길이에 대한 AI 추론 처리량을 높입니다.

Blackwell 아키텍처

NVIDIA Blackwell 아키텍처

NVIDIA Blackwell 아키텍처는 가속 컴퓨팅 분야에서 획기적인 발전을 이루어, 비교할 수 없는 성능, 효율성, 규모의 새로운 시대를 열었습니다.

ConnectX-8 SuperNIC

NVIDIA ConnectX-8 SuperNIC

NVIDIA ConnectX-8 SuperNIC의 입출력(I/O) 포트들은 두 개의 ConnectX-8 장치를 호스트하여 NVIDIA GB300 NVL72의 각 GPU에 초당 800기가비트(Gb/s)의 네트워크 연결을 제공합니다. 이를 통해 NVIDIA Quantum-X800 InfiniBand 또는 Spectrum-X 이더넷 네트워크 플랫폼과 함께 최고의 원격 직접 메모리 액세스(RDMA) 기능을 제공하여 AI 워크로드의 통합을 극대화할 수 있습니다.

Grace CPU

NVIDIA 그레이스 CPU

NVIDIA Grace CPU는 최신 데이터 센터 워크로드를 위해 설계된 혁신적인 프로세서입니다. 탁월한 성능과 메모리 대역폭을 제공하며, 현재 주요 서버 프로세서보다 2배 높은 에너지 효율을 자랑합니다.

5세대 NVLink

5세대 NVIDIA NVLink

가속 컴퓨팅의 잠재력을 최대한 활용하려면 모든 GPU 간의 원활한 통신이 필요합니다. 5세대 NVIDIA NVLink™는 AI 추론 모델의 지속확장 성능을 구현하는 스케일업형 상호 연결 기술입니다.

사양

NVIDIA GB300 NVL72

구성72개의 NVIDIA Blackwell Ultra GPU, 36개의 NVIDIA Grace CPU
NVLink 대역폭130TB/초
빠른 메모리최대 40TB
GPU 메모리 | 대역폭최대 21TB | 최대 576TB/s
CPU 메모리 | 대역폭LPDDR5x를 탑재한 최대 18TB SOCAMM | 최대 14.3TB/s
CPU 코어 수2,592개의 Arm Neoverse V2 코어
FP4 텐서 코어1,400 | 1,100² PFLOPS
FP8/FP6 텐서 코어720PFLOPS
INT8 텐서 코어23PFLOPS
FP16/BF16 텐서 코어360PFLOPS
TF32 텐서 코어180PFLOPS
FP326PFLOPS
FP64/FP64 텐서 코어100테라플롭스

DGX GB200 NV72

컴퓨팅의 새로운 시대를 열다

DGX Spark

GB200 NVL72는 랙 스케일 수냉식 설계로 Grace CPU 36개와 Blackwell GPU 72개를 연결합니다. 72개의 GPU로 구성된 NVLink 도메인은 단일 대용량 GPU처럼 작동하며, 30배 더 빠른 실시간 조 단위 매개변수를 갖는 대용량 언어 모델(LLM) 추론을 제공합니다. GB200 Grace Blackwell Superchip은 NVIDIA GB200 NVL72 의 핵심 구성 요소로, 두 개의 고성능 NVIDIA Blackwell Tensor Core GPU와 NVIDIA Grace™ CPU를 NVIDIA NVLink™-C2C 상호연결을 사용하여 두 개의 Blackwell GPU에 연결합니다.

기능

NVIDIA GPU, CPU, 네트워킹 및 AI 소프트웨어 기술

GB10

블랙웰 아키텍처

NVIDIA Blackwell 아키텍처는 가속 컴퓨팅
분야에서 획기적인 발전을 이루어, 탁월한
성능, 효율성, 확장성을 갖춘 새로운 시대의
컴퓨팅을 선도합니다.

메모리

엔비디아 그레이스 CPU

NVIDIA Grace CPU는 AI, 클라우드, HPC
애플리케이션을 구동하는 최신 데이터 센터를
위해 설계된 혁신적인 프로세서입니다.
탁월한 성능과 메모리 대역폭을 제공하며,
현재 주요 서버 프로세서보다 2배 높은
에너지 효율을 자랑합니다.

ConnectX

5세대 NVIDIA NVLink

엑사스케일 컴퓨팅과 수조 개의 매개변수를
가진 AI 모델의 잠재력을 최대한 활용하려면
서버 클러스터의 모든 GPU 간에 빠르고
원활한 통신이 필요합니다. 5세대 NVLink는
수조 개 및 수조 개의 매개변수를 가진 AI
모델의 가속화된 성능을 구현하는
스케일업형 상호 연결 기술입니다.

AI 소프트웨어

엔비디아 네트워킹

데이터 센터의 네트워크는 AI 발전과 성능
향상에 중요한 역할을 하며, 분산형 AI 모델 학습
및 생성형 AI 성능의 중추 역할을 합니다.
NVIDIA Quantum-X800 InfiniBand ,
NVIDIA Spectrum™-X800 Ethernet,
그리고 NVIDIA® BlueField®-3 DPU는
수십만 개의 Blackwell GPU에 걸쳐 효율적인
확장성을 제공하여 최적의 애플리케이션
성능을 보장합니다.

사양

GB200 NVL72

GB200 NVL72 GB200 Grace Blackwell Superchip
컨피규레이션36 Grace CPU : 72 Blackwell GPUs1 Grace CPU : 2 Blackwell GPU
FP4 코어11,440 PFLOPS40 PFLOPS
FP8/FP6 코어1720 PFLOPS20 PFLOPS
INT8 Tensor 코어1720 POPS20 POPS
FP16/BF16 Tensor 코어1360 PFLOPS10 PFLOPS
TF32 Tensor 코어180 PFLOPS5 PFLOPS
FP325,760 TFLOPS160 TFLOPS
FP642,880 TFLOPS80 TFLOPS
FP64 Tensor 코어2,880 TFLOPS80 TFLOPS
GPU 메모리 대역폭최대 13.4TB HBM3e | 576TB/s최대 372GB HBM3e | 16TB/s
NVLink 메모리 대역폭130TB/s3.6TB/s
CPU 코어 수2,592 Arm® Neoverse V2 코어72 Arm Neoverse V2 코어
CPU 메모리 대역폭최대 17TB LPDDR5X | 최대 18.4TB/s최대 480GB LPDDR5X | 최대 512GB/s

1. 최소성을 가지고 있습니다.

NVIDIA DGX GB300

추론의 시대를 위한 맞춤형 AI 팩토리 인프라

DGX Spark

NVIDIA DGX™ GB300은 기업에서 사용할 수 있는 가장 성능이 뛰어나고 규모가 가장 큰 AI 시스템입니다. NVIDIA Grace™ Blackwell Ultra Superchips 로 제작되고 최대 수천 개까지 확장 가능한 DGX GB300은 NVIDIA MGX™ 랙을 사용하는 최신 데이터 센터에 맞게 설계된 랙 스케일 액체 냉각 시스템입니다. DGX GB300을 사용하면 세계 유수의 기업이 성능 병목 현상을 극복하고 조직에 모든 문제를 해결할 수 있는 인프라 솔루션을 제공할 수 있습니다.

기능

NVIDIA GPU, CPU, 네트워킹 및 AI 소프트웨어 기술

GB10

NVIDIA Grace Blackwell Ultra Superchip 기반

Grace Blackwell Ultra Superchip 으로 구동되는
NVIDIA DGX GB300은 학습, 학습 후, 테스트 시간 추론의 성능을
극대화하도록 설계되어 NVIDIA DGX GB200 보다
추론 성능이 1.5배 향상되었습니다.

메모리

세계적 수준의 인프라 복원력

NVIDIA Mission Control은 소프트웨어로 제공되는 세계적
수준의 전문 지식을 통해 워크로드에서 인프라까지 AI 운영을
간소화합니다. NVIDIA Blackwell 데이터 센터를 구동하는
Mission Control은 인프라 회복성을 위한 풀스택 인텔리전스를
제공하여 모든 기업이 하이퍼스케일 효율성으로 AI 팩토리를
운영할 수 있도록 합니다.

ConnectX

현대 데이터 센터를 위해 설계됨

DGX GB300 시스템을 탑재한 NVIDIA DGX SuperPOD는
데이터 센터 엔지니어링의 최신 발전을 활용하도록 설계된
간단하고 배포하기 쉬운 랙 아키텍처를 통해 대규모
AI 인프라를 배포할 때 추측 작업을 제거합니다.

사양

NVIDIA GB300 NVL72

그래픽 카드Grace Blackwell Ultra Superchip에 탑재된 72개의
NVIDIA Blackwell Ultra GPU
CPU 코어2592
GPU 메모리 HBM3e20.1TB
전체 빠른 메모리37.9TB
성능
FP4 AI 성능 1400페타플롭스
FP8 AI 성능 700페타플롭스
FP16 AI 성능 350페타플롭스
 
네트워킹800Gb/s NVIDIA InfiniBand를 갖춘 72x OSFP 단일 포트 NVIDIA ConnectX®-8 VPI
200Gb/s NVIDIA InfiniBand 및 이더넷을 갖춘 18x 듀얼 포트 NVIDIA BlueField®-3 VPI
NVIDIA NVLink 스위치 시스템9x L1 NVIDIA NVLink 스위치
관리 네트워크RJ45를 탑재한 호스트 베이스보드 관리 컨트롤러(BMC)
소프트웨어NVIDIA Mission Control
NVIDIA AI Enterprise
NVIDIA DGX OS / Ubuntu
엔터프라이즈 지원3년간 비즈니스 표준 하드웨어 및 소프트웨어 지원

NVIDIA DGX GB200

조 단위 매개변수 AI시대의 선택

DGX Spark

NVIDIA DGX™ GB200을 통해 기업은 전례 없는 성능과 예측 가능한 가동 시간을 달성하여 활용도와 생산성을 획기적으로 높이고 AI 이니셔티브의 ROI를 높일 수 있습니다. 이를 통해 AI 성능, 신뢰성 및 확장성에 대한 새로운 표준을 마련할 수 있습니다. 최대 수만 개의 GPU와 NVIDIA DGX SuperPOD를 지원하는 효율적인 수냉식 DGX GB200 랙 규모 설계는 NVIDIA GB200 Grace Blackwell Superchips를 활용하여 오늘날의 고급 생성 AI 애플리케이션에 필요한 최첨단 AI 모델을 해결합니다.

기능

가동 시간이 일정한 엔터프라이즈 생성형 AI 인프라

GB10

개발자 생산성 극대화

지능형 제어 평면은 하드웨어, 소프트웨어 및 데이터센터 인프라
전반에서 수천 개의 데이터 포인트를 추적하여 지속적인
운영 및 데이터 무결성을 보장하고 유지 관리를 계획하며 가동
중단 시간을 방지하도록 클러스터를 자동으로 재구성합니다.

메모리

거대 생성형 AI를 위한 대규모 슈퍼컴퓨팅

최대 수만 개의 NVIDIA GB200 슈퍼칩으로 확장할 수 있는
DGX GB200 시스템을 갖춘 DGX SuperPOD는 최첨단
1조개 파라미터 생성형 AI 모델에 대한 학습 및 추론을
손쉽게 수행할 수 있습니다.

ConnectX

NVIDIA Grace Blackwell 기반

각각 하나의 Grace CPU와 두 개의 Blackwell GPU가 탑재된
NVIDIA GB200 슈퍼칩은 5세대 NVLink를 통해 연결되어
초당 1.8테라바이트(TB/s)의 GPU-to-GPU
대역폭을 달성합니다.

NVIDIA DGX B300

AI 추론을 위한 AI 팩토리의 기반

DGX Spark

NVIDIA DGX™ B300은 생성형 AI의 컴퓨팅 수요를 충족하도록 맞춤 제작된 AI 인프라 솔루션입니다. NVIDIA Blackwell Ultra GPU를 기반으로 하는 DGX B300은 최신 데이터센터에 원활하게 맞도록 설계된 새로운 폼 팩터에서 이전 세대보다 11배 향상된 추론 및 4배 향상된 훈련 성능을 제공합니다. NVIDIA MGX™ 와 기존 엔터프라이즈 랙과 호환되며 풀스택 소프트웨어와 함께 AI 배포를 간소화하고 효율화하여 모든 기업이 하이퍼스케일러처럼 운영할 수 있도록 지원합니다.

기능

추론 시대를 위한 AI 팩토리

GB10

LLM 추론을 위한 실시간 파워하우스

Blackwell Ultra GPU를 기반으로 하는 DGX B300은
엔터프라이즈에 대형 언어 모델(LLM) 학습 및 추론을
가속화할 수 있는 단일 플랫폼을 제공합니다. 192페타플롭스의
추론 성능을 제공하여 모든 기업이 하이퍼스케일러처럼
운영할 수 있습니다.

메모리

효율적이고 지속 가능한 혁신

여러 전력 옵션 중에서 선택할 수 있는 DGX B300은
가장 에너지 효율적인 AI 슈퍼컴퓨터로 설계되어
탁월한 에너지 효율과 와트당 성능을 제공합니다.

ConnectX

혁신적인 인프라 표준

DGX B300은 최신 데이터센터에 맞게 재설계되었으며 최초로
NVIDIA MGX 랙에 배포 가능해졌습니다. 이 새로운
업계 표준은 데이터센터 엔지니어링의 변화를 가속화하고 있으며
획기적인 성능과 효율을 그 어느 때보다 쉽게 달성
할 수 있도록 지원합니다.

사양

NVIDIA DGX B300

GPUNVIDIA Blackwell Ultra GPU
CPU듀얼 Intel® Xeon® 프로세서
총 GPU 메모리2.3테라바이트
성능72 PFLOPS FP8 학습
144 PFLOPS FP4 추론
네트워킹8개의 OSFP 포트는 8개의 단일 포트 NVIDIA ConnectX-8 VPI를 제공
8개의 OSFP 포트는 8개의 단일 포트 NVIDIA ConnectX-8 VPI를 제공
2x 듀얼 포트 QSFP112 NVIDIA BlueField-3 DPU 최대 800Gb/s NVIDIA InfiniBand/Ethernet
관리 네트워크RJ45 1GbE RJ45 호스트 베이스보드 관리 컨트롤러(BMC)가 있는 1GbE 온보드 NIC
저장OS: 2x 1.9TB NVMe M.2
내부 저장소: 8x 3.84TB NVMe E1.S
전력 소비~14kW
소프트웨어NVIDIA DGX OS / NVIDIA Mission Control / NVIDIA AI Enterprise
/NVIDIA Base Command Manager Red Hat Enterprise Linux /
Rocky / Ubuntu를 지원
엔터프라이즈 지원3년간 비즈니스 표준 하드웨어 및 소프트웨어 지원

NVIDIA DGX B200

훈련, 미세 조정 및 추론을 위한 통합 AI 플랫폼

DGX Spark

NVIDIA DGX™ B200은 AI 여정의 모든 단계에서 규모와 관계없이 기업을 위한 개발에서 배포로 전환하는 파이프라인용 통합 AI 플랫폼입니다. 5세대 NVIDIA® NVLink™로 상호 연결된 8개의 NVIDIA Blackwell GPU를 탑재한 NVIDIA DGX B200은 이전 세대 시스템보다 3배 높은 훈련 성능과 15배 높은 추론 성능을 제공합니다. DGX B200은 NVIDIA Blackwell 아키텍처를 활용하여 거대 언어 모델(LLM), 추천 시스템 및 챗봇 등의 다양한 워크로드를 처리할 수 있어 AI 혁신을 가속화하고자 하는 기업에 이상적입니다.

기능

추론 시대를 위한 AI 팩토리

GB10

개발에서 배포로 전환하는 파이프라인용 단일 플랫폼

기업이 훈련부터 fine-tuning, 추론에 이르기까지 AI 파이프
라인의 모든 단계에서 복잡한 AI 데이터세트를 처리하려면
막대한 양의 컴퓨팅 성능이 필요합니다. 기업은 NVIDIA DGX
B200을 통해 워크플로우를 가속화하도록 구축된
단일 플랫폼으로 개발자를 지원할 수 있습니다.

메모리

AI 성능의 강자

컴퓨팅 분야의 발전을 위한 NVIDIA Blackwell 아키텍처를
기반으로 한 DGX B200은 DGX H100보다 3배 높은 훈련
성능과 15배 높은 추론 성능을 제공합니다.
NVIDIA DGX BasePOD™ 및 NVIDIA DGX SuperPOD™를
기반으로 DGX B200은 모든 워크로드에 최첨단 성능을 제공합니다.

ConnectX

검증된 인프라 표준

NVIDIA DGX B200은 NVIDIA Base Command 및
NVIDIA AI Enterprise 소프트웨어, 타사에서 지원하는
풍부한 생태계, NVIDIA 전문 서비스의 전문가 자문을
받아볼 수 있는 권한 등 전체 NVIDIA AI 소프트웨어 스택을
포함하는 완전한 하드웨어 및 소프트웨어 플랫폼입니다.

사양

NVIDIA DGX B200

GPU8x NVIDIA Blackwell GPU
GPU 메모리총 1,440GB의 GPU 메모리
성능72페타플롭스 훈련 및 144페타플롭스 추론
소비 전력최대 14.3kW
CPUIntel® Xeon® Platinum 8570 프로세서 2개
총 112개 코어, 2.1GHz(기본), 4GHz(최대 부스트)
시스템 메모리최대 4TB
네트워킹싱글 포트 NVIDIA ConnectX-7 VPI 8개 제공
OSFP 포트 4개 최대 400Gb/s NVIDIA InfiniBand/이더넷
2x 듀얼 포트 QSFP112 NVIDIA BlueField-3 DPU 최대 400Gb/s NVIDIA InfiniBand/이더넷
관리 네트워크10Gb/s 온보드 NIC(RJ45 포함)
100Gb/s 듀얼 포트 이더넷 NIC
RJ45가 포함된 호스트 베이스보드 관리 컨트롤러(BMC)
스토리지OS: 2x 1.9TB NVMe M.2
내부 스토리지: 8x 3.84TB NVMe U.2
소프트웨어NVIDIA AI Enterprise: 최적화된 AI 소프트웨어
NVIDIA Base Command: 오케스트레이션, 스케줄링 및 클러스터 관리
NVIDIA DGX OS / Ubuntu: 운영 체제
랙 장치(RU)10 RU
시스템 크기높이: 444mm(17.5인치)
너비: 482.2mm(19.0인치)
길이: 897.1mm(35.3인치)
작동 온도5~30°C(41~86°F)
엔터프라이즈 지원하드웨어 및 소프트웨어에 대한 3년 엔터프라이즈 비즈니스 표준 지원
연중무휴 엔터프라이즈 지원 포함 엑세스
현지 업무 시간 동안의 실시간 어시스턴트 지원

NVIDIA DGX H200

엔터프라이즈 AI 팩토리를 위한 전 세계의 검증된 선택

DGX Spark

NVIDIA DGX™ H200으로 비즈니스 혁신과 최적화의 지평을 넓혀보세요. DGX 플랫폼의 일부인 DGX H200은 NVIDIA DGX SuperPOD™ 및 DGX BasePOD™의 기반이 되는 AI 강자로 NVIDIA H200 Tensor코어 GPU의 획기적인 성능으로 가속화 되었습니다.

기능

가장 완벽한 AI 팩토리

GB10

AI 우수 센터의 핵심

NVIDIA Base Command™ , NVIDIA AI Enterprise
소프트웨어 제품군, NVIDIA DGXperts의 전문가 조언이
포함된 완벽하게 통합된 하드웨어 및 소프트웨어 솔루션인
NVIDIA DGX H200을 기반으로 AI Center of Excellence를
구축하세요.

메모리

AI 확장을 위한 장벽 돌파

NVIDIA DGX H200 아키텍처를 통해 32페타플롭스의
AI 성능과 이전 세대보다 2배 빠른 네트워킹, 그리고 고속 확장성을
경험해 보세요. 이 솔루션은 생성 AI, 자연어 처리, 딥 러닝
추천 모델을 포함한 대규모 워크로드에 최적화되어 있습니다.

ConnectX

귀하에게 맞춤화된 AI 인프라

온프레미스, 코로케이션 , 관리형 서비스 제공업체 임대 등
비즈니스에 맞는 다양한 방식 으로 NVIDIA DGX H200의
강력한 성능을 경험해 보세요. DGX 지원 라이프사이클 관리
(DGX-Ready Lifecycle Management)를 통해 기업은 예측 가능한
재무 모델을 통해 최첨단 구축 환경을 유지할 수 있습니다.

사양

NVIDIA DGX H200

GPU8개의 NVIDIA H200 Tensor Core GPU
GPU 메모리총 1,128GB의 GPU 메모리
성능32petaFLOPS FP8
NVIDIA NVSwitch4개
System Power Usage최대 ~10.2kW
CPU듀얼 Intel® Xeon® Platinum 8480C 프로세서
총 112코어, 2.00GHz(기본), 3.80GHz(최대 부스트)
시스템 메모리2TB
네트워킹8개의 단일 포트 NVIDIA ConnectX-7 VPI를 제공하는 4개의 OSFP 포트, 최대 400Gb/s NVIDIA InfiniBand/Ethernet
관리 네트워크RJ45를 탑재한 10Gb/s 온보드 NIC,
RJ45를 탑재한 100Gb/s 이더넷 옵션 NIC,
호스트 베이스보드 관리 컨트롤러(BMC)
저장OS: 2×1.9TB NVMe M.2
내부 저장소: 8×3.84TB NVMe U.2
소프트웨어NVIDIA AI Enterprise – 최적화된 AI 소프트웨어
NVIDIA Base Command – 오케스트레이션,
스케줄링 및 클러스터 관리
NVIDIA DGX OS / Ubuntu / Red Hat Enterprise Linux / Rocky – 운영 체제
시스템 무게287.6lb (130.45kgs)
시스템 크기높이: 14.0인치(356mm)
너비: 19.0인치(482.2mm)
길이: 35.3인치(897.1mm)
작동 온도5~30°C (41~86°F)

NVIDIA DGX SuperPOD

고유한 AI 수요를 위한 맞춤형 시스템

DGX Spark

NVIDIA DGX SuperPOD™는 가장 까다로운 AI 학습 및 추론 워크로드를 위한 민첩하고 확장 가능한 성능을 갖춘 선도적인 AI 인프라를 제공합니다. NVIDIA DGX™ 플랫폼 에서 NVIDIA Blackwell 기반 컴퓨팅 옵션을 선택할 수 있는 DGX SuperPOD는 단순한 하드웨어의 집합이 아니라, 업계 최고의 컴퓨팅, 스토리지, 네트워킹, 소프트웨어 및 인프라 관리 기능을 모두 포함하는 풀스택 데이터센터 플랫폼으로, 서로 연동하여 대규모 환경에서 최대 성능을 제공하도록 최적화되어 있습니다.

기능

세계 최초의 턴키 AI 데이터 센터

GB10

테스트 및 검증된 솔루션,
DGX SuperPOD

DGX SuperPOD는 엔터프라이즈의 성능 및
안정성 요구 사항을 충족하는 예측 가능한
솔루션입니다. NVIDIA에서 DGX SuperPOD를
광범위하게 테스트하며 엔터프라이즈 AI
워크로드로 최대한도까지 밀어붙이기 때문에
애플리케이션 성능을 걱정할 필요가 없습니다.

메모리

항상 개선되는 고급 인프라
소프트웨어

DGX SuperPOD는 NVIDIA Base
Command™를 기반으로 합니다.
NVIDIA Base Command는 AI 워크플로
관리, 컴퓨팅, 스토리지 및 네트워크 인프라를
가속하는 라이브러리, AI 워크로드에 최적화된
운영 체제 등을 포함하는 검증된
소프트웨어입니다.

ConnectX

NVIDIA Base Command
Manager를 통한 간소화된 관리

NVIDIA Base Command Manager를
통해 DGX SuperPOD의 배포, 소프트웨어
프로비저닝, 지속적인 모니터링 및 상태
확인을 원활하게 자동화할 수 있습니다.

ConnectX

전담 전문 지식 및 서비스

DGX SuperPOD에는 설치에서 인프라 관리,
워크로드 확장, 생산 AI 간소화에 이르는 전담
전문 서비스가 포함됩니다. 세계 최대 AI 전문
실무자 팀과 직접 연결 할 수 있는 경로인
DGXpert에 대한 전용 액세스를
이용할 수 있습니다.

BN I&C 레퍼런스

AI혁신의 중심 글로벌 포털사, N사

초거대 생성형 AI 학습용 NVIDIA DGX SuperPOD 구축

DGX SuperPOD는 N**ER CLOVA가 한국 및 일본 시장을 위한 최첨단 언어 모델을 구축 하고
글로벌 시장에서 강력한 AI 플랫폼 플레이어로 발전할 수 있도록 지원하고 있습니다.

Suk Geun SG Chung, Head of COLVA CIC, N**ER Corporation

디지털 혁신을 주도하는 통신사, K사

한국형 언어모델 개발용 NVIDIA DGX SuperPOD 구축

NVIDIA DGX SuperPOD의 강력한 성능과 NeMo의 최적화된 알고리즘 및 3D 병렬 처리 기술로
LLM을 더 효과적으로 훈련했습니다. 다른 플랫폼을 사용하는 것도 고려해 보았지만 하드웨어 수준에서
추론 수준까지 아우르는 전체 스택 환경을 제공하는 대안을 찾기가 어려웠습니다.

류휘정, LLM 개발 팀장, K* Corporation

NVIDIA DGX BasePod

엔터프라이즈 AI 팩토리를 위한 인프라 토대

DGX Spark

필수 인프라를 통해 AI 엔터프라이즈로 혁신
AI는 헬스케어에서 제조, 금융 서비스에 이르는 모든 산업 분야의 주요 업무용 사용 사례를 지원합니다. NVIDIA DGX™ 플랫폼의 일부로서 NVIDIA DGX BasePOD™는 기업이 AI 인프라를 구축하고 확장할 수 있는 레퍼런스 아키텍처를 제공합니다.

기능

NVIDIA DGX BasePOD로 주요 업무용 AI 사용 사례 지원

GB10

건강 및 생명 과학

이미지 주석을 가속화하고, 게놈
시퀀싱 워크플로우를 가속화하고,
연구 혁신을 촉진하는 AI
애플리케이션을 만드세요.

메모리

금융 서비스

대화형 AI, 알고리즘 트레이딩,
사기 감지 등 임무 수행에 중요한
AI 사용 사례를 배포합니다.

ConnectX

에너지

시뮬레이션을 통해 우물 계획을
최적화하고, AI 기반 컴퓨터
비전으로 운영을 개선하고,
재생 에너지 생산을 예측합니다.

ConnectX

통신

AI를 활용하여 고객 경험을 개선하고,
복잡한 네트워크 운영을 최적화하고,
데이터에서 비즈니스 통찰력을 추출하여
운영을 최적화하세요.

ConnectX

대규모 언어 모델 (LLM)

일상적인 작업의 자동화부터 창의적인
콘텐츠 생성까지, 귀하의
산업에 맞는 생성적 AI 모델을
빠르게 훈련하고 맞춤화하세요.

BN I&C 레퍼런스

AI혁신의 중심 글로벌 포털사, N사

초거대 생성형 AI 학습용 NVIDIA DGX SuperPOD 구축

DGX SuperPOD는 N**ER CLOVA가 한국 및 일본 시장을 위한 최첨단 언어 모델을 구축 하고
글로벌 시장에서 강력한 AI 플랫폼 플레이어로 발전할 수 있도록 지원하고 있습니다.

Suk Geun SG Chung, Head of COLVA CIC, N**ER Corporation

디지털 혁신을 주도하는 통신사, K사

한국형 언어모델 개발용 NVIDIA DGX SuperPOD 구축

NVIDIA DGX SuperPOD의 강력한 성능과 NeMo의 최적화된 알고리즘 및 3D 병렬 처리 기술로
LLM을 더 효과적으로 훈련했습니다. 다른 플랫폼을 사용하는 것도 고려해 보았지만 하드웨어 수준에서
추론 수준까지 아우르는 전체 스택 환경을 제공하는 대안을 찾기가 어려웠습니다.

류휘정, LLM 개발 팀장, K* Corporation