AI 인프라 서비스

KQC GPUaaS, 하이엔드 AI 클라우드 서비스,
H200으로 완성하다.

KQC GPUaaS,
하이엔드 AI 클라우드 서비스,

H200으로 완성하다.

KQC GPUaaS

KQC GPUaaS

KQC AI GPUaaS란?

AI GPUaaS(GPU as a Service)는 대규모 AI 모델 학습과 고성능 연산이 필요한

기업과 개발자를 위한 클라우드 기반 GPU 인프라 서비스입니다.

AI 모델 학습, 추론, 그래픽 처리, 자율주행 시뮬레이션, 과학 계산 등 고성능 작업에 필요한 인프라로,

KQC는 국내 최초로 NVIDIA H200 SXM5 기반 GPU Farm을 상용화하여, 초고속 성능, 강력한 보안, 경제성을 동시에 제공합니다.

AI GPUaaS(GPU as a Service)는 대규모 AI 모델 학습과 고성능 연산이 필요한 기업과 개발자를 위한 클라우드 기반 GPU 인프라 서비스입니다.

AI 모델 학습, 추론, 그래픽 처리, 자율주행 시뮬레이션, 과학 계산 등 고성능 작업에 필요한 인프라로, KQC는 국내 최초로 NVIDIA H200 SXM5 기반 GPU Farm을 상용화하여, 초고속 성능, 강력한 보안, 경제성을 동시에 제공합니다.

성능 연산, 빠른 입출력, 전용 환경으로 연구와 서비스의 효율을 극대화하십시오.

성능 연산, 빠른 입출력, 전용 환경으로
연구와 서비스의 효율을 극대화하십시오.

성능 연산, 빠른 입출력, 전용 환경으로
연구와 서비스의 효율을 극대화하십시오.

KQC AI GPUaaS의 강점

KQC에서 사용하는 베어메탈 GPUaaS는 고성능 AI 연산을 위한 전용 서버 기반으로,
특히 NVIDIA H200 SXM5 GPU와 GDS 인증 스토리지, 고속 InfiniBand 네트워크 등을 통합하여
타사 GPU 클라우드 대비 압도적인 성능과 안정성을 제공합니다.

KQC에서 사용하는 베어메탈 GPUaaS는 고성능 AI 연산을 위한 전용 서버 기반으로, 특히 NVIDIA H200 SXM5 GPU와 GDS 인증 스토리지, 고속 InfiniBand 네트워크 등을 통합하여 타사 GPU 클라우드 대비 압도적인 성능과 안정성을 제공합니다.

최고 사양의 성능

NVIDIA H200 SXM5 (141GB) 최신 GPU 채택
InfiniBand 400Gb x4 초고속 GPU 간 통신
GDS 인증 고속 스토리지로 I/O 병목 해소
가상화 없는 베어메탈 서버로 100% 성능 활용

강력한 보안과 독립성

고객별 전용 환경 제공 (멀티테넌시 아님)
Private Cloud 구조로 보안성과 격리성 극대화

비용 효율성과 투명한 과금

DTO 과금 없음 – 대량 학습/추론 데이터 전송 유리
단순하고 명확한 요금제 – 예산 예측 용이

타사 대비 기술 사양 비교표 (KQC vs 주요 CSP)

타사 대비 기술 사양 비교표
(KQC vs 주요 CSP)

항목

항목

KQC GPUaaS

KQC GPUaaS

A사(글로벌 CSP)

A사(글로벌 CSP)

L사(국내 CSP)

L사(국내 CSP)

GPU

GPU

H200 SXM5 141GB

H200 SXM5 141GB

A100/H100

A100/H100

A100 or L4

A100 or L4

연결 방식

연결 방식

NVLink (최대 900GB/s)

NVLink (최대 900GB/s)

PCIe (32~64GB/s)

PCIe (32~64GB/s)

PCIe

PCIe

스토리지

스토리지

GDS 인증 All-Flash

GDS 인증
All-Flash

일반 SSD

일반 SSD

일반 NAS

일반 NAS

통신

통신

InfiniBand 400Gb x4

InfiniBand
400Gb x4

200Gb

200Gb

이더넷

이더넷

가상화

가상화

베어메탈 구조

베어메탈 구조

대부분 가상화

대부분 가상화

가상화 기반

가상화 기반

보안 격리

보안 격리

전용 환경 제공

전용 환경 제공

멀티테넌시

멀티테넌시

멀티테넌시

멀티테넌시

DTO 과금

DTO 과금

없음

없음

존재

존재

존재

존재

타사 대비 가격 비교 차트

$116.60/h

A사

N사

M사

S사

L사

KQC

합리적인 과금 체계

합리적인 과금 체계

불필요한 Cost 제거를 통한 간결한 과금 체계

불필요한 Cost 제거를 통한 간결한 과금 체계

TCO 관점에서의 비용 부담 최소화

TCO 관점에서의 비용 부담 최소화

· GPU/Storage 등 필수요소에 한정된 과금 체계

· GPU/Storage 등 필수요소에 한정된 과금 체계

Hybrid 연동 비용 최소화

Hybrid 연동 비용 최소화

Public Cloud

Public Cloud

· 전문 MSP 업체 협업을 통한 불필요한 비용 최소화

· 전문 MSP 업체 협업을 통한 불필요한 비용 최소화

On-Prem Computing/Storage

On-Prem Computing/Storage

· 다양한 Billing Plan 제공

· 다양한 Billing Plan 제공

국내 최고 수준의 비용 대비 성능

국내 최고 수준의 비용 대비 성능

성능 최적화에 집중한 Architecture

성능 최적화에 집중한 Architecture

최적의 가성비 실현을 위한 전문 컨설팅 지원

최적의 가성비 실현을 위한 전문 컨설팅 지원

· 다양한 사용 환경을 위한 유연한 구성 설계

· 다양한 사용 환경을 위한 유연한 구성 설계

H200 SXM5

H200 SXM5

H200 SXM5

H200 SXM5

AI Supercomputer의 심장,
H200으로 업그레이드된 클라우드를 만나보세요.

AI Supercomputer의 심장,
H200으로 업그레이드된
클라우드를 만나보세요.

NVIDIA H200 SXM5의 장점

업계 최고 수준의 메모리 용량

141GB HBM3e 메모리로 한 번에 초대형 모델 학습/추론 가능
GPT-4, LLaMA3 등 대규모 모델에 최적화

141GB HBM3e 메모리로 한 번에 초대형 모델 학습/추론 가능
GPT-4, LLaMA3 등 대규모 모델에 최적화

141GB HBM3e 메모리로 한 번에
초대형 모델 학습/추론 가능
GPT-4, LLaMA3 등 대규모 모델에 최적화

HBM3e 메모리의 높은 속도

대규모 데이터 병렬 처리와 AI 추론 속도 향상

대규모 데이터 병렬 처리와 AI 추론 속도 향상

대규모 데이터 병렬 처리와 AI 추론 속도 향상

NVLink 기반 빠른 GPU 간 통신

DGX 시스템, SuperPOD 구성 시 병렬성 극대화
PCIe보다 약 7배 높은 대역폭 (예: 7.2TB/s NVLink 집적 가능)

DGX 시스템, SuperPOD 구성 시 병렬성 극대화
PCIe보다 약 7배 높은 대역폭 (예: 7.2TB/s NVLink 집적 가능)

DGX 시스템, SuperPOD 구성 시
병렬성 극대화
PCIe보다 약 7배 높은 대역폭
(예: 7.2TB/s NVLink 집적 가능)

FP8 연산 최적화

정밀도 손실 최소화하면서도 연산량 및 속도 극대화

정밀도 손실 최소화하면서도 연산량 및 속도 극대화

정밀도 손실 최소화하면서도
연산량 및 속도 극대화

AI 전용 데이터센터 구축에 필수

NVIDIA DGX H200, HGX H200 등에 탑재되어
AI Supercomputer 구축 핵심 구성 요소

NVIDIA DGX H200, HGX H200 등에 탑재되어
AI Supercomputer 구축 핵심 구성 요소

NVIDIA DGX H200, HGX H200 등에 탑재되어 AI Supercomputer 구축 핵심 구성 요소

NVIDIA DGX SuperPOD Architecture 적용, 그리고 진화

NVIDIA DGX SuperPOD Architecture 적용, 그리고 진화

Compute Fabric

NVIDIA

· InfiniBand 400Gb X 3 Line

KQC

· InfiniBand 400Gb X 4 Line

Storage Fabric

NVIDIA

· InfiniBand 200Gb X 4 Line

KQC

· InfiniBand 200Gb X 8 Line

Leaf-Spine Fabric

NVIDIA

· InfiniBand 400Gb X 2 Line

KQC

· InfiniBand 400Gb X 4 Line

Service Fabric

NVIDIA

· Int./Ext. Line 혼재

KQC

· Int. Line 100Gb X 2 Line

· Ext. Line 10Gb X 2 Line

H100 대비 주요 개선점

항목

H100 SXM

H200 SXM

아키텍처

아키텍처

Hopper

Hopper

Hopper

Hopper

HBM 메모리

HBM 메모리

80/96GB (HBM3)

80/96GB (HBM3)

141GB (HBM3e)

141GB (HBM3e)

메모리 대역폭

메모리 대역폭

3.35TB/s

3.35TB/s

4.8TB/s 이상

4.8TB/s 이상

통신AI 연산 성능 (FP8)

통신AI 연산 성능 (FP8)

~1,000 TFLOPS

~1,000 TFLOPS

비슷하나 메모리 병목 감소로 실성능 향상

비슷하나 메모리 병목 감소로
실성능 향상

비슷하나 메모리
병목 감소로 실성능 향상

사용 용도

사용 용도

AI 학습/추론

AI 학습/추론

초거대 AI 모델에 최적

초거대 AI 모델에 최적