GPU 비교 AMD Radeon Instinct MI100 vs NVIDIA Tesla V100 SXM2 32 GB

AMD Radeon Instinct MI100 vs NVIDIA Tesla V100 SXM2 32 GB

주요 사양, 벤치마크 테스트, 전력 소비 등을 기준으로 두 개의 전문 시장 GPU를 비교했습니다. 32GB VRAM Radeon Instinct MI100과 32GB VRAM Tesla V100 SXM2 32 GB

주요 차이점

AMD Radeon Instinct MI100 의 장점
출시 2년 그리고 8개월 늦었습니다
더 큰 VRAM 대역폭 (1229GB/s 대 897.0GB/s)
2560 개의 추가 렌더링 코어
NVIDIA Tesla V100 SXM2 32 GB 의 장점
부스트 클럭 의 성능이 2% 증가했습니다. (1530MHz 대 1502MHz)
낮은 TDP (250W 대 300W)

점수

벤치마크

FP32 (float)
Radeon Instinct MI100 +47%
23.07 TFLOPS
Tesla V100 SXM2 32 GB
15.67 TFLOPS
VS

그래픽 카드

2020년11월
출시일
2018년3월
Radeon Instinct
세대
Tesla
전문
유형
전문
PCIe 4.0 x16
버스 인터페이스
PCIe 3.0 x16

클럭 속도

1000 MHz
기본 클럭
1290 MHz
1502 MHz
부스트 클럭
1530 MHz
1200 MHz
메모리 클럭
876 MHz

메모리

32GB
메모리 크기
32GB
HBM2
메모리 타입
HBM2
4096bit
메모리 버스
4096bit
1229GB/s
대역폭
897.0GB/s

렌더링 설정

-
스트림 프로세서 개수
80
120
컴퓨트 유닛
-
7680
새딩 유닛
5120
480
텍스처 매핑 유닛
320
64
렌더 출력 파이프라인
128
-
텐서 코어
640
-
레이 트레이싱 코어
-
16 KB (per CU)
L1 캐시
128 KB (per SM)
8 MB
L2 캐시
6 MB

이론적 성능

96.13 GPixel/s
픽셀 속도
195.8 GPixel/s
721.0 GTexel/s
텍스처 속도
489.6 GTexel/s
184.6 TFLOPS
FP16 (반 정밀도)
31.33 TFLOPS
23.07 TFLOPS
FP32 (단 정밀도)
15.67 TFLOPS
11.54 TFLOPS
FP64 (배 정밀도)
7.834 TFLOPS

그래픽 프로세서

Arcturus
GPU 이름
GV100
Arcturus XL
GPU 변형
-
CDNA 1.0
아키텍처
Volta
TSMC
파운드리
TSMC
7 nm
제조 공정 크기
12 nm
256 억
트랜지스터
211 억
750 mm²
다이 크기
815 mm²

보드 디자인

300W
TDP
250W
700 W
권장 전원 공급 장치
600 W
No outputs
출력 포트
No outputs
2x 8-pin
전원 연결자
None

그래픽 기능

N/A
DirectX
12 (12_1)
N/A
OpenGL
4.6
2.1
OpenCL
3.0
N/A
Vulkan
1.3
-
CUDA
7.0
N/A
쉐이더 모델
6.6

관련 GPU 비교

© 2024 - TopCPU.net   문의하기 개인정보 처리방침