Рейтинг GPU для AI-инференса — VRAM 32+ ГБ — NVIDIA — Pro и Server

AI-балл — для локального запуска больших языковых моделей, Stable Diffusion XL, fine-tuning и инференса embedding-моделей. Учитывается FP16 TFLOPS × 0.6 + Tensor Cores + memory bandwidth + min(VRAM, 80) ÷ 4. Карты с 80+ ГБ VRAM и оптимизацией под Tensor — в топе.

Фильтры: VRAM 32+ ГБ + NVIDIA + Pro и Server

Гейминг AI-инференс 3D-рендер Вычисления Энергоэффективность
Все Consumer Ноутбуки Pro/Server
Все NVIDIA AMD Intel
VRAM: Любой <8 ГБ 8 ГБ 12 ГБ 16 ГБ 24 ГБ 32+ ГБ
# Модель Сегмент Память TDP AI
#1 NVIDIA DRIVE A100 PROD Ampere Сервер 32 ГБ 400 Вт
23.1
#2 NVIDIA GRID A100A Ampere Сервер 32 ГБ 400 Вт
17.1
#3 NVIDIA GRID A100B Ampere Сервер 48 ГБ 400 Вт
15.4
#4 NVIDIA RTX A6000 Ampere WS 48 ГБ 300 Вт
14.0
#5 NVIDIA Tesla V100S PCIe 32 GB Volta Сервер 32 ГБ 250 Вт
12.2
#6 NVIDIA Tesla V100 SXM3 32 GB Volta Сервер 32 ГБ 250 Вт
11.7
#7 NVIDIA Tesla V100 SXM2 32 GB Volta Сервер 32 ГБ 250 Вт
11.2
#8 NVIDIA Tesla V100 PCIe 32 GB Volta Сервер 32 ГБ 250 Вт
10.8
#9 NVIDIA Tesla V100 DGXS 32 GB Volta Сервер 32 ГБ 250 Вт
6.2