Рейтинг GPU для AI-инференса — VRAM 10-13 ГБ — Intel — Pro и Server

AI-балл — для локального запуска больших языковых моделей, Stable Diffusion XL, fine-tuning и инференса embedding-моделей. Учитывается FP16 TFLOPS × 0.6 + Tensor Cores + memory bandwidth + min(VRAM, 80) ÷ 4. Карты с 80+ ГБ VRAM и оптимизацией под Tensor — в топе.

Фильтры: VRAM 10-13 ГБ + Intel + Pro и Server

Гейминг AI-инференс 3D-рендер Вычисления Энергоэффективность
Все Consumer Ноутбуки Pro/Server
Все NVIDIA AMD Intel
VRAM: Любой <8 ГБ 8 ГБ 12 ГБ 16 ГБ 24 ГБ 32+ ГБ

Нет видеокарт с такими фильтрами. Попробуй ослабить условия.