Если AI — для интереса, не для прод-нагрузок: 12-16 ГБ VRAM хватит для SD 1.5 нативно, SDXL через quantize/CPU-offload, LLM 7B-13B локально через llama.cpp Q4. Меньше денег, чем за 24 ГБ.
Готов отдать 200к+ за 24 ГБ — подборка «AI 24 ГБ» выше.