Для серьёзных AI-задач — локальной LLM 30B-класса, training small models, Stable Diffusion XL без CPU-оффлоада — нужно от 24 ГБ VRAM. Меньше — модели не помещаются и приходится бить на куски.
Если бюджет до 100к ₽ — смотри подборку «лучшие до 100к» с 12-16 ГБ. Это меньше, но 70% задач закроет.