В основе SD 3.5 Large - архитектура Multimodal Diffusion Transformer (MMDiT). Модель использует три предобученных текстовых энкодера: 🟢 OpenCLIP-ViT/G; 🟢 CLIP-ViT/L;🟢 T5-xxl.
OpenCLIP-ViT/G и CLIP-ViT/L имеют контекстную длину 77 токенов, а T5-xxl - 77/256 токенов.Модель доступна по API в сервисах - Stability AI, Replicate и Deepinfra.Для локального использования модели рекомендуется использовать ComfyUI (базовый воркфлоу) или Diffusers.⚠️ Инференс квантованной NF4-версии на ограниченных VRAM⚠️ Подробные инструкции по файнтюну и тренировке LoRA для Stable Diffusion 3.5 Large.В целом, модель выглядит лучше 3-й версии.
Местами лучше FLUX, метсами хуже. Подтянули эстетику и фотореализм, но согласованность в анатомии все еще не очень.
Читать на habr.com