AI 摘要
本文详细介绍了Z-Image-Turbo模型在本地部署的不同方式,包括通过克隆源码运行、Hugging Face Diffusers集成、ComfyUI节点部署和GGUF量化部署等多种方法。这些方案覆盖了不同用户的需求,从高端显卡到低显存设备,都能提供原生体验。
Z-Image-Turbo 作为通义实验室(Alibaba Tongyi)发布的 6B 参数级“极速”生成模型,在 2026 年初的 AI 绘图界引起了巨大轰动。凭借其 S³-DiT 架构,它在单张显卡上实现了惊人的亚秒级推理,且原生支持高质量的中英双语文字排版。
如果你想获得隐私、免费且极速的体验,本地部署是唯一选择。本文将详细为你介绍目前比较主流的四种部署方式。
硬件准备
在部署前,请根据你的设备对照以下需求:
1. NVIDIA PC 用户:
推荐配置: RTX 3090 / 4080 / 5070 (16GB+ 显存)。此配置可运行 BF16 全精度版,享受极致细节。
入门配置: RTX 3060 / 4060 (8GB 显存)。需配合下文提到的 GGUF 或 FP8 量化方案。
软件要求: CUDA 12.1+ 及 NVIDIA 最新驱动。
2. Mac 用户 (Apple Silicon)
推荐配置: M2/M3/M4 Max 或 Ultra 芯片,32GB 以上统一内存。
入门配置: M1/M2/M3/M4 基础款,16GB 统一内存(生成速度较慢,但可运行)。
软件要求: macOS 14.0 (Sonoma) 或更高版本,确保 MPS (Metal Performance Shaders) 驱动正常。
方案一
官方推荐的两种路径
路径1:克隆源码运行 (Repo Source)
这种方式最稳定,因为它直接运行官方最新代码。
核心步骤:
## 下载最新代码
git clone https://github.com/Tongyi-MAI/Z-Image.git
## 构建一个您喜欢的虚拟环境,然后安装依赖项:
pip install -e .
## 安装当前目录下所有的依赖项## 构建一个您喜欢的虚拟环境,然后安装依赖项
python inference.py
Mac 适配: 脚本会自动识别 mps,若报错可尝试设置环境变量 export PYTORCH_ENABLE_MPS_FALLBACK = 1。
路径 B:Hugging Face Diffusers 集成
如果你熟悉常用的 AI 绘图代码框架,这是最顺手的。
核心步骤:
1. 从源码安装 Diffusers:(由于 Z-Image 较新,需安装开发版)
pip install git+https://github.com/huggingface/diffusers
2. 调用代码:
import torch
from diffusers import ZImagePipeline
## 1. Load the pipeline
## Use bfloat16 for optimal performance on supported GPUs
pipe = ZImagePipeline.from_pretrained(
"Tongyi-MAI/Z-Image-Turbo",
torch_dtype=torch.bfloat16,
low_cpu_mem_usage=False,
)
## Mac 用户请将 "cuda" 换成 "mps"
pipe.to("cuda")
prompt = "Young Chinese woman in red Hanfu, intricate embroidery. Impeccable makeup, red floral forehead pattern. Elaborate high bun, golden phoenix headdress, red flowers, beads. Holds round folding fan with lady, trees, bird. Neon lightning-bolt lamp (⚡️), bright yellow glow, above extended left palm. Soft-lit outdoor night background, silhouetted tiered pagoda (西安大雁塔), blurred colorful distant lights."
## 2. Generate Image
image = pipe(
prompt=prompt,
height=1024,
width=1024,
num_inference_steps=9, ## This actually results in 8 DiT forwards
guidance_scale=0.0, ## Guidance should be 0 for the Turbo models
generator=torch.Generator("cuda").manual_seed(42),
).images[0]
image.save("example.png")
方案二
主流玩家必选——ComfyUI 节点部署
这是目前社区最火的方案,适合需要精细控制画面细节(如调节 Lora、控制重绘)的用户。可参考另一篇文章《我用电脑跑AI生图大模型》
核心步骤
-
下载ComfyUI: 去comfy.org根据你的系统下载最新版ComfyUI 。
-
放置模型:从HuggingFace或者modelscope搜索“Comfy-Org/z_image_turbo”模型。
- 下载z_image_turbo_bf16.safetensors模型文件放入 models/checkpoints/下。
- 将配套的 CLIP (Qwen-4B) 放入 models/text_encoders/下。
- 将ae.safetensors放到models/vae/下。
-
安装插件: 在 ComfyUI Manager 中搜索 ComfyUI-Z-Image 并安装。
-
加载工作流: 导入官方提供的 JSON 模板。
-
参数配置: 步数(Steps)设为 8,CFG 设为 1.0。
方案三
低显存拯救者——GGUF 量化部署
如果你的显存小于 10GB,或者在 Mac 基础款上运行,GGUF 是通过牺牲极小精度来换取运行能力的最佳方案。
核心步骤
-
安装专用节点: 首先安装ComfyUI,可参考方法二,在 ComfyUI Manager 中搜索并安装 ComfyUI-GGUF。
-
下载 GGUF 权重: 访问 Hugging Face 搜索 Z-Image-Turbo-GGUF,下载 Q3_K_S(高度压缩,适合低配机器)或 Q4_K_M(中等压缩)版本,放入 models/unet/。
节点连接:
使用 Unet Loader (GGUF) 节点替换标准的 Checkpoint 加载节点。
依然需要加载原生的 VAE 文件以确保色彩正确。
优势: 8GB 显存的 PC 或 16GB 内存的 Mac 也能轻松生成 1024x1024 的高清图,不会因为显存不足(OOM)而闪退。
方案四
懒人一键包——Stability Matrix
适合不想和命令行打交道,追求“应用商店”式体验的用户。
核心步骤
1. 下载工具: 安装 Stability Matrix。
2. 添加 Package: 在软件内选择添加 ComfyUI。
3. 一键导入模型:
在工具自带的浏览器中搜 “Z-Image”。
点击 “Import”,它会自动处理下载、路径分配和依赖库的关联。
4. 跨平台运行: 该工具完美支持 macOS,会自动配置好 Metal 加速环境,无需手动输入任何代码。
总结
Z-Image-Turbo 的出现意味着本地 AI 绘画不再是高端显卡用户的特权。如果你追求原生体验,请务必尝试 方案一 的官方路径;如果你是 Mac 用户或低显存玩家,方案三 会让你惊叹于它的流畅度。