ComfyUI-Flux
ComfyUI
下载桌面版地址:(https://github.com/comfyanonymous/ComfyUI)
文档速查手册:ComfyUI Wiki 百科在线速查手册 | ComfyUI Wiki 速查手册
Flux.1 目前除了官方推出的 3 个模型,但其中只有 Dev 和 Schnell 版本是开源的,但由于 Flux 对硬件的要求,目前开源社区基于原始版本也已经迭代了多个版本,主要有:
- Black Forest Labs 官方版本 dev 、 schnell
- ComfyUI FP8 版本 dev 、schnell
- Kijia FP8 版本 dev 、schnell
- lllyasviel BNB NF4 V2 版本 dev
- City96 GGUF 版本 dev 、 schnell
后续有新的版本我也会在此文更新,所以别忘了收藏这篇文章,不同版本对应信息如下,虽然表格中提供了下载链接,但我建议你根据不同的工作流来单独下载模型,而不是在下面的表格中直接下载对应的模型文件
作者 | 模型名称 | 可商用 | ControlNet 以及 LoRA支持 | 特性 | 显存要求 | 文件大小 | 下载地址 |
---|---|---|---|---|---|---|---|
Black Forest Labs | Flux.1 Dev | 否 | 支持 | 需要下载 CLIP、VAE、UNET等几个模型 | 16GB+ | 23.8GB | 下载 |
Black Forest Labs | Flux.1 Schnell | 是 | 支持 | 需要下载 CLIP、VAE、UNET等几个模型 | 16GB+ | 23.8GB | 下载 |
ComfyUI | Flux.1 Dev FP8 | 否 | 支持 | 融合 Clip 及 VAE,仅需要下载一个模型 | 8GB+ | 17.2GB | 下载 |
ComfyUI | Flux.1 Schnell FP8 | 是 | 支持 | 融合 Clip 及 VAE,仅需要下载一个模型 | 8GB+ | 17.2GB | 下载 |
Kijia | Flux.1 Dev FP8 | 否 | 支持 | 融合 Clip 及 VAE,仅需要下载一个模型 | 8GB+ | 下载 | |
Kijia | Flux.1 Schnell FP8 | 是 | 支持 | 融合 Clip 及 VAE,仅需要下载一个模型 | 8GB+ | 下载 | |
lllyasviel | Flux.1 Dev BNB NF4 V1 | 否 | 支持 | 融合 Clip 及 VAE,仅需要下载一个模型,需要安装ComfyUI_bitsandbytes_NF4插件 | 6GB+ | 11.5GB | 下载 |
lllyasviel | Flux.1 Dev BNB NF4 V2 | 否 | 支持 | 融合 Clip 及 VAE,仅需要下载一个模型,需要安装ComfyUI_bitsandbytes_NF4插件 | 6GB+ | 12GB | 下载 |
City96 | Flux.1 Dev GGUF | 否 | 支持 | 需要下载 CLIP、VAE、UNET等几个模型 ,需要安装ComfyUI-GGUF插件 | 6GB+ | 12GB | 下载 |
City96 | Flux.1 Schnell GGUF | 是 | 支持 | 需要下载 CLIP、VAE、UNET等几个模型 ,需要安装ComfyUI-GGUF插件 | 6GB+ | 12GB | 下载 |
要在ComfyUI中使用Flux.1,你需要升级到最新的ComfyUI版本。如果你还没有更新ComfyUI,可以按照下面的文章进行升级或安装指导。
FLUX1.0 原始版本
原始版本工作流较为复杂,需要安装多个文件,此部分教程包括两个部分
- CLIP、VAE、UNET 模型的下载安装
- Flux.1 原始版本复杂工作流,包括 Dev 和 Schnell 版本以及低显存版本的工作流示例
第一部分: CLIP、VAE、UNET 模型的下载安装
下载 ComfyUI flux_text_encoders、clip 模型
ComfyUI flux_text_encoders on hugging face
模型名称 | 大小 | 说明 | Link |
---|---|---|---|
clip_l.safetensors |
246 MB | CLIP文件 | 下载 |
t5xxl_fp8_e4m3fn.safetensors (推荐) |
4.89 GB | 低显存 (8-12GB) | 下载 |
t5xxl_fp16.safetensors |
9.79 GB | 高显存,超过 32GB . | 下载 |
- 下载 clip_l.safetensors
- 下载 t5xxl_fp8_e4m3fn.safetensors 或 t5xxl_fp16.safetensors 取决你你的显存
- 下载后的模型存放到
ComfyUI/models/text_encoders/
文件夹.
下载 FLux.1 VAE 模型
FLUX.1-schnell on hugging face
文件名称 | 文件尺寸 | 下载链接 | 备注 |
---|---|---|---|
ae.safetensors |
335 MB | 下载 |
- 下载
ae.safetensors
模型 - 将对应模型放置到
ComfyUI/models/vae
文件夹 - 为了方便以后的使用,建议将模型名称修改为
flux_ae.safetensors
;
下载 FLux.1 UNET 模型
FLUX.1-schnell on hugging face
文件名称 | 文件尺寸 | 下载链接 | 备注 |
---|---|---|---|
flux1-schnell.safetensors |
23.8GB | Download | 低显存用户 |
flux1-dev.safetensors |
23.8GB | Download | 高显存用户 |
- 下载
flux1-schnell.safetensors
- 将对应的文件存放至
ComfyUI/models/unet/
folder
FLUX1.0 fp8版本
下面的模型是由 ComfyUI.org 提供的,你只需要下载一个文件就可以运行并使用 Flux 模型了
模型名称 | 文件尺寸 | 下载链接 |
---|---|---|
flux1-dev-fp8 | 17.2GB | 下载 |
flux1-schnell-fp8 | 17.2GB | 下载 |
- 选择你需要的模型版本
- 将对应的模型存放至
ComfyUI/models/checkpoints/
目录下,建议新建一个文件夹存放,如ComfyUI/models/checkpoints/flux
你也可以使用文章开头提到的 Kijia 的 FP8 版本 Flux.1 模型,不过由于文件命名相似,建议下载之后重命名文件或者新建单独文件夹来区分
FLUX1.0 GGUF版本
作者: City96 项目地址: https://github.com/city96/ComfyUI-GGUF
💡
City96 提供了多个不同质量的 GGUF 版本 Flux 模型,如果你在对应仓库不知道该下载哪个版本的模型,下面是一个简单的引导规则
- Q 后面的数字越大,需要的显存越大,同时生成图片的质量越高,比如 Q2 需要的显存较小但生成的图片质量较低,Q8 需要的显存较大但生成的图片质量较高
- 你也可以根据模型的文件大小来判断对应的质量,文件越大通常意味着质量越高需要的显存越大
安装插件和下载模型
- 下载 Flux GGUF dev 模型 或 Flux GGUF schnell 模型 并将模型文件放置在
comfyui/models/unet
目录下 - 下载 t5-v1_1-xxl-encoder-gguf,并将模型文件放置在
comfyui/models/clip
目录下 - 下载 clip_l.safetensors 并将模型文件放置在
comfyui/models/clip
目录下 - 下载 ae.safetensors 并将模型文件放置在
comfyui/models/vae
目录下,建议重命名为flux_ae.safetensors
- 安装 ComfyUI-GGUF 插件,如果你不知道如何安装插件,可以参考ComfyUI 插件安装教程