ComfyUI : Flux-低配模型(NF4,GGUF)

内容分享2天前发布
0 0 0

0x00 来由

上一篇(https://www.jianshu.com/p/4c04fe70e0e3) 介绍的是Flux 官方提供的模型,比较吃显卡、内存。
于是乎就有这片低配要求的 nf4模式,直接放在checkpoints, 且自带 clip,vae

名称来由:

  • NF4: Next-Gen Flux Model, 速度提升4倍,显存要求低4倍
  • GGUF: GPT-Generated Unified Format

0x01 NF4 模型下载

这里使用的是:Flux.1-Dev BNB NF4 v2:
下载地址:
https://civitai.com/models/638187?modelVersionId=721627
保存到 model/checkpoints下:

ComfyUI : Flux-低配模型(NF4,GGUF)

0x02 GGUF 下载

来这里:
https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main
下载规则:文件大小比显存略小即可。
列如我的显存12G,选择最接近的 9.86GB。

ComfyUI : Flux-低配模型(NF4,GGUF)

gguf 保存到 D:ComfyUImodelsunet

ComfyUI : Flux-低配模型(NF4,GGUF)

0x03 Clip 文件下载

参考上一篇: https://www.jianshu.com/p/4c04fe70e0e3

0x04 工具安装节点: ComfyUI-GGUF

通过节点安装器,安装节点 ComfyUI-GGUF:

ComfyUI : Flux-低配模型(NF4,GGUF)

0x05 手动安装节点: ComfyUI-NF4

目前的节点管理器中没有NF4,所以需要我们手动下载

cd custom_nodes
git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
cd ComfyUI_bitsandbytes_NF4
pip install -r ./requirements.txt

ComfyUI : Flux-低配模型(NF4,GGUF)

0x06 工具安装节点: x-flux-comfyui

ComfyUI : Flux-低配模型(NF4,GGUF)

0x06 安装 Lora

打开这里:https://huggingface.co/XLabs-AI/flux-lora-collection/tree/main
文件列表中,带 comfy_converted 的文件,可以直接放到 models/lora目录中

ComfyUI : Flux-低配模型(NF4,GGUF)

下载黑悟空Lora: https://civitai.com/models/665047/wukong-flux-v1

ComfyUI : Flux-低配模型(NF4,GGUF)

0x07 安装 Controlnet

下载三个 Controlnet 放到 D:ComfyUImodelsxlabscontrolnet 下面
来源:
https://huggingface.co/XLabs-AI/flux-controlnet-hed-v3/tree/main
https://huggingface.co/XLabs-AI/flux-controlnet-canny-v3/tree/main
https://huggingface.co/XLabs-AI/flux-controlnet-depth-v3/tree/main

ComfyUI : Flux-低配模型(NF4,GGUF)

0x08 下载放大器

来源:https://huggingface.co/lokCX/4x-Ultrasharp/blob/main/4x-UltraSharp.pth
放到这里:D:ComfyUImodelsupscale_models

ComfyUI : Flux-低配模型(NF4,GGUF)

0x09 一些参数:

  • guidance:

    • 写实: 2~3
    • 卡通:3~4.5

      ComfyUI : Flux-低配模型(NF4,GGUF)

  • cfg
    使用Flux模型时,直接设置为1

0x10 跑一个例子:

效果不是太好,重在参与,哈哈,收工

ComfyUI : Flux-低配模型(NF4,GGUF)

© 版权声明

相关文章

暂无评论

none
暂无评论...