ComfyUI : Flux-低配模型(NF4,GGUF)

0x00 来由

上一篇(https://www.jianshu.com/p/4c04fe70e0e3) 介绍的是Flux 官方提供的模型,比较吃显卡、内存。
于是乎就有这片低配要求的 nf4模式,直接放在checkpoints, 且自带 clip,vae

名称来由:

  • NF4: Next-Gen Flux Model, 速度提升4倍,显存要求低4倍
  • GGUF: GPT-Generated Unified Format

0x01 NF4 模型下载

这里使用的是:Flux.1-Dev BNB NF4 v2:
下载地址:
https://civitai.com/models/638187?modelVersionId=721627
保存到 model/checkpoints下:

image.png

0x02 GGUF 下载

来这里:
https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main
下载规则:文件大小比显存略小即可。
比如我的显存12G,选择最接近的 9.86GB。

image.png

gguf 保存到 D:\ComfyUI\models\unet


image.png

0x03 Clip 文件下载

参考上一篇: https://www.jianshu.com/p/4c04fe70e0e3

0x04 工具安装节点: ComfyUI-GGUF

通过节点安装器,安装节点 ComfyUI-GGUF:


image.png

0x05 手动安装节点: ComfyUI-NF4

目前的节点管理器中没有NF4,所以需要我们手动下载

cd custom_nodes
git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
cd ComfyUI_bitsandbytes_NF4
pip install -r ./requirements.txt
image.png

0x06 工具安装节点: x-flux-comfyui

image.png

0x06 安装 Lora

打开这里:https://huggingface.co/XLabs-AI/flux-lora-collection/tree/main
文件列表中,带 comfy_converted 的文件,可以直接放到 models/lora目录中

image.png

下载黑悟空Lora: https://civitai.com/models/665047/wukong-flux-v1

image.png

0x07 安装 Controlnet

下载三个 Controlnet 放到 D:\ComfyUI\models\xlabs\controlnet 下面
来源:
https://huggingface.co/XLabs-AI/flux-controlnet-hed-v3/tree/main
https://huggingface.co/XLabs-AI/flux-controlnet-canny-v3/tree/main
https://huggingface.co/XLabs-AI/flux-controlnet-depth-v3/tree/main

image.png

0x08 下载放大器

来源:https://huggingface.co/lokCX/4x-Ultrasharp/blob/main/4x-UltraSharp.pth
放到这里:D:\ComfyUI\models\upscale_models

image.png

0x09 一些参数:

  • guidance:

    • 写实: 2~3
    • 卡通:3~4.5


      image.png
  • cfg
    使用Flux模型时,直接设置为1

0x10 跑一个例子:

效果不是太好,重在参与,哈哈,收工


image.png
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

友情链接更多精彩内容