








ComfyUI 入门教程
1. 安装与启动
1. 下载ComfyUI
官方GitHub地址:
https://github.com/comfyanonymous/ComfyUI
下载方式:
直接下载压缩包并解压。
或使用Git命令:
git clone https://github.com/comfyanonymous/ComfyUI
“`
2. **安装依赖**
– 进入解压后的文件夹,运行:
“`bash
pip install -r requirements.txt
确保已安装支持CUDA的PyTorch(适用于NVIDIA显卡)。
3. 启动ComfyUI
运行主程序:
python main.py
浏览器访问 http://127.0.0.1:8188 打开界面。
2. 界面介绍
节点(Nodes):ComfyUI的核心功能模块,通过连接节点构建工作流。
画布:拖放和连接节点的区域。
右键菜单:点击空白处添加节点,点击节点编辑参数。
Queue Prompt:执行当前工作流。
保存/加载:支持保存工作流为JSON文件。
3. 基础工作流:文生图
目标:用Stable Diffusion生成一张图片。
1. 添加必要节点(右键菜单 → Add Node):
Checkpoint Loader:加载模型(如
sd_xl_base_1.0.safetensors )。
CLIP Text Encode(2个):分别输入正向和负向提示词。
KSampler:设置采样参数(步骤、CFG值、种子等)。
VAE Decode:将潜在空间图像解码为普通图片。
Save Image:保存生成的图片。
2. 连接节点:
Checkpoint Loader → CLIP Text Encode(正向/负向) → KSampler → VAE Decode → Save Image
具体连接方式:
将 Checkpoint Loader 的 CLIP 输出连接到两个 CLIP Text Encode 的输入。
将 Checkpoint Loader 的 model 和 positive/negative 文本输出连接到 KSampler 。
KSampler 输出到 VAE Decode ,最后到 Save Image 。
3. 填写参数:
在 CLIP Text Encode 中输入提示词(如 “a cute cat”)。
在 KSampler 中设置 steps=20 , cfg=7 , 选择采样器(如 Euler)。
4. 生成图片:
点击 Queue Prompt ,结果会保存在 ComfyUI/output 文件夹。
4. 进阶技巧
自定义节点:安装社区节点(如 ComfyUI-Manager 扩展管理工具)。
工作流复用:导出JSON文件分享或备份。
图像输入:使用 VAE Encode 和 Load Image 节点实现图生图。
5. 常见问题
报错“模型未找到”:将模型文件( .safetensors )放入
ComfyUI/models/checkpoints 。
显存不足:在 KSampler 中降低分辨率或启用 –lowvram 启动参数。
通过这个教程,你可以快速理解ComfyUI的模块化设计逻辑。后续可以尝试更复杂的工作流(如ControlNet、LoRA等)。如果需要更详细的节点说明,可以参考官方Wiki或社区教程!



