02-环境搭建与安装¶
🎯 学习目标¶
- 了解运行 ComfyUI 的硬件要求
- 掌握至少一种 ComfyUI 安装方式
- 学会下载和安装 Stable Diffusion 模型
- 安装 ComfyUI Manager 节点管理器
- 掌握常见问题排查方法
2.1 硬件要求¶
2.1.1 GPU 要求¶
ComfyUI 的核心性能依赖 GPU(推荐 NVIDIA 显卡):
| 显存 | 适用场景 | 推荐配置 |
|---|---|---|
| 4GB | 基础 SD1.5 生成(需 --lowvram) | GTX 1650、RTX 3050 |
| 6GB | SD1.5 常规生成 | RTX 2060、RTX 3060 |
| 8GB | SDXL 基础生成 | RTX 3060 Ti、RTX 4060 |
| 12GB | SDXL 高分辨率、多 LoRA | RTX 3060 12GB、RTX 4070 |
| 16GB+ | Flux、SD3、大批量、视频生成 | RTX 4080、RTX 4090 |
| 24GB | 全功能无限制 | RTX 3090、RTX 4090 |
💡 提示:AMD 显卡可使用 ROCm(Linux)或 DirectML(Windows)支持,但生态不如 NVIDIA 成熟。Intel Arc 显卡也有社区适配方案。
2.1.2 CPU 与内存¶
| 组件 | 最低要求 | 推荐配置 |
|---|---|---|
| CPU | 4核心(任意现代处理器) | 8核心+(用于预处理加速) |
| 内存 | 8GB | 16GB+(大模型需要32GB) |
| 硬盘 | SSD 50GB+ 可用空间 | NVMe SSD 200GB+ |
⚠️ 注意:模型文件通常很大(单个 Checkpoint 2-7GB),确保有足够的硬盘空间。建议将模型存放在 SSD 上以加速加载。
2.1.3 操作系统¶
- Windows 10/11(最常用,支持最好)
- Linux(Ubuntu 22.04+ 推荐,性能最佳)
- macOS(Apple Silicon M1/M2/M3 支持 MPS 加速)
2.2 安装方式一:直接安装(Git 克隆)¶
这是最灵活、最推荐的安装方式,适合有一定技术基础的用户。
2.2.1 前置条件¶
确保系统中已安装:
- Python 3.10 - 3.12(推荐 3.11)
- Git
- NVIDIA 驱动(CUDA 11.8 或 12.x)
2.2.2 安装步骤¶
# 1. 克隆 ComfyUI 仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# 2. 创建虚拟环境(推荐)
python -m venv venv
# Windows 激活虚拟环境
venv\Scripts\activate
# Linux/macOS 激活虚拟环境
# source venv/bin/activate
# 3. 安装 PyTorch(根据 CUDA 版本选择)
# CUDA 12.x(推荐)
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu124
# CUDA 11.8
# pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu118
# 4. 安装 ComfyUI 依赖
pip install -r requirements.txt
# 5. 启动 ComfyUI
python main.py
2.2.3 验证安装¶
启动成功后,终端会显示:
打开浏览器访问 http://127.0.0.1:8188,看到节点编辑器界面即表示安装成功。
2.3 安装方式二:便携包安装(Windows 一键包)¶
适合 Windows 用户快速上手,无需配置 Python 环境。
2.3.1 下载便携包¶
- 前往 ComfyUI Releases 页面
- 下载最新的
ComfyUI_windows_portable_*.7z文件 - 解压到任意目录(路径不要包含中文)
2.3.2 目录结构¶
ComfyUI_windows_portable/
├── ComfyUI/ # ComfyUI 主程序
│ ├── models/ # 模型存放目录
│ ├── custom_nodes/ # 自定义节点
│ ├── input/ # 输入图像
│ ├── output/ # 输出图像
│ └── main.py # 主程序入口
├── python_embedded/ # 内嵌 Python 环境
├── run_nvidia_gpu.bat # NVIDIA GPU 启动脚本
├── run_cpu.bat # CPU 模式启动脚本
└── update/ # 更新脚本
2.3.3 启动¶
💡 提示:便携包已内嵌 Python 和 PyTorch,开箱即用。更新时运行
update目录中的脚本即可。
2.4 安装方式三:Docker 安装¶
适合服务器部署和跨平台一致性需求。
2.4.1 前置条件¶
- 安装 Docker 和 Docker Compose
- NVIDIA Container Toolkit(GPU 支持)
2.4.2 使用 Docker Compose¶
创建 docker-compose.yml 文件:
services: # services定义各个服务容器
comfyui:
image: ghcr.io/ai-dock/comfyui:latest
ports:
- "8188:8188"
volumes:
- ./models:/workspace/ComfyUI/models
- ./output:/workspace/ComfyUI/output
- ./custom_nodes:/workspace/ComfyUI/custom_nodes
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1
capabilities: [gpu]
environment:
- CLI_ARGS=--listen 0.0.0.0
2.4.3 手动 Docker 构建¶
# 克隆仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# 构建 Docker 镜像
docker build -t comfyui .
# 运行容器
docker run -d --gpus all \
-p 8188:8188 \
-v $(pwd)/models:/app/models \ # $()命令替换:执行命令并获取输出
-v $(pwd)/output:/app/output \
comfyui --listen 0.0.0.0
2.5 模型下载与安装¶
2.5.1 模型存放位置¶
ComfyUI 的模型目录结构如下:
ComfyUI/models/
├── checkpoints/ # Stable Diffusion 主模型 (.safetensors/.ckpt)
├── vae/ # VAE 模型
├── loras/ # LoRA 模型
├── controlnet/ # ControlNet 模型
├── clip/ # CLIP 文本编码器模型
├── clip_vision/ # CLIP 视觉编码器
├── embeddings/ # Textual Inversion 嵌入
├── upscale_models/ # 超分辨率模型 (ESRGAN等)
├── ipadapter/ # IP-Adapter 模型
├── insightface/ # 人脸识别模型
├── animatediff_models/ # AnimateDiff 运动模型
└── unet/ # UNet 模型(Flux等)
2.5.2 推荐下载的基础模型¶
| 模型 | 类型 | 大小 | 下载来源 | 说明 |
|---|---|---|---|---|
| sd_v1-5-pruned-emaonly | SD 1.5 | ~4GB | Hugging Face | 经典入门模型 |
| sd_xl_base_1.0 | SDXL | ~6.5GB | Hugging Face | 高分辨率生成 |
| sd_xl_refiner_1.0 | SDXL Refiner | ~6GB | Hugging Face | SDXL精修模型 |
| sd3_medium | SD3 | ~4GB | Hugging Face | 新一代架构 |
| flux1-dev | Flux.1 Dev | ~12GB | Hugging Face | 高质量模型 |
| flux1-schnell | Flux.1 Schnell | ~12GB | Hugging Face | 快速生成版 |
| vae-ft-mse-840000 | VAE | ~335MB | Hugging Face | 通用 VAE |
2.5.3 模型下载方法¶
# 方法一:直接下载(浏览器/下载工具)
# 从 Hugging Face 或 Civitai 下载 .safetensors 文件
# 放入对应的 models/ 子目录
# 方法二:使用 huggingface-cli
pip install huggingface_hub
huggingface-cli download runwayml/stable-diffusion-v1-5 \
v1-5-pruned-emaonly.safetensors \
--local-dir ComfyUI/models/checkpoints/
# 方法三:使用 Git LFS
git lfs install
git clone https://huggingface.co/runwayml/stable-diffusion-v1-5
⚠️ 注意:优先下载
.safetensors格式的模型文件,它比.ckpt格式更安全(不含可执行代码),加载速度也更快。
2.6 ComfyUI Manager 安装¶
ComfyUI Manager 是管理自定义节点的必备工具。
2.6.1 安装方法¶
# 进入 ComfyUI 的 custom_nodes 目录
cd ComfyUI/custom_nodes
# 克隆 ComfyUI Manager
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
# 重启 ComfyUI
2.6.2 验证安装¶
重启 ComfyUI 后,界面底部或菜单中会出现 Manager 按钮。点击即可打开节点管理界面。
2.6.3 Manager 功能概览¶
- Install Custom Nodes:搜索和安装社区节点
- Install Missing Custom Nodes:自动检测工作流缺失节点并安装
- Update All:一键更新所有已安装节点
- Enable/Disable Nodes:启用或禁用特定节点包
- Install Models:从 Manager 内直接下载常用模型
💡 提示:首次打开 Manager 时,它会从 GitHub 获取节点列表数据库。如果网络不畅,可能需要配置代理。
2.7 常见安装问题排查¶
2.7.1 CUDA 版本不匹配¶
症状:启动时报错 CUDA error 或 torch.cuda.is_available() 返回 False
排查步骤:
# 1. 检查 NVIDIA 驱动版本
nvidia-smi
# 2. 检查 PyTorch CUDA 版本
python -c "import torch; print(torch.version.cuda)"
# 3. 确保两者兼容
# CUDA 12.x -> 需要驱动 >= 525.60
# CUDA 11.8 -> 需要驱动 >= 520.61
解决方案:重新安装匹配版本的 PyTorch。
2.7.2 依赖冲突¶
症状:pip install 报错,包版本冲突
解决方案:
# 使用虚拟环境隔离
python -m venv comfyui_venv
source comfyui_venv/bin/activate # Linux/macOS
# comfyui_venv\Scripts\activate # Windows
# 或使用 conda
conda create -n comfyui python=3.11
conda activate comfyui
2.7.3 显存不足(OOM)¶
症状:CUDA out of memory 错误
解决方案:
# 使用低显存模式启动
python main.py --lowvram
# 极低显存模式(性能会明显下降)
python main.py --novram
# 使用 CPU 模式(非常慢但无显存限制)
python main.py --cpu
2.7.4 自定义节点安装失败¶
症状:节点加载报错,缺少依赖
解决方案:
2.7.5 网络问题¶
症状:无法下载模型或节点
解决方案:
# 设置代理(如有需要)
set HTTP_PROXY=http://127.0.0.1:7890 # Windows
set HTTPS_PROXY=http://127.0.0.1:7890
# export HTTP_PROXY=http://127.0.0.1:7890 # Linux/macOS
# export HTTPS_PROXY=http://127.0.0.1:7890
# 使用国内镜像源
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
2.8 启动配置参数详解¶
ComfyUI 支持丰富的启动参数来适配不同环境:
2.8.1 常用参数表¶
| 参数 | 说明 | 示例 |
|---|---|---|
--listen | 监听地址(允许远程访问) | --listen 0.0.0.0 |
--port | 指定端口号 | --port 8189 |
--lowvram | 低显存优化模式 | 适用于 4-6GB 显存 |
--novram | 极低显存模式 | 适用于 < 4GB 显存 |
--cpu | 纯 CPU 运行模式 | 无独显或调试用 |
--highvram | 高显存模式(模型常驻显存) | 适用于 24GB+ |
--gpu-only | 所有操作在 GPU 执行 | 最大化 GPU 利用 |
--dont-print-server | 安静模式,减少日志输出 | 生产环境使用 |
--preview-method | 预览方式 | auto、latent2rgb、taesd |
--output-directory | 自定义输出目录 | --output-directory /path/to/output |
--temp-directory | 自定义临时目录 | --temp-directory /path/to/temp |
--auto-launch | 启动后自动打开浏览器 | 方便快速访问 |
--disable-auto-launch | 禁用自动打开浏览器 | 服务器部署时使用 |
--cuda-device | 指定使用的 GPU | --cuda-device 1 |
2.8.2 组合使用示例¶
# 服务器部署模式
python main.py --listen 0.0.0.0 --port 8188 --disable-auto-launch
# 低显存笔记本模式
python main.py --lowvram --preview-method taesd
# 多 GPU 指定设备
python main.py --cuda-device 1
# 高性能模式
python main.py --highvram --gpu-only
2.9 GPU 加速配置¶
2.9.1 NVIDIA CUDA(推荐)¶
大多数用户的首选方案:
# 安装 CUDA Toolkit(可选,PyTorch 自带运行时)
# 确保安装好 NVIDIA 驱动即可
# 验证 CUDA 可用
python -c "import torch; print(f'CUDA available: {torch.cuda.is_available()}'); print(f'Device: {torch.cuda.get_device_name(0)}')"
2.9.2 AMD ROCm(Linux)¶
# 安装 ROCm 版 PyTorch
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.0
2.9.3 Intel DirectML(Windows/Linux)¶
2.9.4 Apple Silicon MPS(macOS)¶
Apple M1/M2/M3/M4 芯片原生支持,无需额外配置:
# PyTorch >= 2.0 自动支持 MPS
pip install torch torchvision torchaudio
# 验证 MPS 可用
python -c "import torch; print(torch.backends.mps.is_available())"
练习¶
- 根据你的硬件条件,选择合适的安装方式完成 ComfyUI 安装
- 下载至少一个 Stable Diffusion Checkpoint 模型(推荐从 SD 1.5 入门)
- 安装 ComfyUI Manager
- 使用不同的启动参数,观察行为差异
- 运行
python -c "import torch; print(torch.cuda.is_available())"验证 GPU 环境
延伸阅读¶
📌 下一章:03-界面与节点基础 —— 熟悉 ComfyUI 的界面布局和核心节点
最后更新日期:2026-02-12 适用版本:ComfyUI实战教程 v2026