跳转至

02-环境搭建与安装

ComfyUI环境搭建流程图

🎯 学习目标

  • 了解运行 ComfyUI 的硬件要求
  • 掌握至少一种 ComfyUI 安装方式
  • 学会下载和安装 Stable Diffusion 模型
  • 安装 ComfyUI Manager 节点管理器
  • 掌握常见问题排查方法

2.1 硬件要求

2.1.1 GPU 要求

ComfyUI 的核心性能依赖 GPU(推荐 NVIDIA 显卡):

显存 适用场景 推荐配置
4GB 基础 SD1.5 生成(需 --lowvram) GTX 1650、RTX 3050
6GB SD1.5 常规生成 RTX 2060、RTX 3060
8GB SDXL 基础生成 RTX 3060 Ti、RTX 4060
12GB SDXL 高分辨率、多 LoRA RTX 3060 12GB、RTX 4070
16GB+ Flux、SD3、大批量、视频生成 RTX 4080、RTX 4090
24GB 全功能无限制 RTX 3090、RTX 4090

💡 提示:AMD 显卡可使用 ROCm(Linux)或 DirectML(Windows)支持,但生态不如 NVIDIA 成熟。Intel Arc 显卡也有社区适配方案。

2.1.2 CPU 与内存

组件 最低要求 推荐配置
CPU 4核心(任意现代处理器) 8核心+(用于预处理加速)
内存 8GB 16GB+(大模型需要32GB)
硬盘 SSD 50GB+ 可用空间 NVMe SSD 200GB+

⚠️ 注意:模型文件通常很大(单个 Checkpoint 2-7GB),确保有足够的硬盘空间。建议将模型存放在 SSD 上以加速加载。

2.1.3 操作系统

  • Windows 10/11(最常用,支持最好)
  • Linux(Ubuntu 22.04+ 推荐,性能最佳)
  • macOS(Apple Silicon M1/M2/M3 支持 MPS 加速)

2.2 安装方式一:直接安装(Git 克隆)

这是最灵活、最推荐的安装方式,适合有一定技术基础的用户。

2.2.1 前置条件

确保系统中已安装:

  • Python 3.10 - 3.12(推荐 3.11)
  • Git
  • NVIDIA 驱动(CUDA 11.8 或 12.x)
Bash
# 验证 Python 版本
python --version

# 验证 Git
git --version

# 验证 NVIDIA 驱动与 CUDA
nvidia-smi

2.2.2 安装步骤

Bash
# 1. 克隆 ComfyUI 仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 2. 创建虚拟环境(推荐)
python -m venv venv

# Windows 激活虚拟环境
venv\Scripts\activate

# Linux/macOS 激活虚拟环境
# source venv/bin/activate

# 3. 安装 PyTorch(根据 CUDA 版本选择)
# CUDA 12.x(推荐)
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu124

# CUDA 11.8
# pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu118

# 4. 安装 ComfyUI 依赖
pip install -r requirements.txt

# 5. 启动 ComfyUI
python main.py

2.2.3 验证安装

启动成功后,终端会显示:

Text Only
Starting server
To see the GUI go to: http://127.0.0.1:8188

打开浏览器访问 http://127.0.0.1:8188,看到节点编辑器界面即表示安装成功。


2.3 安装方式二:便携包安装(Windows 一键包)

适合 Windows 用户快速上手,无需配置 Python 环境。

2.3.1 下载便携包

  1. 前往 ComfyUI Releases 页面
  2. 下载最新的 ComfyUI_windows_portable_*.7z 文件
  3. 解压到任意目录(路径不要包含中文)

2.3.2 目录结构

Text Only
ComfyUI_windows_portable/
├── ComfyUI/                    # ComfyUI 主程序
│   ├── models/                 # 模型存放目录
│   ├── custom_nodes/           # 自定义节点
│   ├── input/                  # 输入图像
│   ├── output/                 # 输出图像
│   └── main.py                 # 主程序入口
├── python_embedded/            # 内嵌 Python 环境
├── run_nvidia_gpu.bat          # NVIDIA GPU 启动脚本
├── run_cpu.bat                 # CPU 模式启动脚本
└── update/                     # 更新脚本

2.3.3 启动

Text Only
# 双击对应的启动脚本
run_nvidia_gpu.bat              # NVIDIA 显卡用户
run_cpu.bat                     # 无独立显卡用户

💡 提示:便携包已内嵌 Python 和 PyTorch,开箱即用。更新时运行 update 目录中的脚本即可。


2.4 安装方式三:Docker 安装

适合服务器部署和跨平台一致性需求。

2.4.1 前置条件

  • 安装 Docker 和 Docker Compose
  • NVIDIA Container Toolkit(GPU 支持)

2.4.2 使用 Docker Compose

创建 docker-compose.yml 文件:

YAML
services:  # services定义各个服务容器
  comfyui:
    image: ghcr.io/ai-dock/comfyui:latest
    ports:
      - "8188:8188"
    volumes:
      - ./models:/workspace/ComfyUI/models
      - ./output:/workspace/ComfyUI/output
      - ./custom_nodes:/workspace/ComfyUI/custom_nodes
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]
    environment:
      - CLI_ARGS=--listen 0.0.0.0
Bash
# 启动
docker-compose up -d

# 查看日志
docker-compose logs -f

2.4.3 手动 Docker 构建

Bash
# 克隆仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 构建 Docker 镜像
docker build -t comfyui .

# 运行容器
docker run -d --gpus all \
  -p 8188:8188 \
  -v $(pwd)/models:/app/models \  # $()命令替换:执行命令并获取输出
  -v $(pwd)/output:/app/output \
  comfyui --listen 0.0.0.0

2.5 模型下载与安装

2.5.1 模型存放位置

ComfyUI 的模型目录结构如下:

Text Only
ComfyUI/models/
├── checkpoints/          # Stable Diffusion 主模型 (.safetensors/.ckpt)
├── vae/                  # VAE 模型
├── loras/                # LoRA 模型
├── controlnet/           # ControlNet 模型
├── clip/                 # CLIP 文本编码器模型
├── clip_vision/          # CLIP 视觉编码器
├── embeddings/           # Textual Inversion 嵌入
├── upscale_models/       # 超分辨率模型 (ESRGAN等)
├── ipadapter/            # IP-Adapter 模型
├── insightface/          # 人脸识别模型
├── animatediff_models/   # AnimateDiff 运动模型
└── unet/                 # UNet 模型(Flux等)

2.5.2 推荐下载的基础模型

模型 类型 大小 下载来源 说明
sd_v1-5-pruned-emaonly SD 1.5 ~4GB Hugging Face 经典入门模型
sd_xl_base_1.0 SDXL ~6.5GB Hugging Face 高分辨率生成
sd_xl_refiner_1.0 SDXL Refiner ~6GB Hugging Face SDXL精修模型
sd3_medium SD3 ~4GB Hugging Face 新一代架构
flux1-dev Flux.1 Dev ~12GB Hugging Face 高质量模型
flux1-schnell Flux.1 Schnell ~12GB Hugging Face 快速生成版
vae-ft-mse-840000 VAE ~335MB Hugging Face 通用 VAE

2.5.3 模型下载方法

Bash
# 方法一:直接下载(浏览器/下载工具)
# 从 Hugging Face 或 Civitai 下载 .safetensors 文件
# 放入对应的 models/ 子目录

# 方法二:使用 huggingface-cli
pip install huggingface_hub
huggingface-cli download runwayml/stable-diffusion-v1-5 \
  v1-5-pruned-emaonly.safetensors \
  --local-dir ComfyUI/models/checkpoints/

# 方法三:使用 Git LFS
git lfs install
git clone https://huggingface.co/runwayml/stable-diffusion-v1-5

⚠️ 注意:优先下载 .safetensors 格式的模型文件,它比 .ckpt 格式更安全(不含可执行代码),加载速度也更快。


2.6 ComfyUI Manager 安装

ComfyUI Manager 是管理自定义节点的必备工具。

2.6.1 安装方法

Bash
# 进入 ComfyUI 的 custom_nodes 目录
cd ComfyUI/custom_nodes

# 克隆 ComfyUI Manager
git clone https://github.com/ltdrdata/ComfyUI-Manager.git

# 重启 ComfyUI

2.6.2 验证安装

重启 ComfyUI 后,界面底部或菜单中会出现 Manager 按钮。点击即可打开节点管理界面。

2.6.3 Manager 功能概览

  • Install Custom Nodes:搜索和安装社区节点
  • Install Missing Custom Nodes:自动检测工作流缺失节点并安装
  • Update All:一键更新所有已安装节点
  • Enable/Disable Nodes:启用或禁用特定节点包
  • Install Models:从 Manager 内直接下载常用模型

💡 提示:首次打开 Manager 时,它会从 GitHub 获取节点列表数据库。如果网络不畅,可能需要配置代理。


2.7 常见安装问题排查

2.7.1 CUDA 版本不匹配

症状:启动时报错 CUDA errortorch.cuda.is_available() 返回 False

排查步骤

Bash
# 1. 检查 NVIDIA 驱动版本
nvidia-smi

# 2. 检查 PyTorch CUDA 版本
python -c "import torch; print(torch.version.cuda)"

# 3. 确保两者兼容
# CUDA 12.x -> 需要驱动 >= 525.60
# CUDA 11.8 -> 需要驱动 >= 520.61

解决方案:重新安装匹配版本的 PyTorch。

2.7.2 依赖冲突

症状pip install 报错,包版本冲突

解决方案

Bash
# 使用虚拟环境隔离
python -m venv comfyui_venv
source comfyui_venv/bin/activate  # Linux/macOS
# comfyui_venv\Scripts\activate   # Windows

# 或使用 conda
conda create -n comfyui python=3.11
conda activate comfyui

2.7.3 显存不足(OOM)

症状CUDA out of memory 错误

解决方案

Bash
# 使用低显存模式启动
python main.py --lowvram

# 极低显存模式(性能会明显下降)
python main.py --novram

# 使用 CPU 模式(非常慢但无显存限制)
python main.py --cpu

2.7.4 自定义节点安装失败

症状:节点加载报错,缺少依赖

解决方案

Bash
# 进入节点目录安装依赖
cd custom_nodes/节点名称
pip install -r requirements.txt

# 或通过 Manager 重新安装

2.7.5 网络问题

症状:无法下载模型或节点

解决方案

Bash
# 设置代理(如有需要)
set HTTP_PROXY=http://127.0.0.1:7890      # Windows
set HTTPS_PROXY=http://127.0.0.1:7890

# export HTTP_PROXY=http://127.0.0.1:7890  # Linux/macOS
# export HTTPS_PROXY=http://127.0.0.1:7890

# 使用国内镜像源
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

2.8 启动配置参数详解

ComfyUI 支持丰富的启动参数来适配不同环境:

2.8.1 常用参数表

参数 说明 示例
--listen 监听地址(允许远程访问) --listen 0.0.0.0
--port 指定端口号 --port 8189
--lowvram 低显存优化模式 适用于 4-6GB 显存
--novram 极低显存模式 适用于 < 4GB 显存
--cpu 纯 CPU 运行模式 无独显或调试用
--highvram 高显存模式(模型常驻显存) 适用于 24GB+
--gpu-only 所有操作在 GPU 执行 最大化 GPU 利用
--dont-print-server 安静模式,减少日志输出 生产环境使用
--preview-method 预览方式 autolatent2rgbtaesd
--output-directory 自定义输出目录 --output-directory /path/to/output
--temp-directory 自定义临时目录 --temp-directory /path/to/temp
--auto-launch 启动后自动打开浏览器 方便快速访问
--disable-auto-launch 禁用自动打开浏览器 服务器部署时使用
--cuda-device 指定使用的 GPU --cuda-device 1

2.8.2 组合使用示例

Bash
# 服务器部署模式
python main.py --listen 0.0.0.0 --port 8188 --disable-auto-launch

# 低显存笔记本模式
python main.py --lowvram --preview-method taesd

# 多 GPU 指定设备
python main.py --cuda-device 1

# 高性能模式
python main.py --highvram --gpu-only

2.9 GPU 加速配置

2.9.1 NVIDIA CUDA(推荐)

大多数用户的首选方案:

Bash
# 安装 CUDA Toolkit(可选,PyTorch 自带运行时)
# 确保安装好 NVIDIA 驱动即可

# 验证 CUDA 可用
python -c "import torch; print(f'CUDA available: {torch.cuda.is_available()}'); print(f'Device: {torch.cuda.get_device_name(0)}')"

2.9.2 AMD ROCm(Linux)

Bash
# 安装 ROCm 版 PyTorch
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.0

2.9.3 Intel DirectML(Windows/Linux)

Bash
# 安装 DirectML 支持
pip install torch-directml

# 启动时使用 DirectML
python main.py --directml

2.9.4 Apple Silicon MPS(macOS)

Apple M1/M2/M3/M4 芯片原生支持,无需额外配置:

Bash
# PyTorch >= 2.0 自动支持 MPS
pip install torch torchvision torchaudio

# 验证 MPS 可用
python -c "import torch; print(torch.backends.mps.is_available())"

练习

  1. 根据你的硬件条件,选择合适的安装方式完成 ComfyUI 安装
  2. 下载至少一个 Stable Diffusion Checkpoint 模型(推荐从 SD 1.5 入门)
  3. 安装 ComfyUI Manager
  4. 使用不同的启动参数,观察行为差异
  5. 运行 python -c "import torch; print(torch.cuda.is_available())" 验证 GPU 环境

延伸阅读


📌 下一章03-界面与节点基础 —— 熟悉 ComfyUI 的界面布局和核心节点


最后更新日期:2026-02-12 适用版本:ComfyUI实战教程 v2026