comfyui 在 Ubuntu 上部署
2024-6-25
| 2024-6-25
0  |  0 分钟
summary
初始环境 Ubuntu 22.04 服务器版,已安装好显卡驱动 使用 nvidia-smi:可以确认 NVIDIA 驱动和 CUDA 的状态
来源
icon
slug
comfyui-ubuntu
category
技术
tags
ubuntu
comfyui

初始环境

Ubuntu 22.04 服务器版,已安装好显卡驱动
使用 nvidia-smi:可以确认 NVIDIA 驱动和 CUDA 的状态
+-----------------------------------------------------------------------------------------+ | NVIDIA-SMI 555.52.04 Driver Version: 555.52.04 CUDA Version: 12.5 | |-----------------------------------------+------------------------+----------------------+ | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |=========================================+========================+======================| | 0 NVIDIA GeForce RTX 4070 ... Off | 00000000:01:00.0 Off | N/A | | 0% 37C P8 21W / 245W | 2418MiB / 12282MiB | 0% Default | | | | N/A | +-----------------------------------------+------------------------+----------------------+ +-----------------------------------------------------------------------------------------+ | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | |=========================================================================================| | 0 N/A N/A 30422 C python 2408MiB | +-----------------------------------------------------------------------------------------+
这会显示 GPU 信息、驱动版本和支持的 CUDA 版本。

不需要单独安装 CUDA toolkit

考虑到您的情况,您可能不需要单独安装 CUDA toolkit。以下是解释和建议:
  1. NVIDIA 驱动已包含 CUDA 运行时: 您安装的 NVIDIA 驱动 (版本 555.52.04) 已经包含了 CUDA 12.5 的运行时环境。这意味着基本的 CUDA 功能已经可用,足以运行大多数 CUDA 加速的应用程序。
  1. PyTorch 等深度学习框架: 像 PyTorch 这样的深度学习框架通常会在其安装包中包含所需的 CUDA 库。当您安装 PyTorch 时,它会带来所需的 CUDA 组件。
  1. 特定开发需求: 如果您打算进行 CUDA 编程,或者使用需要完整 CUDA toolkit 的特定工具,那么您可能需要安装完整的 CUDA toolkit。但对于大多数深度学习和机器学习任务,这通常是不必要的。
  1. 版本匹配: 如果您决定安装 CUDA toolkit,请确保安装与您的驱动兼容的版本。在您的情况下,这将是 CUDA 12.5 或更早的兼容版本。
 

是否需要额外安装 cuDNN

对于安装和运行 ComfyUI,您可能不需要额外安装 cuDNN。让我们逐步分析这个问题:
  1. ComfyUI 的要求: ComfyUI 主要依赖于 PyTorch 和其他 Python 库。它并不直接要求安装 cuDNN。
  1. PyTorch 和 cuDNN:
      • PyTorch 通常会在其安装包中包含所需的 cuDNN 库。
      • 当您使用 pip 或 conda 安装 PyTorch 时,它会自动包含与之兼容的 cuDNN 版本。
  1. 当前系统状态:
      • 您已经安装了 NVIDIA 驱动(555.52.04),它支持 CUDA 12.5。
      • 您没有单独安装 CUDA toolkit,但这通常不是问题。

安装步骤

  1. 克隆 ComfyUI 仓库:
    1. git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI
  1. 创建并激活虚拟环境(推荐):
    1. python3 -m venv venv source venv/bin/activate
  1. 安装依赖:
    1. pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121 pip install -r requirements.txt #注意:这里我们使用了 CUDA 12.1 版本的 PyTorch,因为它通常与大多数 CUDA 版本兼容,包括您的 CUDA 12.5。
  1. 测试
    1. import torch print("CUDA is available:", torch.cuda.is_available()) print("CUDA version:", torch.version.cuda) print("cuDNN version:", torch.backends.cudnn.version()) print("GPU device name:", torch.cuda.get_device_name(0)) # 简单的 CUDA 操作测试 a = torch.cuda.FloatTensor(2).zero_() print("Tensor a:", a) b = torch.randn(2).cuda() print("Tensor b:", b) c = a + b print("Tensor c:", c)

启动comfyui

ComfyUI 的启动参数可以在运行 python main.py 时添加。以下是一些常用的官方启动参数:
  1. 允许局域网访问: 这将允许 ComfyUI 监听所有网络接口,使其可以从局域网中的其他设备访问。
    1. python main.py --listen 0.0.0.0
  1. 指定端口: 默认端口是 8188,但您可以更改它。
    1. python main.py --port 8188
  1. 组合使用: 这将允许局域网访问,并指定端口为 8188。
    1. python main.py --listen 0.0.0.0 --port 8188
  1. 禁用 CUDA 设备重排: 这可能在某些情况下提高性能。
    1. python main.py --dont-upcast-attention
  1. 使用 CPU 进行推理: 强制使用 CPU 而不是 GPU。
    1. python main.py --cpu
  1. 指定不同的模型目录:
    1. python main.py --model-dir /path/to/your/models
  1. 启用详细日志:
    1. python main.py --debug
  1. 禁用侧边栏:
    1. python main.py --hide-ui-parts side
  1. 使用多个 GPU: 这将尝试在所有可用的 GPU 上分配模型。
    1. python main.py --multi-gpu
  1. 指定要使用的 GPU: 这将只使用 ID 为 0 和 1 的 GPU。
    1. python main.py --gpu-only 0,1
  1. 启用 API 服务器:
    1. python main.py --enable-api-access

参考

ComfyUI
comfyanonymousUpdated Jun 30, 2024
技术
  • ubuntu
  • comfyui
  • Ubuntu 下 无网络访问自动睡眠PVE 在 LXC 中使用Nvidia独显硬解
    目录