选项描述
-h, --help显示此帮助信息并退出。
--listen [IP]指定监听的IP地址(默认:127.0.0.1)。可以使用逗号分隔多个IP地址。如果没有提供参数,则默认为0.0.0.0,::(监听所有IPv4和IPv6)。
--port PORT设置监听端口。
--tls-keyfile TLS_KEYFILETLS (SSL) 密钥文件路径。启用TLS,使应用程序可通过https://…访问。需要同时提供—tls-certfile。
--tls-certfile TLS_CERTFILETLS (SSL) 证书文件路径。启用TLS,使应用程序可通过https://…访问。需要同时提供—tls-keyfile。
--enable-cors-header [ORIGIN]启用CORS(跨域资源共享),可选指定来源或默认允许所有来源’*‘。
--max-upload-size MAX_UPLOAD_SIZE设置最大上传文件大小(MB)。
--base-directory BASE_DIRECTORY设置ComfyUI基础目录,用于models、custom_nodes、input、output、temp和user目录。
--extra-model-paths-config PATH [PATH ...]加载一个或多个extra_model_paths.yaml文件。
--output-directory OUTPUT_DIRECTORY设置ComfyUI输出目录。覆盖—base-directory。
--temp-directory TEMP_DIRECTORY设置ComfyUI临时目录(默认在ComfyUI目录中)。覆盖—base-directory。
--input-directory INPUT_DIRECTORY设置ComfyUI输入目录。覆盖—base-directory。
--auto-launch自动在默认浏览器中启动ComfyUI。
--disable-auto-launch禁止自动启动浏览器。
--cuda-device DEVICE_ID设置此实例使用的CUDA设备ID。
--cuda-malloc启用cudaMallocAsync(适用于torch 2.0及以上版本,默认启用)。
--disable-cuda-malloc禁用cudaMallocAsync。
--force-fp32强制使用fp32(如果这能让你的GPU工作更好,请报告它)。
--force-fp16强制使用fp16。
--fp32-unet在fp32中运行扩散模型。
--fp64-unet在fp64中运行扩散模型。
--bf16-unet在bf16中运行扩散模型。
--fp16-unet在fp16中运行扩散模型。
--fp8_e4m3fn-unet将unet权重存储在fp8_e4m3fn中。
--fp8_e5m2-unet将unet权重存储在fp8_e5m2中。
--fp16-vae在fp16中运行VAE,可能导致黑色图像。
--fp32-vae在全精度fp32中运行VAE。
--bf16-vae在bf16中运行VAE。
--cpu-vae在CPU上运行VAE。
--fp8_e4m3fn-text-enc将文本编码器权重存储在fp8(e4m3fn变体)中。
--fp8_e5m2-text-enc将文本编码器权重存储在fp8(e5m2变体)中。
--fp16-text-enc将文本编码器权重存储在fp16中。
--fp32-text-enc将文本编码器权重存储在fp32中。
--force-channels-last在推理模型时强制使用channels last格式。
--directml [DIRECTML_DEVICE]使用torch-directml。
--oneapi-device-selector SELECTOR_STRING设置此实例使用的oneAPI设备。
--disable-ipex-optimize禁用加载Intel扩展PyTorch模型时的ipex.optimize默认设置。
--preview-method [none,auto,latent2rgb,taesd]默认采样节点预览方法。
--preview-size PREVIEW_SIZE设置采样节点的最大预览尺寸。
--cache-classic使用旧风格(激进)缓存。
--cache-lru CACHE_LRU使用LRU缓存,最多缓存N个节点结果。可能使用更多RAM/VRAM。
--use-split-cross-attention使用分割交叉注意力优化。当使用xformers时忽略。
--use-quad-cross-attention使用子二次交叉注意力优化。当使用xformers时忽略。
--use-pytorch-cross-attention使用新的pytorch 2.0交叉注意力函数。
--use-sage-attention使用sage注意力。
--use-flash-attention使用FlashAttention。
--disable-xformers禁用xformers。
--force-upcast-attention强制启用注意力提升精度,如果修复了黑色图像请报告。
--dont-upcast-attention禁用所有注意力提升精度。仅调试时必要。
--gpu-only将所有内容(文本编码器/CLIP模型等…)存储和运行在GPU上。
--highvram默认情况下,在使用后卸载模型到CPU内存。此选项保持它们在GPU内存中。
--normalvram如果低显存被自动启用,强制使用正常显存。
--lowvram将unet拆分为部分以使用更少的显存。
--novram当低显存不够用时。
--cpu使用CPU进行所有操作(慢)。
--reserve-vram RESERVE_VRAM设置要保留给操作系统/其他软件使用的显存GB数量。默认根据您的操作系统保留一些数量。
--default-hashing-function {md5,sha1,sha256,sha512}允许您选择用于重复文件名/内容比较的哈希函数。默认是sha256。
--disable-smart-memory强制ComfyUI积极地卸载到普通RAM而不是在可能的情况下保持模型在VRAM中。
--deterministic让PyTorch在可能的情况下使用较慢的确定性算法。注意,这可能不会在所有情况下使图像确定性。
--fast [FAST ...]启用一些未经测试且可能降低质量的优化。—fast不带参数则启用所有优化。您可以传递特定优化列表以仅启用特定优化。当前有效优化:fp16_accumulation fp8_matrix_mult
--dont-print-server不打印服务器输出。
--quick-test-for-ciCI快速测试。
--windows-standalone-buildWindows独立构建:启用大多数人在使用独立Windows构建时可能会喜欢的一些便利功能(如启动时自动打开页面)。
--disable-metadata禁止保存提示元数据到文件。
--disable-all-custom-nodes禁止加载所有自定义节点。
--multi-user启用按用户存储。
--verbose [{DEBUG,INFO,WARNING,ERROR,CRITICAL}]设置日志级别
--log-stdout将正常进程输出发送到标准输出而不是标准错误(默认)。
--front-end-version FRONT_END_VERSION指定要使用的前端版本。该命令需要互联网连接才能从GitHub发布版查询和下载可用的前端实现。版本字符串应采用以下格式:[repoOwner]/[repoName]@[version]其中版本是一个有效的版本号或”latest”(例如:“1.0.0”)
--front-end-root FRONT_END_ROOT存储前端的本地文件系统路径。覆盖—front-end-version。
--user-directory USER_DIRECTORY使用绝对路径设置ComfyUI用户目录。覆盖—base-directory。
--enable-compress-response-body启用压缩响应体。

OptionDescription
-h, --helpShow this help message and exit.
--listen [IP]Specify the IP address to listen on (default: 127.0.0.1). You can give a list of ip addresses by separating them with a comma. If provided without an argument, it defaults to 0.0.0.0,:: (listens on all ipv4 and ipv6).
--port PORTSet the listen port.
--tls-keyfile TLS_KEYFILEPath to TLS (SSL) key file. Enables TLS, makes app accessible at https://… requires —tls-certfile to function.
--tls-certfile TLS_CERTFILEPath to TLS (SSL) certificate file. Enables TLS, makes app accessible at https://… requires —tls-keyfile to function.
--enable-cors-header [ORIGIN]Enable CORS (Cross-Origin Resource Sharing) with optional origin or allow all with default ’*’.
--max-upload-size MAX_UPLOAD_SIZESet the maximum upload size in MB.
--base-directory BASE_DIRECTORYSet the ComfyUI base directory for models, custom_nodes, input, output, temp, and user directories.
--extra-model-paths-config PATH [PATH ...]Load one or more extra_model_paths.yaml files.
--output-directory OUTPUT_DIRECTORYSet the ComfyUI output directory. Overrides —base-directory.
--temp-directory TEMP_DIRECTORYSet the ComfyUI temp directory (default is in the ComfyUI directory). Overrides —base-directory.
--input-directory INPUT_DIRECTORYSet the ComfyUI input directory. Overrides —base-directory.
--auto-launchAutomatically launch ComfyUI in the default browser.
--disable-auto-launchDisable auto launching the browser.
--cuda-device DEVICE_IDSet the id of the cuda device this instance will use.
--cuda-mallocEnable cudaMallocAsync (enabled by default for torch 2.0 and up).
--disable-cuda-mallocDisable cudaMallocAsync.
--force-fp32Force fp32 (If this makes your GPU work better please report it).
--force-fp16Force fp16.
--fp32-unetRun the diffusion model in fp32.
--fp64-unetRun the diffusion model in fp64.
--bf16-unetRun the diffusion model in bf16.
--fp16-unetRun the diffusion model in fp16.
--fp8_e4m3fn-unetStore unet weights in fp8_e4m3fn.
--fp8_e5m2-unetStore unet weights in fp8_e5m2.
--fp16-vaeRun the VAE in fp16, might cause black images.
--fp32-vaeRun the VAE in full precision fp32.
--bf16-vaeRun the VAE in bf16.
--cpu-vaeRun the VAE on the CPU.
--fp8_e4m3fn-text-encStore text encoder weights in fp8 (e4m3fn variant).
--fp8_e5m2-text-encStore text encoder weights in fp8 (e5m2 variant).
--fp16-text-encStore text encoder weights in fp16.
--fp32-text-encStore text encoder weights in fp32.
--force-channels-lastForce channels last format when inferencing the models.
--directml [DIRECTML_DEVICE]Use torch-directml.
--oneapi-device-selector SELECTOR_STRINGSets the oneAPI device(s) this instance will use.
--disable-ipex-optimizeDisables ipex.optimize default when loading models with Intel’s Extension for Pytorch.
--preview-method [none,auto,latent2rgb,taesd]Default preview method for sampler nodes.
--preview-size PREVIEW_SIZESets the maximum preview size for sampler nodes.
--cache-classicUse the old style (aggressive) caching.
--cache-lru CACHE_LRUUse LRU caching with a maximum of N node results cached. May use more RAM/VRAM.
--use-split-cross-attentionUse the split cross attention optimization. Ignored when xformers is used.
--use-quad-cross-attentionUse the sub-quadratic cross attention optimization . Ignored when xformers is used.
--use-pytorch-cross-attentionUse the new pytorch 2.0 cross attention function.
--use-sage-attentionUse sage attention.
--use-flash-attentionUse FlashAttention.
--disable-xformersDisable xformers.
--force-upcast-attentionForce enable attention upcasting, please report if it fixes black images.
--dont-upcast-attentionDisable all upcasting of attention. Should be unnecessary except for debugging.
--gpu-onlyStore and run everything (text encoders/CLIP models, etc… on the GPU).
--highvramBy default models will be unloaded to CPU memory after being used. This option keeps them in GPU memory.
--normalvramUsed to force normal vram use if lowvram gets automatically enabled.
--lowvramSplit the unet in parts to use less vram.
--novramWhen lowvram isn’t enough.
--cpuTo use the CPU for everything (slow).
--reserve-vram RESERVE_VRAMSet the amount of vram in GB you want to reserve for use by your OS/other software. By default some amount is reserved depending on your OS.
--default-hashing-function {md5,sha1,sha256,sha512}Allows you to choose the hash function to use for duplicate filename / contents comparison. Default is sha256.
--disable-smart-memoryForce ComfyUI to agressively offload to regular ram instead of keeping models in vram when it can.
--deterministicMake pytorch use slower deterministic algorithms when it can. Note that this might not make images deterministic in all cases.
--fast [FAST ...]Enable some untested and potentially quality deteriorating optimizations. —fast with no arguments enables everything. You can pass a list specific optimizations if you only want to enable specific ones. Current valid optimizations: fp16_accumulation fp8_matrix_mult
--dont-print-serverDon’t print server output.
--quick-test-for-ciQuick test for CI.
--windows-standalone-buildWindows standalone build: Enable convenient things that most people using the standalone windows build will probably enjoy (like auto opening the page on startup).
--disable-metadataDisable saving prompt metadata in files.
--disable-all-custom-nodesDisable loading all custom nodes.
--multi-userEnables per-user storage.
--verbose [{DEBUG,INFO,WARNING,ERROR,CRITICAL}]Set the logging level
--log-stdoutSend normal process output to stdout instead of stderr (default).
--front-end-version FRONT_END_VERSIONSpecifies the version of the frontend to be used. This command needs internet connectivity to query and download available frontend implementations from GitHub releases. The version string should be in the format of: [repoOwner]/[repoName]@[version] where version is one of: “latest” or a valid version number (e.g. “1.0.0”)
--front-end-root FRONT_END_ROOTThe local filesystem path to the directory where the frontend is located. Overrides —front-end-version.
--user-directory USER_DIRECTORYSet the ComfyUI user directory with an absolute path. Overrides —base-directory.
--enable-compress-response-bodyEnable compressing response body.