跳转到主要内容

Documentation Index

Fetch the complete documentation index at: https://dripart-fix-cloud-button-text-1773163393.mintlify.app/llms.txt

Use this file to discover all available pages before exploring further.

Wan2.1 Video 系列为阿里巴巴于 2025年2月开源的视频生成模型,其开源协议为 Apache 2.0,提供 14B(140亿参数)和 1.3B(13亿参数)两个版本,覆盖文生视频(T2V)、图生视频(I2V)等多项任务。 该模型不仅在性能上超越现有开源模型,更重要的是其轻量级版本仅需 8GB 显存即可运行,大大降低了使用门槛。

Wan2.1 ComfyUI 原生(native)工作流示例

请确保你的 ComfyUI 已经更新。本指南里的工作流可以在 ComfyUI 的工作流模板中找到。如果找不到,可能是 ComfyUI 没有更新。如果加载工作流时有节点缺失,可能原因有:
  1. 你用的不是最新开发版(nightly)。
  2. 你用的是稳定版或桌面版(没有包含最新的更新)。
  3. 启动时有些节点导入失败。

模型安装

本篇指南涉及的所有模型你都可以在这里找到, 下面是本篇示例中将会使用到的共用的模型,你可以提前进行下载: Text encoders 选择一个版本进行下载, VAE CLIP Vision 文件保存位置
ComfyUI/
├── models/
│   ├── diffusion_models/
│   ├── ...                  # 我们在对应的工作流中进行补充说明
│   ├── text_encoders/
│   │   └─── umt5_xxl_fp8_e4m3fn_scaled.safetensors
│   └── vae/
│   │   └──  wan_2.1_vae.safetensors
│   └── clip_vision/
│       └──  clip_vision_h.safetensors   
对于 diffusion 模型,我们在本篇示例中将使用 fp16 精度的模型,因为我们发现相对于 bf16 的版本 fp16 版本的效果更好,如果你需要其它精度的版本,请访问这里进行下载

Wan2.1 文生视频工作流

在开始工作流前请下载 wan2.1_t2v_1.3B_fp16.safetensors,并保存到 ComfyUI/models/diffusion_models/ 目录下。
如果你需要其它的 t2v 精度版本,请访问这里进行下载

1. 工作流文件下载

下载下面的文件,并拖入 ComfyUI 以加载对应的工作流 Wan2.1 文生视频工作流

2. 按流程完成工作流运行

ComfyUI Wan2.1 工作流步骤
  1. 确保Load Diffusion Model节点加载了 wan2.1_t2v_1.3B_fp16.safetensors 模型
  2. 确保Load CLIP节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  3. 确保Load VAE节点加载了 wan_2.1_vae.safetensors 模型
  4. (可选)可以在EmptyHunyuanLatentVideo 节点设置了视频的尺寸,如果有需要你可以修改
  5. (可选)如果你需要修改提示词(正向及负向)请在序号5CLIP Text Encoder 节点中进行修改
  6. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成

Wan2.1 图生视频工作流

由于 Wan Video 将 480P 和 720P 的模型分开 ,所以在本篇中我们将需要分别对两中清晰度的视频做出示例,除了对应模型不同之外,他们还有些许的参数差异

480P 版本

1. 工作流及输入图片

下载下面的图片,并拖入 ComfyUI 中来加载对应的工作流 Wan2.1 图生视频工作流 14B 480P Workflow 输入图片示例 我们将使用下面的图片作为输入: Wan2.1 图生视频工作流 14B 480P Workflow 输入图片示例

2. 模型下载

请下载wan2.1_i2v_480p_14B_fp16.safetensors,并保存到 ComfyUI/models/diffusion_models/ 目录下

3. 按步骤完成工作流的运行

ComfyUI Wan2.1 工作流步骤
  1. 确保Load Diffusion Model节点加载了 wan2.1_i2v_480p_14B_fp16.safetensors 模型
  2. 确保Load CLIP节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  3. 确保Load VAE节点加载了 wan_2.1_vae.safetensors 模型
  4. 确保Load CLIP Vision节点加载了 clip_vision_h.safetensors 模型
  5. Load Image节点中上传我们提供的输入图片
  6. (可选)在CLIP Text Encoder节点中输入你想要生成的视频描述内容,
  7. (可选)在WanImageToVideo 节点中设置了视频的尺寸,如果有需要你可以修改
  8. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成

720P 版本

1. 工作流及输入图片

下载下面的图片,并拖入 ComfyUI 中来加载对应的工作流 Wan2.1 图生视频工作流 14B 720P Workflow 输入图片示例 我们将使用下面的图片作为输入: Wan2.1 图生视频工作流 14B 720P Workflow 输入图片示例

2. 模型下载

请下载wan2.1_i2v_720p_14B_fp16.safetensors,并保存到 ComfyUI/models/diffusion_models/ 目录下

3. 按步骤完成工作流的运行

ComfyUI Wan2.1 工作流步骤
  1. 确保Load Diffusion Model节点加载了 wan2.1_i2v_720p_14B_fp16.safetensors 模型
  2. 确保Load CLIP节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  3. 确保Load VAE节点加载了 wan_2.1_vae.safetensors 模型
  4. 确保Load CLIP Vision节点加载了 clip_vision_h.safetensors 模型
  5. Load Image节点中上传我们提供的输入图片
  6. (可选)在CLIP Text Encoder节点中输入你想要生成的视频描述内容,
  7. (可选)在WanImageToVideo 节点中设置了视频的尺寸,如果有需要你可以修改
  8. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成