需手动下载SVD模型文件并放入models/video_models/,安装ComfyUI-VideoHelperSuite和comfyui-svd节点,配置GPU显存参数,构建图像输入→SVDImageToVideo→VAEDecodeTiled→Save Video工作流,注意motion_bucket_id设为127、video_frames≤21、decode_chunk_size匹配帧数。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地使用Stable Video Diffusion(SVD)模型生成视频,并通过ComfyUI界面进行可视化操作,则需完成模型加载、节点配置与工作流搭建。以下是实现该目标的具体步骤:
一、准备SVD模型文件
SVD模型不包含在ComfyUI默认模型库中,需手动下载官方发布的权重文件并放置于指定路径,确保ComfyUI能正确识别和加载。
1、访问Hugging Face官方仓库,搜索stabilityai/stable-video-diffusion-img2vid-xt或对应版本模型页面。
2、下载pytorch_model.bin(或safetensors格式)文件,以及配套的config.json和model_index.json。
3、将上述文件放入ComfyUI根目录下的models/checkpoints/子目录,或更推荐的路径:models/video_models/(需提前创建该文件夹)。
二、安装SVD专用自定义节点
ComfyUI原生不支持SVD视频生成流程,必须借助第三方节点扩展实现图像输入、帧时序建模与视频解码功能。
1、打开ComfyUI所在终端,执行命令:cd ComfyUI/custom_nodes。
2、运行:git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite.git。
3、再执行:git clone https://github.com/ArtVentureX/comfyui-svd.git。
4、重启ComfyUI,确认节点列表中出现SVDImageToVideo、SVDFrameDecode等新节点。
三、配置GPU显存与精度参数
SVD对显存要求较高,尤其在生成25帧以上视频时易触发OOM错误,需通过环境变量与节点参数协同控制资源占用。
1、启动ComfyUI前,在启动脚本中添加:CUDA_VISIBLE_DEVICES=0 PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:128。
标签: js git json node github 编码 ai 环境变量 pytorch hugging face stab
还木有评论哦,快来抢沙发吧~