腾讯混元HunyuanVideo 1.5已原生支持ComfyUI,部署需克隆官方仓库、安装模型与节点包;T2V/I2V工作流分别依赖Qwen2.5 VL与CLIP Vision编码;Foley音效同步生成支持±15ms精度;1080P放大采用Latent Upscale与Motion-Aware Kernel技术。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

一、ComfyUI环境快速部署与模型安装
腾讯混元HunyuanVideo 1.5已原生支持ComfyUI,无需手动修改核心代码即可加载运行。该步骤旨在构建稳定、低门槛的本地推理环境,确保后续文生视频、图生视频等全流程可执行。
1、从GitHub官方仓库克隆最新版ComfyUI:git clone https://github.com/comfyanonymous/ComfyUI.git
2、进入ComfyUI目录,执行python main.py启动服务,确认http://127.0.0.1:8188正常访问
3、下载HunyuanVideo-1.5模型文件(含split_files结构),解压至ComfyUI/models/checkpoints/hunyuan_video/目录下
4、安装社区封装的HunyuanVideo节点包:在ComfyUI/custom_nodes目录中执行git clone https://github.com/Comfy-Org/ComfyUI_HunyuanVideo.git
5、重启ComfyUI服务,刷新界面后可在节点列表中看到HunyuanVideo T2V与HunyuanVideo I2V专用节点
二、文生视频(T2V)标准工作流配置
使用文本提示词直接生成5–10秒高清视频,依赖Qwen2.5 VL多模态理解能力对提示语义进行精准建模,输出帧率稳定在24fps,支持720p与1080p双分辨率输出。
1、在ComfyUI中新建工作流,拖入HunyuanVideo T2V主节点
2、连接CLIP Text Encode (Qwen2.5 VL)节点至T2V节点的prompt输入端口
3、在文本框中输入高质量提示词,例如:“电影镜头,银发御姐立于樱花雨中转身,慢动作,柔焦,自然光,8K细节”
4、设置采样参数:steps=20、cfg=7.0、seed=-1(随机)、resolution=1080p、video_length=8
5、点击“Queue Prompt”,等待生成完成,输出视频自动保存至ComfyUI/output/目录
三、图生视频(I2V)图像驱动动态化操作
上传静态图像作为起始帧,结合提示词引导运动方向与风格变化,利用Clip Vision编码器提取图像深层语义特征,实现画面主体自然延展与连贯时序建模。
1、准备一张清晰正面人像或场景图(建议尺寸≥768×768,PNG格式优先)
2、拖入HunyuanVideo I2V节点,并连接Load Image节点加载图像
3、将图像接入CLIP Vision Encode节点,再输出至I2V节点的image_embeds端口
标签: ai视频制作 python git node github 编码 端口 腾讯 ai 解压 qwen 腾讯混元 udio
还木有评论哦,快来抢沙发吧~