若Midjourney中角色脸部反复偏移,需启用角色参考机制:一、用--cref+--cw参数绑定AI生成的参考图;二、用Vary(Region)局部重绘仅修改非面部区域;三、用Blend融合双图构建稳定双人IP;四、用结构化Prompt公式强化初始锚定;五、在Web Alpha中叠加人物参考与图片提示双重约束。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您在Midjourney中反复生成同一角色,但每次脸部特征都发生偏移或“崩脸”,则可能是未正确启用角色参考机制或参数配置不匹配。以下是实现人物脸部特征稳定复现的多种实操方法:
一、使用--cref + --cw参数进行角色参考
该方法通过指定一张AI生成的角色图像作为参照源,强制后续输出继承其面部结构、五官比例等核心特征。需确保参考图由Midjourney原生生成,避免使用真人照片以防扭曲。
1、在Midjourney中输入提示词生成一张高质量角色正面肖像,例如:“a young East Asian woman, sharp cheekbones, almond eyes, soft smile, studio lighting, photorealistic, 8k”。
2、点击U按钮放大该图像,右键选择“Copy Image Address”,获取可公开访问的图片URL。
3、新建提示词,末尾添加--cref URL,其中URL为上一步复制的链接,并追加--cw 100(默认值)以同时保留脸部、发型与服装特征。
4、若仅需固定脸部而更换穿搭或发型,将--cw 100改为--cw 0,系统将仅锚定面部区域。
5、支持多图混合参考,格式为--cref URL1 URL2 --cw 75,此时权重按顺序线性衰减,首图主导脸部,次图微调轮廓。
二、利用Vary (Region)局部重绘锁定脸部
当已有满意的基础图像时,可通过区域重绘功能仅替换非脸部元素,从而规避全局重绘导致的脸部漂移问题。此法无需外部URL,完全依赖本地图像编辑流。
1、对已生成的满意图像点击U按钮放大,进入高清版本界面。
2、点击底部“Vary (Region)”按钮,启动区域编辑模式。
3、使用画笔工具精准涂抹需修改的区域(如背景、衣物、配饰),**切勿涂抹面部及发际线范围**。
4、在提示框中输入新场景描述,例如“in a neon-lit cyberpunk street, raining”,保持原始脸部区域空白。
5、提交后系统仅重绘涂抹区域,原始脸部像素级保留,面部特征零变化。
三、Blend指令融合双角色一致性控制
Blend功能可将两张独立生成的角色图像进行特征融合,适用于构建固定双人IP关系(如主角与搭档),使双方在不同场景中始终维持原始辨识度。
1、分别用相同基础提示词生成两张角色图像A与B,确保二者光照、角度、分辨率一致。
2、在Midjourney聊天框中输入/blend,上传A与B两张图。
标签: 工具 ai nas midjourney 重绘 red blend udio
还木有评论哦,快来抢沙发吧~