🔥 Midjourney cref 海马体写真教程来啦!

🔥 Midjourney cref 海马体写真教程来啦!10 分钟不到出写真~视频在下面 (记得mark 看文字笔记)👇 超低学习成本,你只要会用任意手机修图软件…就能解决 Midjourney Cref 角色一致性直出之后的「形似而神不似」的问题。

📝 简而言之,文字笔记:

1️⃣ 得益于 –cref [image url]和 –cw [0~100],midjourney 能够迅速达成角色一致性的目的而无需 Lora。

其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到 0。

2️⃣ 你不需要对角色原图使用 /describe 来贴近目标生成角色的形象,因为 –cref 会帮你完成这件事情。

👉 于是,风格复制和服装的替换,则应当用提示词(prompt)和 –sref [image url] 来解决。

顾名思义,–sref 代表 style reference,权重参数为 –sw [0~1000],默认值 100,越高越接近参考图像的风格

举个例子,现在我们要海马体这张图像,我们先用 /describe 指令反推海马体的提示词,再配合 –sref [海马体图像的 url],就可以轻松复制图像风格。

在回车之前,检查你的提示词,不要出现和 sref 风格差异过大的 prompt;也可以增加一些你之前学过的有用的 prompt。

3️⃣ Upscale 最满意的那一张。接下来解决大家最关心的「形似而神不似」的问题。其实非常简单,这个问题其实是:MJ 直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有一些细微的差距。

如果你不控制变量一个个调整,就会觉得「怎么眼睛嘴巴合在一起就不像我了?」

此时,用醒图(英文版叫做 hypic)或者美图秀秀等 App 调整脸部,拖拖修图进度条就好了~完成度就从50%->80%甚至更高!

如果你用的是醒图,我建议关注一下【人像 -> 面部重塑 -> 面部 -> 比例】,调整一下上庭、中庭、下庭。

📝 其他备注 1:

🎨 在转绘这部分有一个重点案例是照片 -> Minecraft 这种风格幅度变化很大的。

有小伙伴的问题是发现即便 –sw 风格权重拉满了还是复制不了像素小人风格。

经过实验发现:原因是 –cw 太高。猜想原理:cref 提取的人物本身包含了一定程度的风格特性。MJ 把这部分特质也当成了「作为你 character 的一部分」。

调低 cw 发现成功复制,猜想正确。(见视频)

📝 其他备注 2:

🤔 cref 和 sref 还可以同时参考多张 url,那是不是说我只要上传同一个人不同角度的照片,就更容易直出呢?

🧪 实验发现不是..用语言描述的感觉是:MJ 它会把多张照片理解为多张人脸,直接把形状揉在一起。结果非常容易畸形。

 

 

© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容