【AI教程】可灵 2.6 动作控制,如何实现动作迁移 Freepik 分享了通过可灵 2.6 的动作控制功能,把一个真人的视频动作,直接 “套” 到完全不同角色身上的完整流程,大大降低动捕的成本! 先说一下基本原理,可灵的动作控制不是重新生成动作,而是把视频里的真实动作提取出来,再迁移到一张角色图像上。简单说,动作来自视频,外观来自图片,两者被组合成一个新的动态画面。 比如用一段拳击手打空拳的视频作为动作参考,再准备一张角色图像。这个角色可以是人物、卡通角色,甚至是一尊雕像。把图片放进起始图像,把视频作为动作参考,可灵会从视频中解析身体动作,然后驱动图像里的角色去完成同样的动作。 这里有个很关键的小技巧。写提示词时不要再描述动作本身。动作已经完全由参考视频提供,如果再写 “出拳”、“打拳”,反而可能干扰动作迁移。提示词更适合用来控制其他部分,比如环境氛围、镜头语言或者光线。 例如可以设定一个中近景构图,从大腿以上开始取景,镜头略微仰拍,围绕角色做稳定的环绕运动。这样生成的视频既保留了动作的真实感,又带有明显电影镜头的风格。 在参数上也有一些需要注意的地方。动作控制目前支持的分辨率在 720p-1080p,不支持更高分辨率。还有一个 “场景来源” 的设置,如果视频和图片的画幅不同,它会决定最终画面的比例是跟随视频还是图像。 如果想换环境,通常更好的办法不是直接在动作控制里改背景,而是先用图像模型(例如 Nano Banana Pro)处理角色图片。比如把角色背景改成夜间拳击擂台,再把这张新图重新作为起始图像导入动作控制。动作仍然来自同一段视频,但视觉环境已经完全不同。 当你把动作、角色外观和环境这三件事分开处理之后,玩法就会一下子变多。同一段表演可以给不同角色使用,也可以放进完全不同的场景里。动作成为一种可以复用的素材,而不是一次性的拍摄结果。 #AI视频 #AI动捕 #AI教程 #可灵
00:00 / 04:53
连播
清屏
智能
倍速
点赞16
00:00 / 00:31
连播
清屏
智能
倍速
点赞133
独家!一招教你 精准保持 AI场景一致性 你是不是也在用图生图或者用建模的方式来保持ai场景的一致性呢 这两个方法虽然比较常见 但现在有一个更简单的方法 几乎不需要抽卡 就能让你精准控制ai场景 这是我最近用得最多的一招 今天一个视频教会你如何用一张图锁定整个场景 首先我们要知道 AI是没有空间记忆的 他并不懂透视,他只是在模仿透视 所以你每生成一次它都需要重新理解你的要求 尤其是当你切换角度的时候 他可能就会忘记之前的东西 那怎么办呢 其实这有两种情况需要区分 第一种情况是 你的画面是小场景的时候 这是最简单的 你只需生成一张全景图去裁切就好了 但是这里有个误区要注意 就是这张图并不是给人看的 而是给你切镜头用的 意思是你不要把这张图当成最终的画面 而是把它当成一个素材库 接下来所有的镜头都可以直接在这张图上裁出来 再通过调整透视把人物溶进去 这就算你切换机位 也能够很稳定 第二种情况是场景比较大的 这时候第一种方法就很难实现 因为大场景百分百有细节会被漏掉 很多人喜欢先做大图再通过扩展去做小环境 但是很多细节没被表达清楚 AI只能去猜 所以画面一定会变 那怎么办 答案不是让它不变 而是不要让观众注意到它在变 你只需要做两件事 第一 保证大结构是一样的 比如空间布局、光的方向、大的物体位置 第二是主动弱化细节 比如减少复杂纹理再加一点景深或者轻微运动 这样就算细节变了 观众也会觉得还是同一个空间 最后总结一句话 不要试图让AI完全一致 你要做的是让它看起来一致 这套方法你学会了吗 关注我 带你学习更多AI从技巧 #superi #ai关键词 #aigc #刺猬星球ai #场景一致性
00:00 / 01:41
连播
清屏
智能
倍速
点赞1611
00:00 / 02:57
连播
清屏
智能
倍速
点赞1307
00:00 / 00:43
连播
清屏
智能
倍速
点赞130
00:00 / 02:42
连播
清屏
智能
倍速
点赞1
00:00 / 08:23
连播
清屏
智能
倍速
点赞11