【AI教程】一个人也能拍 "电影"?可灵 3.0 极简教程! 个人 AI 电影制作的流程,真的越来越成熟,门槛也越来越低了! AI 创作博主 FILM CRUX 带来实测教程,教你如何用可灵 3.0 "拍出" 一部奇幻大片。 先说说角色一致性!这历来是角色向短片最令人头疼的难题。可灵的解法比较系统,先用图生图跑出概念艺术图,再将其转化为写实版本。配合“角色卡”生成涵盖各个视角的 360° 角色设定表。最后把这些图全部喂给"绑定元素"功能,此后生成的每一个镜头,角色的外貌都能保持高度一致。这套逻辑的核心,在于用多视角图像来锚定角色形象,稳定性远胜于单张参考图。 视频生成方面,多镜头模式支持为每个镜头单独设定构图与时长,还可以手动调整排列顺序。有一个细节相当实用,就是让上一个镜头的结尾动作作为下一个镜头的开场,这样剪辑时镜头间的衔接会顺滑许多。可灵单段视频最长支持 15 秒 1080P,提示词遵从度表现的也相当不错。 音频方面同样有所升级,多角色同框对话已能区分各自的声线,语言与方言的覆盖范围也进一步扩大。对于想做带对白短片的创作者来说,这能省去不少后期配音的麻烦。不过,若要让不同镜头中同一角色的音色保持一致,还是要通过 ElevenLabs 这类工具进行整体配音。 #AI视频制作 #可灵 #一人制片厂 #AI影片
00:00 / 04:36
连播
清屏
智能
倍速
点赞22
00:00 / 01:05
连播
清屏
智能
倍速
点赞NaN
【AI教程】可灵 2.6 动作控制,如何实现动作迁移 Freepik 分享了通过可灵 2.6 的动作控制功能,把一个真人的视频动作,直接 “套” 到完全不同角色身上的完整流程,大大降低动捕的成本! 先说一下基本原理,可灵的动作控制不是重新生成动作,而是把视频里的真实动作提取出来,再迁移到一张角色图像上。简单说,动作来自视频,外观来自图片,两者被组合成一个新的动态画面。 比如用一段拳击手打空拳的视频作为动作参考,再准备一张角色图像。这个角色可以是人物、卡通角色,甚至是一尊雕像。把图片放进起始图像,把视频作为动作参考,可灵会从视频中解析身体动作,然后驱动图像里的角色去完成同样的动作。 这里有个很关键的小技巧。写提示词时不要再描述动作本身。动作已经完全由参考视频提供,如果再写 “出拳”、“打拳”,反而可能干扰动作迁移。提示词更适合用来控制其他部分,比如环境氛围、镜头语言或者光线。 例如可以设定一个中近景构图,从大腿以上开始取景,镜头略微仰拍,围绕角色做稳定的环绕运动。这样生成的视频既保留了动作的真实感,又带有明显电影镜头的风格。 在参数上也有一些需要注意的地方。动作控制目前支持的分辨率在 720p-1080p,不支持更高分辨率。还有一个 “场景来源” 的设置,如果视频和图片的画幅不同,它会决定最终画面的比例是跟随视频还是图像。 如果想换环境,通常更好的办法不是直接在动作控制里改背景,而是先用图像模型(例如 Nano Banana Pro)处理角色图片。比如把角色背景改成夜间拳击擂台,再把这张新图重新作为起始图像导入动作控制。动作仍然来自同一段视频,但视觉环境已经完全不同。 当你把动作、角色外观和环境这三件事分开处理之后,玩法就会一下子变多。同一段表演可以给不同角色使用,也可以放进完全不同的场景里。动作成为一种可以复用的素材,而不是一次性的拍摄结果。 #AI视频 #AI动捕 #AI教程 #可灵
00:00 / 04:53
连播
清屏
智能
倍速
点赞16
00:00 / 02:08
连播
清屏
智能
倍速
点赞53