00:00 / 01:40
连播
清屏
智能
倍速
点赞7
【AI教程】可灵 2.6 动作控制,如何实现动作迁移 Freepik 分享了通过可灵 2.6 的动作控制功能,把一个真人的视频动作,直接 “套” 到完全不同角色身上的完整流程,大大降低动捕的成本! 先说一下基本原理,可灵的动作控制不是重新生成动作,而是把视频里的真实动作提取出来,再迁移到一张角色图像上。简单说,动作来自视频,外观来自图片,两者被组合成一个新的动态画面。 比如用一段拳击手打空拳的视频作为动作参考,再准备一张角色图像。这个角色可以是人物、卡通角色,甚至是一尊雕像。把图片放进起始图像,把视频作为动作参考,可灵会从视频中解析身体动作,然后驱动图像里的角色去完成同样的动作。 这里有个很关键的小技巧。写提示词时不要再描述动作本身。动作已经完全由参考视频提供,如果再写 “出拳”、“打拳”,反而可能干扰动作迁移。提示词更适合用来控制其他部分,比如环境氛围、镜头语言或者光线。 例如可以设定一个中近景构图,从大腿以上开始取景,镜头略微仰拍,围绕角色做稳定的环绕运动。这样生成的视频既保留了动作的真实感,又带有明显电影镜头的风格。 在参数上也有一些需要注意的地方。动作控制目前支持的分辨率在 720p-1080p,不支持更高分辨率。还有一个 “场景来源” 的设置,如果视频和图片的画幅不同,它会决定最终画面的比例是跟随视频还是图像。 如果想换环境,通常更好的办法不是直接在动作控制里改背景,而是先用图像模型(例如 Nano Banana Pro)处理角色图片。比如把角色背景改成夜间拳击擂台,再把这张新图重新作为起始图像导入动作控制。动作仍然来自同一段视频,但视觉环境已经完全不同。 当你把动作、角色外观和环境这三件事分开处理之后,玩法就会一下子变多。同一段表演可以给不同角色使用,也可以放进完全不同的场景里。动作成为一种可以复用的素材,而不是一次性的拍摄结果。 #AI视频 #AI动捕 #AI教程 #可灵
00:00 / 04:53
连播
清屏
智能
倍速
点赞16
00:00 / 01:46
连播
清屏
智能
倍速
点赞40
Shine Ai3周前
Ai视频十大万能镜头运动提示词 #ai #运镜 #aigc #ai短片 #武侠 首先祝大家新年快乐[派对R] 这几天用可灵3.0试了用几组运镜提示词来控制镜头运动,效果很不错,分享给大家。大多数情况下只需要把对应运动的提示词填进去,再简单一句话描写下主体即可,有几种甚至直接复制就好。 Seedance2.0虽然很强大,但是分镜方面的可操控性比较弱,但可灵3.0这一次进步很大,包括运镜和画面质感。偏影视创作类的朋友我建议结合这套指令去试一下。 🎬 9大黄金运镜Prompt效果作用: 1. 360°环绕运动 (360° Orbit) • 视觉效果: 镜头以主体为圆心进行圆周运动,适合展示建筑空间或增强角色的重要性。 2. 闪摇 (Whip Pan) • 视觉效果: 极快的水平扫过,产生强烈的动态模糊,是制作快节奏转场的利器。 3. 轨道推进 (Dolly In / Tracking) • 视觉效果: 镜头平稳向前推进,引导观众注意力深入画面。 4. 手持镜头 (Handheld/Organic) • 视觉效果: 模拟摄影师肩扛拍摄的呼吸感,为AI生成的纯净画面增加“人烟味”。 5. 摇臂镜头 (Crane/jib up) • 视觉效果: 改变视点高度,常用于展现宏大的场景或进行环境交代。 6. 快速变焦 (Crash Zoom) • 视觉效果: 极具视觉冲击力,常用于恐怖、喜剧或强调突发状况的瞬间。 7. 机械臂控制 (Moco) • 视觉效果: 模拟广告拍摄中工业机械臂的精准路径,画面极度丝滑且富有科技感。 8.上摇(Tilt up) • 视觉效果:缓缓揭示的感觉,经典的开场表现手法。
00:00 / 00:45
连播
清屏
智能
倍速
点赞NaN
【AI技巧】让 AI 产品图中的小字不翻车的提示词结构 即便是 Nano Banana 2,在我们生成的 AI 图片中,小字还是容易翻车!这期 Freepik 的教程,就是教你如何避开这个坑! 问题其实不在模型,而在提示词的结构。很多人写提示词时习惯把所有描述混在一起,比如产品、光线、颜色、风格,都堆在一起。但对生成模型来说,信息是有优先级的。如果顺序混乱,模型也会抓大放小。通常,它会先抓住物体轮廓或整体风格,小字排版这种细节就容易 “自由发挥”。 一个更稳的方法,是把提示词当成一个有层级的设计说明。先确定画面的构图和视觉结构,让模型先理解画面怎么布局。然后再明确产品细节,比如比例、轮廓、缝线、结构这些必须和参考图一致,这一步其实是在锁定设计本身,避免模型重新设计产品。 最关键的是排版信息要单独强调。需要写清楚具体文字内容、出现的位置、对齐方向,并明确要求不能拼写错误、不能多字母、不能变形。把排版当成一个优先级很高的 “锚点”,而不是夹在普通描述里的细节。 颜色描述也尽量具体,不要只说蓝色鞋子。深钴蓝鞋面、荧光黄绿鞋带、米白中底这种表达,会明显减少模型的猜测空间。接着再补充光线、景深、对焦这些摄影信息,让画面看起来像真实产品拍摄,而不是过度处理的渲染图。 最后再加一些限制条件,比如不要额外 logo、不要重复文字、不要虚构品牌元素。模型其实很喜欢 “补充细节”,这些约束是在帮它收住手。 有意思的是,当这种结构建立好之后,即使把提示词简化很多,结果依然稳定。因为真正起作用的不是字数,而是信息顺序。 同样的方法,对于视频生成也适用。只要用多张参考图持续强化产品的细节,再用简洁提示描述镜头运动,比如模特走入画面拿起鞋子,镜头推进特写,品牌小字在不同帧之间依然能保持清晰和一致。 很多人以为生成式 AI 的结果很随机,但在产品视觉这种场景里,其实更像是在做信息工程。结构越清晰,模型越稳定。 #AI绘画 #提示词工程 #Freepik #AI教程
00:00 / 06:07
连播
清屏
智能
倍速
点赞12
00:00 / 01:01
连播
清屏
智能
倍速
点赞29
00:00 / 02:22
连播
清屏
智能
倍速
点赞215
00:00 / 00:10
连播
清屏
智能
倍速
点赞1766
00:00 / 01:25
连播
清屏
智能
倍速
点赞8