王知风1年前
AI维密天使T台走秀 | Deepseek+可灵超模黄金比例 #利用deepseek可以做什么 #教程来了 #deepseek #如何用deepseek #可灵 我计划使用可灵AI生成一段维密天使T台走秀视频 为确保动作生动真实,我将利用首尾帧功能 使视频中的人物动作流畅连贯。 为此,我需要首先生成四张首尾帧连续的图片。 在图片设计中 我要求精准呈现超模的黄金比例 确保每个细节完美无瑕 具体要求如下: 超模的身体比例严格遵循黄金分割法则; 高跟鞋设计与足弓角度经过精确计算, 贴合真实人体力学; 服装与丝袜的材质细节逼真细腻,尽显质感; 动作角度精准自然, 充满动感,展现维密T台的独特风采。 每一帧都需精雕细琢, 力求完美再现维密T台的华丽与优雅 这四张图片将作为首尾帧 用于确保视频中人物动作的无缝衔接。 完成后,我需要你为这四张图片生成相应的画图提示词 并基于这些图片,提炼出用于视频制作的提示词 Frame 1【起始姿势】 "Victoria's Secret runway show opening pose, supermodel with golden ratio proportions(1:1.618), precise anatomical structure showing clavicle lines and hip curves, 120mm stiletto heels with 45-degree arch support, Swarovski-encrusted fantasy bra catching dynamic light reflections, feathered wings with individual quill details, silk stockings showing micro-texture of 20-denier knit, wind-machine activated hair flow captured at 30-degree angle, studio lighting creating diamond-shaped catchlights in eyes, 8K hyper-realistic rendering with subsurface scattering skin
00:00 / 01:28
连播
清屏
智能
倍速
点赞110
【AI教程】可灵 2.6 动作控制,如何实现动作迁移 Freepik 分享了通过可灵 2.6 的动作控制功能,把一个真人的视频动作,直接 “套” 到完全不同角色身上的完整流程,大大降低动捕的成本! 先说一下基本原理,可灵的动作控制不是重新生成动作,而是把视频里的真实动作提取出来,再迁移到一张角色图像上。简单说,动作来自视频,外观来自图片,两者被组合成一个新的动态画面。 比如用一段拳击手打空拳的视频作为动作参考,再准备一张角色图像。这个角色可以是人物、卡通角色,甚至是一尊雕像。把图片放进起始图像,把视频作为动作参考,可灵会从视频中解析身体动作,然后驱动图像里的角色去完成同样的动作。 这里有个很关键的小技巧。写提示词时不要再描述动作本身。动作已经完全由参考视频提供,如果再写 “出拳”、“打拳”,反而可能干扰动作迁移。提示词更适合用来控制其他部分,比如环境氛围、镜头语言或者光线。 例如可以设定一个中近景构图,从大腿以上开始取景,镜头略微仰拍,围绕角色做稳定的环绕运动。这样生成的视频既保留了动作的真实感,又带有明显电影镜头的风格。 在参数上也有一些需要注意的地方。动作控制目前支持的分辨率在 720p-1080p,不支持更高分辨率。还有一个 “场景来源” 的设置,如果视频和图片的画幅不同,它会决定最终画面的比例是跟随视频还是图像。 如果想换环境,通常更好的办法不是直接在动作控制里改背景,而是先用图像模型(例如 Nano Banana Pro)处理角色图片。比如把角色背景改成夜间拳击擂台,再把这张新图重新作为起始图像导入动作控制。动作仍然来自同一段视频,但视觉环境已经完全不同。 当你把动作、角色外观和环境这三件事分开处理之后,玩法就会一下子变多。同一段表演可以给不同角色使用,也可以放进完全不同的场景里。动作成为一种可以复用的素材,而不是一次性的拍摄结果。 #AI视频 #AI动捕 #AI教程 #可灵
00:00 / 04:53
连播
清屏
智能
倍速
点赞16