00:00 / 01:24
连播
清屏
智能
倍速
点赞63
00:00 / 01:00
连播
清屏
智能
倍速
点赞18
00:00 / 01:23
连播
清屏
智能
倍速
点赞NaN
00:00 / 00:52
连播
清屏
智能
倍速
点赞92
三个AI搭一条工作流,DeepSeek写脚本,豆包生素材,即梦做运镜,效率确实高,但有个问题你肯定遇到过。 豆包生成的画面里,人物站得稳稳的,发丝不动,衣摆垂着,整个人像一张精修的照片。你把这张图扔进即梦,写“向右横移运镜,速度4”,镜头确实往右走了,但画面里的人像贴在背景上平移,没有任何跟随感和代入感。 原因很简单。即梦运镜需要画面里本来就有运动趋势,它才有东西可以放大。人物发丝飘动,即梦就能做出风吹过的动态连贯。人物身体有微微转动的趋势,即梦就能做出转身的流畅弧线。人物眼神看向画外,即梦就能做出视线引导的叙事张力。 问题是,豆包生成静态画面时,如果提示词里没写这些微动态,它就默认给你一个完全静止的定格。Seedance 2.0的提示词框架强调,动作描述要优先使用“缓慢转身”“轻轻抬手”“脚步轻移”等连续、自然的慢动作描述,而不是笼统的“跳舞”“走路”。这条规则不仅适用于即梦运镜词,也适用于豆包生图阶段。 DeepSeek的正确用法不是写完脚本就完事。你要让它帮你把“动作趋势”写进豆包提示词里。 告诉DeepSeek:生成一段豆包文生视频提示词,主体为年轻女生侧身站立,发丝有向右飘动的趋势,衣摆有轻微摆动的余势,身体重心微向右倾。豆包拿到这条指令,生成出来的画面就不再是死板的静态照片,而是自带运动势能的半动态构图。 这条带动作趋势的素材进入即梦后,你再写“向右横移运镜,速度4”,镜头运动方向和画面内发丝衣摆的飘动方向天然一致,运镜就有了视觉动机,观众的大脑不会打架。 DeepSeek在这个工作流里不是编剧,是连接豆包和即梦的语法翻译官。把动作趋势提前预埋进豆包提示词,即梦运镜才有动机可跟。 下次别让DeepSeek只写故事。让它写趋势。 觉得有用,点个三连就行。 #AI教程 #DeepSeek #豆包 #即梦运镜 #提示词技巧
00:00 / 00:14
连播
清屏
智能
倍速
点赞1
00:00 / 02:49
连播
清屏
智能
倍速
点赞154