粉丝2.0万获赞24.0万


最近有这样一段蹦极视频在海外平台传播,相关说法称这就是中国的豆腐花素。 这画面乍一看还挺唬人的,但是可不能当真啊!这其实是一段 ai 视频,而且有很多漏洞。 首先,视频开头的对话出现了生化不同步。铺好了,别紧张啊!好的好的,当事人发出声音时,面部却没有任何变化,而且这里两个人物的手指之间都出现了黏连,这正是 ai 作品不符合人体工学的最常见的表现。 此外,注意,这里山谷间的河水出现了截然相反的流向。这种反物理常识的自然现象,也是 ai 制作视频最容易出现的问题之一。当然,视频里还存在针尖不一致的现象。比如这里的蓝锁绳,出发之前有两根,而随着时间 退移,逐渐就合并成了一根绳索。对这个视频进行关键针反搜并溯源,可以找到最初的发布者是海外视频平台上一个专门制作 ai 视频的中文用户, 而且作者也在内容上标注了是由 ai 生成。总之,下次刷到这类视频可不要轻信啊!茗茶视频,喝茶不定期更新!

今天我们来个刺激的啊,坐这袋里安全着呢。别怕,有歌照着,一会风大,抓紧点啊,准备好了没?三二一走喽,哇哈哈。

师你这么大年纪还敢跳?哈哈哈你不懂这叫见佛祖的彩排。我懂哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈。 夕阳无限好。可惜闪了腰,刚想伸个腿膝盖受不了。哈哈哈。各位施主啊,年纪大了就不要双休了。哈哈,睡个好觉才是正道哈哈哈哈。

花了不到十分钟做出的年会倒计时视频,被领导夸说好,这就分享一下制作方法。第一步,打开画布图片,四点五输入这段指令,只需替换数字即可就得到倒计时背景图了。 第二步,视频制作选择三点零, fast 智能多帧添加素材图,输入上方对应指令,按需调整时,长 生图倒计时动态视频就完成了。这个方法又快又省心,快去试试!

恭喜你点进这个视频,我将通过这套 ai 动态慢系统教程,带你抓住二零二六年最大的风口,无需任何基础,全程通过 ai 即可进行创作。本套课程将从 零基础开始,一步步带你解锁 ai 动态慢所需要的各个知识点。那我们废话不多说,现在就跟我一起来学 学习吧!那么从这期视频开始,我们就来讲解 ai 动画短片是如何制作的。其实想要制作一部完整的 ai 动画短片,它的核心逻辑和我们的传统动画片制作是一模一样的。那现在最厉害的地方在于有了 ai 的 加持,很多以前需要一个专业团队才能搞定的工作,现在你一个人就能够全部 包圆了。那听起来很高深的一些专业知识,只要你学会借助 ai, 都可以在极短的时间内快速上手。一般来说,做出一个像样的 ai 动画短片,我们要走这么几个流程,第一步是写故事,包括构思剧本和拆解细分的分镜脚本。第二步是 出图,也就是把剧本里的文字变成一张张精美的图片。第三步就是让画面动起来,把图片转化为视频。第四步就是搞定声音,利用 ai 的 环境音效,背景音乐,还有人物的配音等等等等。那最后一步就是 把这些素材放在剪辑软件里,进行后期的合成。我知道很多新手同学看到这一长串的流程,可能觉得有点头大,甚至想退缩啊,但大家千万不要担心,从今天开始,我会带着大家从最基础的如何利用 ai 写剧本开始讲解,一直到最后的剪辑出片,我会把每一个细节呢都给大家拆开了,流碎了 让你听明白。除此之外,本系列视频中用到的 ai 工具、提示词、速查脚本、参考工作流,还有目前 ai 视频的热门玩法,我都会整理起来, 留言暗号工具箱,咱们低调学习。好,那么咱们今天从零开始,手把手教你如何从头亲手做出一个属于你自己的 ai 动画。这期视频我们先来讲解第一部分,如何利用大语言模型进行编写故事的剧本和脚本。我们都知道,一个完整的影视作品,需要的是导演和编剧来帮我们赚写剧本和脚本,但我们大多数人都 不是专业的导演和脚本,通常需要借助 ai 大 语言等等等等。那此时如 如何向大云模型进行提问就非常重要了。对于我们新手小白来说,就可以先从这四个基本的要素进行提问,角色设定、 目标清晰、输入格式、结果质量。像这样公式化的提问才能够得到更有执行性的答案。比如现在我们就想生成一个三分镜的 ai 短视频,一辆赛车在沙漠里飞驰。那根据刚刚的公式呢,我们就可以这样写,你是一个专业的影视分镜脚本专写师,擅长为 ai 短视频设计场景和镜头语言。请你帮我做一个十秒左右的视 脚本,内容是在广阔的沙漠公路上,一辆赛车在高速的飞驰。根据以下的具体要求,比如三分镜需要包括镜头类型、画面内容、动态描述 等等,要保证主体和风格的一致性。输出格式的要求有,镜头编号、画面描述、 ai 绘画提示词,最终以表格的形式回答。我们先来探讨第一个要点,角色设定。这段提示词我们可以看到给定 ai 的 身份是影视分镜解析师,这是因为我们的核心问题是让它帮我们生成 三分镜的 ai 短视频,所以要让他在做短视频方面是一个专家,那他擅长为 ai 短视频设计场景和镜头语言。因此我们自己在向大语言模型提问的时候,如何给定 ai 身份,或者给他哪种身份是要根据我们的核心问题进行 设计。那此时我们想要 ai 帮我们去做一个科普动态慢的概念,那我们就可以给他设定。假如你是世界著名 动画影视艺术专家,请你给大家科普一下什么是动态慢。此时他所给出的回复是动态慢的核心定义,动态慢的关键特征,以及动态慢与动画漫画的核心区别。这些内容 所给出的格式是非常专业的,那我们换一种角度问同样的问题,大家可以对比一下差异。假设你是一个脱口秀演员,请你帮我科普一下什么是动态慢,可以看到这里所回复的内容就和刚刚有一定的方式来介绍动 排满的,这就是我们给 ai 设定不同的身份,那么 ai 给我们的答案也会有一定的差异,它会从不同的角度,不同的专业做出不同的回答。至于第二点,目标清晰,这里并没有什么特殊的技巧,我们需要做的就是简单明秒的把我们的核心问题发给 ai 即可,就比如请你帮我做一个十秒左右的视频 脚本等等。那如果没有今天我们所讲述的提问框架,大家大概率也是会这样去提问,将后边的一些具体要求牵扯到了比较多的专业名词, 如果大家看不懂没有关系,后边我们会给大家一一的进行讲解。我们再来看第三点,格式输出。我们在向大元模型提问的时候,虽然在我们没有进行格式限定的情况下, ai 依然给我们的答案是分条列出,条件清晰的,但要做脚本,需要输出的类目会非常的多,因此 用表格的形式会更加一目了然。我们来做一个对比,请你帮我做一个十秒左右的视频脚本,内容是我们不做格式限定得到的答案输出。 那如果我们再加上输出的格式要求,镜头编号,警别时长、画面描述、 ai 绘画、提示词旁白,并以表格的形式回答,那这个时候我们的提问方式得到了答案就会更加的专业,并且更具实用性,这就是 ai 限定输出格式的作用。我们再来看最后一遍 结果质量,结果质量这个重点对于以上三个点来说呢,显得就没有那么的重要了。在 ai 还没有如此强大的时候,我们每一次的提问都需要提醒 ai 生成一些高质量的回答,比如我们在做图片提示词的时候,需要提醒 ai 生成四 k 的 画质啊,摄影镜头啊等等等等。 那我们在做文案性的工作的时候,需要提醒 ai 回答的简明扼要啊,逻辑清晰啊等等等等。但对于现在的大圆模型来说,我们的这些结果质量提示就显得有些多余了,因为 本来 ai 给我们的答案就已经非常的好了,因此结果质量只有在我们得到了答案不太满意或有所纰漏的时候,再去提醒再去作答即可。我们下面就回归到本节课的主题,如何让 ai 来编辑剧本和脚本。这里我们已经提前准备好了,一起来看一下具体的内容是怎么样的。首先要明确一点, 剧本和脚本是不同的,可以看到在这里我们分成了故事的剧本和脚本。在剧本方面,我们点击查看可以看到它更像是一则故事的直观叙述,就像阅读一本小说一样,没有非常杂的解释,只是顺着观众的正常思路来讲述一则普通的故事。而脚本则不同, 它的内容会更加的繁琐复杂,包括了警别场景等等,对于画面内容的描述以及发生的时间。它更像是一本在制作这个完整故事影视作品时的一个指导规划书,告诉我们在拍摄这一段时 应该注意些什么,按照什么样的方式去制作。那么了解了故事的剧本和脚本的区别,我们再回到刚刚的内容,来看一下具体的提问方式是怎样的。可以看到这里同样满足了提问的四要素。首先第一点给 ai 设定身份,你是一个经验丰富的动画电影 制作导演,这句话就给 ai 设定了一个经验丰富的动画导演身份。下面是提要求,现在我需要你写一个动画电影短片的传说。这句简单的话提出了我们的要求是写动画电影 短片的故事剧本。而第三个部分就是给回答设定格式,要求是三 d 国漫风格,以写故事的方式 提供给我,以便于我能快速的了解故事内容不超过四百字。而在下面我们生成脚本的时候呢,可以看到就没有再给 ai 设定身份了,因 通常来说呀, ai 大 元模型是有关联上下文的能力的,那我们在第一句话中已经给他设定了一个经验丰富的动画导演身份,所以默认在后续的提问中,即便不再单独的设定身份,这个身份也已经贯穿整个对话了。到这里大家可能会有一个疑问,那就是既然我们生成的分镜脚本能够直接告诉我们 在真正制作短片时,该在什么位置,什么样的描述,设定什么样的时间,为什么还需要让 ai 生成一个故事的剧本呢?这个道理其实很简单,作为一个导演呢,也就是我们自己要制作出一个完整的故事,就必须先要深入对故事有一个清晰的认识,知道故事当中的出场人物, 故事的情节。所以相较于永长的脚本而言,一则故事的剧本能够让作为导演的我们像阅读一个短片故事一样,快速的了解整个故事都发生了什么,这样在制作的时候,才能够更多的去打磨这个故事的细节,了解故事的前后逻辑。其次,我们先行编写的一个故事剧本, 也能够十分方便的对故事剧本当中逻辑不通或者不够精彩的需要修改的部分进行提前修改,那在修改好之后,再让大家用大语言模型参考修改后的内容,再来生成更加完善的脚本,以此来降低后续修改的成本。毕竟修改一个简短的剧本要比修 修改一个永长的脚本要方便得多。在生成一个 ai 动画故事短片时,大家可以看到开头我们所展示的动画短片在时长上都不是很长,通常一两分钟,所以这里生成的次数也非常的重要。通常来说,四百字的故事剧本对应的就是两分钟左右的 ai 动画短片。所以大家可以以此为基础, 在设定 ai 回答时来设定一下生成的次数。此外,我们在设计脚本要求时,实际上是为未来的 ai 绘画流 埋下一个伏笔。很多格式上的约束,核心的目的都是为了让后续的图片生成更加的流畅。所以大家在向 ai 提问时,不妨换位思考。如果我们要用这段话去生成一个图片,那 ai 需要知道些什么?基于此, 我们在指令中强制要求,包括警别、警号、场景绘画、提示词等等等等,这些细节直接决定了分镜的还原度。更重要的是,我们仿佛强调 ai 的 描述要客观直观,避免文学化的修饰。如果你深入使用过 ai 绘画工具,你就会发现那 些充满异境的小说话表达往往是致命伤。比如长城宛如巨龙, ai 呢?可能会画出一条龙来,那这就是语义误读导致的翻车现场。为了保证分镜脚本的实用性,我们必须用最平实的语言去解 构画面,摒弃误导性的一些修辞。当然,在追求绘画效率的同时,我们也不能忽视脚本本身的专业属性,即便我们不是职业的导演或者编剧,也应该要求 ai 输出的内容具备脚本的基本骨架与核心要素,这样生成的作品才不只是零散的描述词堆砌而成的作品,而 而是一份具备蓄势完整性,能够真正落地的执行性专业脚本。最后,让我们对本期视频的核心要点进行一次深度的梳理。首先我们从宏观角度给大家讲解了制作一部 ai 动画作品的全部流程以及炼录。这不仅是本节课的开端,更是我们后续系列课程将要逐一解析深度攻克的技术地图。 那本节课的重头戏呢?在于我们详细的拆解了如何利用 ai 大 元模型编写出高质量的故事。剧本与分镜脚本我们重点强调了与 ai 深度对话的一些核心方法论,就是提问的四 要素,角色设定、目标清晰、输出格式、结果、质量。那在实战环节中,我们不仅成功的驱动 ai 生成了可落地的剧本脚本,更从专业的角度对什么是剧本,什么是脚本以及他们的实际创作中各自承载的功能进行了一个深度的分析以及 剧本。那希望通过这些理论与实操的结合,大家能够真正的理解并掌握 ai 创作的底层逻辑,为接下来的分镜生成打下一个坚实的基础。好了,以上就是本节课的全部内容,大家好, 在上节课中我们学习了使用 ai 大 语言模型生成剧本和脚本,那么这节课我们就利用已经生成好的剧本脚本来进行分镜图片的生成。制作 ai 视频时 先图后影的图声视频模式是确保创作可控性与成本效率的核心策略,在实际的商业化生产流程中呢,直接利用文声视频往往会伴随着极高的随机性,可能导致半数以上的生成结果都无法达到商用的标准,从而造成高昂的时间成本与 算力资金的浪费。为了避免这种开盲盒式的低效率输出,资深的创作者通常会先精细的打磨分镜图片,利用静态图像为 ai 提供明确的视觉参考、光影构图以及主 特征,再通过图声视频进行动态的一个转化。这种工作流程呢,将创作重心前置,使图片生成阶段成为了决定我们视频成败的关键流程,也是我们最值得投入精力的一个环节。在正式开启 ai 绘画之前, 我们必须要建立起角色先行的创作意识,就是说,通过严谨的造型设计来将整个故事注入灵 魂。每一个完整的去时空呢,都离不开核心人物和事物的支撑。因此,前期准备的第一步就是将剧本中的文字转化为具象化的角色造型方案。在实际的教学案例中呢,生成的脚本通常会给出 基础的视觉线索。比如我们上节课提到的角色姚双,其特征呢,被定义为白鹤仙子、水墨风飘带飞舞,雨光环绕、雪肌银发、东方仙女。此时呢,如果甲方没有给出特定的原话稿,或者我们自己处于创意发散阶段,就可以直接通过精准的提置词指令, 要求 ai 按照脚本的逻辑输出该角色的全身正面视角。在这个过程中,我们需要明确规范角色的造型以及整体视觉风格,从而快速获得一套标准化可延伸的角色 出形象设计,这不仅能够极大的提升我们后期的创作效率,更是为后续保证角色一致性打下了一个关键的基础。当然, 除了根据脚本当中已有的简单描述对角色造型进行设计之外,我们同样可以根据自身的想法来单独设计角色的造型。比如人物没有发束啊,可能披头散发的状态,或者说是短发这些内容呢,我们可以直接通过正常的描述来告诉 ai, 就 可以生成对应的结果。 我们前期的第二大核心呢,在于必须对故事画面风格进行全景的定调。我们要知道,任何一部成熟的影视作品, 视觉语言的核心竞争力都源于美术风格的前后一致,我们绝对不允许呢,作品在前期呈现的是写实风格,而到后期呢,却又毫无逻辑的突变为三 d 的 风格,那这种割裂的感觉呢,是创作的大忌。因此,我们需要在一开始呢,就利用题词 来对未来的画风进行永久性的固定。就拿当下这个案例来说,当我们在生成角色时,明确植入高精度三 d 现模风格或者三 d 国漫风格等等这些指令,我们所得到的就不再是那些拥有真实毛孔与写实比例的真人形象了,而是呈现出一种接近 院线级的三 d 动画电影的角色质感。那这种风格化的预设呢,是直观重要的,确保我们在后续的生成所需要的画面都能严格的遵循这个美 属标准。那么问题来了,如果我们看中了某张图片的美术风格,但自己呢又抓不住重点,不知道该用什么词去描述它,咱们该怎么办呢?那其实呢,操作是非常简单的,我们可以直接去抄作业加精细化的一个思路。比如我们现在来到极梦 ai 的 首页, 这里呢有很多优秀的作者生成的作品,如果我们觉得其中某一张图片的视觉感觉哎,特别符合我们的胃口,我们注意右侧,这里明 明明白白的给我们展示了作者生成这张图时的用的原始提示词,我们直接可以动手把它复制下来,直接来到我们的豆包 ai 对 话框里给它粘贴上去, 记得我们按 shift 的 同时呢,去加上回车键,就可以另起一行,不然的话我们就直接给发送上去了。这个时候我们给豆包 ai 下一个指令,跟他说帮我把这段词里的 具体描写,什么人什么事或者什么环境氛围的话全部删掉,只帮我留下跟美术风格、画面质感相关的关键词,那我们点击发送大家可以看。这样一来,我们就非常丝滑的从别人的作品里把那套风格给提取出来了,直接就可以用到我们自己的创作里。当然了, 烟帮我们提取出来的分格式呢,未必是百分之百的精确答案,咱们拿来用之前呢,先要亲自过一道人工筛选的关卡,比如说我们在刚刚提取出来的那对词里, 可能会混进去一些属于摄影机位的警别描述,跟风格描述呢,其实是没有半毛钱关系的,那咱们在使用之前呢,最好是先把这些干扰项给删除掉。接下来咱们再来实操一下,把刚刚洗干净的分格式配合上咱们自己新的构思内容,比如描述一个 古风的帅哥正在御剑飞行,再加上一些近景特写的描述,一一混在一起生成一组图片,我们一起来看一下这个效果。 大家可以看到最终跑出来的这张图,他的光影质感和三 d 的 味道是不是和刚刚咱们参考的那张大神的图片有些相似了呢?不过这里我们还是要给大家打一个预防针,因为咱们生成的主体变了,有时候美术风格在最终的呈现上很难做到绝对的完美, 所以大家在参考的时候一定要灵活,根据自己对画面的理解,多去微调提示词,不再尝试,直到它完全符合我们脑子里想要的画面为止。 那么回到豆包 ai, 我 们继续承接之前的内容,在设定好角色也就是姚双的形象之后,我们自然要继续设计画面当中出镜比较多的鲜赫的形象。这里我们就继续向豆包提出要求,用相同的风格生成脚本当中提到的鲜赫, 可以看到最终生成的效果呢,也是非常出色,成功的生成了仙鹤的形象。当然大家同样可以靠自己的想象来描述仙鹤都有什么样的特征。 既然我们已经把人物造型和美术风格这两个基础给打好了,那接下来的重头戏就是如何通过精准的提示词,把脚本里每一个分镜的镜头给 实实在在的变出来。想要画面听你的话,我们必须要掌握一套专业的提日词万能公式,我把它归结为核心的六大维度,首先是景别,你是要特写 近景、中景还是远景,这决定了观众看画面的视角远近。第二是主体事物,也就是画面里到底有什么,比如我们刚刚设计的遥霜和仙鹤,还有他们所处的具体环境。第三点非常关键,就是时间光线, 白天黑夜雷雨天气的光是完全不同的感觉,而且你要学会描述光的方向是柔和的,正面光还是很有故事的,侧面逆光,光线选对了,人物的情感瞬间也就拉满了。第四呢,就是色调的控制, 我们可以直接定冷光调,或者告诉 ai 要某部电影的经典影调,比如轿夫的那种身随沉稳的复古感。第五呢,是构图的逻辑, 咱们是选择稳重的对称构图,或者说是灵动的 s 型构图,还是延伸感的水平构图, 好的构图能够让画面自己说话。那最后呢,就是画面的质量词,像什么胶片、颗粒、质感、电影及光效、十六 k 超轻等等等等。这些词呢,就像是画面的磨皮滤镜,能够瞬间拔高生成的结果和我们商业化的质感。 接下来呢,我们来深入探讨一下提示词的描述技巧。这里呢,第一要义就是必须要做到极致的直观与客观。大家一定要扭转一个观念, 写 ai 提示词和我们上写写作文写小说是完全两码事。在文学创作里,我们追求修辞的意境和华丽的词藻,但在 ai 绘画的逻辑里,过多的修饰词往往是噪音的存在,那我们极其容易导致 ai 误判我们的核心意图。 一个典型的翻车案例,比如上节课我让大家描述的长城宛如一条巨龙,那么在文学意境下呢,这是非常壮观的一个场景,但你让 ai 这种直脑筋,大概率他是听不懂你的比喻的,他很可能呢,就真的生成一条巨龙,盘握在山上,而不是你想要的长城建筑的本质。 再比如我们描述鲤鱼跃出水面,飞的很高,像长了翅膀一样,你的本意呢,是想形容跳跃的高度,但结果呢,大家可以看 ai 直接理解成了字面意思, 给这条鱼真的安上了一对翅膀,生成了一个不伦不类的怪胎。所以说呢,我们在 ai 沟通的时候呢,千万别搞那些花里胡哨的比喻词,要学会最直白最干的物理语言去 描述画面,告诉他画面里到底有什么,而不是他像什么,这样才能保证咱们的费片率降到最低。咱们再来看提日词描述的第二个核心要义, 脚本只是辅助参考,真正的画面拆解必须靠我们自己的独立思考。现在 ai 视频教程满天飞,有些教程呢,会误导大家,直接说把脚本当中的描述文字呢,复制粘贴过去,就可以 直接出片。那咱们实话实说呢,这种做法呢,其实是非常业余的,因为脚本的描述里经常会堆积很多同一个镜头下根本没有办法兼顾的信息。 咱们就拿第一个镜头做例子,脚本里写了超广角镜头下展示了一只白鹤,在东海附近,日出时分翱翔在云雾缭绕的山峰之上。那么仙鹤优雅的身影呢?穿透金色的晨曦, 大家可以动脑筋想一想,如果我们拍的是一只仙鹤的超广角镜头,那像细节处他身体穿透的晨曦,这仅仅是几个像素的事情, ai 怎么可能会在保证原 或者广角的情况下,帮我们把这个透光晨曦的质感给刻画出来呢?这就是视觉上的一个矛盾, 所以咱们在生成时不能当搬运工,还要当一个导演。那像这种情况呢,我们至少要把这个脚本呢拆分成两个画面,第一个镜头呢,就是仙鹤飞翔的全景图,第二个镜头呢,才是仙鹤翅膀透光的一个近景特写图。 所以我们要养成一个习惯,拿到脚本之后呢,先在自己的脑海中过一遍,形成一个具体的画面感。更多的时候,我们要脱离剧本的文字束缚,根据自己脑子里的构图,用刚才直观的语言去描述它。只有这样呢,我们才能避开逻辑冲突的坑,生成画面才能够真正具备电影级 的续时质感。第三点就是 ai 目前的能力有限,有时需要适当的修改提示词描述内容之后我们根据剧本和脚本进行一定的更改, 例如这一段让白鹤与妖怪进行战斗,他释放出神圣的能量,画面剧烈的晃动。如果大家有一定的 ai 视频生成经验的话呢,会发现这一句话当中所描述的仙鹤打斗场景,在 ai 视频片段的生成中其实是非常难制作的,首先 他打斗的细节没有描述,其次仙鹤的肢体控制是非常僵硬的,所以这里我们不妨直接让仙鹤化为人形的摇骰去和怪物施法, 这样人物施法的动作会非常的流畅,并且呢更加符合逻辑,因此再遇到类似的情况,可以先尝试按照剧本当中可能会相对复杂的表现去生成, 如果我们做不出来的话,再考虑更改为更加简单的画面。第四个提示词描述技巧,就是有角色说台词的画面时,尽量用近景正面镜头, 这同样是我们将来给角色对口型时,能否成功的给角色对上口型进行考量。在极梦 ai 当中呢,给角色对口型 用的是数字人的功能,他首先需要我们上传一个视频或者图片,再添加对应的配音。当我们需要对口型的人物是一个远景人物并且非正面镜头时,此时对口型失败率是非常高的,要么效果会非常的不明显。 比如说我们来看这段视频,可以看到,虽然说生成的画面人物的嘴部依然是有动态的,但是整体的表现效果会非常的一般, 人物的身体呢,也会伴随说话而出现不自然的动态效果。我们再来看这个人物近景特写对口型的画面,可以看到此时生成的画面人物的口型和台词就十分的匹配,并且呢面部的动态表现也会更加的清晰。 所以当我们遇到有角色在说台词的画面时,就可以尽量使用近景正面镜头,以获取更好的对口型效果。我们最后再来看图片生成之后的修改技巧。在通过纹身图生成图片时呢,很多情况下并不能一次性生成让人满意的效果, 但也许生成的图片百分之八十是满意的,剩余的百分之二十呢?相比于重新生成一张图片和进行后期修改是性价比更高的选择。或者有时候我们需要表达一个很长的镜头,以此来表现画面的时间流逝或者是人物的一连串动作。所以 我们首先来看第一点,固定镜头下长时间物体运动的表达技巧。这里就包含很多方面了,比如我们现在想要表达一年四季的变化,那么在生成好人物的状态之后呢,我们就可以直接让 ai 大 语言模型帮我们固定画面当中的人物构造和构图,但只改变画面当中的四季。 比如我们首先生成的第一张图片呢,是类似于春季或者夏季。在提示词中,我们要求将上传图片的季节改为秋季,其他的部分保持不变,此时我们就获得了人物在秋天的画面。那同样的道理,我们继续描述将人物的季节呢改为冬季, 其他的部分保持不变。那最终呢,就成功的将图片改为了冬天的季节。有了这些图片之后,我们首先使用首尾针或者多针生成的方式,可以生成一组人物从春天到秋天再到冬天一直在这个位置的景象, 以此来表现人物十分奇面,十分坚毅的镜头片段效果。当然除了描述季节之外,我们还可以描述将人物改为某种姿势,在人物的身边添加某些事物,减少某些事物,其他的部分呢保持不变,相信大家可以举一反三,我们就不再多赘述了。 第二个图片修改的技巧呢,就是如何在保证造型和风格一致性的条件下修改环境和状态的技巧, 其实这一点大多数情况下我们不需要特意去保持,因为呢, ai 大 圆模型在升图时呢,是有上下文关联的功能,比如说我们刚刚演示的提示词中,只描述了鲤鱼跃出水面飞的很高,就像长了翅膀一样, 本身的意图呢,是想单独生成一条跃出水面的鲤鱼,但得益于 ai 大 圆模型能够关联上下文的能力,他依旧认为我们是想要基于上面的画面来进行新的修改, 而且可以看到生成的结果,在美术风格上同样保持了上图的风格一致,所以很多情况下,我们不太需要单独的提及要保持的画面风格。 但需要注意的是呢,在实际的制作过程中,偶尔会出现我们上传了一张参考图片,但生成的结果和参考图在造型上的美术风格不相同的情况,在遇到这种情况的时候,该怎么解决呢?最好呢,我们就更换一个图片生成平台。 那在使用不同的图片生成平台时呢,其实每一家所使用的生成模型呢,都会有所区别,有些生成模型呢,擅长于写实风格,有些擅长于绘画风格,有些模型这个角度生成的不好,有些模型按这个风格生成的不好。这些呢,都是很常见的情况。 所以说,大家在对图片内容进行修改时呢,一定不要一棵树上吊死。如果实在生成的不好,除了用极梦 ai 或者豆包平台之外呢,我们也不妨尝试其他的平台,比如说可灵 ai, 或者像开源的 context 的 模型, blocks 模型或者 banana 模型的工作流都是可以的, 现在我们可以来到 running hub 上搜索 banana 的 模型工作流,其基本的功能呢就是图片编辑,在左侧图像输入窗口,将刚刚未能在豆包上生成成功的人物造型进行上传。在提日词的描述当中,我们描述需求,这 这里我们就输入和刚刚在豆包上一样的提示词,根据刚刚图片的人物特写生成生气、拍桌子、愤怒的表情。而比例方面我们修改为十六比九,然后直接点击开始升图,可以看到一段时间后图片就生成好了,整体的生成效果还是非常出色的。 我们将在豆包上面生成的人物造型放在旁边,同时将原版的人物造型参考也放在旁边,可以看到对比之下,显然使用 banana 的 模型工作流能够生成人物造型更加统一的画面效果。 当然在豆包上大多数情况下也是直接可以修改的,只是偶尔出现一些问题,所以届时不妨尝试一下其他的平台,在保证人物造型和美术风格情况一致的情况下,改变环境和画面当中的事物形态。 最后我们来简单总结一下这节课,我们讲解了图片生成的相关知识,包括前期的准备、提日词的结构、提日词的描述技巧和图片修改技巧,这些知识能够帮助大家在生成分镜图片时更容易的生成出理想的画面。 好了,以上就是本节课的全部内容,大家好,在之前的课程中我们已经学习了 ai 剧本脚本的生成,以及如何通过所生成的剧本和脚本来生成对应的分镜图片,那么这节课我们就来正式的学习生成 ai 视频片段。 目前市面上的 ai 视频生成平台有很多,我们应该如何去选择呢?那在这些年的项目实操中呢?我尝试过市面上绝大多数的 ai 视频工具, 如果综合考量操作便捷程度、生成画面质量以及平台功能的完整性,我总结出一套适合制作完整 ai 视频的方案。目前呢,我建议大家重点关注三个平台,分别是可灵吉梦以及 mini jerry。 那 在这三个平台呢,并不是相互替代的关系, 而是在不同的创作阶段各有侧重,它们有的擅长动态模拟,有的在审美控制上更具优势。 接下来的内容呢,我会根据具体的应用场景带大家逐一进行剖析。 ok, 我 们先进入极梦平台的这个实 操环节,打开极梦的主页,最上方最显眼的位置呢,就是 age 的 模式。虽然这个模式呢,支持我们输入任意一段自然语言 去自动匹配功能,但在实际的生成环境下,它的智能化程度还是不足以完全理解复杂的创作意图。生成效果呢,往往带有随机性。 所以为了追求更精准的输出,我建议大家绕过这个综合的入口,直接点击左侧导航栏里的生成选项,进入专门的创作控制台。在视频生成逻辑里, 通常分为文生视频和图生视频两条途径。这里我要分享一个非常关键的实战经验,在大多数商业或者正式的作品创作中,图生视频往往是比文生视频更高效、更明智的选择。原因很简单,确定性文生视频目前还存在较大的不可控性, 无论是画面中主体形象的一致性,还是动态镜头的精准程度,都包含太多的未知因素。而图声视频则不同, 它允许我们用图片确定好构图、光影和角色,再让它动起来,这就把视觉创作和动态模拟分成了两步,极大的提高了我们的出片率。既然我们选择了文声视频的路径,那么描述信息的密度就要远比图声视频大的多。 因为我们不仅要定义画面静态的属性,还要兼顾动态的变量,这要求我们必须回到提示词的底层结构上来。要清晰的构建一幅画面,首先要明确景别和主体,比如近景,一名身穿白色毛衣的少女。 最后呢,是环境和氛围的描述,例如白天的街道、冷色调电影等等等等这样的一个构图感觉。最后再辅以胶片、颗粒、超轻六 k 等纸料描述词来夯实画面基础。 请注意,写完这些后,先不要急于生成,因为纹身视频还多了一个维度的逻辑,那就是运动的控制,也叫做运镜的控制。我们需要分别描述镜头的运镜和主体的动作。比如针对人物行走的画面,我们可以书写镜头,跟随或者跟随镜头, 那么并要求人物在面向镜头或者向前走的方向。虽然现在我们将画面和动态的内容都交代清楚了,回车生成的视频效果 也表现尚可,但问题随之而来,由于缺乏原图像的一个约束, ai 会在人物长相、行为多寡以及具体的年龄等未描述的细节上进行随机的填充,这些内容呢,它是不可控的,直接导致了我们生成的结果往往会偏离我们的预期。 因此我们再次向大家强调,在实战的项目中呢,文声视频往往是效率较低的一种方案,为了追求更强的确定性呢,我们还应该优先选择图声视频的功能。 那说到图声视频,我们下面来看一看图声视频都有哪些功能机制。大多数的视频生成平台,这些功能机制都大同小异,所以我们就只讲极梦 ai 上的主要功能,那么大家在使用其他平台时,注意举一反三。 首先是最为基础的手绢图像生视频,这也是最常用的一个功能。这个功能呢,需要我们通过拖拽或者点击上传的方式将图片上传到手绢图的预备框中。在上传好之后,接下来就是输入提示词描述了。 不同于文生视频,图生视频本身上传的参考图就已经给了充足的画面信息,因此在图生视频时,我们就只需要描述画面当中物体的运动变化以及运镜即可。首先来描述运镜, 这里我们就描述固定镜头,水在流动,风吹起人物的头发和草地,像画面当中的水流和草被风吹起的效果可以在提日词中提及。在写好提日词后,直接点击生成即可。 生成视频时呢,会直接根据图片本身的宽高比来决定视频生成的宽高比,所以大多数时间就是上传图片,描述运境和事物的变化,就可以点击发送生成了。在等待视频生成的过程中,我们集中讲解一下关键的参数设置。首先是模型选择, 遵循 ai 领域的通用逻辑,版本标号越高的模型,其底层架构和语理解能力就越强,生成的效果自然更加出色。所以我建议大家选择更高版本的模型,以确保作品的质感。 在即墨的生成方式中,提供了首尾真生成视频、智能多真生视频以及参考图生视频三个维度,而在宽高比上通常设为自动匹配,以确保素材比例的协调。 关于视频时长,目前在五秒和十秒两个档位,我们进行自由选择,这里我要给出一个非常关键的避坑建议。 在非必要的情况下,我们尽量不要直接去选择十秒的生成时长,因为视频的链路越长,模型对画面动态和物理结构的控制就越弱,出现变形和逻辑错误的概率就大幅增加。 至于运镜控制,吉梦内置了一系列标准化的运镜模板,这些模板的底层逻辑呢,与我们手动输入提示词是一样的。如果你对镜头语言的专业描述还不够熟悉, 直接调用模板是最稳妥的选择。当然,如果你已经掌握了精准的运镜描述词,直接在提示框里边进行自定义书写,灵活性会更加的高。 现在视频已经生成好了,来一起看一看效果吧。可以看到,整个视频的过程是动态效果非常不错的,水流动非常自然,风也是轻轻的吹动了人物的头发,草也在轻轻的晃动。像这样的视频生成,每一次的效果都有一定的随机性, 如果当前的效果不够满意,可以根据当前的提示词和生成的效果,对提示词的部分加以改进,或者适当的修改原图当中的某些内容。当然,如果觉得全部都没有问题,都是因为随机性导致的生成效果不好,也可以直接点击下边的再次生成。 这样的话呢,就不用再次编辑,直接可以重新获得一条新的视频。我们接下来来深入探讨首尾真生视频的功能,这在精准控制视频走势上直观重要。刚才我们仅通过手真生成的视频,虽然画面起步很稳,但结尾处人物的表现,事物的变化轨迹本质上是随机的, 而首尾帧模式,它赋予了我们控制终点的能力。现在我们将一张少年在秋天环境中打坐的图片上传至尾帧窗口。通过这种方式,我们预设了视频结束时的画面结构与环境状态。在提示词的构思上,我们维持固定镜头,并保持水在流动,风 吹起发丝和草地。那为了强化季节更替的视觉冲击力,我们需要引入延时摄影的这一专业描述, 要求水流与草地快速的晃动,利用这种加速的动态逻辑,在短短几秒钟内呈现出从夏季向秋季过渡的时间流逝感。我们继续来看极梦 ai 上视频生成的下一个功能 就是多帧生成,点击这里的下来菜单,将首尾帧生成修改为智能多帧,此时就会多出一个图片上传窗口。而我们要做的就是在第三个多帧上传窗口上再次追加一张图片, 将其拖拽到这个位置。此时可以看到在图片与图片之间有一个间隔的位置,点击这个间隔的摄像机图标, 我们会弹出一个文本输入框,这个位置是用来描述图片与图片之间在运镜和事物变化上的描述。 上传的第三张图片就是人物在冬季打作的画面,因此提示词描述基本上和上一张季节上更替的描述保持不变。我们也可以将水快速流动这个选项进行删除,让 ai 自行来决定水该如何流动。接下来复制点击确定, 同样把上一段图片与图片之间的衔接提示词内容替换为当前内容,点击确定多帧生成功能。在图片上传时,它的上限不止三张,我们可以继续添加第四张、第五张图片,以此来生成一个连贯的、时长较长的视频画面,来表现更多更长的画面当中的实物变化动态。 我们下面来讲解一下其他的 ai 视频生成平台。首先来讲解一下关于可灵平台的使用方法。来到可灵 ai 的 首页,需要先说明的是,这些视频生成平台在使用操作和功能上基本上大同小异,在可灵 ai 平台 依然是在左侧的视频生成选项,可以看到同样分为了文声视频和图声视频,具体的操作也和吉梦 ai 上是一样的,所以我们就不做过多的演示了。这里我们还要说一个重点功能,就是多模态编辑功能 项功能,能够对视频当中已经出现的事物进行替换,增加元素或者删除元素。我们就以替换元素为例,这里先前我们已经生成了一条视频,看一下效果,这就是这条视频当中显示老人在喂狗的画面,其实原视频是展示老人在喂猫的画面,而参考图是一只小狗, 那么具体该如何操作能够把视频画面当中的猫替换成狗呢?我们下面来简单演示一下。首先需要将进行多模态编辑的视频通过拖拽或者点击上传的方式上传到这个位置, 在上传好之后,可令 ai 会分析视频当中都有什么事物。如果分析成功,会自动弹出一个窗口,在这个窗口中可以通过点击的方式选中想要进行替换的内容。 比如点击这只猫的部位,此时猫的身体就变成了绿色,当然此时的绿色范围只显示当前我们所见的画面帧的内容, 那其他的画面帧是否已经把猫给选中了呢?我们可以点击这里的预览完整选区选项,可以看到此时视频就开始自动播放。如果在播放的整个过程中,几乎猫的全部身体都被绿色覆盖,那么就说明整个视频的猫都将会被完整的替换掉。 确认无物之后,点击下方的确定选项,然后在下方我们需要上传一张去替换这只猫的事物。我们可以自己上传一张图片,也可以选择官方所提供的素材。 在上传好图片之后,同样会弹出一个窗口让我们选择。参考的是什么?参考的是长相,参考的是主体或者参考的是服装, 通常呢我们用智能选择参考即可。点击这个确定。最后提日词的部分描述,我们可以看到这里可零 ai 已经给出了书写的模板,我们直接填空就可以了。使用图片中的主体替换视频中的猫,这里是关于替换元素该如何 使用的方法。那至于增加元素,我们在上传一条视频后,点击这个视频的位置,并不会弹出窗口上让我们去设定哪个位置来增加元素,所以全凭提示词的描述。 在上传好主体参考之后,可以看到下方的提示描述框已经打好了模板,告诉我们基于视频中的原始内容,以自然生动的方式将图片中的什么 融入视频中的什么。这里这个框是用来描述你想要生成的具体位置,比如猫的旁边,这样一来生成的视频就会在猫的旁边来加上我们所上传的这个事物造型。 删除元素的话,和替换元素的操作方法类似,在上传视频之后呢,会自动弹出一个窗口,或者我们点击已经上传好的视频位置,也会弹出视频窗口,通过选区的方式选中想要删除的元素,点击确定。而 提日存呢,就描述删除视频当中的什么,这里当然也是写猫咪,那这样的话呢,生成新的视频,这个猫就会被删除掉了。 这就是关于可灵 ai 视频生成当中的多模态编辑功能和具体该如何操作。不过具体的效果大家可以看到,清晰度上不如我们直接生成的这个视频。 但想要使用多模态编辑功能,我们只能使用可灵一点六的模型,而可灵最新的二点六模型中间差了很多个版本,所以是否使用这个功能就看大家的取舍了。在更多的时候使用多模态编辑,其实更适合去处理一些现实生活中的拍摄视频,而非 ai 生成的视频, 所以在处理 ai 视频生成时,与其在视频上进行处理,不如在源头也就是在生成视频时所需要的图片上进行处理,要来的更加方便。 我们刚刚在可怜 ai 和吉梦 ai 的 演示中,或多或少都出现了画面质量不佳,或者生成的动态效果不好的情况,这也是我们此次要讲解多个平台的原因, 就是每一个平台的视频生成模型都有各自的优劣,可能在生成某些场景时表现的好,但一旦遇到一些特定的场景,比如像极萌 ai 遇到流水的场景,就生成的不尽人意。所以下面我们来讲解一下关于 mini jerry 如何生成视频。 迷你圈里的官网网址我已经放在了下方置顶评论区了,有需要的小伙伴可以直接点击跳转即可。在登录完成之后,可以点击左侧的 create 选项,这里我们来到生成页面,在这个页面可以生成图片,也可以生成视频。 我们这节课主要是讲解视频的生成功能。点击左侧的图像加选项,这里可以看到上传手针图片。在图片上传好之后,我们了解一下相关的参数设置。首先是最上方的提示词输入, 这里的描述方式和先前的其他平台生成完全一样,描述只需要两个方面,一是视频的运镜,另一个是画面当中的实物描述,例如这里我们描述人物戴上墨镜。 在写好之后,记得将提示词翻译为英文,正常情况下直接上传手针,再加上提示词描述,就可以直接点击右侧的发送生成视频了,那么在生成的这段时间,我们再来详细讲解一下其他的相关功能。 可以看到,上传首帧图片之后,右侧 ending from 是 上传尾帧图片的地方,它的使用方法和其他的视频生成平台一致, 我们在这里就不重复的演示了。但我们可以注意到下方有一个 lab 选项,我们将这个选项进行勾选,此时首帧图片和尾帧图片会自动视为同一张图片,进行首尾帧的生成。在勾选上之后,我们会生成首尾相接的视频, 让我们的生成能够无限循环,手针和尾针之间能够丝滑的衔接。而最右侧的谋神选项则是在设置视频生成的动态时, 分别为低动态和高动态。选择低动态的话,视频当中的物品运动就会相对柔和,相对缓慢一些,而选择高动态的话,视频当中的事物变化会变得更加剧烈,更加迅速。 此外,在提示词输入框的右侧还有一个 sightings 选项,在打开这个选项之后,可以看到右下方还有进一步的参数设置。首先是视频生成的品质, 可以看到这里 sd 指的是高清模式,而 hd 指的是高清模式,对应的大约是幺零八零 p 的 分辨率。而下方单次生成视频的数量可以看到当前我们所生成的视频一次性会生成四条视频, 而在这里设置区域,我们可以选择一次性生成一条或者两条视频。在视频生成好之后呢,将鼠标悬停在生成好的部分,这一行就会自动播放预览当前生成的视频,可以看到 mini 上面生成的视频整体的质量和人物的动态自然程度是相当不错的。 我们点击打开任意一条视频,打开之后在右侧就会有相应的后续选项可以选择。我们现在将页面进行汉化,来看一看这些后续选项都有哪些。首先是重新生成选项, 在点击之后就会基于当前提示词和手针图片进行重新生成。然后是将下方的起始针作为重新生成的参数,或者将提示词作为重新生成的参数。再往下还有自动状态下的低动态和高动态可选。可以看到这个位置上还有一项功能叫做扩展视频。 在点击这个功能之后呢, midari 会将我们生成的当前视频作为一项生成参数,我们可以配合着提示词来描述这项视频结束之后继续又会发生什么事情。 例如当前人物戴上墨镜之后,再让人物去吃个汉堡,或者让人物摘下墨镜来做其他的事情都是可以的。这项功能呢,不同于吉梦 ai 的 多帧声视频, 可以基于视频本身配合提示词的描述来延长这个视频的内容。当然我们也可以看到这个位置上追加了一个结束帧, 来告诉米德专利延长后的视频人物最终是在做什么。所以虽然在操作上有所不同,但在机制上,米德专利的视频延长功能和极梦 ai 的 多帧生成功能在底层逻辑上是基本一样的, 只是在米德专利上会更加麻烦一些。首先需要生成一个视频,在这个视频的基础上加上伪帧图来延长视频。 以上呢,就是你的圈里的视频生成功能具体操作总结一下,我们这期视频讲解了 ai 视频生成的平台选择、文声视频以及各个平台的图声视频功能该如何进行操作。大家日常使用的过程中通常会选择极梦、可灵就可以了, 而极梦 ai 在 生成的性价比上也会更高一些,价格可能是可灵 ai 的 三分之一,同时生成的质量也并不比其他的平台差。 当然,我们遇到极梦 ai 平台生成并不好的时候,那可以再考虑其他的平台,再看看能否生成令我们更加满意的效果,这也是我们一次性讲解多个平台操作的意义所在。好了,以上就是本节课的全部内容。

ai 漫剧制作经常会遇到一个问题,如何实现人物或物品进化成另外一个形态?比如主角的系统是可以把普通物品进化成特别流弊的武器。 这里介绍一个非常简单的小技巧,三帧图实现物品进化效果。通俗点讲就是准备三张状态图,然后使用多帧图升视频。 第一张是进化前的形态图,第二张是进化时的特效图,第三张是进化后的状态图。以这个手努进化为例子,第一帧到第二帧的动态提示词就可以这样写, 那么第二帧到第三帧的动态提示词就是只要准备好三帧图,提示词就非常简洁,抽卡的成功率也非常高。最重要的是它可以附用,还有问题的小伙伴可以打在评论区,我是林渊,关注我,学习更多漫剧制作技巧!

恭喜你点进这个视频,我将通过这套 ai 动态慢系统教程,带你抓住二零二六年最大的风口,无需任何基础,全程通过 ai 即可进行创作。本套课程将从零基础开始,一步步带你解锁 ai 动态慢所需要的各个知识点。那我们废话不多说,现在就跟我一起来 学习吧!那么从这期视频开始,我们就来讲解 ai 动画短片是如何制作的。其实想要制作一部完整的 ai 动画短片,它的核心逻辑和我们的传统动画片制作是一模一样的。那现在最厉害的地方在于有了 ai 的 加持,很多以前需要一个专业团队才能搞定的工作,现在你一个人就能够全部包圆了。那听起来很 高深的一些专业知识,只要你学会借助 ai, 都可以在极短的时间内快速上手。一般来说,做出一个像样的 ai 动画短片,我们要走这么几个流程,第一步是写故事,包括构思剧本和拆解细分的分镜脚本。第二步是 出图,也就是把剧本里的文字变成一张张精美的图片。第三步就是让画面动起来,把图片转化为视频。第四步就是搞定声音,利用 ai 的 环境音效、背景音乐,还有人物的配音等等等等。那最后一步就是 把这些素材放在剪辑软件里,进行后期的合成。我知道很多新手同学看到这一长串的流程,可能觉得有点头大,甚至想退缩啊,但大家千万不要担心,从今天开始,我会带着大家从最基础的如何利用 ai 写剧本开始讲解,一直到最后的剪辑出片,我会把每一个细节呢都给大家拆开了揉碎了然 你听明白。好,那么咱们今天从零开始,手把手教你如何从头亲手做出一个属于你自己的 ai 动画。这期视频我们先来讲解第一部分,如何利用大圆模型进行编写故事的剧本和脚本。我们都知道,一个完整的影视作品需要的是导演和编剧来帮我们赚写剧本和脚本。但我们 大多数人都不是专业的导演和编剧,因此我们想要获得一个好的故事剧本和脚本,通常需要借助 ai 大 元模型进行生成,例如豆包、 china、 g p t、 桌面等等等等。那此时如何向大元模型进行提问就非常重要了。对于我们新手小白来说,就可以先从这四个基本的要素进行提问,角色设定、 目标清晰、输入格式、结果质量。像这样公式化的提问才能够得到更有执行性的答案。比如现在我们就想生成一个三分镜的 ai 短视频, 一辆赛车在沙漠里飞驰。那根据刚刚的公式呢,我们就可以这样写,你是一个专业的影视分镜脚本专写师,擅长为 ai 短视频设计场景和镜头语言。请你帮我做一个十秒左右的视频脚本,内容是在广阔的沙漠公路上,一辆赛车在高速的飞驰。根据 以下的具体要求,比如三分镜需要包括镜头类型、画面内容、动态描述等等,要保证主体和风格的一致性。输出格式的要求有,镜头编号、画面描述、 ai 绘画提示词最终以表格的形式回答。我们先来探讨第一个要点,角色设定。这段提示词我们可以看到给定 ai 的 身份是 影视分镜渲染师,这是因为我们的核心问题是让它帮我们生成三分镜的 ai 短视频,所以要让它在做短视频方面是一个 专家,那他擅长为 ai 短视频设计场景和镜头语言。因此我们自己在向大语言模型提问的时候,如何给定 ai 身份,或者给他哪种身份 是要根据我们的核心问题进行设计,那此时我们想要 ai 帮我们去做一个科普动态慢的概念,那我们就可以给他设定。假如你是 世界著名动画影视艺术专家,请你给大家科普一下什么是动态慢的核心定义,动态慢的关键特征,以及动态慢与动画漫画的核心区别。这些内容所 给出的格式是非常专业的,那我们换一种角度问同样的问题,大家可以对比一下差异。假设你是一个脱口秀演员, 请你帮我科普一下什么是动态慢。可以看到这里所回复的内容就和刚刚有一定的差异,是以更加接地气且通俗易懂的方式来介绍动态慢的。这就是我们给 ai 设定不同的身份,那么 ai 给我们的答案也会有一定的差异,它会从不同的角度、不同的专业做出不同的回答。 于第二点,目标清晰,这里并没有什么特殊的技巧,我们需要做的就是简单明了的把我们的核心问题发给 ai 即可,就比如请你帮我做一个十秒左右的视频脚本等等。那如果没有今天我们所讲述的提问框架,大家大概率也是会这样去提问,将后边的一些具体要求牵扯到了比较多的专业名词,如 如果大家看不懂没有关系,后边我们会给大家一一的进行讲解。我们再来看第三点,格式输出。我们在向大元模型提问的时候,虽然在我们没有进行格式限定的情况下, ai 依然给我们的答案是分条列出, 条件清晰的,但要做脚本,需要输出的类目会非常的多,因此用表格的形式会更加一目了然。 我们来做一个对比,请你帮我做一个十秒左右的视频脚本,内容是广阔的沙漠公路上,一辆赛车在高速飞驰,这是我们不做格式限定得到的答案输出。 如果我们再加上输出的格式要求,镜头编号,警别时长、画面描述、 ai 绘画、提示词旁白,并以表格的形式回答,那这个时候我们的提问方式得到了答案就会更加的专业,并且更具实用性,这就是 ai 限定输出格式的作用。我们再来看最后一遍 结果质量,结果质量这个重点对于以上三个点来说呢,显得就没有那么的重要了。在 ai 还没有如此强大的时候,我们每一次的提问都需要提醒 ai 生成一些高质量的回答,比如我们在做图片提示词的时候,需要提醒 ai 生成四 k 的 画质啊,摄影镜头啊等等等等。 那我们在做文案性的工作的时候,需要提醒 ai 回答的简明扼要啊,逻辑清晰啊等等等等。但对于现在的大语言模型来说,我们的这些结果质量提示就显得有些多余了,因为 本来 ai 给我们的答案就已经非常的好了,因此结果质量只有在我们得到了答案不太满意或有所纰漏的时候,再去提醒,再去作答即可。我们下面就回归到本节课的主题, 如何让 ai 来编写剧本和脚本。这里我们已经提前准备好了,一起来看一下具体的内容是怎么样的。首先要明确一点,剧本和脚本是不同的,可以看到在这里我们分成了故事的剧本和脚本。在剧本方面,我们点击 查看,可以看到它更像是一则故事的直观叙述,就像阅读一本小说一样,没有非常杂的解释,只是顺着观众的正常思路来讲述一则普通的故事。而脚本则不同, 它的内容会更加的繁琐复杂,包括了警别场景等等,对于画面内容的描述以及发生的时间。它更像是一本在制作这个完整故事影视作品时的一个指导规划书,告诉我们在拍摄这一段时 应该注意些什么,按照什么样的方式去制作。那么了解了故事的剧本和脚本的区别,我们再回到刚刚的内容,来看一下具体的提问方式是怎样的。可以看到这里同样满足了提问的四要素。首先第一点给 ai 设定身份,你是一个经验丰富的动画电影制 做导演,这句话就给 ai 设定了一个经验丰富的动画导演身份。下面是提要求,现在我需要你写一个动画电影短片的故事剧本白鹤仙子的传说。这句简单的话提出了我们的要求,是写动画电影短片 的故事剧本。而第三个部分就是给回答设定格式要求是三帝国漫风格以写故事的方式提供给我,以便于我能快速的了解故事内容不超过四百字。而在下面我们生成脚本的时候呢,可以看到 没有再给 ai 设定身份了,因为通常来说呀, ai 大 元模型是有关联上下文的能力的,那我们在第一句话中已经给他设定了一个经验丰富的动画导演身份,所以默认在后续的提问中,即便不再单独的设定身份,这个身份也已经贯穿整个对话了。到这里大家可能会有一个疑问, 那就是既然我们生成的分镜脚本能够直接告诉我们在真正制作短片时,该在什么位置,什么样的描述,设定什么样的时间,为什么还需要让 ai 生成一个故事的剧本呢?这个道理其实很简单,作为一个导演呢, 也就是我们自己要制作出一个完整的故事,就必须先要深入对故事有一个清晰的认识,知道故事当中的出场人物,故 故事的情节。所以相较于永长的脚本而言,一则故事的剧本能够让作为导演的我们像阅读一个短片故事一样,快速的了解整个故事都发生了什么,这样在制作的时候才能够更多的去打磨这个故事的细节,了解故事的前后逻辑。 其次,我们先行编写的一个故事剧本,也能够十分方便的对故事剧本当中逻辑不通或者不够精彩的需要修改的内容,再来生成更加完善的脚本, 以此来降低后续修改的成本。毕竟修改一个简短的剧本要比修改一个永长的脚本要方便得多。在生成一个 ai 动画故事短片时, 大家可以看到,开头我们所展示的动画短片在时长上都不是很长,通常一两分钟,所以这里生成的字数也非常的重要。通常来说,四百字的故事剧本对应的就是两分钟左右的 ai 动画短片。所以大家可以以此为基础,在设定 ai 回答时来设定一下生成的次数。此外,我们在设计脚本要求时, 实际上是为未来的 ai 绘画流埋下一个伏笔。很多格式上的约束,核心的目的都是为了让后续的图片生成更加的流畅,所以大家在向 ai 提问时,不妨换位思考。如果我们要用这段话去生成一个图片,那 ai 需要知道些什么?基于此, 我们在指令中强制要求,包括警别警号、场景绘画、提示词等等等等,这些细节直接决定了分镜的还原度。更重要的是,我们仿佛强调 ai 的 描述要客观直观,避免文学化的修饰。如果你深入使用过 ai 绘画工具,你就会发现那 些充满意境的小说话表达往往是致命伤。比如长城宛如巨龙, ai 呢?可能会画出一条龙来,那这就是语义误读导致的翻车现场。为了保证分镜脚本的实用性,我们必须用最平实的语言 去解构画面,摒弃误导性的一些修辞。当然,在追求绘画效率的同时,我们也不能忽视脚本本身的专业属性。即便我们不是职业的导演或者编剧, 也应该要求 ai 输出的内容具备脚本的基本骨架与核心要素,这样生成的作品才不只是零散的描述词堆砌而成的作品,而是一份具备 蓄势完整性,能够真正落地的执行性专业脚本。最后,让我们对本期视频的核心要点进行一次深度的梳理。首先我们从宏观角度给 大家讲解了制作一部 ai 动画作品的全部流程以及炼录。这不仅是本节课的开端,更是我们后续系列课程将要逐一解析深度攻克的技术地图。那本节课的重头戏呢?在于我们详细的拆解了如何利用 ai 大 元模型编写出高质量的故事剧本与 分镜脚本。我们重点强调了与 ai 深度对话的一些核心方法论,就是提问的四要素,角色设定、目标清晰、输出格式、结果、质量。那在实战环节中,我们不仅成功地驱动 ai 生成了可落地的剧本脚本,更从专业的角度对什么是剧本,什么是脚本一 以及他们的实际创作中各自承载的功能进行了一个深度的分析以及区分。那希望通过这些理论与实操的结合,大家能够真正的理解并掌握 ai 创作的底层逻辑,为接下来的分镜生成打下一个坚实的基础。好了,以上就是本节课的全部内容,如果对你有所帮助,还请 多多支持三年。以下本套教程用到的 ai 脚本、提示词、运镜、关键词库,还有所有免费的 ai 工具,我都会整理放在下方置顶评论。下期视频我们来学习如何根据生成好的剧本脚本来生成分镜图片。这 就是整个制作环节中最花时间的部分,因为它不仅要生成图片,还包括了设计故事当中各种事物的形象,以及如何保证角色前后的一致性,如何对生成不满意的图片进行修改等等等等。那我们就 下节课再见。大家好,在上节课中,我们学习了使用 ai 大 语言模型生成剧本和脚本,那么这节课我们就利用已经生成好的剧本脚本来进行分镜图片的生成。制作 ai 视频时, 先图后影的图声视频模式是确保创作可控性与成本效率的核心策略。在实际的商业化生产流程中呢,直接利用文声视频往往会伴随着商用的标准,从而造成高昂的时间成本与 算力资金的浪费。为了避免这种开盲盒式的低效率输出,资深的创作者通常会先精细的打磨分镜图片,利用静态图像为 ai 提供 明确的视觉参考、光影构图以及主体特征,再通过图声视频进行动态的一个转化。这种工作流程呢,将创作重心前置,使图片生成阶段成为了决定我们视频成败的关键流程,也是我们最值得投入精力的一个环节。在正式开启 ai 绘画之前, 我们必须要建立起角色先行的创作意识,就是说,通过严谨的造型设计来将整个故事注入灵魂。每一个完整的去式时空呢,都离不开核心人物和事物的支撑。因此前期准备的第一步就是将剧本中的文字转化为具象化的角色造型方案。 在实际的教学案例中呢,生成的脚本通常会给出基础的视觉线索,比如我们上节课提到的角色姚双,其特征呢,被定义为白鹤仙子、水墨风飘带飞舞、 雨光环绕、雪肌银发、东方仙女。此时呢,如果甲方没有给出特定的原话稿,或者我们自己处于创意发散阶段,就可以直接通过精准的提日词指令,要求 ai 按照脚本的逻辑输出该角色的全身 正面视角。在这个过程中,我们需要明确规范角色的造型以及整体视觉风格,从而快速获得一套标准化、可延伸的角色出形象设计。这不仅能够极大的提升我们后期的创作效率,更是为 后续保证角色一致性打下了一个关键的基础。当然,除了根据脚本当中已有的简单描述对角色造型进行设计之外,我们同样可以根据自身的想法来单独设计角色的造型。比如人物 没有发束啊,可能披头散发的状态,或者说是短发这些内容呢,我们可以直接通过正常的描述来告诉 ai, 就 可以生成对应的结果。 我们前期的第二大核心呢,在于必须对故事画面风格进行大局的调度和定调。我们要知道,任何一部成熟的影视作品, 其视觉语言的核心竞争力都源于美术风格的前后一致,我们绝对不允许呢,作品在前期呈现的是写实风格,而到后期呢,却又毫无逻辑的突变为三 d 的 风格,那这种割裂的感觉呢,是创作的大忌。因此,我们需要在一开始呢,就利用题词 来对未来的画风进行永久性的固定。就拿当下这个案例来说,当我们在生成角色时,明确植入高精度三 d 建模风格或者三 d 国漫风格等等,这些指令 我们所得到的就不再是那些拥有真实毛孔与写实比例的真人形象了,而是呈现出一种接近 院线级的三 d 动画电影的角色质感。那这种风格化的预设呢,是直观重要的,确保我们在后续的生成所需要的画面都能严格的遵循这个美术标准。那么问题来了,如果我们看中了某张图片的美术风格,但自己呢又抓不住重点, 知道该用什么词去描述它,咱们该怎么办呢?那其实呢,操作是非常简单的,我们可以直接去抄作业加精细化的一个思路,比如我们现在来到吉梦 ai 的 首页, 这里呢有很多优秀的作者生成的作品,如果我们觉得其中某一张图片的视觉感觉哎,特别符合我们的胃口,就直接点开这张图片看大图。 我们注意右侧,这里明明白白的给我们展示了作者生成这张图时的用的原始提示词,我们直接可以动手把它复制下来,直接来到我们的豆包 ai 对 话框里给它粘贴上去, 记得我们按 shift 的 同时呢,去加上回车键,就可以另起一行,不然的话我们就直接给发送上去了。这个时候我们给豆包 ai 下一个指令,跟他说帮我把这段词里的 具体描写,什么人什么事或者什么环境氛围的话全部删掉,只帮我留下跟美术风格、画面质感相关的关键词, 那我们点击发送,大家可以看。这样一来我们就非常丝滑的从别人的作品里把那套风格给提取出来了,直接就可以用到我们自己的创作里,当然了, ai 帮我们提取出来的风格词呢,未必是百分之百的精确答案,咱们拿来用之前呢,先要亲自过一道人工筛选的关卡, 比如说我们在刚刚提取出来的那对词里,可能会混进去一些属于摄影机位的景别描述,跟风格描述呢,其实是没有半毛钱关系的,那咱们在使用之前呢,最好是先把这些干扰项给删除掉。 接下来咱们再来实操一下,把刚刚洗干净的风格词,配合上咱们自己新的构思内容。比如描述一个古风的帅哥正在预见飞行,一一混在一起生成一组图片,我们一起来看一下这个效果。 大家可以看到最终跑出来的这张图,它的光影质感和三 d 的 味道是不是和刚刚咱们参考的那张大神的图片有些相似了呢?不过这里我们还是要给大家打一个预防针,因为咱们生成的主体变了,有时候美术风格在最终的呈现上很难做到绝对的完美, 所以大家在参考的时候一定要灵活,根据自己对画面的理解,多去微调提示词,不断尝试,直到它完全符合我们脑子里想要的画面为止。 那么回到豆包 ai, 我 们继续承接之前的内容,在设定好角色也就是姚双的形象之后,我们自然要继续设计画面当中出镜比较多的仙鹤的形象。 这里我们就继续向豆包提出要求,用相同的风格生成脚本当中提到的仙鹤,可以看到最终生成的效果呢,也是非常出色,成功的生成了仙鹤的形象。当然大家同样可以靠自己的想象来描述仙鹤都有什么样的特征。 既然我们已经把人物造型和美术风格这两个基础给打好了,那接下来的重头戏就是如何通过精准的提置词,把脚本里每一个分镜的镜头给 实实在在的变出来。想要画面,听你的话,我们必须要掌握一套专业的提置词万能公式,我把它归结为核心的六大维度,首先是景别,你是要特写 近景、中景还是远景,这决定了观众看画面的视角远近。第二是主体事物,也就是画面里到底有什么,比如我们刚刚设计的遥霜和仙鹤,还有它们所处的具体环境。第三点非常关键,就是时间光线, 白天黑夜雷雨天气的光是完全不同的感觉,而且你要学会描述光的方向是柔和的,正面光还是很有故事的,侧面逆光,光线选对了,人物的情感瞬间也就拉满了。第四呢就是色调的控制, 我们可以直接定冷光调,或者告诉 ai 要某部电影的经典影调,比如轿夫的那种身随沉稳的复古感。第五呢是构图的逻辑, 咱们是选择稳重的对称构图,或者说是灵动的 s 型构图,还是延伸感的水平构图,好的构图能够让画面自己说话。那最后呢,就是画面的质量词,像什么胶片颗粒质感、 电影级光效、十六 k 超轻等等等等。这些词呢,就像是画面的磨皮滤镜,能够瞬间拔高生成的结果和我们商业化的质感。 接下来呢,我们来深入探讨一下提示词的描述技巧。这里呢,第一要义就是必须要做到极致的直观与客观。大家一定要扭转一个观念, 写 ai 提示词,和我们上写写作文写小说是完全两码事。在文学创作里,我们追求修辞的意境和华丽的词藻,但在 ai 绘画的逻辑里,过多的修饰词往往是噪音的存在,那我们极其容易导致 ai 误判我们的核心意图。 举一个典型的翻车案例,比如上节课我让大家描述的长城宛如一条巨龙,那么在文学意境下呢,这是非常壮观的一个场景,但你让 ai 这种直脑筋,大概率它是听不懂你的比喻的,它很可能呢,就真的生成一条巨龙,盘握在山上,而不是你想要的长城建筑的本质。 再比如,我们描述鲤鱼跃出水面,飞的很高,像长了翅膀一样,你的本意呢,是想形容跳跃的高度,但结果呢,大家可以看 ai 直接理解成了字面意思, 给这条鱼真的安上了一对翅膀,生成了一个不伦不类的怪胎。所以说呢,我们在 ai 沟通的时候呢,千万别搞那些花里胡哨的比喻词,要学会最直白最干的物理语言去 描述画面,告诉他画面里到底有什么,而不是他像什么,这样才能保证咱们的费片率降到最低。咱们再来看提日词描述的第二个核心要义, 脚本只是辅助参考,真正的画面拆解必须靠我们自己的独立思考。现在 ai 视频教程满天飞,有些教程呢,会误导大家, 直接说把脚本当中的描述文字呢,复制粘贴过去,就可以直接出片。那咱们实话实说呢,这种做法呢,其实是非常业余的,因为脚本的描述里经常会堆积很多同一个镜头下根本没有办法兼顾的信息。 咱们就拿第一个镜头做例子,脚本里写了超广角镜头下展示了一只白鹤在东海附近日出时分翱翔在云雾缭绕的山峰之上。 那么仙鹤优雅的身影呢?穿透金色的晨曦?大家可以动脑筋想一想,如果我们拍的是一只仙鹤的超广角镜头, 像细节处他身体穿透的晨曦,这仅仅是几个像素的事情, ai 怎么可能会在保证远景或者广角的情况下,帮我们把这个透光晨曦的质感给刻画出来呢?这就是视觉上的一个矛盾, 所以咱们在生成时不能当搬运工,还要当一个导演。那像这种情况呢,我们至少要把这个脚本呢拆分成两个画面,第一个镜头呢,才是仙鹤翅膀透光的一个近景特写图, 所以我们要养成一个习惯,拿到脚本之后呢,先在自己的脑海中过一遍,形成一个具体的画面感。更多的时候,我们要脱离剧本的文字束缚,根据自己脑子里的构图,用刚才直观的语言去描述它。只有这样呢,我们才能避开逻辑冲突的坑,生成画面才能够真正具备电影级的修饰质 感。第三点就是 ai 目前的能力有限,有时需要适当的修改提示词,描述内容,或者在生成好内容之后,我们根据剧本和脚本进行一定的更改。 例如这一段让白鹤与妖怪进行战斗,它释放出神圣的能量,画面剧烈的晃动。如果大家有一定的 ai 视频生成经验的话呢,会发现这一句话当中所描述的仙鹤打斗场景在 ai 视频片段的生成中其实是非常难制作的, 首先它打斗的细节没有描述,其次仙鹤的肢体控制是非常僵硬的,所以这里我们不妨直接让仙鹤化为人形的摇骰去和怪物施法, 这样人物施法的动作会非常的流畅,并且呢更加符合逻辑。因此再遇到类似的情况,可以先尝试按照剧本当中可能会相对复杂的表现去生成,如果我们做不出来的话,再考虑更改为更加简单的画面。 第四个题,日词描述技巧,就是有角色说台词的画面时,尽量用近景正面镜头,这同样是我们将来给角色对口型时,能否成功地给角色对上口型进行考量。在极梦 ai 当中呢,给角色对口型 用的是数字人的功能,他首先需要我们上传一个视频或者图片,再添加对应的配音。当我们需要对口型的人物是一个远景人物并且非正面镜头时,此时对口型失败率是非常高的,要么效果会非常的不明显。 比如说我们来看这段视频,可以看到,虽然说生成的画面人物的嘴部依然是有动态的,但是整体的表现效果会非常的一般, 人物的身体呢,也会伴随说话而出现不自然的动态效果。我们再来看这个人物近景特写对口型的画面,可以看到此时生成的画面人物的口型和台词就十分的匹配,并且呢面部的动态表现也会更加的清晰。 所以当我们遇到有角色在说台词的画面时,就可以尽量使用近景正面镜头,以获取更好的对口型效果。我们最后再来看图片生成之后的修改技巧。在通过纹身图生成图片时呢,很多情况下并不能一次性生成让人满意的效果, 但也许生成的图片百分之八十是满意的,剩余的百分之二十呢?相比于重新生成一张图片和进行后期修改是性价比更高的选择。或者有时候我们需要表达一个很长的镜头,以此来表现画面的时间流逝 或者是人物的一连串动作。所以我们首先来看第一点,固定镜头下长时间物体运动的表达技巧。 这里就包含很多方面了,比如我们现在想要表达一年四季的变化,那么在生成好人物的状态之后呢,我们就可以直接让 ai 大 语言模型帮我们固定画面当中的人物构造和构图, 但只改变画面当中的四季。比如我们首先生成的第一张图片呢,是类似于春季或者夏季。在提示词中,我们要求将上传图片的季节改为秋季,其他的部分保持不变,此时我们就获得了人物在秋天的画面。那同样的道理,我们继续描述将人物的季节呢改为冬季, 其他的部分保持不变。那最终呢,就成功的将图片改为了冬天的季节。有了这些图片之后,我们首先使用首尾针或者多针生成的方式,可以生成一组人物从春天到秋天再到冬天一直在这个位置的景象, 以此来表现人物十分勤勉,十分坚毅的镜头片段效果。当然,除了描述季节之外,我们还可以描述将人物改为某种姿势,在人物的身边添加某些事物,减少某些事物,其他的部分呢,保持不变,相信大家可以举一反三,我们就不再多赘述了。 第二个图片修改的技巧呢,就是如何在保证造型和风格一致性的条件下修改环境和状态的技巧。 其实这一点大多数情况下我们不需要特意去保持。因为呢, ai 大 圆模型在升图时呢,是有上下文关联的功能,比如说,我们刚刚演示的提示词中,只描述了鲤鱼跃出水面飞得很高,就像长了翅膀一样。 本身的意图呢,是想单独生成一条跃出水面的鲤鱼,但得益于 ai 大 圆模型能够关联上下文的能力,它依旧认为我们是想要基于上面的画面来进行新的修改, 而且可以看到生成的结果在美术风格上同样保持了上图的风格一致。所以很多情况下,我们不太需要单独的提及要保持的画面风格。但需要注意的是呢,在实际的制作过程中,偶尔会出现我们上传了一张参考图片, 但生成的结果和参考图在造型上的美术风格不相同的情况。在遇到这种情况的时候,该怎么解决呢?最好呢,我们就更换一个图片生成平台。 那在使用不同的图片生成平台时呢,其实每一家所使用的生成模型呢,都会有所区别,有些生成模型呢,擅长于写实风格,有些擅长于绘画风格,有些模型这个角度生成的不好,有些模型按这个风格生成的不好,这些呢都是很常见的情况, 所以说大家在对图片内容进行修改时呢,一定不要一棵树上吊死。如果实在生成的不好,除了用极梦 ai 或者豆包平台之外呢,我们也不妨尝试其他的平台,比如说可灵 ai, 或者像开源的 context 的 模型, flux 模型或者 banana 模型的工作流都是可以的。 现在我们可以来到 running hub 上搜索 banana 的 模型工作流,其基本的功能呢就是图片编辑,在左侧图像输入窗口,将刚刚未能在豆包上生成成功的人物造型进行上传。在提日词的描述当中,我们描述需求, 这里我们就输入和刚刚在豆包上一样的提示词,根据刚刚图片的人物特写生成生气、拍桌子、愤怒的表情。而比例方面我们修改为十六比九,然后直接点击开始升图,可以看到一段时间后图片就生成好了,整体的生成效果还是非常出色的。 我们将在豆包上面生成的人物造型放在旁边,同时将原版的人物造型参考也放在旁边,可以看到对比之下,显然使用 banana 的 模型工作流能够生成人物造型更加统一的画面效果。 当然在豆包上大多数情况下也是直接可以修改的,只是偶尔出现一些问题,所以届时不妨尝试一下其他的平台,在保证人物造型和美术风格情况一致的情况下,改变环境和画面当中的事物形态。最后我们来简单总结一下这节课我们讲解了图片生成的相关知识, 包括前期的准备、提日词的结构、提日词的描述技巧和图片修改技巧,这些知识能够帮助大家在生成分镜图片时,更容易的生成出理想的画面。 好了,以上就是本节课的全部内容,如果对你有所帮助,还请多多三连支持一下。大家在实际操作时遇到任何问题 也非常欢迎在评论区留言,我会尽可能的回复大家所有的问题。课程相关的 ai 资料也已经打包好放在置顶评论区,那我们就下节课再见吧! 大家好,在之前的课程中,我们已经学习了 ai 剧本脚本的生成,以及如何通过所生成的剧本和脚本来生成对应的分镜图片。那么这节课我们就来正式的学习生成 ai 视频片段。 目前市面上的 ai 视频生成平台有很多,我们应该如何去选择呢?那在这些年的项目实操中呢?我尝试过市面上绝大多数的 ai 视频工具, 如果综合考量操作便捷程度、生成画面质量以及平台功能的完整性,我总结出一套适合制作完整 ai 视频的方案。目前呢,我建议大家重点关注三个平台,分别是可玲、吉梦以及 miss jerry。 那 在这三个平台呢,并不是相互替代的关系, 而是在不同的创作阶段各有侧重,他们有的擅长动态模拟,有的在审美控制上更具优势。接下来的内容呢,我会根据具体的应用场景带大家逐一进行剖析。 ok, 我 们先进入极梦平台的这个实 操环节,打开极梦的主页,最上方最显眼的位置呢,就是 a 帧的模式,虽然这个模式呢支持我们输入任意一段自然语言去自动匹配功能, 但在实际的生成环境下,它的智能化程度还是不足以完全理解复杂的创作意图。生成效果呢,往往带有随机性, 所以为了追求更精准的输出,我建议大家绕过这个综合的入口,直接点击左侧导航栏里的生成选项,进入专门的创作控制台。在视频生成逻辑里, 通常分为文声视频和图声视频两条途径,这里我要分享一个非常关键的实战经验,在大多数商业或者正式的作品创作中,图声视频往往是比文声视频更高效、更明智的选择。原因很简单,确定性。文声视频目前还存在较大的不可控性, 无论是画面中主体形象的一致性,还是动态镜头的精准程度,都包含太多的未知因素。而图声视频则不同,它允许我们用图片确定好构图、光影和角色,再让它动起来, 这就把视觉创作和动态模拟分成了两步,极大的提高了我们的出片率。既然我们选择了文声视频的路径,那么 描述信息的密度就要远比图声视频大得多,因为我们不仅要定义画面静态的属性,还要兼顾动态的变量,这要求我们必须回到提示词的底层结构上来。要清晰的构建一幅画面,首先要明确景别和主体, 比如近景,一名身穿白色毛衣的少女。随后呢是环境和氛围的描述,例如白天的街道、冷色调电影等等等等这样的一个构图感觉。最后再辅以胶片颗粒、超轻、六 k 等质量描述词来捍实画面基础, 但请注意,写完这些后,先不要急于生成,因为文声视频还多了一个维度的逻辑,那就是运动的控制,也叫做运镜的控制。 我们需要分别描述镜头的运镜和主体的动作。比如针对人物行走的画面,我们可以书写镜头跟随或者跟随镜头,那么并要求人物在面向镜头或者向前走的方向。 虽然现在我们将画面和动态的内容都交代清楚了,回车生成的视频效果也表现尚可,但问题随之而来,由于缺乏原图像的一个约束, ai 会在人物长相、 行为多寡以及具体的年龄等未描述的细节上进行随机的填充。这些内容呢,它是不可控的,直接导致了我们生成的结果往往会偏离我们的预期。 因此,我们再次向大家强调,在实战的项目中呢,文声视频往往是效率较低的一种方案,为了追求更强的确定性呢,我们还应该优先选择图声视频的功能。那 说到图声视频,我们下面来看一看图声视频都有哪些功能机制。大多数的视频生成平台,这些功能机制都大同小异,所以我们就只讲极梦 ai 上的主要功能。那么大家在使用其他平台时,注意举一反三。 首先是最为基础的手帧图像生视频,这也是最常用的一个功能。这个功能呢,需要我们通过拖拽或者点击上传的方式将图片上传到手帧图的预备框中。在上传好之后,接下来就是输入提示词描述了。 不同于文声视频,图声视频本身上乘的参考图就已经给了充足的画面信息,因此在图声视频时,我们就只需要描述画面当中物体的运动变化以及运镜即可。首先来描述运镜, 这里我们就描述固定镜头,水在流动,风吹起人物的头发和草地,像画面当中的水流和草被风吹起的效果,可以在写好提日词后直接点击生成即可。 生成视频时呢,会直接根据图片本身的宽高比来决定视频生成的宽高比,所以大多数时间就是上传图片,描述运境和事物的变化,就可以点击发送生成了。在等待视频生成的过程中,我们集中讲解一下关键的参数设置。首先是模型选择, 遵循 ai 领域的通用逻辑,版本标号越高的模型,其底层架构和语义理解能力就越强,生成的效果自然更加出色。所以我建议大家选择更高版本的模型,以确保作品的质感。 在即梦的生成方式中,提供了首尾帧生成视频、智能多帧生视频以及参考图生视频三个维度,而在宽高比上通常设为自动匹配,以确保素材比例的协调。 关于视频时长,目前在五秒和十秒两个档位,我们进行自由选择,这里我要给出一个非常关键的避坑建议。 在非必要的情况下,我们尽量不要直接去选择十秒的生成时长,因为视频的链路越长,模型对画面动态和物理结构的控制就越弱,出现变形和逻辑错误的概率就大幅增加。 至于运镜控制,吉梦内置了一系列标准化的运镜模板,这些模板的底层逻辑呢,与我们手动输入提示词是一样的, 如果你对镜头语言的专业描述还不够熟悉,直接调用模板是最稳妥的选择。当然,如果你已经掌握了精准的运镜描述词,直接在提示词框里边进行自定义书写,灵活性会更加的高。 现在视频已经生成好了,来一起看一看效果吧!可以看到整个视频的过程是动态效果非常不错的,水流动非常自然,风也是轻轻的吹动了人物的头发,草也在轻轻的晃动。像这样的视频生成,每一次的效果都有一定的随机性。 如果当前的效果不够满意,可以根据当前的题日词和生成的效果,对题日词的部分加以改进,或者适当的修改原图当中的某些内容。当然,如果觉得全部都没有问题, 都是因为随机性导致的,生成效果不好,也可以直接点击下边的再次生成。这样的话呢,就不用再次编辑,直接可以重新获得一条新的视频。 我们接下来来深入探讨首尾真生视频的功能,这在精准控制视频走势上直观重要。刚才我们仅通过手真生成的视频,虽然画面起步很稳,但结尾处人物的表现,事物的变化轨迹本质上是随机的, 而首尾帧模式,它赋予了我们控制终点的能力。现在我们将一张少年在秋天环境中打作的图片上传至尾帧窗口, 通过这种方式,我们预设了视频结束时的画面结构与环境状态。在提示词的构思上,我们维持固定镜头,并保持水在流动,风吹起发丝和草地,那为了强化季节更替的视觉冲击力,我们需要引入延时摄影的这一专业描述, 要求水流与草地快速地晃动。利用这种加速的动态逻辑,在短短几秒钟内呈现出从夏季向秋季过渡的时间流逝感。我们继续来看极梦 ai 上视频生成的下一个功能就是多帧生成。 点击这里的下拉菜单,将首尾帧生成修改为智能多帧,此时就会多出一个图片上传窗口。而我们要做的就是在第三个多帧上传窗口上再次追加一张图片,将其拖拽到这个位置。此时可以看到在图片与图片之间有一个间隔的位置,点击这个间隔的摄像机图标, 我们会弹出一个文本输入框,这个位置是用来描述图片与图片之间在运镜和事物变化上的描述。 我们上传的第三张图片就是人物在冬季打坐的画面,因此提示词描述基本上和上一张季节上更替的描述保持不变。我们也可以将水快速流动这个选项进行删除,让 ai 自行来决定水该如何流动。接下来复制点击确定, 同样把上一段图片与图片之间的衔接提示词内容替换为当前内容,点击确定。多帧生成功能。在图片上传时,它的上限不止三张,我们可以继续添加第四张、第五张图片,以此来生成一个连贯的、时长较长的视频画面,来表现更多更长的画面当中的实物变化动态。 我们下面来讲解一下其他的 ai 视频生成平台。首先来讲解一下关于可灵平台的使用方法来到可灵 ai 的 首页,需要先说明的是这些视频生成平台在使用操作和功能上基本上大同小异,在可灵 ai 平台 依然是在左侧的视频生成选项,可以看到同样分为了文声视频和图声视频,具体的操作也和极梦 ai 上是一样的,所以我们就不做过多的演示了。这里我们还要说一个重点功能,就是多模态编辑功能, 这项功能能够对视频当中已经出现的事物进行替换,增加元素或者删除元素。我们就以替换元素为例,这里先前我们已经生成了一条视频,看一下效果,这就是这条视频当中显示老人在喂狗的画面,其实原视频是展示老人在喂猫的画面,而参考图是一只小狗。 那么具体该如何操作能够把视频画面当中的猫替换成狗呢?我们下面来简单演示一下。首先需要将进行多模态编辑的视频通过拖拽或者点击上传的方式上传到这个位置, 在上传好之后,可令 ai 会分析视频当中都有什么事物,如果分析成功,会自动弹出一个窗口, 在这个窗口中可以通过点击的方式选中想要进行替换的内容,比如点击这只猫的部位,此时猫的身体就变成了绿色,当然此时的绿色范围只显示当前我们所见的画面真的内容。 那其他的画面针是否已经把猫给选中了呢?我们可以点击这里的预览完整选区选项,可以看到此时视频就开始自动播放。如果在播放的整个过程中,几乎猫的全部身体都被绿色覆盖,那么就说明整个视频的猫都将会被完整的替换掉。 确认无物之后,点击下方的确定选项,然后在下方我们需要上传一张去替换这只猫的事物。我们可以自己上传一张图片,也可以选择官方所提供的素材。 在上传好图片之后,同样会弹出一个窗口让我们选择。参考的是什么?参考的是长相,参考的是主体或者参考的是服装, 通常呢我们用智能选择参考即可。点击这个确定最后题日词的部分描述,我们可以看到这里可零 ai 已经给出了书写的模板,我们直接填空就可以了。使用图片中的主体替换视频中的猫,这里是关于替换元素该如何使用的方法。 那至于增加元素,我们在上传一条视频后,点击这个视频的位置,并不会弹出窗口上让我们去设定哪个位置来增加元素,所以全凭题日词的描述。 在上传好主体参考之后,可以看到下方的提示词描述框已经打好了模板,告诉我们基于视频中的原始内容,以自然生动的方式将图片中的什么融入视频中的什么,这里这个框是用来描述你想要生成的具体位置,比如猫的旁边, 这样一来生成的视频就会在猫的旁边来加上我们所上传的这个事物造型。删除元素的话,和替换元素的操作方法类似,在上传视频之后呢,会自动弹出一个窗口,或者我们点击已经上传好的视频位置,也会弹出视频窗口,通过选区的方式选中想要删除的元素,点击确定, 而提日存呢?就描述删除视频当中的什么,这里当然也是写猫咪,那这样的话呢,生成新的视频,这个猫就会被删除掉了。这就是关于可灵 ai 视频生成当中的多模态编辑功能和具体该如何操作,不过具体的效果大家可以看到, 清晰度上不如我们直接生成的这个视频。但想要使用多模态编辑功能,我们只能使用可零一点六的模型,而可零最新的二点六模型中间插了很多个版本,所以是否使用这个功能就看大家的取舍了。 在更多的时候使用多模态编辑其实更适合去处理一些现实生活中的拍摄视频,而非 ai 生成的视频。所以在处理 ai 视频生成时,与其在视频上进行处理,不如在源头,也就是在生成视频时所需要的图片上进行处理,要来的更加方便。 我们刚刚在可灵 ai 和吉梦 ai 的 演示中,或多或少都出现了画面质量不佳,或者生成的动态效果不好的情况,这也是我们此次要讲解多个平台的原因, 那就是每一个平台的视频生成模型都有各自的优劣,可能在生成某些场景时表现的好,但一旦遇到一些特定的场景,比如像极梦 ai 遇到流水的场景,就生成的不尽人意。所以下面我们来讲解一下关于 middle jerry 如何生成视频。 迷你圈里的官网网址我已经放在了下方置顶评论区了,有需要的小伙伴可以直接点击跳转即可。在登录完成之后,可以点击左侧的 create 选项,这里我们来到生成页面,在这个页面可以生成图片,也可以生成视频。 我们这节课主要是讲解视频的生成功能。点击左侧的图像加选项,这里可以看到上传手针图片。在图片上传好之后,我们了解一下相关的参数设置。首先是最上方的提示词输入, 这里的描述方式和先前的其他平台生成完全一样,描述只需要两个方面,一是视频的运镜,另一个是画面当中的事物描述,例如这里我们描述人物戴上墨镜,在写好之后,记得将提示词翻译为英文, 正常情况下,直接上传手针,再加上提示词描述,就可以直接点击右侧的发送生成视频了。那么在生成的这段时间,我们再来详细讲解一下其他的相关功能。 可以看到上传首帧图片之后,右侧 ending from 是 上传尾帧图片的地方,它的使用方法和其他的视频生成平台一致,我们在这里就不重复的演示了。 但我们可以注意到下方有一个 loft 选项,我们将这个选项进行勾选,此时首帧图片和尾帧图片会自动视为同一张图片进行首尾帧的生成。在勾选上之后,我们会生成首尾相接的视频, 让我们的生成能够无限循环,手针和尾针之间能够丝滑的衔接。而最右侧的 motion 选项 则是在设置视频生成的动态时,分别为低动态和高动态。选择低动态的话,视频当中的物品运动就会相对柔和,相对缓慢一些。而选择高动态的话,视频当中的事物变化会变得更加剧烈,更加迅速。 此外,在提示词输入框的右侧还有一个 settings 选项,在打开这个选项之后,可以看到右下方还有进一步的参数设置。首先是视频生成的品质, 可以看到这里 s d 指的是高清模式,而 h d 指的是高清模式,对应的大约是幺零八零 p 的 分辨率。而下方单次生成视频的数量可以看到当前我们所生成的视频一次性会生成四条视频, 而在这里设置区域,我们可以选择一次性生成一条或者两条视频。在视频生成好之后呢,将鼠标悬停在生成好的部分这一行,就会自动播放。预览当前生成的视频,可以看到 mid jordan 上面生成的视频整体的质量和人物的动态自然程度是相当不错的。 我们点击打开任意一条视频,打开之后在右侧就会有相应的后续选项可以选择。我们现在将页面进行汉化,来看一看这些后续选项都有哪些。首先是重新生成选项, 在点击之后就会基于当前提示词和手针图片进行重新生成。然后是将下方的起始针作为重新生成的参数,或者将提示词作为重新生成的参数。再往下还有自动状态下的低动态和高动态可选。可以看到这个位置上还有一项功能叫做扩展视频。 在点击这个功能之后呢, midori 会将我们生成的当前视频作为一项生成参数,我们可以配合着提示词来描述这项视频结束之后继续又会发生什么事情。 例如当前人物戴上墨镜之后,再让人物去吃个汉堡,或者让人物摘下墨镜来做其他的事情都是可以的。这项功能呢,不同于吉梦 ai 的 多真声视频,可以基于视频本身配合提示词的描述来延长这个视频的内容。 当然我们也可以看到这个位置上追加了一个结束帧,来告诉 midari 延长后的视频人物最终是在做什么。所以虽然在操作上有所不同,但在机制上, midari 的 视频延长功能和极梦 ai 的 多帧生成功能在底层逻辑上是基本一样的, 只是在 midari 上会更加麻烦一些。首先需要生成一个视频,在这个视频的基础上加上伪帧图来延长视频。 以上呢,就是 mini 的 视频生成功能具体操作总结一下,我们这期视频讲解了 ai 视频生成的平台选择、文声视频以及各个平台的图声视频功能该如何进行操作。大家日常使用的过程中通常会选择极梦可灵就可以了, 而极梦 ai 在 生成的性价比上也会更高一些,价格可能是可灵 ai 的 三分之一,同时生成的质量也并不比其他的平台差。 当然,我们遇到极梦 ai 平台生成并不好的时候,那可以再考虑其他的平台,再看看能否生成令我们更加满意的效果,这也是我们一次性讲解多个平台操作的意义所在。好了,以上就是本节课的全部内容,如果对你有所帮助,还请多多支持。三连一下 大家在实际操作中遇到任何问题,非常欢迎在评论区留言,我会尽可能的回复大家的问题,课程相关的 ai 资料也已经打包好放在这里评, 那我们就下期再见,拜拜!哈喽,大家好!在上节课我们详细讲解了几种生成视频的方法路径, 那么有了画面之后,我们还需要给画面的角色进行配音,所以这期视频我们来学习如何用 ai 生成配音。现在用 ai 配音是非常方便的,像平时常用的可灵即梦这些主流平台, 其实都内置了对应的配音功能,不过大家在操作的时候要留个心眼,因为 ai 配音通常会根据你的需求分成两种情况来处理。 首先第一种就是纯粹的旁白配音,这种配音处理起来相对简单,因为他不需要考虑画面里的人物口型能不能对得上,更多的是以一种旁观者的视角进行后期的讲故事,所以对情感的要求没有那么的高,只要声音听起来自然能够清晰准确的把文本内容给读出来,足够了。 而第二种呢,就是对技术要求更高一些的角色配音,这种配音呢,不仅需要让声音和人物的嘴型变化完全同步,还根据故事剧情的走势注入真实的情感,比如愤怒、悲伤或者喜悦,只有这样配出来的角色才有灵魂。 那我们首先来看第一种情况,有哪些平台可以使用,其实最方便的方法就藏在大家平常常用的剪映里边, 它自带的文本转语音功能就非常实用。具体怎么操作呢?大家打开简后,先盯着左上角那个文本选项,点击进去,你会发现有一个专门的功能叫做添加口播稿,点开它之后,屏幕上会弹出一个输入框,这个时候你只需要把准备好的文案直接输入进去,或者从别处复制粘贴过来。也可以 们拿一个纹身图的 prompt 举例子,比如输入电影般的极简主义山景,巨大的红色太阳从中央山峰后升起。这些文字填写好之后,直接点击下方的配音功能,这个时候右侧就会跳出一大堆音色让你去选。你可以挨个点击那些小头像,试听一下效果,看看哪个声音最顺耳。 比如我们试听这个音色,电影般的极简主义山景,巨大的红色太阳从中央山峰后升起。如果你觉得这个声音符合你的视频风格, 那就别犹豫,直接点击右下角的添加轨道,稍等几分钟,音频就生成好了。而且剪映还会非常贴心的帮你把配音的字幕也一并安排好,我们现在点击播放一下,听听效果怎么样?电影般的极简主义山景, 巨大的红色太阳从中央山峰后升起。听得出来,虽然配音的清晰度和节奏感都挺到位,但整体听起来确实没有什么明显的情感起伏, 比较平铺直叙。所以就像刚说的,剪映生成的音效,最理想的是去处理给科普类或者旭日类视频当旁白,效果是完全够用的。 同样的道理,在极梦 ai 或者可灵 ai 平台,同样具备文本生成音频的功能。点击左侧的生成选项,将下方的模式修改为数字人模式。 在极梦 ai 当中,使用这个模式,即可对我们上传的视频片段或者人物图片进行对口型操作。如果我们没有提前在本地电脑上准备角色说话的音频,在上传图片或者视频的窗口左侧点击这个位置,即可选择在极梦上给我们提供的默认音色。 点击这个音色左侧的播放按钮,即可对当前的音色进行试听。欢迎使用对口型功能,让你的故事镜头栩栩如生。此外,在上边的部分音色同样可以选择朗读时的情绪和语速 当前的音色。点击右侧的设置选项,可以看到这个音色是可以设置说话的速度的。而像下方这个妩媚女生的选项可以看到鼠标悬停在上方之前, 其右侧有一个表情加的符号,带有这种符号的音色在点击之后就可以选择在配音时人物讲话的情感。欢迎使用对口型功能,让你的故事镜头栩栩如生。 欢迎使用对口型功能,让你的故事镜头栩栩如生。当然,在吉梦 ai 上,目前具备情感朗读功能的音色有限, 所以除非刚好你需要用到这个音色与人物的造型是相匹配的,否则在大多数情况下,在极光 ai 上所生成的对口型音色依然不适合用在角色的配音当中。至于文本转语音功能,在可灵 ai 上的操作和其他平台大同小异。来到可灵 ai 的 首页, 我们点击左侧的全部工具选项,可以看到这项功能在可令 ai 上同样是数字人功能,在点击打开之后,左侧是上传人物形象的部分,在这里做了个区分,向左上方的数字人选项是用来上传图片,让图片开口说话的, 而右侧的对口型选项是用来上传视频,让视频中的人物开口说话的,大家可以根据自身的需求来选择合适的方式。而这里在可令 ai 官方选项中,同样是提供了很多音色, 将鼠标悬停在对应图片的上方,即可试听这个音色。天气转凉了,我给你织了条围巾,你戴上记得多穿点哦。 在选择了一个音色之后,同样的部分音色可以在下方调节语速和情感,而不支持调节的,将鼠标悬停在上方时,则会提示该音色不支持什么样的感情。因此我 我们刚刚介绍的这些平台软件,在更多情况下,他们更适合让一个角色形象去播报新闻,这样的情况进行配音不需要太多的情感。而第二种类型的角色配音就需要人物富有情感, 且需要进行口型的匹配。那市面上有没有更好用又便宜的软件能够满足这些需求呢?答案是有的。 这个软件还是 windows 电脑自带的本地软件,叫做 clipsham, 大家可以直接在自己的 windows 系统上搜索这个名字,没有搜索到也没有关系,打开任意的浏览器,我们直接搜索 clipsham 就 可以找到它的进入网址, 点击之后就会来到 clipsham 的 登录页面,现在点击这里的编辑视频选项,在点击之后,如果之前没有登录过的,可以先让我们选择对应的账号来登录。我们可以使用邮箱、谷歌账号或者微转账号来进行登录, 这里我们就使用谷歌账号。在登录之后,点击这里的文字转语音选项试一试的选项,此时就可以正式的进入到 k u p m 的 操作界面,这个软件本质上也是一个剪辑软件,类似于剪映, 所以我们能够看到一个和剪辑类似的页面布局。现在点击左侧的文字转语音选项,就会在下方剪辑轨道上添加一段带录音音频的空白音频部分, 在右侧我们就可以选择语音以及对应的声音了。点击这个选项可以试听当前我们选择的声音。在这个上面音色的选择非常丰富,展开下了菜单,我们使用滚轮不断的往下拖动,这些都是可以选择的音色,且每个音色也备注了其特点。 其中大多数音色在设置时都是可以设置朗读时的情感。比如现在我们点击下方的高级选项,就可以选择声音的高低, 语速的快和慢,我们再来更换一个音色,例如现在我们更换一个名为云野的音色,在更换好之后,下面多出了一个情感下拉菜单,那上面提供的情感选项还是非常丰富的,像尴尬、平静、害怕、高兴、不满、严重生气、 难过等等都可以选择。比如现在我们选择高兴这个选项,而声调方面通常要迎合高兴就可以选择高或者超高,语速也可以稍微加快一些。在下边的文本输入框输入想要这个音色朗读的内容,比如 姚双是天上的仙女,有通灵情义的神力。点击下方的预览即可试听当前我们输入文本转换后的效果。姚双是天上的仙女,有通灵情义的神力。如果觉得这个效果不错的话,就点击右下方的保存选项, 此时这段音频会被保存到剪辑轨道中,如果想要直接用这段音频和我们生成的 ai 视频相匹配相结合,也可以直接将我们生成好的 ai 视频片段添加到上面的视频剪辑轨道上,然后点击右上方的导出。 但并不建议大家这样做,因为在点击导出这个选项之后,会需要我们选择导出的分辨率,可以看到四 k 分 辨率是需要充值可以的,所以我们现在要做的事情就是仅导出音频即可。 因为没有视频画面的选择,所以选择最低分辨率的四零八零 p 在 点击之后会下载到当前浏览的本地电脑默认下载位置。 目前 clippix 给到的免费配音额度是很多的,我们正常使用的频率是根本用不完的,大家不用担心生成的额度问题。当然,如果我们今天所讲解的内容在某些情况下依然无法满足我们使用的需求,也可以直接求助豆包 ai, 让他帮我们推荐几个其他的能够带情感设置的 ai 文本语音网站。 在获取了视频片段和音频文件之后,我们最后一步要做的事情就是来到 ai 视频生成平台,使用其数字人功能上传视频文件,同时上传已经生成好的本地音频文件。 对视频当中的人物进行对口型,那本身操作逻辑并不复杂,这里我们就不再进行详细的演示。唯一需要注意的一点就是我们所上传的视频片段人物最好保持正面近景镜头,这样能够获得更好的对口型效果。 像这些侧面视角或者远景视角,通常对口型的效果会偏弱一些。好了,以上就是本节课的全部内容,如果 对你有所帮助,还请多多支持三连一下,那么大家在实际操作时遇到了任何问题,也非常欢迎在评论区留言,我会尽可能回复大家的问题。课程相关的 ai 资料也已经打包好放在这里评论区了,那我们就下节课再见!拜拜!

挑战一个视频,彻底教会你 ai 慢剧制作!本系列视频耗时两个月,制作共计六十小时,带你一口气从小白顺利进阶大神!由于视频太长,本套教程分期发布,本期带你搞定 ai 慢剧基础篇。最后会给大家一个小福利课程,视频中的所有素材、脚本、分镜关键词等,还有学习计划表,几十上百记素材,电子书和课件等等,只要你能想到的素材 我这里几乎都有,评论留言六六六即可全部免费打包带走。恭喜你点进这个视频,我将通过 ai 即可进行创作。本套课程将从零基础开始,一步步带你解锁 ai 动态慢所需要的各个知识点。那我们废话不多说,现在就跟我一起 来学习吧!那么从这期视频开始,我们就来讲解 ai 动画短片是如何制作的。其实想要制作一部完整的 ai 动画短片,它的核心逻辑和我们的传统动画片制作是一模一样的。那现在最厉害的地方在于有了 ai 的 加持,很多以前需要一个专业团队才能搞定的工作,现在你一个人就能够全部包圆了。那听起来 很高深的一些专业知识,只要你学会借助 ai, 都可以在极短的时间内快速上手。一般来说,做出一个像样的 ai 动画短片,我们要走这么几个流程,第一步是写故事,包括构思剧本和拆解细分的分镜脚本。第二步是出图, 也就是把剧本里的文字变成一张张精美的图片。第三步就是让画面动起来,把图片转化为视频。第四步就是搞定声音,利用 ai 的 环境音效、背景音乐,还有人物的配音等等等等,那最后一步就是 把这些素材放在剪辑软件里,进行后期的合成。我知道很多新手同学看到这一长串的流程,可能觉得有点头大,甚至想退缩啊,但大家千万不要担心,从今天开始,我会带着大家从最基础的如何利用 ai 写剧本开始讲解,一直到最后的剪辑出片,我会把每一个细节呢都给大家拆开了揉碎了,然 你听明白。好,那么咱们今天从零开始,手把手教你如何从头亲手做出一个属于你自己的 ai 动画。这期视频我们先来讲解第一部分,如何利用大圆模型进行编写故事的剧本和脚本。我们都知道,一个完整的影视作品需要的是导演和编剧来帮我们赚写剧本和脚本,但我们 大多数人都不是专业的导演和编剧,因此我们想要获得一个好的故事剧本和脚本,通常需要借助 ai 大 语言模型进行生成,例如豆包、 chat g、 ppt、 jamalai 等等等等。那此时如何向大语言模型进行提问就非常重要了。对于我们新手小白来说,就可以先从这四个基本的要素进行提问,角色设定 要清晰,输入格式、结果质量。像这样公式化的提问才能够得到更有执行性的答案。比如现在我们就想生成一个三分镜的 ai 短视频,一辆赛车在沙漠里飞驰。那根据刚刚的公式呢?我们就可以这样写,你是一个专业的影视分镜脚本转写师,擅长为 ai 短视频设计场景和镜头语言,请你帮我做一个十秒左右的 视频脚本,内容是在广阔的沙漠公路上,一辆赛车在高速的飞驰。根据以下的具体要求,比如三分镜需要包括镜头类型、画面内容、动态描述 等等,要保证主体和风格的一致性。输出格式的要求有,镜头编号、画面描述、 ai 绘画提示词,最终以表格的形式回答。我们先来探讨第一个要点,角色设定。这段提示词我们可以看到给定 ai 的 身份是影视分镜转写师,这是因为我们的核心问题是让它帮我们生成三 三分镜的 ai 短视频,所以要让他在做短视频方面是一个专家,那他擅长为 ai 短视频设计场景和镜头语言。因此我们自己在向大语言模型提问的时候,如何给定 ai 身份,或者给他哪种身份 是要根据我们的核心问题进行设计。那此时我们想要 ai 帮我们去做一个科普动态慢的概念,那我们就可以给他设定。假如你是 世界著名动画影视艺术专家,请你给大家科普一下什么是动态慢,此时他所给出的回复是动态慢的核心定义,动态慢的关键特征,以及动态慢与动画漫画的核心区别。这些内容 所给出的格式是非常专业的。那我们换一种角度问同样的问题,大家可以对比一下差异。假设你是一个脱口秀演员,请你帮我科普一下什么是动态慢,可以看到这里所回复的内容,就和刚刚有一定的方式来介绍动 太慢的。这就是我们给 ai 设定不同的身份,那么 ai 给我们的答案也会有一定的差异,它会从不同的角度,不同的专业做出不同的回答。至于第二点,目标清晰,这里并没有什么特殊的技巧,我们需要做的就是简单明了的把我们的核心问题发给 ai 即可,就比如请你帮我做一个十秒左右的视频 脚本等等。那如果没有今天我们所讲述的提问框架,大家大概率也是会这样去提问,将后边的一些具体要求牵扯到了比较多的专业名词, 如果大家看不懂没有关系,后边我们会给大家一一的进行讲解。我们再来看第三点,格式输出。我们在向大元模型提问的时候,虽然在我们没有进行格式限定的情况下, ai 依然给我们的答案是分条列出, 条件清晰的,但要做脚本,需要输出的类目会非常的多,因此用表格的形式会更加一目了然。我们来做一个对比,请你帮我做一个十秒左右的视频脚本,内容是广阔的沙漠公路上,一辆赛车在高速飞驰,这是我们不做格式限定得到的答案输出。 那如果我们再加上输出的格式要求,镜头编号、警别时长、画面描述、 ai 绘画、提示词旁白,并以表格的形式回答,那这个时候我们的提问方式得到了答案就会更加的专业,并且更具实用性,这就是 ai 限定书 输出格式的作用。我们再来看最后一遍,结果质量。结果质量这个重点对于以上三个点来说呢,显得就没有那么的重要了。在 ai 还没有如此强大的时候,我们每一次的提问都需要提醒 ai 生成一些高质量的回答,比如我们在做图片提示词的时候,需要提醒 ai 生成四 k 的 画质啊,摄影镜头啊等等等等。那 我们在做文案性的工作的时候,需要提醒 ai 回答的简明扼要啊,逻辑清晰啊等等等等。但对于现在的大语言模型来说,我们的这些结果质量提示就显得有些多余了,因为 本来 ai 给我们的答案就已经非常的好了,因此结果质量只有在我们得到了答案不太满意或有所纰漏的时候,再去提醒,再去作答即可。我们下面就回归到本节课的主题, 如何让 ai 来编辑剧本和脚本,这里我们已经提前准备好了,一起来看一下具体的内容是怎么样的。首先要明确一点,剧本和脚本是不同的,可以看到在这里我们分成了故事的剧本和脚本。在剧本方面,我们点击 查看可以看到它更像是一则故事的直观叙述,就像阅读一本小说一样,没有非常隽杂的解释,只是顺着观众的正常思路来讲述一则普通的故事。而脚本则不同 的,内容会更加的繁琐复杂,包括了警别场景等等。对于画面内容的描述以及发生的时间,它更像是一本在制作这个完整故事影视作品时的一个指导规划书,告诉我们在拍摄这一段时 应该注意些什么,按照什么样的方式去制作。那么了解了故事的剧本和脚本的区别,我们再回到刚刚的内容,来看一下具体的提问方式是怎样的。可以看到这里同样满足了提问的四要素。首先第一点给 ai 设定身份,你是一个经验丰富的动画电影制 做导演,这句话就给 ai 设定了一个经验丰富的动画导演身份。下面是提要求,现在我需要你写一个动画电影短片的故事剧本,白鹤仙子的传说。这句简单的话提出了我们的要求,是写动画电影短片 的故事剧本。而第三个部分就是给回答设定格式,要求是三帝国漫风格以写故事的方式提供给我,以便于我能快速的了解故事内容不超过四百字。而在下面我们生成脚本的时候呢,可以看到就 没有再给 ai 设定身份了,因为通常来说呀, ai 大 元模型是有关联上下文的能力的,那我们在第一句话中已经给他设定了一个经验丰富的动画导演身份,所以默认在后续的提问中,即便不再单独的设定身份,这个身份也已经贯穿整个对话了。到这里大家可能会有一个疑问, 那就是既然我们生成的分镜脚本能够直接告诉我们在真正制作短片时,该在什么位置,什么样的描述,设定什么样的时间,为什么还需要让 ai 生成一个固 故事的剧本呢?这个道理其实很简单,作为一个导演呢,也就是我们自己要制作出一个完整的故事,就必须先要深入对故事有一个清晰的认识,知道故事当中的出场人物, 故事的情节。所以相较于永长的脚本而言,一则故事的剧本能够让作为导演的我们像阅读一个短片故事一样,快速的了解整个故事都发生了什么,这样在制作的时候才能够更多的去打磨这个故事的细节,了解故事的前后逻辑。其次,我们先行编的一个故事剧本, 也能够十分方便的对故事剧本当中逻辑不通或者不够精彩的需要修改的部分进行提前修改。那在修改好之后,再让大家用大圆模型参考修改后的内容,再来生成更加完善的脚本,以此来降低后续修改的成本。毕竟修改一个简短的剧本要比修改一个永长的脚本要方便的。 在生成一个 ai 动画故事短片时,大家可以看到开头我们所展示的动画短片在时长上都不是很长,通常一两分钟,所以这里生成的次数也非常的重要。通常来说,四百字的故事剧本对应的就是两分钟左右的 ai 动画短片,所以大家可以以此为基础,在设定 ai 回答时来设定一下生成的次数。 此外,我们在设计脚本要求时,实际上是为未来的 ai 绘画流埋下一个伏笔。很多格式上的约束,核心的目的都是为了让后续的图片生成更加的流畅,所以大家在向 ai 提问时,不妨换位思考,如果我们要用这段话去生成一个图片,那 ai 需要知道些什么?基于此, 我们在指令中强制要求,包括警别警号、场景绘画、提示词等等等等,这些细节直接决定了分镜的还原度。更重要的是,我们仿佛强调 ai 的 描述要客观直观,避免文学化的修饰。如果你深入使用过 ai 绘画工具,你 就会发现那些充满异境的小说话表达往往是致命伤,比如长城宛如巨龙, ai 呢?可能会画出一条龙来,那这就是语义误读导致的翻车现场。为了保证分镜脚本的实用性,我们必须用最平实的语言 去解构画面,摒弃误导性的一些修辞。当然,在追求绘画效率的同时,我们也不能忽视脚本本身的专业属性。即便我们不是职业的导演或者编剧, 也应该要求 ai 输出的内容具备脚本的基本骨架与核心要素,这样生成的作品才不只是零散的描述词堆砌而成的作品,而是一份具备 蓄势完整性、能够真正落地的执行性专业脚本。最后,让我们对本期视频的核心要点进行一次深度的梳理。首先,我们从宏观角度给大家讲解了制作一部 ai 动画作品的全部流程以及炼录。这不仅是本节课的开端,更是我们后续系列课程将要逐一解析深度攻克的技术地图。 本节课的重头戏呢,在于我们详细的拆解了如何利用 ai 大 元模型编写出高质量的故事。剧本与分镜脚本我们重点强调了与 ai 深度对话的一些核心方法论,就是提问的四要素,角色设定、目标清晰、输出格式、结果、质量。那在实战环节中, 我们不仅成功的驱动 ai 生成了可落地的剧本脚本,更从专业的角度对什么是剧本,什么是脚本以及他们的实际创作中各自承载的功能进行了一个深度的分析以及 剧本。那希望通过这些理论与实操的结合,大家能够真正的理解并掌握 ai 创作的底层逻辑,为接下来的分镜生成打下一个坚实的基础。好了,以上就是本节课的全部内容,如果对你有所帮助,还请多多支持三年以下本套教程用到的 ai 脚本、提示词、运镜、关键词库,还有所有免费的 ai 工具, 我都会整理放在下方置顶评论。下期视频,我们来学习如何根据生成好的剧本脚本来生成分镜图片。这就是 整个制作环节中最花时间的部分,因为它不仅要生成图片,还包括了设计故事当中各种事物的形象,以及 如何保证角色前后的一致性,如何对生成不满意的图片进行修改等等等等。那我们就下节课再见!大家好,在上节课中,我们学习了使用 ai 大 语言模型生成剧本和脚本,那么这节课我们就利用已经生成好的剧本脚本来进行分镜图片的生成。制作 ai 视频时 先图后影的图声视频模式是确保创作可控性与成本效率的核心策略。在实际的商业化生产流程中呢,直接利用文声视频往往会伴随着极高的随机性,可能导致半数以上的生成结果都无法达到商用的标准,从而造成高昂的时间成本与 算力资金的浪费。为了避免这种开盲盒式的低效率输出,资深的创作者通常会先精细的打磨分镜图片, 用静态图像为 ai 提供明确的视觉参考、光影构图以及主体特征,再通过图声视频进行动态的一个转化。这种工作流程呢,将创作重心前致此图片生成阶段成为了决定我们视频成败的关键流程,也是我们最值得投入精力的 一个环节。在正式开启 ai 绘画之前,我们必须要建立起角色先行的创作意识,就是说,通过严谨的造型设计来将整个故事注入灵魂。 每一个完整的去式时空呢,都离不开核心人物和事物的支撑。因此,前期准备的第一步就是将剧本中的文字转化为具象化的角色造型方案。在实际的教学案例中呢,生成的脚本通常会给出基础的视觉线索。比如我们上节课提到的角色姚双,其特征呢,被定义为白鹤仙子、 水墨风飘带飞舞、雨光环绕、雪肌银发、东方仙女。此时呢,如果甲方没有给出特定的原话稿,或者我们自己出于创意发散阶段,就可以直接通过精准的提示词指令,要求 ai 按照脚本的逻辑输出该角色的全身 正面视角。在这个过程中,我们需要明确规范角色的造型以及整体视觉风格,从而快速获得一套标准化、可延伸的角色出形象设计。这不仅能够极大的提升我们后期的创作效率,更是为 后续保证角色一致性打下了一个关键的基础。当然,除了根据脚本当中已有的简单描述对角色造型进行设计之外,我们同样可以根据自身的想法来单独设计角色的造型。比如人物 没有发注啊,可能披头散发的状态,或者说是短发这些内容呢,我们可以直接通过正常的描述来告诉 ai, 就 可以生成对应的结果。 我们前期的第二大核心呢,在于必须对故事画面风格进行全景和定调。我们要知道,任何一部成熟的影视作品, 视觉语言的核心竞争力都源于美术风格的前后一致,我们绝对不允许呢,作品在前期呈现的是写实风格,而到后期呢,却用毫无逻辑的突变为三 d 的 风格,那这种割裂的感觉呢,是创作的大忌。因此我们需要在一开始呢,就利用提示词来 来对未来的画风进行永久性的固定。就拿当下这个案例来说,当我们在生成角色时,明确植入高精度三 d 建模风格或者三 d 国漫风格等等这些指令,我们所得到的就不再是那些拥有真实毛孔与写实比例的真人形象了,而是呈现出一种接近 院线级的三 d 动画电影的角色质感。那这种风格化的预设呢,是直观重要的,确保我们在后续的生成所需要的画面都能严格的遵循这 个美术标准。那么问题来了,如果我们看中了某张图片的美术风格,但自己呢又抓不住重点,不知道该用什么词去描述它,咱们该怎么办呢?那其实呢,操作是非常简单的,我们可以直接去抄作业加精细化的一个思路。 比如我们现在来到吉梦 ai 的 首页,这里呢有很多优秀的作者生成的作品,如果我们觉得其中某一张图片的视觉感觉哎,特别符合我们的胃口,就直接点开这张图片看大图。 我们注意右侧,这里明明白白的给我们展示了作者生成这张图时的用的原始提示词,我们直接可以动手把它复制下来,直接来到我们的豆包 ai 对 话框里,给它粘贴上去,记得我们按 shift 的 同时呢,去加上回车键,就可以另起一行, 不然的话我们就直接给发送上去了。这个时候我们给豆包 ai 下一个指令,跟他说帮我把这段词里的具体描写,什么人什么事或者什么环境氛围的话全部删掉,只帮我留下跟美术风格、画面质感相关的关键词。 那我们点击发送大家可以看。这样一来我们就非常丝滑的从别人的作品里把那套风格给提取出来了,直接就可以用到我们自己的创作里。当然了, ai 帮我们提取出来的风格词呢,未必是百分之百的精确答案,咱们拿来用之前呢,先要亲自过一道人工筛选的关卡,比如说我们在刚刚提取出来的那对词里, 可能会混进去一些属于摄影机位的景别描述,跟风格描述呢,其实是没有半毛钱关系的,那咱们在使用之前呢,最好是先把这些干扰项给删除掉。 接下来咱们再来实操一下,把刚刚洗干净的风格词配合上咱们自己新的构思内容。比如描述一个古风的帅哥正在御剑飞行,再加上一些近景特写的描述,一一混在一起生成一组图片,我们一起来看一下这个效果。 大家可以看到最终跑出来的这张图,它的光影质感和三 d 的 味道是不是和刚刚咱们参考的那张大神的图片有些相似了呢?不过这里我们还是要给大家打一个预防针,因为咱们生成的主体变了,有时候美术风格在最终的呈现上很难做到绝对的完美, 所以大家在参考的时候一定要灵活,根据自己对画面的理解,多去微调提示词,不再尝试,直到它完全符合我们脑子里想要的画面为止。 那么回到豆包 ai, 我 们继续承接之前的内容,在设定好角色,也就是姚双的形象之后,我们自然要继续设计画面当中出镜比较多的仙鹤的形象。 这里我们就继续向豆包提出要求,用相同的风格生成脚本当中提到的仙鹤,可以看到最终生成的效果呢,也是非常出色,成功的生成了仙鹤的形象。当然大家同样可以靠自己的想象来描述仙鹤都有什么样的特征。 既然我们已经把人物造型和美术风格这两个基础给打好了,那接下来的重头戏就是如何通过精准的提词词,把脚本里每一个分镜的镜头给实实在在的变出来。想要画面听你的话,我们必须要掌握一套专业的提词词万能公式,我把它归结为核心的六大维度,首先是景别,你是要特写 近景、中景还是远景,这决定了观众看画面的视角远近。第二是主体事物,也就是画面里到底有什么,比如我们刚刚设计的尧霜和仙鹤,还有他们所处的具体环境。第三点非常关键,就是时间光线, 白天黑夜雷雨天气的光是完全不同的感觉,而且你要学会描述光的方向是柔和的,正面光还是很有故事的,侧面逆光,光线选对了,人物的情感瞬间也就拉满了。第四呢就是色调的控制, 我们可以直接定冷光调,或者告诉 ai 要某部电影的经典影调,比如教父的那种身随沉稳的复古感。第五呢,是构图的逻辑, 咱们是选择稳重的对称构图,或者说是灵动的 s 型构图,还是延伸感的水平构图,好的构图能够让画面自己说话。那最后呢,就是画面的质量词,像什么胶片颗粒质感, 电影级光效、十六 k 超清等等等等。这些词呢,就像是画面的磨皮滤镜,能够瞬间拔高生成的结果和我们商业化的质感。 接下来呢,我们来深入探讨一下提示词的描述技巧。这里呢,第一要义就是必须要做到极致的直观与客观。大家一定要扭转一个观念, 写 ai 体式词和我们上写写作文写小说是完全两码事。在文学创作里,我们追求修辞的意境和华丽的词藻,但在 ai 绘画的逻辑里,过多的修饰词往往是噪音的存在,那我们极其容易导致 ai 误判我们的核心意图。 举一个典型的翻车案例,比如上节课我让大家描述的长城宛如一条巨龙,那么在文学意境下呢,这是非常壮观的一个场景,但你让 ai 这种直脑筋,大概率他是听不懂你的比喻的,他很可能呢,就真的生成一条巨龙,盘握在山上,而不是你想要的长城建筑的本质。 再比如我们描述鲤鱼跃出水面,飞的很高,像长了翅膀一样,你的本意呢,是想形容跳跃的高度,但结果呢,大家可以看 ai 直接理解成了字面意思, 给这条鱼真的安上了一对翅膀,生成了一个不伦不类的怪胎。所以说呢,我们在 ai 沟通的时候呢,千万别搞那些花里胡哨的比喻词,要学会最直白最干的物理语言去 描述画面,告诉他画面里到底有什么,而不是他像什么,这样才能保证咱们的费片率降到最低。咱们再来看提示词描述的第二个核心要义, 脚本只是辅助参考,真正的画面拆解必须靠我们自己的独立思考。现在 ai 视频教程满天飞,有些教程呢,会误导大家,直接说把脚本当中的描述文字呢,复制粘贴过去就可以直接出片。那咱们实话实说呢,这种做法呢,其实是非常业余的, 因为脚本的描述里经常会堆积很多同一个镜头下根本没有办法兼顾的信息。咱们就拿第一个镜头做例子,脚本里写了超广角镜头下根本没有办法兼顾的信息。咱们就拿第一个镜头做例子,脚本里写了超广角镜头下根本没有办法兼顾的山峰之上 么?仙鹤优雅的身影呢?穿透金色的晨曦。大家可以动脑筋想一想,如果我们拍的是一只仙鹤的超广角镜头,那像细节处他身体穿透的晨曦,这仅仅是几个像素的事情, ai 怎么可能会在保证远景或者广角的情况下,帮我们把这个透光晨曦的质感给刻画出来呢?这就是视觉上的一个矛盾, 所以咱们在生成时不能当搬运工,还要当一个导演。那像这种情况呢,我们至少要把这个脚本呢拆分成两个画面,第一个镜头呢就是仙鹤飞翔的全景图,第二个镜头呢,才是仙鹤翅膀透光的一个近景特写图, 所以我们要养成一个习惯,拿到脚本之后呢,先在自己的脑海中过一遍,形成一个具体的画面感。更多的时候,我们要脱离剧本的文字束缚,根据自己脑子里的构图,用刚才直观的语言去描述它。只有这样呢,我们才能避开逻辑冲突的坑,生成画面才能够真正具备电影级的修饰质感。 第三点就是 ai 目前的能力有限,有时需要适当的修改提示词描述内容,或者在生成好内容之后,我们根据剧本和脚本进行一定的更改。 这一段让白鹤与妖怪进行战斗,它释放出神圣的能量,画面剧烈的晃动。如果大家有一定的 ai 视频生成经验的话呢,会发现这一句话当中所描述的仙鹤打斗场景,在 ai 视频片段的生成中其实是非常难制作的, 首先它打斗的细节没有描述,其次仙鹤的肢体控制是非常僵硬的,所以这里我们不妨直接让仙鹤化为人形的摇双去和怪物施法, 这样人物施法的动作会非常的流畅,并且呢更加符合逻辑。因此再遇到类似的情况,可以先尝试按照剧本当中可能会相对复杂的表现去生成,如果我们做不出来的话,再考虑更改为更加简单的画面。第四个提日词描述技巧,就是有角色说台词的画面时,尽量 用近景正面镜头,这同样是我们将来给角色对口型进行考量在即梦 ai 当中呢,给角色对口型 用的是数字人的功能,他首先需要我们上传一个视频或者图片,再添加对应的配音。当我们需要对口型的人物是一个远景人物并且非正面镜头时,此时对口型失败率是非常高的,要么效果会非常的不明显。 比如说我们来看这段视频,可以看到,虽然说生成的画面人物的嘴部依然是有动态的,但是整体的表现效果会非常的一般, 人物的身体呢,也会伴随说话而出现不自然的动态效果。我们再来看这个人物近景特写对口型的画面,可以看到此时生成的画面人物的口型和台词就十分的匹配,并且呢面部的动态表现也会更加的清晰。 所以当我们遇到有角色在说台词的画面时,就可以尽量使用近景正面镜头,以获取更好的对口型效果。我们最后再来看图片生成之后的修改技巧。在通过纹身图生成图片时呢,很多情况下并不能一次性生成让人满意的效果, 但也许生成的图片百分之八十是满意的,剩余的百分之二十呢?相比于重新生成一张图片和进行后期修改是性价比更高的选择。或者有时候我们需要表达一个很长的镜头,以此来表现画面的时间流逝 或者是人物的一连串动作。所以我们首先来看第一点,固定镜头下长时间物体运动的表达技巧。这里就包含很多方面了,比如我们现在想要表达一年四季的变化,那么在生成好人物的状态之后呢,我们就可以直接让 ai 大 语言模型帮我们固定画面当中的人物构造和构图, 但只改变画面当中的四季。比如我们首先生成的第一张图片呢,是类似于春季或者夏季。在提示词中,我们要求将上传图片的季节改为秋季,其他的部分保持不变。此时我们就获得了人物在秋天的画面。那同样的道理,我们继续描述将人物的季节呢改为冬季, 其他的部分保持不变,那最终呢,就成功的将图片改为了冬天的季节。有了这些图片之后,我们首先使用首尾帧或者多帧生成的方式,可以生成一组人物从春天到秋天再到冬天,一直在这个位置的景象, 以此来表现人物十分勤勉,十分坚毅的镜头片段效果。当然,除了描述季节之外,我们还可以描述将人物改为某种姿势,在人物的身边添加某些事物,减少某些事物。其他的部分呢,保持不变,相信大家可以举一反三,我们就不再多赘述了。 第二个图片修改的技巧呢,就是如何在保证造型和风格一致性的条件下修改环境和状态的技巧。其实这一点大多数情况下我们不需要特意去保持, 因为呢, ai 大 元模型在升图时呢,是有上下文关联的功能。比如说我们刚刚演示的提示词中,只描述了鲤鱼跃出水面,飞得很高,就像长了翅膀一样。 本身的意图呢,是想单独生成一条跃出水面的鲤鱼,但得益于 ai 大 圆模型能够关联上下文的能力,他依旧认为我们是想要基于上面的画面来进行新的修改, 而且可以看到生成的结果在美术风格上同样保持了上图的风格一致,所以很多情况下,我们不太需要单独的提及要保持的画面风格。但需要注意的是呢,在实际的制作过程中,偶尔会出现我们上传了一张参考图片 生成的结果和参考图在造型上的美术风格不相同的情况,在遇到这种情况的时候,该怎么解决呢?最好呢,我们就更换一个图片生成平台。 那在使用不同的图片生成平台时呢?其实每一家所使用的生成模型呢,都会有所区别,有些生成模型呢,擅长于写实风格,有些擅长于绘画风格,有些模型这个角度生成的不好,有些模型按这个风格生成的不好,这些呢都是很常见的情况。所以说大家在对图片内容进行修改时呢,一定不要一棵树上吊死。 如果实在生成的不好,除了用极梦 ai 或者豆包平台之外呢,我们也不妨尝试其他的平台,比如说可灵 ai, 或者像开源的 context 的 模型, flex 模型或者 banana 模型的工作流都是可以的。 现在我们可以来到 running hub 上搜索 banana 的 模型工作流,其基本的功能呢就是图片编辑在左侧图像输入窗口,将刚刚未能在豆包上生成成功的人物造型进行上传。在提日词的描述当中,我们描述需求, 这里我们就输入和刚刚在豆包上一样的提示词,根据刚刚图片的人物特写生成生气,拍桌子、愤怒的表情。而比例方面,我们修改为十六比九,然后直接点击开始升图,可以看到一段时间后,图片就生成好了,整体的生成效果还是非常出色的。 我们将在豆包上面生成的人物造型放在旁边,同时将原版的人物造型参考也放在旁边,可以看到对比之下,显然使用 banana 的 模型工作流能够生成人物造型更加统一的画面效果。 当然在豆包上大多数情况下也是直接可以修改的,只是偶尔出现一些问题,所以届时不妨尝试一下其他的平台,在保证人物造型和美术风格情况一致的情况下,改变环境和画面当中的事物形态。 最后我们来简单总结一下这节课我们讲解了图片生成的相关知识,包括前期的准备、提日词的结构、提日词的描述技巧和图片修改技巧,这些知识能够帮助大家在生成分镜图片时,更容易的生成出理想的画面。 好了,以上就是本节课的全部内容,如果对你有所帮助,还请多多三连支持一下大家在实际操作时遇到任何问题也非常欢迎在评论区留言,我会尽可能的回复大家所有的问题。课程相关的 ai 资料也已经打包好放在置顶评论区,那我们就下节课再见吧! 大家好,在之前的课程中,我们已经学习了 ai 剧本脚本的生成以及对应的分镜图片,那么这节课我们就来正式的学习生成 ai 视频片段。 目前市面上的 ai 视频生成平台有很多,我们应该如何去选择呢?那在这些年的项目实操中呢?我尝试过市面上绝大多数的 ai 视频工具, 如果综合考量操作便捷程度、生成画面质量以及平台功能的完整性,我总结出一套适合制作完整 ai 视频的方案。目前呢,我建议大家重点关注三个平台,分别是可玲、吉梦以及 mini。 那 在这三个平台呢,并不是相互替代的关系, 而是在不同的创作阶段各有侧重,他们有的擅长动态模拟,有的在审美控制上更具优势。接下来的内容呢,我会根据具体的应用场景带大家逐一进行剖析。 ok, 我 们先进入极梦平台的这个时 超环节,打开积木的主页,最上方最显眼的位置呢,就是 age 的 模式。虽然这个模式呢,支持我们输入任意一段自然语言去自动匹配功能,但在实际的生成环境下,它的智能化程度还是不足以完全理解复杂的创作意图。生成效果呢,往往带有随机性。 所以为了追求更精准的输出,我建议大家绕过这个综合的入口,直接点击左侧导航栏里的生成选项,进入专门的创作控制台。在视频生成逻辑里, 通常分为文生视频和图生视频两条途径。这里我要分享一个非常关键的实战经验,在大多数商业或者正式的作品创作中,图生视频往往是比文生视频更高效、更明智的选择。原因很简单,确定性。文生视频目前还存在较大的不可控性, 无论是画面中主体形象的一致性,还是动态镜头的精准程度,都包含太多的未知因素。而图声视频则不同,它允许我们用图片确定好构图、光影和角色,再让它动起来, 这就把视觉创作和动态模拟分成了两步,极大的提高了我们的出片率。既然我们选择了文声视频的路径,那么 描述信息的密度就要远比图声视频大得多。因为我们不仅要定义画面静态的属性,还要兼顾动态的变量,这要求我们必须回到提示词的底层结构上来。要清晰的构建一幅画面,首先要明确景别和主体, 例如近景,一名身穿白色毛衣的少女。随后呢,是环境和氛围的描述,例如白天的街道、冷色调、电影等等等等这样的一个构图感觉。最后再辅以胶片、颗粒、超轻、六 k 等质量描述词来扼实画面基础。 但请注意,写完这些后,先不要急于生成,因为文声视频还多了一个维度的逻辑,那就是运动的控制,也叫做运镜的控制。 我们需要分别描述镜头的运镜和主体的动作。比如针对人物行走的画面,我们可以书写镜头跟随或者跟随镜头,那么并要求人物在面向镜头或者向前走的方向。 虽然现在我们将画面和动态的内容都交代清楚了,回车生成的视频效果也表现尚可,但问题随之而来,由于缺乏原图像的一个约束, ai 会在人物长相、 行为多寡以及具体的年龄等未描述的细节上进行随机的填充。这些内容呢,它是不可控的,直接导致了我们生成的结果往往会偏离我们的预期。 因此,我们再次向大家强调,在实战的项目中呢,文声视频往往是效率较低的一种方案,为了追求更强的确定性呢,我们还应该优先选择图声视频的功能。 说到图声视频,我们下面来看一看图声视频都有哪些功能机制。大多数的视频生成平台这些功能机制都大同小异,所以我们就只讲极梦 ai 上的主要功能。那么大家在使用其他平台时,注意举一反三。 首先是最为基础的手帧图像生视频,这也是最常用的一个功能。这个功能呢,需要我们通过拖拽或者点击上传的方式将图片上传到手帧图的预备框中。在上传好之后,接下来就是输入题日词描述了。 不同于文声视频,图声视频本身上程的参考图就已经给了充足的画面信息,因此在图声视频时,我们就只需要描述画面当中物体的运动变化以及运镜即可。首先来描述运镜, 这里我们就描述固定镜头,水在流动,风吹起人物的头发和草地,像画面当中的水流和草被风吹起的效果,可以在写好提示词后直接点击生成即可。 生成视频时呢,会直接根据图片本身的宽高比来决定视频生成的宽高比,所以大多数时间就是上传图片,描述运境和事物的变化,就可以点击发送生成了。在等待视频生成的过程中,我们集中讲解一下关键的参数设置。首先是模型选择, 遵循 ai 领域的通用逻辑,版本标号越高的模型,其底层架构和语义理解能力就越强,生成的效果自然更加出色。所以我建议大家选择更高版本的模型,以确保作品的质感。 在即墨的生成方式中,提供了首尾真生成视频、智能多真生视频以及参考图生视频三个维度,而在宽高比上通常设为自动匹配,以确保素材比例的协调。 关于视频时长,目前在五秒和十秒两个档位,我们进行自由选择,这里我要给出一个非常关键的避坑建议, 在非必要的情况下,我们尽量不要直接去选择十秒的生成时长,因为视频的链路越长,模型对画面动态和物理结构的控制就越弱,出现变形和逻辑错误的概率就大幅增加。 至于运镜控制,吉梦内置了一系列标准化的运镜模板,这些模板的底层逻辑呢,与我们手动输入提示词是一样的。 如果你对镜头语言的专业描述还不够熟悉,直接调用模板是最稳妥的选择。当然,如果你已经掌握了精准的运镜描述词,直接在提示词框里边进行自定义书写,灵活性会更加的高。 现在视频已经生成好了,来一起看一看效果吧。可以看到整个视频的过程是动态效果非常不错的,水流动非常自然,风也是轻轻的吹动了,人物的头发,草也在轻轻的晃动。像这样的视频生成,每一次的效果都有一定的随机性, 如果当前的效果不够满意,可以根据当前的提示词和生成的效果对提示词的部分加以改进,或者适当的修改原图当中的某些内容。当。 当然,如果觉得全部都没有问题,都是因为随机性导致的生成效果不好,也可以直接点击下边的再次生成,这样的话呢,就不用再次编辑,直接可以重新获得一条新的视频。我们接下来来深入探讨首尾真生视频的功能, 这在精准控制视频走势上直观重要。刚才我们仅通过手真生成的视频,虽然画面起步很稳,但结尾处人物的表现,事物的变化轨迹本质上是随机的, 而首尾帧模式,它赋予了我们控制终点的能力。现在,我们将一张少年在秋天环境中打作的图片上传至尾帧窗口。 通过这种方式,我们预设了视频结束时的画面结构与环境状态。在提示词的构思上,我们维持固定镜头,并保持水在流动,风吹起发丝和草地。那为了强化季节更替的视觉冲击力,我们需要引入延时摄影的这一专业描述, 要求水流与草地快速地晃动。利用这种加速的动态逻辑,在短短几秒钟内呈现出从夏季向秋季过渡的时间流逝感。我们继续来看极梦 ai 上视频生成的下一个功能就是多帧生成。 点击这里的下拉菜单,将首尾帧生成修改为智能多帧,此时就会多出一个图片上传窗口。而我们要做的就是在第三个多帧上传窗口上再次追加一张图片,将其拖拽到这个位置。此时可以看到在图片与图片之间有一个间隔的位置。点击这个间隔的摄像机图标, 我们会弹出一个文本输入框,这个位置是用来描述图片与图片之间在运镜和事物变化上的描述。我们上传的第三张图片就是人物在冬季打作的画面, 因此提示词描述基本上和上一张季节上更替的描述保持不变,我们也可以将水快速流动这个选项进行删除,让 ai 自行来决定水该如何流动。接下来复制点击确定, 同样把上一段图片与图片之间的衔接提示词内容替换为当前的内容,点击确定 多帧生成功能。在图片上传时,它的上限不止三张,我们可以继续添加第四张、第五张图片,以此来生成一个连贯的、时长较长的视频画面,来表现更多更长的画面当中的实物变化动态。 我们下面来讲解一下其他的 ai 视频生成平台。首先来讲解一下关于可灵平台的使用方法。 来到可令 ai 的 首页,需要先说明的是,这些视频生成平台在使用操作和功能上基本上大同小异,在可令 ai 平台依然是在左侧的视频生成选项,可以看到 同样分为了文声视频和图声视频,具体的操作也和极梦 ai 上是一样的,所以我们就不做过多的演示了。这里我们还要说一个重点功能,就是多模态编辑功能, 这项功能能够对视频当中已经出现的事物进行替换,增加元素或者删除元素。我们就以替换元素为例, 这里先前我们已经生成了一条视频,看一下效果,这就是这条视频当中显示老人在喂狗的画面,其实原视频是展示老人在喂猫的画面,而参考图是一只小狗。 那么具体该如何操作能够把视频画面当中的猫替换成狗呢?我们下面来简单演示一下。首先需要将进行多模态编辑的视频通过拖拽或者点击上传的方式上传到这个位置, 在上传好之后,可令 ai 会分析视频当中都有什么事物。如果分析成功,会自动弹出一个窗口,在这个窗口中可以通过点击的方式选中想要进行替换的内容, 比如点击这只猫的部位,此时猫的身体就变成了绿色,当然此时的绿色范围只显示当前我们所见的画面帧的内容, 那其他的画面帧是否已经把猫给选中了呢?我们可以点击这里的预览完整选区选项,可以看到此时视频就开始自动播放,如果在播放的整个过程中,几乎猫的全部身体都被绿色覆盖,那么就说明整个视频的猫都将会被 完整的替换掉。确认无物之后,点击下方的确定选项,然后在下方我们需要上传一张去替换这只猫的事物,我们可以自己上传一张图片,也可以选择官方所提供的素材。 在上传好图片之后,同样会弹出一个窗口让我们选择。参考的是什么?参考的是长相,参考的是主体或者参考的是服装, 通常呢,我们用智能选择参考即可。点击这个确定最后提日词的部分描述,我们可以看到这里可零 ai 已经给出了书写的模板,我们直接填空就可以了。使用图片中的主体替换视频中的猫,这里是关于替换元素该如何使用的方法。 那至于增加元素,我们在上传一条视频后,点击这个视频的位置,并不会弹出窗口上让我们去设定哪个位置来增加元素,所以全凭提示词的描述。 在上传好主体参考之后,可以看到下方的题日词描述框已经打好了模板,告诉我们基于视频中的原始内容,以自然生动的方式将图片中的什么融入视频中的什么。这里这个框是用来描述你想要生成的具体位置,比如猫的旁边, 这样一来生成的视频就会在猫的旁边来加上我们所上传的这个事物造型。删除元素的话,和替换元素的操作方法类似,在上传视频之后呢,会自动弹出一个窗口,或者我们点击已经上传好的视频位置, 也会弹出视频窗口,通过选区的方式选中想要删除的元素,点击确定。而提日存呢,就描述删除视频当中的什么,这里当然也是写猫咪,那这样的话呢,生成新的视频,这个猫就会被删除掉了。 这就是关于可零 ai 视频生成当中的多模态编辑功能和具体该如何操作。不过具体的效果大家可以看到,清晰度上不如我们直接生成的这个视频。 但想要使用多模态编辑功能,我们只能使用可零一点六的模型,而可零最新的二点六模型中间差了很多个版本,所以是否使用这个功能就看大家的取舍了。 在更多的时候使用多模态编辑其实更适合去处理一些现实生活中的拍摄视频,而非 ai 生成的视频。 所以在处理 ai 视频生成时,与其在视频上进行处理,不如在源头,也就是在生成视频时所需要的图片上进行处理,要来的更加方便。 我们刚刚在可灵 ai 和吉梦 ai 的 演示中,或多或少都出现了画面质量不佳,或者生成的动态效果不好的情况,这也是我们此次要讲解多个平台的原因, 那就是每一个平台的视频生成模型都有各自的优劣,可能在生成某些场景时表现的好,但一旦遇到一些特定的场景,比如像极萌 ai 遇到流水的场景,就生成的不尽人意。所以下面我们来讲解一下关于 middle jerry 如何生成视频。 免圈里的官网网址我已经放在了下方置顶评论区了,有需要的小伙伴可以直接点击跳转即可。在登录完成之后,可以点击左侧的 create 选项,这里我们来到生成页面,在这个页面可以生成图片,也可以生成视频。 我们这节课主要是讲解视频的生成功能。点击左侧的图像加选项,这里可以看到上传手帧图片。在图片上传好之后,我们了解一下相关的参数设置。首先是最上方的提示词输入, 这里的描述方式和先前的其他平台生成完全一样,描述只需要两个方面,一是视频的运镜,另一个是画面当中的事物描述, 比如这里我们描述人物,戴上墨镜,在写好之后,记得将提示词翻译为英文,正常情况下直接上传手针,再加上提示词描述,就可以直接点击右侧的发送生成视频了。那么在生成的这段时间,我们再来详细讲解一下其他的相关功能。 可以看到上传首帧图片之后,右侧 ending from 是 上传尾帧图片的地方,它的使用方法和其他的视频生成平台一致,我们在这里就不重复的演示了, 但我们可以注意到下方有一个 loft 选项,我们将这个选项进行勾选,此时首帧图片和尾帧图片会自动视为同一张图片进行首尾帧的生成。在勾选上之后,我们会生成首尾相接的视频, 让我们的生成能够无限循环,手针和尾针之间能够丝滑的衔接。而最右侧的谋神选项 则是在设置视频生成的动态时,分别为低动态和高动态。选择低动态的话,视频当中的物品运动就会相对柔和,相对缓慢一些,而选择高动态的话,视频当中的事物变化会变得更加剧烈,更加迅速。 此外,在提示词输入框的右侧还有一个 sightings 选项,在打开这个选项之后,可以看到右下方还有进一步的参数设置。首先是视频生成的品质, 可以看到这里 s d 指的是标签模式,而 h d 指的是高清模式,对应的大约是幺零八零 p 的 分辨率。 而下方单次生成视频的数量可以看到,当前我们所生成的视频一次性会生成四条视频,而在这里设置区域,我们可以选择一次性生成一条或者两条视频。 在视频生成好之后呢,将鼠标悬停在生成好的部分,这一行就会自动播放。预览当前生成的视频,可以看到 mini 上面生成的视频整体的质量和人物的动态自然程度是相当不错的。 我们点击打开任意一条视频,打开之后,在右侧就会有相应的后续选项可以选择。我们 现在将页面进行汉化,来看一看这些后续选项都有哪些?首先是重新生成选项, 在点击之后就会基于当前提示词和手帧图片进行重新生成,然后是将下方的起始帧作为重新生成的参数,或者将提示词作为重新生成的参数,再往下还有自动状态下的低动态和高动态可选。可以看到这个位置上还有一项功能叫做扩展视频。 在点击这个功能之后呢, midari 会将我们生成的当前视频作为一项生成参数,我们可以配合着提日词来描述这项视频结束之后继续又会发生什么事情。 例如当前人物戴上墨镜之后,再让人物去吃个汉堡,或者让人物摘下墨镜来做其他的事情都是可以的。这项功能呢,不同于视频本身,配合提日词的描述来延长这个视频的内容。 当然我们也可以看到这个位置上追加了一个结束帧,来告诉 midori 延长后的视频人物最终是在做什么。所以虽然在操作上有所不同,但在机制上, midori 的 视频延长功能和极梦 ai 的 多帧生成功能在底层逻辑上是基本一样的, 只是在 midori 上会更加麻烦一些。首先需要生成一个视频,在这个视频的基础上加上尾帧图来延长视频。 以上呢,就是 mini 的 视频生成功能。具体操作总结一下,我们这期视频讲解了 ai 视频生成的平台选择、文声视频以及各个平台的图声视频功能该如何进行操作。大家日常使用的过程中通常会选择吉梦可灵就可以了, 而吉梦 ai 在 生成的性价比上也会更高一些,价格可能是可灵 ai 的 三分之一,同时生成的质量也并不比其他的平台差。 当然我们遇到极梦 ai 平台生成并不好的时候,那可以再考虑其他的平台,再看看能否生成令我们更加满意的效果,这也是我们一次性讲解多个平台操作的意义所在。 好了,以上就是本节课的全部内容,如果对你有所帮助,还请多多支持。三、连一下大家在实际操作中遇到任何问题,非常欢迎在评论区留言,我会尽可能的回复大家的问题,课程相关的 ai 资料也已经打包好放在这里评论区了,那我们就下期再见,拜拜! 大家好,我们这节课来讲解动态漫制作、美术设定、场景美术设定、时操思路概览、 角度切换和人物融合。我们首先来看剧情大纲提炼,在上一期视频中,我们同样进行了这个步骤,主要目的是提炼剧本当中出现的主要人物的有哪些,以及人物是否具备前期和后期的变化,产 生的服装设计上的变化。而我们这节课所进行的剧情大纲提炼,主要提炼的是剧本当中和场景相关的内容。比如这里我们所展示的核心场景二,顺天府前堂。在这个场景中出现的主要人物有灵验牙医 一大人,同时我们也成功的提取出了人物在场景当中的位置以及与场景的交互关系。例如像这里所描述的,林燕原本位于死牢,被衙役从牢中带出,将前往顺天府前堂,而交互动作则是衙役手持钥匙赶到死牢,极速传召林燕面见辅一林燕从被动关押转为主动复 将,在人前为师傅许愿。我们之所以要对剧情大纲做场景方面的提炼,自然是身为导演的我们要快速的获取在剧本当中都出现了哪些场景,以此方便做后续的场景美术设计,以及让人物出现在剧本当中所描述的场景当中的位置。那么像这样的提炼内容我们该如何获取呢? 自然是和人物类似,我们既可以通过 ai 大 语言模型让他帮我们进行提炼。例如来到豆包 ai 当中, 先将剧本上传给豆包 ai, 在 上传好之后,提示词我们就要求整理一下这个小说中出现的主要场景, 并说明该场景下出现的人物与人物与场景间的位置关系和交互关系。现在点击发送可以看到,一段时间后,我们就获取了符合提示词要求的结果。这里一共整理出了三个在小说当中出现的场景,分别是死牢验尸房和顺天府库房。 同时在每一个部分也分别交代了出场人物和环境之间的位置关系,以及出场人物和环境之间的交互关系。有了如此详细的描述,我们下一步就可以开始对场景进行美术设计了。在大多数情况下,这样的美术设计其实并不是十分困难。例如像死牢验尸房并不需要我们具备十分丰富的想象能力 和美术设计能力,这些都是在影视剧中非常常见的场景。所以我们在进行场景设定时,可以看到像在设计牢房时, 牢房的外景、牢房的室内景象以及牢房的内部都并没有特别精巧,需要美术功底的设计,所以这些我们在生成时就直接使用纹身图功能,如实的交代我们要生成的内容即可。但在小说当中还涉及到了顺天府的设计,可以看到在下方顺天府的设计会相对复杂一些,包括了高低错落的中式建筑, 同时还要具备一定的布局设计。像这些内容,我们想要直接通过文字描述来生成对应的结果可能随机性就会比较大了。所以这里我们可以继续借助豆包 ai, 让它帮我们生成。对于顺天府的提 词描述,这里我们就这样要求写一段提示词用于生成。小说中出现的顺天府建筑特色、历史背景、美术风格等都要贴合小说设定。现在点击发送可以看到,一段时间后,我们就获取了非常详细的和顺天府相关的提示词描述。这样的描述非常细致,但我们在生成时很有可能在一张图片当中无法体现这么细致的描。 所以进一步的我们可以让 ai 工具帮助我们对这些提示词做不同区域、不同景别的区分。由这里我们进一步提出要求,提示词尽量简洁,要求分别生成顺天府全景大门、室内别院、后门的提示词描述。现在点击发送可以看到一段时间后,不同部位的提示词描述就都生成好了。 而我们需要做的事情就是将这些提示词复制下来,然后来到图片生成平台当中将提示词粘贴。同时身为导演,我们有必要对这些提示词进行修改和补 充,使其能够生成我们需要的画面。例如这里我们需要增加一个描述,像风格方面我们增加的是二次元漫画风格,景别方面我们要增加全景这样的描述,而视角方面我们就增加正面俯拍视角,同时我们使用的是 agent 模式,所以这里需要额外提一下生成的比例, 这里我们就要求比例十六比九。现在回车发送可以看到一段时间后,符合提示词要求的图片就生成好了,整体的生成效果还是不错的,在视角上满足了正面俯拍视角。同时像我们所要求的会出现的前堂后牙、 住房死牢、电视屏院这些区域也都进行了详细的标注,不过这样的生成会伴随着一定的随机性。同时在配色方面我们也可以做进一步的要求。这里既然我们使用了 a g 的 模式,想要多获取几个配色和生成方案其实并不是一件难事,所以我们可以进一步的向 a g 的 模式提出要求,多 来几个不同的配色方案和天气情况尽量以晴天为主,建筑更加错落有致一些。可以看到片刻之后,修改好之后的方案就生成好了,分别提供了四种不同的配色方案,同时也将天气改为了更加晴朗的晴天。我们下面再来讲解一下场景多角度切换的方法。在上一节课中,我们讲述了如何生成人物的三式图。 同样的,在制作动态慢时,人物会在场景当中不断的运动,但我们依然需要尽可能的保持人物在运动之后背景的一 质性和理性。所以这里我们要学习如何制作场景的多角度切换,一共有这么几种方法。首先第一种方法是使用多角度切换的工作流,我们这里是使用的 running hub 上面一个名称为多角度切换的工作流,顾名思义,它的作用就是上传一张图片,然后根据提示词的描述,参考图片的美术风格,场景设计、 空间设定,对参考图当中的场景来转换角度。例如这里作者已经给出了一个视例,上传的参考图就是顺天辅正面辅拍视脚下的一个画面。在上传好这张参考图之后,我们需要在右下方的位置来书写对应的提示词描述,例如这里书写的提示词描述是将镜头转为俯视左侧视图 可以看到最终生成的效果,转换的还是非常不错的,在保留了场景的美术风格以及画面当中各个事物的布局的前提下,成功的转换了风格。尤其是在院落当中有两颗 红色的枫树,在转换角度之后,它们的位置、样式和颜色都与参考图当中这两颗红色的枫树保持了高度的一致。具体这个工作流的网址链接我已经放在本页 ppt 上面了,大家也可以查看评论区的置顶来获取。 除了用工作流来生成不同角度的图片之外,另一类方法我们可以通过视频生成的方式来获取不同角度的场景。例如使用维度的主体库来生成多个不同的场景角度后,利用主体库让场景旋转来获得更多的角度。或者使用 nano banana 旋转场景的功能来获取多个视脚下的场景,那么了解了如何获取不同视脚下的场景,我们下面来进行最后一步,就是如何让场景与人物融合。这里的方法就有很多了,例如像一些简单的场景,常规的动作 可以直接以参考图生图的方式来生成对应的内容。来到极梦 ai 的 生成页面,我们就以上节课生成的这个人物为例,将其拖拽到生成预备窗口中,使用 ag 的 模式,而提示词我们就输入生成这个人物坐在牢房地上的情形。二次元国产漫画风格要包含牢房的铁窗户、铁栏杆,人物要光着脚。现在点 击发送可以看到一段时间后,符合提示词要求的图片就生成好了。在生成结果当中,人物的造型也和我们上传的参考图保持了高度的统一, 也符合了提示词中我们要求的铁栏杆、铁窗户这样的描述。一共生成了四个角度,可以说每个角度生成的效果都是相当不错的。除了使用参考图生图来直接生成相应的场景和人物之外,如果说我们有不错的参考图,也可以使用参考图让图中的人物被我们所设定的人物所替换。例如我们就以这张图片当中的人物为例,这 同样是一个牢房当中的场景,在上传好这张参考图之后,我们再次将人物设定的参考图进行上传,而提示词方面,我们就要求把图一场景中的人物换成图二,保持图一中的场景和姿势,只替换人物形象比例十六 b 九,现在点击发送可以看到一段时间后,我们就成功的将画面当中的人物造型进行了替换,且保持了视角和 场景设计的一致性。当然在很多时候,我们生成的结果可能百分之八十,百分之九十是满意的,只有一些细小的部分还需要后期的调整,或者在人物的比例上也可能会出现大小方面的问题。在这种时候我们就放在 ps 中先去手动调整,然后再通过图生图的方式来提升画面当中 在 ps 调整后所遗留的不够融合不够合理的部分即可。那么以上就是本期视频的全部内容,如果觉得对你有帮助,也不妨点赞、关注、支持一下,我们就下期视频再见!

二零二六年马都到了,你开始用 ai 创作了吗?像这样的新春动态海报特效制作以及素材生成,还有镜头运镜,今天就给大家分享四个用 evli ai 制作的视频小技巧。我们点击左边导航栏的图片生成,输入需要生成海报的关键词,在这里选择一个全能的模型, 点击生成,等待加载中。我们可以看见他给我们生成了四张海报,我们选择一张效果比较好的下载,接着我们再上传刚刚下载的照片,接着输入指令,帮我去除画面中的文字和码, 点击生成,这样我们就得到了首帧画面和尾帧的画面。接着我们切换到视频生成,上传刚刚的首帧和尾帧的画面,接着我们再输入视频生成的关键词,接着再选择一个模型以及视频的比例, 最后我们再点击生成,等待加载中,视频就完成了。 liblib ai 不 仅仅可以生成视频,还可以做视频的特效,我们进入视频特效专区之后,我们可以看见它有上百种市面上比较火的视频特效模型库。 在这一步我们只需要点击这个模型,然后上传一张我们自己的照片, 点击生成视频特效就制作完成了。其他的两个视频特效重复之前的操作,无论是视频制作还是视频特效,从创意到成品不到两分钟,一步一步 ai, 让你轻松玩转 ai 创作。