零基础怎么从零到一制作 ai 视频?这是我今天想和大家分享的内容。明明用着同款 ai 工具,为啥别人的视频能一步到位,完全符合预期,可你呢?调参数, 改提示词,折腾半天,视频却像失控的列车,浪费积分不说,最终效果还全靠运气。别慌,今天这期视频三分钟带你入门, ai 视频制作小白也能轻松上手!入门!话不多说,直接进入正题, 下面我就来介绍一下如何通过四个步骤制作一个 ai 视频。这些步骤包含场景描述、文生图、图生视频和视频剪辑。第一步的场景描述可以用 chat、 七 p t、 文心、一眼通、一千、问豆包等这样的对话类 ai 来生成。第二部文生图对应的有 mid、 journey、 stable、 diffusion、 文心一格通、一万象等。第三部图生视频对应的有 pika、 runway、 pic、 verse, 还有一众国内的视频生成平台。而第四步,我们会使用 工具将生成的视频片段进行剪辑和配音配乐。关于工具可以在我们课程配套的工具资料包当中查找。大家好,我们这节课来讲解可灵 ai 的 视频生成功能。 来到可灵 ai 的 首页,我们点击左侧的视频生成分选项,可以看到当前的页面就是可灵 ai 的 视频生成页面。在最上方有一个下拉菜单,我们在这个位置可以选择不同的视频生成模型。和图片生成模型一样, 通常标号越高的模型生成的效果就越好,所以我们就保持默认的二点一。当然某些模型是不具备部分功能的,例如当前的二点一模型就不具备仅靠伪真生成视频的能力,所以大家也可以根据自己的需求选择更适合的模型。在下方有三个分页,分别是文声视频、图声视频和多模态编辑。 我们首先来看文声视频,顾名思义,文声视频就是我们写出的画面来生成对应的视频。 上节课我们讲过了,可灵 ai 接入了 deep seek 功能,所以当我们不知道该如何描述一幅画面时,也可以直接借助可灵 ai 内置的 deep seek 帮助我们 写一段画面描述提示词用于视频生成。和其他的 ai 视频生成工具不同,可灵 ai 还包含了负面提示词的写入框,不过这个位置并不是必填项,而且就算什么也不写,生成的效果对于崩坏的抑制也非常的好,所以通常这个位置呢就保持默认不填写 在正反面。提示词的右上方有一个预设选项,我们点击展开之后,就会打开预设提示词的选择菜单。如果想要新增预设提示词的话,我们点击展开的右上方的加号,在这里就可以预设提示词,并写明标题, 方便我们后续选择提示词模板。不过这里并不是很建议大家使用文声视频的功能,我们以先前我生成的一段视频为例,我们首先来看这段视频, 可以看到这段视频,它是由纹身视频生成的内容。提示词描述呢是手部特写镜头,女生的手扶过海浪最终呈现的效果,画面有种锐化过度的感觉,并且整个手的美观程度也不尽人意。我们再来看第二段视 频,可以看到这个画面当中的手就明显要好看的多,并且也成功生成了在提示词描述当中手扶过海浪的效果。 而这个视频是以手真图生视频的方式进行生成的,所以在大多数情况下,图生视频要远比文生视频稳定的多,而且本身图片生成的时间和资金成本都比较低,也方便我们先确定图片的风格和质量,再进行图生视频, 能够提高我们制作视频的效率。回到视频生成页面,我们来看最下方,可以看到有这么几个分选项。首先第一个下拉菜单是选择视频的生成模式,标准模式和高品质模式其实对应的就是生成的画质,如果单纯的做视频生成练习的话,选标准模式就好了, 消耗的点数会低一些。第二个下拉菜单是选择视频的生成秒数,目前生成五秒钟左右的视频也偶尔会出现非常不稳定的情况,就更不要说十秒钟的视频了。 所以这里建议大家生成五秒钟的视频就足够了,十秒钟的视频有极大的概率会让人物的运动出现意想不到的结果。第三个下拉菜单是选择视频的宽高比的, 目前纹身视频只有三个宽高比可选,就是我们常用的十六比九,九比十六,还有一比一。再往右边这个下拉菜单是选择一次性生成几条视频的,根据我的生成经验,同样建议大家选择默认的一条视频, 这样方便我们在得到不好的结果时,能够及时地修改提示词或者图片。最后一条创意相关,指的就是生成的视频结果是更符合提示词的描述,还是更偏向于让 ai 自由发挥,这里维持默认就可以。 有时过于遵循提示词的描述,一旦提示词当中有我们没有想到的部分, ai 也不会帮我们生成。相反,让 ai 过多的自由发挥,有时可能会误视我们提示词当中描述的内容。纹身视频的效果通过刚才的短视频我们已经看到过了,所以这里就不再重复演示。我们下面来看图声视频。 这里的图生视频又分为首尾帧和多图参考。我们首先来看首尾帧,这也是我们最常用的一个视频生成方式,它允许我们先上传一张或两张图片作为当前视频的开头或结尾。在上传图片之后,下方的输入框我们输入想要人物做出的动作以及镜头的运镜。 这里有必要说一点,通常图生视频我们就只需要描述人物要做的动作和画面的运镜就可以,至于画面的内容具体是什么,图片已经给到了 ai 充足的信息,不需要我们再重复的描述,除非图片当中某些信息很容易被 ai 误判。 比如一件金属反光质感的衬衫被 ai 误识别成了盔甲,这个时候可能需要靠提示词让生成的视频在运动过程中物品保持一定的稳定。我们下面再来看运动笔刷这个功能, 目前这个功能仅在一点五模型下支持使用,我们点击切换,在切换完成后,我们点击去绘制,就会打开一个新的窗口。通常想要便利的使用这个功能,我们可以勾选上方的自动检测区域,此时我们的光标就会变成一个快速选区比对,我们这里选中人物的头发或者上半身,或者整个的身体。 选中完成以后呢,如果有多选的部分,可以点击左上方的橡皮擦选项,去擦除多选的部分。此时画面当中显示为绿色的区域,就是待会我们需要它运动的区域,这些区域不只可以选中一个。如果画面当中存在多个物品, 我们希望每个物品的运动都受到我们的控制。可以看到右侧一共有六种颜色,可以用来标记六种不同的物品。标记完成后,我们用鼠标点击区域右侧的轨迹选项,此时我们的光标就变成了一根用来汇聚移动轨迹的画笔。 例如我们想要人物朝着画面的左手边去运动,我们就用这个画笔从右向左滑动,此时整个的轨迹就会变成一个往左手边纸上的箭头。 生成视频时,人物就会往左手边这个方向进行移动。在右侧下方这个区域还有一个添加静止区域的选项,也就是说,如果我们不希望画面当中的某样物体运动,我们可以点击静止区域这个选项,然后在左侧的图片中进行会制,这样一来生成的视频结果 我们用静止区域选中的部分就不会发生运动了。确认无物之后,我们点击右下方的确认添加,这样一来生成的结果就会更受我们的控制。在运动笔刷下方还有一个运镜控制,我们点击使用,可以看到此时右侧会弹出一个选择菜单,可以支持我们选择一些常规的运镜, 有水平运镜、垂直运镜、推进拉远或者垂直水平摇镜、旋转运镜等。不过我们可以看到,当我们选择一个运镜方式之后,上面的笔刷运动就会提示与运镜控制互斥,使用后将移除运镜控制的提示。这就意味着两种功能无法同时使用, 大家可以根据自己的需求选择其一。不过经过实测,可连 ai 的 这个功能在控制能力上并没有我们想象当中那么好。与此同时,它所使用的模型版本为一点五版本,与目前的二点一版本在版本号上差距过大,所以生成的视频质量不会特别的好, 因此这个功能我们就仅做了解,不再赘述。我们回到首尾帧,这里刚刚我们只添加了一张图片作为手帧,但其实只要我们的视频模型版本在一点六及以下的话,是可以同时添加首尾帧的,也就是可以控制整个视频的开头和结尾是什么画面。我们以这个视频为例, 可以看到视频当中的狐狸变身为了一个在宫殿当中的少女,之所以会有这样的变身效果,就是得益于首尾针的功能。我们分别生成了两张图片,首针是一个狐狸,而尾针我们生成了一张由这只九尾狐幻化的少女。 这个短视频在生成的时候甚至没有写提示词,就直接达到了这样的效果。由此可见,首尾真生成视频在镜头的过渡上可令 ai 做的还是十分智能的。我们回到视频生成页面来看多图参考,这个选项和图生图的多图参考类似,视频生成的多图参考也允许我们分别上传人物主体、 背景以及画面当中其他需要的元素,最终让这些元素或者风格都出现在生成结果的视频当中。例如此时我们上传一张人物的图片,再上传一只小黄鸡的图片提示词,我们就写少女手捧小黄鸡,然后点击生成,大约五分钟左右,我们的视频就生成好了,来看一看效果如何吧。 可以看到整个视频对于两者的结合还是非常不错的,人物的动作也比较自然,唯一存在一些问题的地方就是手和小黄肌交互的部分,这也是目前绝大多数 ai 视频生成模型的痛点,也就是复杂的结构在与复杂的结构交互时会出现明显的崩坏, 这种情况目前还无法避免,我们只能期待将来视频生成模型能够具备更好的效果。回到视频生成页面,我们最后来看多模态编辑,这个功能也是目前比较少用的一个功能, 他允许我们上传一个视频片段,再上传一张图片,然后通过提示词的描述,将所上传图片当中的某一个内容去替换掉视频当中的某一个内容。我们就以这个视频为例,我们上传一个手轻轻抚摸小牛肚的视频片段。 图片方面,我们依然上传刚刚用过的小黄机提示词,我们就写是图片一中的小黄机替换视频当中的小牛肚,我们可以将鼠标悬置在视频上传窗口的上方,此时右上角就多出了一些图标,分别是编辑从历史选择、本地上传以及删除 后三个都是字面意思,我们来看编辑点击之后呢会展开一个新的窗口,在这个窗口当中我们需要做的事情就是选择增加区域,然后将整个视频片段全部选中,同时点击视频画面,通过自动选区功能将我们需要替换的物品进行选中,然后点击右下方的确定。 至于图片编辑窗口,这里有一个选择主体的功能,点击之后会展开一个窗口,这个窗口就是用来选择框选主体的,如果画面当中有多个物体,我们需要用这个窗口去选择我们需要拿去替换的物品,这里我们也不需要过多的操作, 最后我们直接点击右下方的生成就可以了。 ok, 我 们现在来看一看生成的效果如何吧, 可以看到生成的效果还是非常惊艳的,在将元素进行替换之后,整个手在触摸小黄肌的时候,小黄肌毛发的运动非常自然,并且整个的视频表现也十分稳定。不过相比于正常制作一个图生视频进行元素替换,需要消耗的点数会更高,所以通常这个功能不会用于替换 ai 生成的视频。 更推荐大家实际拍摄一段视频,然后将图片的内容去运作替换实际拍摄视频当中的某项物品,这样的操作会相对更实用一些。我们回到多模态编辑窗口, 除了替换元素之外,可以看到这里还有增加元素、删除元素等操作,这两项功能都是字面意思,具体的操作方法也和我们刚刚讲的没有太多区别,所以这里就不再重复演示。那么到了这里,我们有关于可灵 ai 的 视频生成功能就全部讲解完了, 可以看到这些视频生成功能有好有坏,不同的模型、版本、功能和操作都会对视频生成的结果产生影响。 在众多操作当中,我比较推荐大家使用的依然是徒生视频的方式,先生成手帧、尾帧图片,然后再通过提示词描述让可灵 ai 帮我们生成对应的效果。这样的工作流,无论是最后产出的成品效果,还是时间和资金成本的使用情况, 相比较其他方式而言,都是一种最优的创作方式。我们这节课来讲解可灵 ai 的 音频生成、 ai 试音、 ai 对 口型和视频延长功能。 来到可灵 ai 的 首页,我们点击左侧分选页当中的音效生成,这样就可以来到音效生成的页面,这里提供了两个窗口,其中上方这个窗口是用来写入提示词的,这些提示词用来描述我们想要生成的音效,例如此时我们在这里写入干杯杯子碰撞,然后点击生成, 可以看到片刻之后,可灵 ai 就 为我们生成了四段干杯杯子碰撞相关的音效。我们来试听一下, 可以听出这四段音效其中有三段都生成了不错的杯子碰撞的效果,而其中有一段把杯子碰撞理解成了喝彩, 可见生成的结果依然存在一定的随机性。不过好在生成我们想要效果的概率还是比较高的。我们继续来看下方的上传窗口,这个位置是用来自动给视频配音的,我们需要做的就是点击这个位置,然后上传一段需要进行配音的视频 上传完成后,上方会提示已通过视频匹配到创意描述是否替换,我们点击替换,最后点击右下方的生成, ok, 几十秒后, ai 自动进行的配音就配好了。同样是生成了四段配音,我们分别来看一下效果。 通过这四段配音结果,我们可以感受到由 ai 对 视频自动匹配的音效效果并不尽人意,虽然确实生成了手指抚摸皮毛的效果,也生成了牛叫的效果, 但是这些效果出现的时机和画面中播放的内容并不是十分匹配,部分效果还出现了一些我们不需要的杂音,所以目前可连 ai 自动根据视频匹配音效的功能不推荐大家使用,我们可以期待未来能够优化的更好。 其实相比之下,如果大家不做商用的话,可以直接来到剪映当中,点击上方的音效选项,在这里我们可以根据左侧的标签来选择自己需要获取的配音配乐,也可以直接在上方的搜索栏搜索我们想要的效果。例如我们搜索自行车的效果,这里呢就会显示自行车铃铛、自行车路过等等音效, 点击就可以进行试听。如果需要使用这段音频的话,可以直接将这段音频拖拽到下方的时间轴上,与视频内容进行匹配。 大部分音效都可以在剪映当中的在线素材库里找到,因此目前可灵 ai 的 音效生成功能并不是十分实用。不过如果大家对视频有商用的需求,需要原创一段音频的话,我们使用它的音效生成效果也是可以的。我们接下来再来看 ai 试一功能,点击左侧的 ai 试一分选页,我们就来到了 ai 试一的操作页面。 使用这个功能一共分为两个步骤,第一个步骤就是生成一个 ai 模特,在这里我们选择性别、年龄、肤色以及对这个模特基础造型的描述。当然如果不想生成模特的话,我们也可以直接点击上方的 ai 换装。在二级分页当中有官方预设的模特造型,或者我们点击右侧的自定义分页, 在上方的窗口可以上传一张自定义的模特照片,不过可连 ai 对 我们上传的照片有一定的要求。我们将鼠标悬置在右侧的模特规则这里 可以看到,这里有对图片尺寸、文件大小的要求,同时也给出了推荐图片和不推荐图片的案例,像多人合照、坐姿或者严重遮挡、衣服姿势过于复杂等情况都是不推荐的。想要成功的给模特进行换装,像上方这些单人照、正面全身或者半身 或者未对衣服区域进行遮挡、姿势简单的图片等都是可以的。在下方这个窗口就是上传服装的位置,我们同样将鼠标悬置在服装规则这里,可以看到这里同样描述了对服装图片的尺寸要求、大小要求 以及上传的形式。像平铺的服装、单件的服装、没有遮挡的服装都是推荐的。而像同一张图片,存在多个衣服或者背景过于杂乱,花纹过于复杂,亦或是透视角度过大, 服装重叠遮挡的情况,都是不推荐的。如果我们想一次性上传多个服装,可以在左侧的分选项当中由单件切换为多件,这样就可以分别上传上衣和下装,以此来让模特一次性试穿全身的衣物。我们这里就以官方提供的模特为例,选择好之后, 我们再在下方选择一件官方提供的衣服,在最下方的位置,我们可以选择一次性生成多少张图片,以及图片的清晰度如何。选择完成之后,我们就直接点击立即生成, 可以看到最终生成的效果还是非常出色的,不仅完整的保留了人物的长相特征,同时像衣服的款式以及穿戴之后的光影效果都还原的十分自然,甚至生成的结果还非常贴心的给这件上衣搭配了一件颜色和款式匹配的裤子。 我们回到生成页面,在 ai 十一操作面板的右上方有一个使用指南,我们点击之后就可以来到可灵 ai 使用指南 ai 十一的页面,在这个页面我们可以查看 ai 十一这个功能的介绍以及使用指南和注意事项,以此来学习这个功能。同时官方也提供了一些视频教程, 我们下面再来讲解可灵 ai 的 对口型功能,不同于 ai 数字人让图片开口说话,对口型功能是让视频当中原本没有说话的人物开口说话,并根据说话的内容来生成对应的口型。要想使用这个功能有两种方式,第一种方式,如果我们生成的视频是一个人物正面的近景特写, 我们就可以使用这个功能。可以看到在右侧的预览窗口,视频的下方有一个对口型的选项,我们点击之后就可以来到对口型的页面,当然我们也可以手动的点击左侧的对口型选项,来到当前的页面,这个页面存在两个上传文件的窗口,其中上方这个窗口是用来上传视频文件的, 我们这里就选择一个官方推荐的视频,将视频上传以后会弹出一个窗口,在这个窗口当中我们可以预览视频的效果。 同时在窗口的右侧我们可以选择用 ai 进行配音或者上传本地的配音文件。如果我们选择用 ai 进行配音的话,可以在这个位置输入需要配音的内容,例如我们输入接天连夜无穷碧,映日荷花别样红。 输入好内容之后,在下方我们选择配音的音色,点击之后就可以试听接天连夜无穷碧,映日荷花别样红。每一种音色都可以在下方调节它的语速, 以适配视频的时长。除此之外,部分音色是可以调节朗读时的感情的,例如我们将下方的感情调整为高兴,然后再次点击试听接天连夜无穷碧,映日荷花别样红,可以明显感受到人物的语气变得更加开心了。 当然朗读诗歌我们就以中性的情绪来朗读就可以,至于上传本地配音的话,我们就直接点击上传或者拖拽的形式上传到这个窗口当中就可以了, 们这次演示就直接用 ai 来生成朗读的内容吧。确认好配音内容和音色情绪之后,我们点击右下方的添加配音,可以看到此时左侧的预览窗口下方会出现音频的时间轴,我们配音的总时长是四点五秒,因此并不是人物全程都在开口说话的,可以通过鼠标拖拽的方式来移动配音的位置, 以此来决定人物在什么时间段开口说话。确认无物之后,我们就直接点击右下方的立即生成,等待一段时间后视频就生成好了,我们来看一看最终对口型的效果吧。接天连夜无穷碧, 映日荷花别样红。可以看到,尤其是对于这种近景特写,人物朗读的内容和 ai 生成的口型还是十分匹配的。 我们最后再来看一看可灵 ai 的 视频延长功能,我们点击左侧的视频延长分选项,来到视频延长的操作界面。顾名思义,视频延长就是将已有的视频在结束时进行延长拓展,通过提示词的描述来延续视频的内容, 其实就相当于将一个视频结束时的画面作为图升视频时的手帧来生成新的画面。不过当前这个功能就只支持我们从历史创作中去选择,我们就以这个视频为例,先来查看一下这个视频的效果, 可以看到当前这个视频就是一个简单的人物动态效果,我们可以尝试将这个视频进行延长内容,我们就描述 人物伸手挡住镜头,镜头变暗。如果觉得自己的提示词描述内容并不能得到理想的效果,也可以通过 deepsea 来优化我们的描述。最后我们在下方选择相应的参数,然后直接点击立即生成。 ok, 延长后的视频生成好了,我们来看一看效果如何吧。 可以看到最终生成的效果还是十分流畅的,不仅在后半段相对的符合提示词的描述,同时在第五秒和第六秒之间, 就是原视频和延长视频之间的衔接处也并没有发生明显的衔接卡顿或者是画面突变的情况。因此,各位同学想要延长某一个由 ai 生成的视频片段的话,不妨尝试一下视频延长功能,效果还是不错的。那么以上就是本视频的全部内容了,到了这里,有关于可怜 ai 的 全部内容也都给大家讲解完了。 可以感受到,虽然可怜 ai 主打的是一个视频生成,但像图片生成、图片编辑、对口型视频延长等功能,使用的体验和生成的效果也都相当不错。其实我们的视频更新到这里, 已经和大家一起看了不少 ai 视频创作平台,也鉴赏了很多其他作者生成的优秀短片。我们不难发现,虽然每个视频平台有着不同的功能和视频生成的特性,但最终想要取得好的 ai 视频生成工具, 在给人们带来便利的同时,也对使用它的人提出了更高的要求。 ai 时代是一个容易诞生超级个体的时代,繁琐枯燥的工作被 ai 接管之后,人的价值会更加突出。因此,如何让自己的思维能力和学习能力在更深更广的维度上实现突破,这才是我们需要聚焦的问题。
粉丝60获赞233

老公,你没把冰箱里的鱼拿出来解冻啊?啊?对啊,因为我要带你出去吃。咱们要出去吃呀。 其实我完全忘了那条鱼,我根本就没有记起这件事。那咱一会出去吃啥?你猜猜看,不会是麻麻辣的火锅吧?对对对,就是火锅。 我哪知道他想吃啥,他想吃啥自己就说出来了吗? 真的吗?当然了。呵,太好了,那我去换件衣服,其实冰箱里根本没有鱼。


现在,仅需一张图加一段视频,就能让任意风格的角色完美复刻你的动作甚至语音口型。这玩法真的太上头了,效果由你自己定义,请务必看到最后。操作可以说超级简单,完全不需要调节复杂参数,小白也能轻松上手。第一步,直接用手机录一段包含你说话和表演的视频。 第二步,打开可灵官网,选择最新的动作控制模式,点击生成,不论是三 d 卡通、二 d 平面还是美漫风格, 它都能完美捕捉你的微表情,彻底解决了 ai 视频动作僵硬和口型不准的痛点。利用这个闭环工作流,无论是做具体短片、虚拟 ip 还是电商口播,这都是目前成本最低、效果最可控的专业级解决方案。记得点赞、关注、收藏,我们下期视频再见!

打打字就人缘,林黛玉说话?你逗我吧,我这生日都卤成啥样了。别急,把声音交给我。不用你这个啦,用这个再试试。 嗯,这次是妹妹的声音了,模仿谁的嗓音都行吗?他呢?没问题了。哎,还行还行,那多人说话搞得定吗?你找他试一试不就知道了。哎,这关我什么事啊啊,要了命了 哎哎,猴哥,咱有话好说,师弟咱们试试。惨叫啊,都这么稳了,测什么啊。哎哎,博主必须敬业。别跑别跑啊啊。哎,追跑打闹怎么还能变画风啊。别闹了啊别闹,稳了 啊啊,音化同出了,音色同步了,为师考考你还差什么啊? 他不行了,要不你回答试试?哎,是个好问题。哈哈哈哈,还差你的 故事。

there is no nobility in poverty i have been a rich man and i have been a poor man and i choose rich every fucking time。 这就是可灵新升级的动作控制功能,它可以对人物表演从头到脚进行精细控制,不只是大动作,连细微的身体节奏和姿态变化都能准确还原。口型同步自然流畅, 说话停顿、表情变化几乎看不出来是 ai 生成的,而且操作非常简单,只需要打开可灵选择动作控制,上传你的原视频和角色素材,不需要复杂的参数设置,它就会自动匹配原视频中的神态动作。即使是这么复杂的动作,生成的视频依然保持的很高的清晰度,感兴趣的朋友快去试试吧!

逼自己一个月学完,你真的很会 ai 动态慢制作比付费强一千倍!挑战一个视频,教会你 ai 动态慢!别再做只有几百播放量的传统视频了!二零二六年最大的内容封口已经出现, ai 慢剧 千亿级别的蓝海市场正在爆发。知道现在的平台扶持有多疯狂吗?高达百分之九十的分成比例,加上官方的保底激励,只要作品入库,就是真金白银。左手拿流量分成,右手接贴片广告,这才是普通人翻身的正确姿势。 很多人还在犹豫,我不会画画,买不起显卡怎么办?听好了,现在是 ai 时代,这些门槛统统不存在,你缺的只是一套标准化的 sop。 本期视频,我将毫无保留把压箱底的实操流程公开。从 ai 写剧本、一键生成分镜,到后期配音合成, 只要有一台电脑,你就等于拥有了一个动漫工作室。想吃价这波红利吗?赶紧点赞收藏,手把手带你从零到一,做出一款爆款 ai 漫剧!本期视频,我把用到的工具、工作流和操作步骤都整理成了文档,六七八暴走,那时间有限,现在上车, 恭喜你,点进这个视频,我将通过这套 ai 动态慢系统教程,带你抓住二零二六年最大的风口,无需任何基础,全程通过 ai 即可进行创作。本套课程将从零基础开始,一步步带你解锁 ai 动态慢所需要的各个知识点。那我们废话不多说,现在就跟我一起来 学习吧!那么从这期视频开始,我们就来讲解 ai 动画短片是如何制作的。其实想要制作一部完整的 ai 动画短片,它的核心逻辑和我们的传统动画片制作是一模一样的。那现在最厉害的地方在于有了 ai 的 加持,很多以前需要一个专业团队才能搞定的工作,现在你一个人就能够全部包圆了。那 听起来很高深的一些专业知识,只要你学会借助 ai, 都可以在极短的时间内快速上手。一般来说,做出一个像样的 ai 动画短片,我们要走这么几个流程,第一步是写故事,包括构思剧本和拆解细分的分镜脚本。第二步是出图, 也就是把剧本里的文字变成一张张精美的图片。第三步就是让画面动起来,把图片转化为视频。第四步就是搞定声音,利用 ai 的 环境音效、背景音乐,还有人物的配音等等等等。那最后一步就是把这些素材放在剪辑软件里,进行后期的合成。我知道很多新手同学看到这一长串的流程,可能 觉得有点头大,甚至想退缩啊,但大家千万不要担心,从今天开始,我会带着大家从最基础的如何利用 ai 写剧本开始讲解,一直到最后的剪辑出片。我会把每一个细节呢都给大家拆开了,揉碎了然 你听明白。好,那么咱们今天从零开始,手把手教你如何从头亲手做出一个属于你自己的 ai 动画。这期视频我们先来讲解第一部分,如何利用大圆模型进行编写故事的剧本和脚本。我们都知道一个完整的影视作品,需要的是导演和编剧来帮我们纂写 剧本和脚本,但我们大多数人都不是专业的导演和编剧,因此我们想要获得一个好的故事剧本和脚本,通常需要借助 ai 大 元模型进行生成,例如豆包、 chat、 gpt、 jammer 等等等等。那此时如何向大元模型进行提问就非常重要了。对于我们新手小白来说,就可以先从这四个基本的要素进行提问,角色设定、 目标清晰、输入格式、结果质量。像这样公式化的提问才能够得到更有执行性的答案。比如现在我们就想生成一个三分镜的 ai 短视频,以 辆赛车在沙漠里飞驰。那根据刚刚的公式呢?我们就可以这样写,你是一个专业的影视分镜脚本专写师,擅长为 ai 短视频设计场景和镜头语言。请你帮我做一个十秒左右的视频脚本,内容是在广阔的沙漠公路上,一辆赛车在高速的飞驰。根据 以下的具体要求,比如三分镜需要包括镜头类型、画面内容、动态描述等等,要保证主体和风格的一致性。输出格式的要求有,镜头编号、画面描述、 ai 绘画提示词最终以表格的形式回答。我们先来探讨第一个要点,角色设定。这段提示词。我们可以看到给定 ai 的 身份是影 四分镜转写师,这是因为我们的核心问题是让他帮我们生成三分镜的 ai 短视频,所以要让他在做短视频方面是一个专家,那他擅长为 ai 短视频设计场景和镜头语言。因此我们自己在向大语言模型提问的时候,如何给 定 ai 身份,或者给他哪种身份是要根据我们的核心问题进行设计?那此时我们想要 ai 帮我们去做一个科普动态慢的概念,那我们就可以给他设定,假如你是 世界著名动画影视艺术专家,请你给大家科普一下什么是动态慢。此时他所给出的回复是动态慢的核心定义,动态慢的关键特征,以及动态慢与动画漫画的核心区别。这些内容所给出的格式是非常专业的,那我们换一种角度问 同样的问题,大家可以对比一下差异。假设你是一个脱口秀演员,请你帮我科普一下什么是动态慢。可以看到这里所回复的内容就和刚刚有一定的差异,是以更加接地气且通俗易懂的方式来介绍动 太慢的。这就是我们给 ai 设定不同的身份,那么 ai 给我们的答案也会有一定的差异,它会从不同的角度,不同的专业做出不同的回答。 至于第二点,目标清晰。这里并没有什么特殊的技巧,我们需要做的就是简单明了的把我们的核心问题发给 ai 即可,就比如请你帮我做一个十秒左右的视频脚本等等。那如果没有今天我们所讲述的提问框架,大家大概率也是会这样去提问,将后边的一些具体要求牵扯到了比较多的专业名词,如 如果大家看不懂没有关系,后边我们会给大家一一的进行讲解。我们再来看第三点,格式输出。我们在向大元模型提问的时候,虽然在我们没有进行格式限定的情况下, ai 依然给我们的答案是分条列出, 条件清晰的,但要做脚本,需要输出的类目会非常的多,因此用表格的形式会更加一目了然。 我们来做一个对比,请你帮我做一个十秒左右的视频脚本,内容是广阔的沙漠公路上,一辆赛车在高速飞驰,这是我们不做格式限定得到的答案输出。 如果我们再加上输出的格式要求,镜头编号,警别时长、画面描述、 ai 绘画、提示词旁白,并以表格的形式回答,那这个时候我们的提问方式得到了答案就会更加的专业,并且更具实用性,这就是 ai 限定输出格式的作用。我们再来看最后一遍 结果质量,结果质量这个重点对于以上三个点来说呢,显得就没有那么的重要了。在 ai 还没有如此强大的时候,我们每一次的提问都需要提醒 ai 生成一些高质量的回答,比如我们在做图片提示词的时候,需要提醒 ai 生成四 k 的 画质啊,摄影镜头啊等等等等。 那我们在做文案性的工作的时候,需要提醒 ai 回答的简明扼要啊,逻辑清晰啊等等等等。但对于现在的大语言模型来说,我们的这些结果质量提示就显得有些多余了,因为 本来 ai 给我们的答案就已经非常的好了,因此结果质量只有在我们得到了答案不太满意或有所纰漏的时候,再去提醒,再去作答即可。我们下面就回归到本节课的主题, 如何让 ai 来编辑剧本和脚本,这里我们已经提前准备好了,一起来看一下具体的内容是怎么样的。首先要明确一点,剧本和脚本是不同的,可以看到在这里我们分成了故事的剧本和脚本,在剧本方面,我们点击 查看,可以看到它更像是一则故事的直观叙述,就像阅读一本小说一样,没有非常杂的解释,只是顺着观众的正常思路来讲述一则普通的故事。而脚本则不同, 它的内容会更加的繁琐复杂,包括了警别场景等等对于画面内容的描述以及发生的时间。它更像是一本在制作这个完整故事影视作品时的一个指导规划书,告诉我们在拍摄这一段时 应该注意些什么,按照什么样的方式去制作。那么了解了故事的剧本和脚本的区别,我们再回到刚刚的内容,来看一下具体的提问方式是怎样的。可以看到这里同样满足了提问的四要素。首先第一点给 ai 设定身份,你是一个经验丰富的动画电影制 做导演,这句话就给 ai 设定了一个经验丰富的动画导演身份。下面是提要求,现在我需要你写一个动画电影短片的故事剧本白鹤仙子的传说。这句简单的话提出了我们的要求,是写动画电影短片 的故事剧本。而第三个部分就是给回答设定格式,要求是三帝国漫风格以写故事的方式提供给我,以便于我能快速的了解故事内容,不超过四百字。而在下面我们生成脚本的时候呢,可以看到就 没有再给 ai 设定身份了,因为通常来说呀, ai 大 元模型是有关联上下文的能力的,那我们在第一句话中已经给他设定了一个经验丰富的动画导演身份,所以默认在后续的提问中,即便不再单独的设定身份,这个身份也已经贯穿整个对话了。到这里大家可能会有一个疑问, 那就是既然我们生成的分镜脚本能够直接告诉我们在真正制作短片时,该在什么位置,什么样的描述,设定,什么样的时间,为什么还需要让 ai 生成一个故事的剧本呢?这个道理其实很简单,作为一个导演呢, 也就是我们自己要制作出一个完整的故事,就必须先要深入对故事有一个清晰的认识,知道故事当中的出场人物, 故事的情节。所以相较于永长的脚本而言,一则故事的剧本能够让作为导演的我们像阅读一个短片故事一样,快速的了解整个故事都发生了什么,这样在制作的时候才能够更多的去打磨这个故事的细节,了解故事的前后逻辑。其次,我们先行编写的一个故事剧本, 也能够十分方便的对故事剧本当中逻辑不通或者不够精彩的需要修改的内容,再来生成更加完善的脚本, 以此来降低后续修改的成本。毕竟修改一个简短的剧本要比修改一个永长的脚本要方便得多。在生成一个 ai 动画故事短片时, 大家可以看到开头我们所展示的动画短片在时长上都不是很长,通常一两分钟,所以这里生成的次数也非常的重要。通常来说,四百字的故事剧本对应的就是两分钟左右的 ai 动画短片,所以大家可以以此为基础,在设定 ai 回答时来设定一下生成的次数。此外,我们在设计脚本要求时, 实际上是为未来的 ai 绘画流埋下一个伏笔。很多格式上的约束,核心的目的都是为了让后续的图片生成更加的流畅。所以大家在向 ai 提问时,不妨换位思考,如果我们要用这段话去生成一个图片,那 ai 需要知道些什么?基于此, 我们在指令中强制要求,包括警别、警号、场景绘画提示词等等等等,这些细节直接决定了分镜的还原度。更重要的是,我们仿佛强调 ai 的 描述要客观直观,避免文学化的修饰。如果你深入使用过 ai 绘画工具,你就会发现 那些充满异境的小说话表达往往是致命伤。比如长城宛如巨龙, ai 呢?可能会画出一条龙来,那这就 就是语义误读导致的翻车现场。为了保证分镜脚本的实用性,我们必须用最平实的语言去解构画面,摒弃误导性的一些修辞。当然,在追求绘画效率的同时,我们也不能忽视脚本本身的专业属性。即便我们不是职业的导演或者编剧, 也应该要求 ai 输出的内容具备脚本的基本骨架与核心要素。这样生成的作品才不只是零散的描述词堆积而成的作品,而是一份具备 趣事完整性、能够真正落地的执行性专业脚本。最后,让我们对本期视频的核心要点进行一次深度的梳理。首先,我们从宏观角度给大家讲解了制作一部 ai 动画作品的全部流程以及炼录。这不仅是本节课的开端,更是我们后续系列课程将要逐一解析深度攻克的技术地图。 本节课的重头戏呢,在于我们详细的拆解了如何利用 ai 大 元模型编写出高质量的故事剧本与分镜脚本。我们重点强调了与 ai 深度对话的一些核心方法论,就是提问的四要素,角色设定、目标清晰、输出格式、结果、质量。那在实战环节中, 我们不仅成功的驱动 ai 生成了可落地的剧本脚本,更从专业的角度对什么是剧本,什么是脚本以及他们的实际创作中各自承载的功能进行了一个深度的分析以及 剧本。那希望通过这些理论与实操的结合,大家能够真正的理解并掌握 ai 创作的底层逻辑,为接下来的分镜生成打下一个坚实的基础。好了,以上就是本节课的全部内容,如果对你有所帮助,还请多多支持。三年以下本套教程用到的 ai 脚本提示词、运镜、关键词库,还有所有免费的 ai 工具, 我都会整理放在下方置顶评论。下期视频我们来学习如何根据生成好的剧本脚本来生成分镜图片,这就是 整个制作环节中最花时间的部分,因为它不仅要生成图片,还包括了设计故事当中各种事物的形象,以及如何保证角色前后的一致性,如何对生成不满意的图片进行修改等等等等。那我们就 下节课再见!大家好,在上节课中我们学习了使用 ai 大 元模型生成剧本和脚本,那么这节课我们就利用已经生成好的剧本脚本来进行分镜图片的生成。制作 ai 视频时 先图后影的图声视频模式是确保创作可控性与成本效率的核心策略。在实际的商业化生产流程中呢,直接利用文声视频往往会伴随着极高的随机性,可能导致半数以上的生成结果都无法达到商用的标准,从而造成高昂的时间成本与 算力资金的浪费。为了避免这种开盲盒式的低效率输出,资深的创作者通常会先精细的打磨分镜图片,利用静态图像为 ai 提供 明确的视觉参考、光影构图以及主体特征,再通过图声视频进行动态的一个转化。这种工作流程呢,将创作重心前置, 使图片生成阶段成为了决定我们视频成败的关键流程,也是我们最值得投入精力的一个环节。在正式开启 ai 绘画之前,我们必须要建立起角色先行的创作意识,就是说,通过严谨的 造型设计来将整个故事注入灵魂。每一个完整的蓄势时空呢,都离不开核心人物和事物的支撑。因此,前期准备的第一步就是将剧本中的文字转化为具像化的角色造型方案。 在实际的教学案例中呢,生成的脚本通常会给出基础的视觉线索。比如我们上节课提到的角色姚双,其特征呢,被定义为白鹤仙子、水墨风飘带飞舞、雨光环绕、 雪肌银发、东方仙女。此时呢,如果甲方没有给出特定的原话稿,或者我们自己处于创意发散阶段,就可以直接通过精准的提日词指令,要求 ai 按照脚本的逻辑输出该角色的全身 正面视角。在这个过程中,我们需要明确规范角色的造型以及整体视觉风格,从而快速获得一套标准化可延伸的角色出形象设计。这不仅能够极大的提升我们后期的创作效率,更是为后续保证角色一致性打下了一个关键的基础。当然, 除了根据脚本当中已有的简单描述对角色造型进行设计之外,我们同样可以根据自身的想法来单独设计角色的造型。比如人物没有发束啊,可能披头散发的状态,或者说是短发这些内容呢,我们可以直接通过正常的描述来告诉 ai 就 可以生成对应的结果。 我们前期的第二大核心呢,在于必须对故事画面风格进行的宏观和定调。我们要知道,任何一部成熟的影视作品, 视觉语言的核心竞争力都源于美术风格的前后一致,我们绝对不允许呢,作品在前期呈现的是写实风格,而到后期呢,却又毫无逻辑的突变为三 d 的 风格,那这种割裂的感觉呢,是创作的大忌。 因此我们需要在一开始呢,就利用题词来对未来的画风进行永久性的固定。就拿当下这个案例来说,当我们在生成角色时,明确植入高精度三 d 建模风格或者三 d 国漫风格等等这些指令, 我们所得到的就不再是那些拥有真实毛孔与写实比例的真人形象了,而是呈现出一种接近 院线级的三 d 动画电影的角色质感。那这种风格化的预设呢,是直观重要的,确保我们在后续的生成所需要的画面都能严格的遵循这个美术标准。那么问题来了,如果我们看中了某张图片的美术风格,但自己呢又抓不住重点, 知道该用什么词去描述它,咱们该怎么办呢?那其实呢,操作是非常简单的,我们可以直接去抄作业加精细化的一个思路。比如我们现在来到吉梦 ai 的 首页, 这里呢有很多优秀的作者生成的作品,如果我们觉得其中某一张图片的视觉感觉哎,特别符合我们的胃口,就直接点开这张图片看大图。 我们注意右侧,这里明明白白的给我们展示了作者生成这张图时的用的原始提示词,我们直接可以动手把它复制下来,直接来到我们的豆包 ai 对 话框里给它粘贴上去。 记得我们按 shift 的 同时呢,去加上回车键,就可以另起一行,不然的话我们就直接给发送上去了。这个时候我们给豆包 ai 下一个指令,跟他说帮我把这段词里的 具体描写,什么人、什么事或者什么环境氛围的话全部删掉,只帮我留下跟美术风格、画面质感相关的关键词, 那我们点击发送,大家可以看。这样一来,我们就非常丝滑的从别人的作品里把那套风格给提取出来了,直接就可以用到我们自己的创作里。当然了, ai 帮我们提取出来的风格词呢,未必是百分之百的精确答案,咱们拿来用之前呢,先要亲自过一道人工筛选的关卡, 比如说我们在刚刚提取出来的那对词里,可能会混进去一些属于摄影机位的景别描述,跟风格描述呢,其实是没有半毛钱关系的,那咱们在使用之前呢,最好是先把这些干扰项给删除掉, 接下来咱们再来实操一下,把刚刚洗干净的风格词配合上咱们自己新的构思内容,比如描述一个 古风的帅哥正在预见飞行,一一混在一起生成一组图片,我们一起来看一下这个效果。 大家可以看到最终跑出来的这张图,它的光影质感和三 d 的 味道是不是和刚刚咱们参考的那张大神的图片有些相似了呢?不过这里我们还是要给大家打一个预防针,因为咱们生成的主体变了,有时候美术风格在最终的呈现上很难做到绝对的完美, 所以大家在参考的时候一定要灵活,根据自己对画面的理解,多去微调提示词,不断尝试,直到它完全符合我们脑子里想要的画面为止。 那么回到豆包 ai, 我 们继续承接之前的内容,在设定好角色也就是姚双的形象之后,我们自然要继续设计画面当中出镜比较多的仙鹤的形象。 这里我们就继续向豆包提出要求,用相同的风格生成脚本当中提到的仙鹤,可以看到最终生成的效果呢,也是非常出色,成功的生成了仙鹤的形象。当然大家同样可以靠自己的想象来描述仙鹤都有什么样的特征。 既然我们已经把人物造型和美术风格这两个基础给打好了,那接下来的重头戏就是如何通过精准的提 示词,把脚本里每一个分镜的镜头给实实在在的变出来。想要画面听你的话,我们必须要掌握一套专业的提示词万能公式,我把它归结为核心的六大维度,首先是警别,你是要特写 近景、中景还是远景,这决定了观众看画面的视角远近。第二是主体事物,也就是画面里到底有什么,比如我们刚刚设计的遥霜和仙鹤,还有它们所处的具体环境。第三点非常关键,就是时间光线, 白天黑夜雷雨天气的光是完全不同的感觉,而且你要学会描述光的方向是柔和的,正面光还是很有故事的,侧面逆光,光线选对了,人物的情感瞬间也就拉满了。第四呢就是色调的控制, 我们可以直接定冷光调,或者告诉 ai 要某部电影的经典影调,比如轿夫的那种身随沉稳的复古感。第五呢是构图的逻辑, 咱们是选择稳重的对称构图,或者说是灵动的 s 型构图,还是延伸感的水平构图,好的构图能够让画面自己说话。那最后呢,就是画面的质量词,像什么胶片颗粒质感、 电影级光效、十六 k 超轻等等等等。这些词呢,就像是画面的磨皮滤镜,能够瞬间拔高生成的结果和我们商业化的质感。 接下来呢,我们来深入探讨一下提示词的描述技巧。这里呢,第一要义就是必须要做到极致的直观与客观。大家一定要扭转一个观念, 写 ai 提示词和我们上写写作文写小说是完全两码事。在文学创作里,我们追求修辞的意境和华丽的词藻,但在 ai 绘画的逻辑里,过多的修饰词往往是噪音的存在,那我们极其容易导致 ai 误判我们的核心意图。 举一个典型的翻车案例,比如上节课我让大家描述的长城宛如一条巨龙,那么在文学意境下呢,这是非常壮观的一个场景。但你让 ai 这种直脑筋,大概率它是听不懂你的比喻的,它很可能呢,就真的生成一条巨龙,盘握在山上,而不是你想要的长城建筑的本质。 再比如,我们描述鲤鱼跃出水面,飞得很高,像长了翅膀一样,你的本意呢,是想形容跳跃的高度,但结果呢,大家可以看 ai 直接理解成了字面意思,给这条鱼真的安上了一对翅膀,生成了一个不伦不类的怪胎。 所以说呢,我们在 ai 沟通的时候呢,千万别搞那些花里胡哨的比喻词,要学会最直白最干的物理语言去描述画面,告诉他画面里到底有什么,而不是它像什么,这样才能保证咱们的费片率降到最低。咱们再来看提示词描述的第二个核心要义, 脚本只是辅助参考,真正的画面拆解必须靠我们自己的独立思考。现在 ai 视频教程满天飞,有些教程呢会误导大家,直接说把脚本当中的描述文字呢,复制粘贴过去,就可以直接出片。那咱们实话实说呢,这种做法呢,其实是非常业余的, 因为脚本的描述里经常会堆积很多同一个镜头下根本没有办法坚固的信息。咱们就拿第一个镜头做例子,脚本里写了超广角镜头下展示了一只白鹤,在东海附近,日出时分翱翔在云雾缭绕的山峰之上。 那么仙鹤优雅的身影呢?穿透金色的晨曦,大家可以动脑筋想一想,如果我们拍的是一只仙鹤的超广角镜头,那像细节处他身体穿透的晨曦,这仅仅是几个像素的事情, ai 怎么可能会在保证远景或者广角的情况下,帮我们把这个透光晨曦的质感给刻画出来呢?这就是视觉上的一个矛盾, 所以咱们在生成时不能当搬运工,还要当一个导演。那像这种情况呢,我们至少要把这个脚本呢拆分成两个画面,第一个镜头呢就是仙鹤飞翔的全景图,第二个镜头呢,才是仙鹤翅膀透光的一个近景特写图。 所以我们要养成一个习惯,拿到脚本之后呢,先在自己的脑海中过一遍,形成一个具体的画面感。更多的时候,我们要脱离剧本的文字束缚,根据自己脑子里的构图,用刚才直观的语言去描述它。只有这样呢,我们才能避开逻辑冲突的坑,生成画面才能够真正具备电影级的蓄势质 感。第三点就是 ai 目前的能力有限,有时需要适当的修改提示词,描述内容。之后我们根据剧本和脚本进行一定的更改, 例如这一段让白鹤与妖怪进行战斗,它释放出神圣的能量,画面剧烈的晃动。如果大家有一定的 ai 视频生成经验的话呢,会发现这一句话当中所描述的仙鹤打斗场景,在 ai 视频片段的生成中其实是非常难制作的, 首先它打斗的细节没有描述,其次仙鹤的肢体控制是非常僵硬的,所以这里我们不妨直接让仙鹤化为人形的摇骰去和怪物施法, 这样人物施法的动作会非常的流畅,并且呢更加符合逻辑。因此再遇到类似的情况,可以先尝试按照剧本当中可能会相对复杂的表现去生成,如果我们做不出来的话,再考虑更改为更加简单的画面。 第四个提示词描述技巧,就是有角色说台词的画面时,尽量用近景正面镜头,这同样是我们将来给角色对口型时,能否成功地给角色对上口型进行考量。在极梦 ai 当中呢,给角色对口型 用的是数字人的功能,他首先需要我们上传一个视频或者图片,再添加对应的配音。当我们需要对口型的人物是一个远景人物并且非正面镜头时,此时对口型失败率是非常高的,要么效果会非常的不明显。 比如说我们来看这段视频,可以看到,虽然说生成的画面人物的嘴部依然是有动态的,但是整体的表现效果会非常的一般, 人物的身体呢,也会伴随说话而出现不自然的动态效果。我们再来看这个人物近景特写对口型的画面,可以看到此时生成的画面人物的口型和台词就十分的匹配,并且呢面部的动态表现也会更加的清晰。 所以当我们遇到有角色在说台词的画面时,就可以尽量使用近景正面镜头,以获取更好的对口型效果。我们最后再来看图片生成之后的修改技巧。在通过纹身图生成图片时呢,很多情况下并不能一次性生成让人满意的效果, 但也许生成的图片百分之八十是满意的,剩余的百分之二十呢,相比于重新生成一张图片和进行后期修改,是性价比更高的选择。或者有时候我们需要表达一个很长的镜头,以此来表现画面的时间流逝 或者是人物的一连串动作。所以我们首先来看第一点,固定镜头下长时间物体运动的表达技巧。 这里就包含很多方面了,比如我们现在想要表达一年四季的变化,那么在生成好人物的状态之后呢,我们就可以直接让 ai 大 语言模型帮我们固定画面当中的人物构造和构图, 但只改变画面当中的四季。比如我们首先生成的第一张图片呢,是类似于春季或者夏季,在提示词中,我们要求将上传图片的季节改为秋季,其他的部分保持不变,此时我们就获得了人物在秋天的画面。那同样的道理,我们继续描述将人物的季节呢改为冬季, 其他的部分保持不变,那最终呢,就成功的将图片改为了冬天的季节。有了这些图片之后,我们首先使用首尾针或者多针生成的方式,可以生成一组人物从春天到秋天再到冬天一直在这个位置的景象, 以此来表现人物十分勤勉,十分坚毅的镜头片段效果。当然除了描述季节之外,我们还可以描述将人物改为某种姿势,在人物的身边添加某些事物,减少某些事物。其他的部分呢,保持不变,相信大家可以举一反三,我们就不再多赘述了。 第二个图片修改的技巧呢,就是如何在保证造型和风格一致性的条件下修改环境和状态的技巧。 其实这一点大多数情况下我们不需要特意去保持,因为呢, ai 大 元模型在升图时呢,是有上下文关联的功能,比如说我们刚刚演示的提示词中,只描述了鲤鱼跃出水面飞得很高,就像长了翅膀一样。 本身的意图呢,是想单独生成一条跃出水面的鲤鱼,但得益于 ai 大 圆模型能够关联上下文的能力,他依旧认为我们是想要基于上面的画面来进行新的修改,而且可以看到生成的结果在美术风格上同样保持了上图的风格一致。 所以很多情况下,我们不太需要单独的提及要保持的画面风格。但需要注意的是呢,在实际的制作过程中,偶尔会出现我们上传了一张参考图片,但生成的结果和参考图在造型上的美术风格不相同的情况,在遇到这种情况的时候,该怎么解决呢?最好呢,我们就更换一个图片生成平台。 那在使用不同的图片生成平台时呢,其实每一家所使用的生成模型呢,都会有所区别,有些生成模型呢,擅长于写实风格,有些擅长于绘画风格,有些模型这个角度生成的不好,有些模型按这个风格生成的不好。这些呢,都是很常见的情况。 所以说,大家在对图片内容进行修改时呢,一定不要一棵树上吊死。如果实在生成的不好,除了用极梦 ai 或者豆包平台之外呢,我们也不妨尝试其他的平台,比如说可灵 ai, 或者像开源的 context 的 模型, flux 模型或者 banana 模型的工作流都是可以的。 现在我们可以来到 running hub 上搜索 banana 的 模型工作流,其基本的功能呢就是图片编辑。在左侧图像输入窗口,将刚刚未能在豆包上生成成功的人物造型进行上传。在提日词的描述当中,我们描述需求, 这里我们就输入和刚刚在豆包上一样的提示词,根据刚刚图片的人物特写生成生气、拍桌子、愤怒的表情。而比例方面我们修改为十六比九,然后直接点击开始升图,可以看到一段时间后图片就生成好了,整体的生成效果还是非常出色的。 我们将在豆包上面生成的人物造型放在旁边,同时将原版的人物造型参考也放在旁边,可以看到对比之下,显然使用 banana 的 模型工作流能够生成人物造型更加统一的画面效果。 当然在豆包上大多数情况下也是直接可以修改的,只是偶尔出现一些问题,所以届时不妨尝试一下其他的平台,在保证人物造型和美术风格情况一致的情况下,改变环境和画面当中的事物形态。 最后我们来简单总结一下这节课,我们讲解了图片生成的相关知识,包括前期的准备、提日词的结构、提日词的描述技巧和图片修改技巧,这些知识能够帮助大家在生成分镜图片时,更容易的生成出理想的画面。 好了,以上就是本节课的全部内容,如果对你有所帮助,还请多多三连支持一下大家,在实际操作时遇到任何问题也非常欢迎在评论区留言,我会尽可能的回复大家所有的问题。课程相关的 ai 资料也已经打包好放在置顶评论区,那我们就下节课再见吧!

以前我们要想让 ai 视频里的角色说出指定的音色,需要跨越三个软件才有可能实现,但现在可灵二点六只需要一步就能全部搞定。其实刚刚这段话不是我本人说的,而是我的 ai 音色在说话。这就是可灵刚刚上线的音色控制功能。简单来说就是你给他一段声音,他能让视频里的人用这个声音说话, 也是全球首个音色一致模型。这回真的是把声情合一玩明白了。现在看实测,我直接上传了一段杨幂采访的音频,然后上传照片,接着就是写文案,记得打开这个音画同步。写提示词的时候选择好刚刚设置的音色,一定要放在人物后面,点击生成后,画面里的人就能直接用你的音色开口说话, 你永远不知道下一块会是什么味道。你还可以选择情感标签,比如认真的说,温柔的说,轻声的说都可以,可以看到人物的情绪表情跟台词结合的都非常到位。今天的奶茶真好喝, 快分享一下谁家的?最离谱的是这个中英双语切换,哪怕你不会英文输入一段英文台词,他也能用你指定的声音说一口地道的英文, i love you from now until forever。 这意味着你可以用一个声音打造不同风格的内容啊,是不是很酷,并且还可以唱歌? 视频中的环境音也可以灵活控制, 你再也不用担心换个视频声音就变了。音色一致性意味着你可以规模化地生产内容,同时还能保持极高的人设辨识度。大家好,我是宅急送你们好吗? 整体来说,可令这个音色控制功能让 ai 视频制作更完整了。如果你是内容创作者、品牌方,或者单纯对 ai 视频感兴趣,我都建议你去试试看,毕竟在这个 ai 时代,早一步掌握工具,就多一份创作优势。

注意看这个视频,这种画面和声音配套的视频终于可以实现了,现在我只用一款工具, 就能做出这种声音和画面完全同步的高质量视频效果。 ai 音画直出的时代终于来了!我们打开可灵 ai 的 网站,在左边这里找到视频生成的功能, 切换视频二点六的模型。咱们以图声视频为例,你可以点中间的加号上传图片。两个拳击手在搏斗,动作干脆利落,极慢的低频心跳声瞬间爆发,巨大的打击肉搏声。注意,下面一定要把音画同步的开关打开, 根据内容长度决定是五秒的还是十秒的。这里我选择一个十秒的看看效果,点击生成, 这效果绝了,它不仅能生成画面,还能同步产出这些真实的拳击音效和现场氛围音。每一次出拳,每一次闪避,都能听到精准匹配的声音,节奏和情绪都恰到好处,真正做到听见画面,看见声音。 再来一个纹身视频的中景镜头,一名神情忧郁的年轻男子坐在深夜的私家车驾驶位,车窗外大雨滂沱,巴拉巴拉。这次选择一个五秒的点击生成。 everyone has a secret, they never tell a story, they never share this is mine。 以前 ai 视频最怕口型对不上,表情僵硬,但现在 k 零二六模型完全没有这个问题。但你看这个雨夜独白,不仅口型和台词完美同步,连那种沙哑的语气和忧郁的神情都对上了,甚至外面下雨的声音都能听到。这种细腻的情绪表达,所见即所闻。 电影级的试听协同创作门槛真的被轰平了。除了单人说话外,二点六模型也支持多人对话,就比如这两个老外在密谈以前, ai 处理多人对话很容易串音或者口型崩坏,但你看这段 some things you can only say to family and i believe you。 左右两个人的音色完全不同,且口型精准同步,这种多角色互动的自然感,以前想不得不说,可零二点六的这波更新着实是让我惊掉下巴。 即便是你的画面中没有对白,它也能直接帮你还原画面音效。就比如这个深海巨兽, 看这巨兽喷射能量时,声音随画面实时反馈光和收缩时的电流音到喷射时的低频轰鸣,完全不需要后期配音, ai 自动帮你把虚实感拉满了。 如果你想做个人 ip 剧情短片或者电影,二创 kine, 二点六的多人互动和电影级光影,真的能让你的创意完美落地,快去试试吧!

柯林二点六闪亮登场, ai 视频音画同步时代终于来了! what a beautiful sunset like the day before? 不 需要再加 bgm, day blanket 让你用更少的时间实现所见技术文。这几天我是一直在用它来做视频,一起来看一下它到底有什么亮点。 我们打开可零 ai 的 网站,左边选择视频生成,在模型库这里就能找到最新的视频二点六模型了。你可以输入一段文字或者上传一张照片,就能得到自己导演的视频了。比如说这个交易现场,场景设定时 愉悦废弃的码头包括了三个人物的关系和台词设定,巴拉巴拉还有后面的一些音效,然后在下方要记得把音画同步。打开视频根据长短可以选择五秒或者十秒。 你看一开始先有个镜头拉高,出现了一箱,然后再出现人,看看这个 check the goods first。 想要说什么台词就是打几个字的事情,像我这种新手小白也能做出大片的既视感。 tomorrow you'll be taken to the state prison beware of his gang they'll come to save me。 我 还尝试了一下爱情类的视频,一个日落时分,三人场景依次说话,巴拉巴拉。音效有海浪声和海鸥叫声。 what a beautiful sunset like the day we first met。 情侣突然的脚软恰到好处,最后男主抚摸头发,这一下也很自然。 这些基本就是 ai 自己通过台词和内容设定自己添加进去的。我还试了一下没有对白的视频,他也能给我们还原画面音效。像这个弹钢琴的帅哥,我不懂音乐,没想到他也能很好的表现出来,能够识别钢琴的音色,每一次弹奏和音乐也是对上的,而且这些都是同步生成的。 who sent you evidence is enough for conviction i'll i have every hold the line kai cover me kai。 零二点六的上线,让每个人都能发挥自己的创意,用更低的门槛,更少的时间做出更牛的视频。点个关注,设计不迷路。

最近可怜的动作同步功能在海外真的很火,像这样的同款舞蹈视频十秒钟带各位玩一下。首先只需要准备一个好玩的视频和一个图片,上传到这个动作同步功能,再点击生成,就可以获得像这样可爱的毛孩子视频了。那在这里的话,有两个简单的设置,可以提升你视频的质感。 如果你的视频动作比较复杂,那我比较推荐你选择左边的人物朝向与视频一致,那想要看起来比较有沉浸感,可以使用右边的与照片一致。不管你是想要打造更自然的 ai 人物说话动态,还是说想要创造毛孩子的可爱舞蹈,个人觉得整体的效果呢,都是非常流畅的,还是很有意思的。