粉丝1566获赞1.1万

这样的视频是怎么做的?喂,云长吗?我,曹操啊,我想问问你最近怎么不回我电话?你以后不要再打电话,我怕玄德误会。 十秒钟教会你可灵二点六的新功能,动作控制。首先打开可灵,登录右边这里点摄视频上方,选择二点六动作控制, 左边上传参考视频,右边上传图片啊,甚至连题的词都不用写,直接点击生成。有了这个功能呢,哪怕我四肢不协调,也能丝滑的转行当舞蹈博主了。 而且啊,在动作迁移的细节上也是可圈可点,可以看到人物的微表情,也能成功的迁移过来啊,这功能直接让 ai 演员有演技了,除了表情呢,在舞蹈动作上也能做到一比一的复刻啊。这是电影霍元甲的镜头,这是可灵动作控制的效果, 这个在接下来漫剧的打斗上是一个非常不错的解决方案。最后,我知道大家想问什么,这是和其他模型同类型功能的对比效果啊,仅供参考。好了,话不多说,兄弟们火整起来六六三分地真好,贼 悠悠苍天,嗯,佛与我。

零基础怎么从零到一制作 ai 视频?这是我今天想和大家分享的内容。明明用着同款 ai 工具,为啥别人的视频能一步到位,完全符合预期,可你呢?调参数, 改提示词,折腾半天,视频却像失控的列车,浪费积分不说,最终效果还全靠运气。别慌,今天这期视频三分钟带你入门, ai 视频制作小白也能轻松上手!入门!话不多说,直接进入正题, 下面我就来介绍一下如何通过四个步骤制作一个 ai 视频。这些步骤包含场景描述、文生图、图生视频和视频剪辑。第一步的场景描述可以用 chat、 七 p t、 文心、一眼通、一千、问豆包等这样的对话类 ai 来生成。第二部文生图对应的有 mid、 journey、 stable、 diffusion、 文心一格通、一万象等。第三部图生视频对应的有 pika、 runway、 pic、 verse, 还有一众国内的视频生成平台。而第四步,我们会使用 工具将生成的视频片段进行剪辑和配音配乐。关于工具可以在我们课程配套的工具资料包当中查找。大家好,我们这节课来讲解可灵 ai 的 视频生成功能。 来到可灵 ai 的 首页,我们点击左侧的视频生成分选项,可以看到当前的页面就是可灵 ai 的 视频生成页面。在最上方有一个下拉菜单,我们在这个位置可以选择不同的视频生成模型。和图片生成模型一样, 通常标号越高的模型生成的效果就越好,所以我们就保持默认的二点一。当然某些模型是不具备部分功能的,例如当前的二点一模型就不具备仅靠伪真生成视频的能力,所以大家也可以根据自己的需求选择更适合的模型。在下方有三个分页,分别是文声视频、图声视频和多模态编辑。 我们首先来看文声视频,顾名思义,文声视频就是我们写出的画面来生成对应的视频。 上节课我们讲过了,可灵 ai 接入了 deep seek 功能,所以当我们不知道该如何描述一幅画面时,也可以直接借助可灵 ai 内置的 deep seek 帮助我们 写一段画面描述提示词用于视频生成。和其他的 ai 视频生成工具不同,可灵 ai 还包含了负面提示词的写入框,不过这个位置并不是必填项,而且就算什么也不写,生成的效果对于崩坏的抑制也非常的好,所以通常这个位置呢就保持默认不填写 在正反面。提示词的右上方有一个预设选项,我们点击展开之后,就会打开预设提示词的选择菜单。如果想要新增预设提示词的话,我们点击展开的右上方的加号,在这里就可以预设提示词,并写明标题, 方便我们后续选择提示词模板。不过这里并不是很建议大家使用文声视频的功能,我们以先前我生成的一段视频为例,我们首先来看这段视频, 可以看到这段视频,它是由纹身视频生成的内容。提示词描述呢是手部特写镜头,女生的手扶过海浪最终呈现的效果,画面有种锐化过度的感觉,并且整个手的美观程度也不尽人意。我们再来看第二段视 频,可以看到这个画面当中的手就明显要好看的多,并且也成功生成了在提示词描述当中手扶过海浪的效果。 而这个视频是以手真图生视频的方式进行生成的,所以在大多数情况下,图生视频要远比文生视频稳定的多,而且本身图片生成的时间和资金成本都比较低,也方便我们先确定图片的风格和质量,再进行图生视频, 能够提高我们制作视频的效率。回到视频生成页面,我们来看最下方,可以看到有这么几个分选项。首先第一个下拉菜单是选择视频的生成模式,标准模式和高品质模式其实对应的就是生成的画质,如果单纯的做视频生成练习的话,选标准模式就好了, 消耗的点数会低一些。第二个下拉菜单是选择视频的生成秒数,目前生成五秒钟左右的视频也偶尔会出现非常不稳定的情况,就更不要说十秒钟的视频了。 所以这里建议大家生成五秒钟的视频就足够了,十秒钟的视频有极大的概率会让人物的运动出现意想不到的结果。第三个下拉菜单是选择视频的宽高比的, 目前纹身视频只有三个宽高比可选,就是我们常用的十六比九,九比十六,还有一比一。再往右边这个下拉菜单是选择一次性生成几条视频的,根据我的生成经验,同样建议大家选择默认的一条视频, 这样方便我们在得到不好的结果时,能够及时地修改提示词或者图片。最后一条创意相关,指的就是生成的视频结果是更符合提示词的描述,还是更偏向于让 ai 自由发挥,这里维持默认就可以。 有时过于遵循提示词的描述,一旦提示词当中有我们没有想到的部分, ai 也不会帮我们生成。相反,让 ai 过多的自由发挥,有时可能会误视我们提示词当中描述的内容。纹身视频的效果通过刚才的短视频我们已经看到过了,所以这里就不再重复演示。我们下面来看图声视频。 这里的图生视频又分为首尾帧和多图参考。我们首先来看首尾帧,这也是我们最常用的一个视频生成方式,它允许我们先上传一张或两张图片作为当前视频的开头或结尾。在上传图片之后,下方的输入框我们输入想要人物做出的动作以及镜头的运镜。 这里有必要说一点,通常图生视频我们就只需要描述人物要做的动作和画面的运镜就可以,至于画面的内容具体是什么,图片已经给到了 ai 充足的信息,不需要我们再重复的描述,除非图片当中某些信息很容易被 ai 误判。 比如一件金属反光质感的衬衫被 ai 误识别成了盔甲,这个时候可能需要靠提示词让生成的视频在运动过程中物品保持一定的稳定。我们下面再来看运动笔刷这个功能, 目前这个功能仅在一点五模型下支持使用,我们点击切换,在切换完成后,我们点击去绘制,就会打开一个新的窗口。通常想要便利的使用这个功能,我们可以勾选上方的自动检测区域,此时我们的光标就会变成一个快速选区比对,我们这里选中人物的头发或者上半身,或者整个的身体。 选中完成以后呢,如果有多选的部分,可以点击左上方的橡皮擦选项,去擦除多选的部分。此时画面当中显示为绿色的区域,就是待会我们需要它运动的区域,这些区域不只可以选中一个。如果画面当中存在多个物品, 我们希望每个物品的运动都受到我们的控制。可以看到右侧一共有六种颜色,可以用来标记六种不同的物品。标记完成后,我们用鼠标点击区域右侧的轨迹选项,此时我们的光标就变成了一根用来汇聚移动轨迹的画笔。 例如我们想要人物朝着画面的左手边去运动,我们就用这个画笔从右向左滑动,此时整个的轨迹就会变成一个往左手边纸上的箭头。 生成视频时,人物就会往左手边这个方向进行移动。在右侧下方这个区域还有一个添加静止区域的选项,也就是说,如果我们不希望画面当中的某样物体运动,我们可以点击静止区域这个选项,然后在左侧的图片中进行会制,这样一来生成的视频结果 我们用静止区域选中的部分就不会发生运动了。确认无物之后,我们点击右下方的确认添加,这样一来生成的结果就会更受我们的控制。在运动笔刷下方还有一个运镜控制,我们点击使用,可以看到此时右侧会弹出一个选择菜单,可以支持我们选择一些常规的运镜, 有水平运镜、垂直运镜、推进拉远或者垂直水平摇镜、旋转运镜等。不过我们可以看到,当我们选择一个运镜方式之后,上面的笔刷运动就会提示与运镜控制互斥,使用后将移除运镜控制的提示。这就意味着两种功能无法同时使用, 大家可以根据自己的需求选择其一。不过经过实测,可连 ai 的 这个功能在控制能力上并没有我们想象当中那么好。与此同时,它所使用的模型版本为一点五版本,与目前的二点一版本在版本号上差距过大,所以生成的视频质量不会特别的好, 因此这个功能我们就仅做了解,不再赘述。我们回到首尾帧,这里刚刚我们只添加了一张图片作为手帧,但其实只要我们的视频模型版本在一点六及以下的话,是可以同时添加首尾帧的,也就是可以控制整个视频的开头和结尾是什么画面。我们以这个视频为例, 可以看到视频当中的狐狸变身为了一个在宫殿当中的少女,之所以会有这样的变身效果,就是得益于首尾针的功能。我们分别生成了两张图片,首针是一个狐狸,而尾针我们生成了一张由这只九尾狐幻化的少女。 这个短视频在生成的时候甚至没有写提示词,就直接达到了这样的效果。由此可见,首尾真生成视频在镜头的过渡上可令 ai 做的还是十分智能的。我们回到视频生成页面来看多图参考,这个选项和图生图的多图参考类似,视频生成的多图参考也允许我们分别上传人物主体、 背景以及画面当中其他需要的元素,最终让这些元素或者风格都出现在生成结果的视频当中。例如此时我们上传一张人物的图片,再上传一只小黄鸡的图片提示词,我们就写少女手捧小黄鸡,然后点击生成,大约五分钟左右,我们的视频就生成好了,来看一看效果如何吧。 可以看到整个视频对于两者的结合还是非常不错的,人物的动作也比较自然,唯一存在一些问题的地方就是手和小黄肌交互的部分,这也是目前绝大多数 ai 视频生成模型的痛点,也就是复杂的结构在与复杂的结构交互时会出现明显的崩坏, 这种情况目前还无法避免,我们只能期待将来视频生成模型能够具备更好的效果。回到视频生成页面,我们最后来看多模态编辑,这个功能也是目前比较少用的一个功能, 他允许我们上传一个视频片段,再上传一张图片,然后通过提示词的描述,将所上传图片当中的某一个内容去替换掉视频当中的某一个内容。我们就以这个视频为例,我们上传一个手轻轻抚摸小牛肚的视频片段。 图片方面,我们依然上传刚刚用过的小黄机提示词,我们就写是图片一中的小黄机替换视频当中的小牛肚,我们可以将鼠标悬置在视频上传窗口的上方,此时右上角就多出了一些图标,分别是编辑从历史选择、本地上传以及删除 后三个都是字面意思,我们来看编辑点击之后呢会展开一个新的窗口,在这个窗口当中我们需要做的事情就是选择增加区域,然后将整个视频片段全部选中,同时点击视频画面,通过自动选区功能将我们需要替换的物品进行选中,然后点击右下方的确定。 至于图片编辑窗口,这里有一个选择主体的功能,点击之后会展开一个窗口,这个窗口就是用来选择框选主体的,如果画面当中有多个物体,我们需要用这个窗口去选择我们需要拿去替换的物品,这里我们也不需要过多的操作, 最后我们直接点击右下方的生成就可以了。 ok, 我 们现在来看一看生成的效果如何吧, 可以看到生成的效果还是非常惊艳的,在将元素进行替换之后,整个手在触摸小黄肌的时候,小黄肌毛发的运动非常自然,并且整个的视频表现也十分稳定。不过相比于正常制作一个图生视频进行元素替换,需要消耗的点数会更高,所以通常这个功能不会用于替换 ai 生成的视频。 更推荐大家实际拍摄一段视频,然后将图片的内容去运作替换实际拍摄视频当中的某项物品,这样的操作会相对更实用一些。我们回到多模态编辑窗口, 除了替换元素之外,可以看到这里还有增加元素、删除元素等操作,这两项功能都是字面意思,具体的操作方法也和我们刚刚讲的没有太多区别,所以这里就不再重复演示。那么到了这里,我们有关于可灵 ai 的 视频生成功能就全部讲解完了, 可以看到这些视频生成功能有好有坏,不同的模型、版本、功能和操作都会对视频生成的结果产生影响。 在众多操作当中,我比较推荐大家使用的依然是徒生视频的方式,先生成手帧、尾帧图片,然后再通过提示词描述让可灵 ai 帮我们生成对应的效果。这样的工作流,无论是最后产出的成品效果,还是时间和资金成本的使用情况, 相比较其他方式而言,都是一种最优的创作方式。我们这节课来讲解可灵 ai 的 音频生成、 ai 试音、 ai 对 口型和视频延长功能。 来到可灵 ai 的 首页,我们点击左侧分选页当中的音效生成,这样就可以来到音效生成的页面,这里提供了两个窗口,其中上方这个窗口是用来写入提示词的,这些提示词用来描述我们想要生成的音效,例如此时我们在这里写入干杯杯子碰撞,然后点击生成, 可以看到片刻之后,可灵 ai 就 为我们生成了四段干杯杯子碰撞相关的音效。我们来试听一下, 可以听出这四段音效其中有三段都生成了不错的杯子碰撞的效果,而其中有一段把杯子碰撞理解成了喝彩, 可见生成的结果依然存在一定的随机性。不过好在生成我们想要效果的概率还是比较高的。我们继续来看下方的上传窗口,这个位置是用来自动给视频配音的,我们需要做的就是点击这个位置,然后上传一段需要进行配音的视频 上传完成后,上方会提示已通过视频匹配到创意描述是否替换,我们点击替换,最后点击右下方的生成, ok, 几十秒后, ai 自动进行的配音就配好了。同样是生成了四段配音,我们分别来看一下效果。 通过这四段配音结果,我们可以感受到由 ai 对 视频自动匹配的音效效果并不尽人意,虽然确实生成了手指抚摸皮毛的效果,也生成了牛叫的效果, 但是这些效果出现的时机和画面中播放的内容并不是十分匹配,部分效果还出现了一些我们不需要的杂音,所以目前可连 ai 自动根据视频匹配音效的功能不推荐大家使用,我们可以期待未来能够优化的更好。 其实相比之下,如果大家不做商用的话,可以直接来到剪映当中,点击上方的音效选项,在这里我们可以根据左侧的标签来选择自己需要获取的配音配乐,也可以直接在上方的搜索栏搜索我们想要的效果。例如我们搜索自行车的效果,这里呢就会显示自行车铃铛、自行车路过等等音效, 点击就可以进行试听。如果需要使用这段音频的话,可以直接将这段音频拖拽到下方的时间轴上,与视频内容进行匹配。 大部分音效都可以在剪映当中的在线素材库里找到,因此目前可灵 ai 的 音效生成功能并不是十分实用。不过如果大家对视频有商用的需求,需要原创一段音频的话,我们使用它的音效生成效果也是可以的。我们接下来再来看 ai 试一功能,点击左侧的 ai 试一分选页,我们就来到了 ai 试一的操作页面。 使用这个功能一共分为两个步骤,第一个步骤就是生成一个 ai 模特,在这里我们选择性别、年龄、肤色以及对这个模特基础造型的描述。当然如果不想生成模特的话,我们也可以直接点击上方的 ai 换装。在二级分页当中有官方预设的模特造型,或者我们点击右侧的自定义分页, 在上方的窗口可以上传一张自定义的模特照片,不过可连 ai 对 我们上传的照片有一定的要求。我们将鼠标悬置在右侧的模特规则这里 可以看到,这里有对图片尺寸、文件大小的要求,同时也给出了推荐图片和不推荐图片的案例,像多人合照、坐姿或者严重遮挡、衣服姿势过于复杂等情况都是不推荐的。想要成功的给模特进行换装,像上方这些单人照、正面全身或者半身 或者未对衣服区域进行遮挡、姿势简单的图片等都是可以的。在下方这个窗口就是上传服装的位置,我们同样将鼠标悬置在服装规则这里,可以看到这里同样描述了对服装图片的尺寸要求、大小要求 以及上传的形式。像平铺的服装、单件的服装、没有遮挡的服装都是推荐的。而像同一张图片,存在多个衣服或者背景过于杂乱,花纹过于复杂,亦或是透视角度过大, 服装重叠遮挡的情况,都是不推荐的。如果我们想一次性上传多个服装,可以在左侧的分选项当中由单件切换为多件,这样就可以分别上传上衣和下装,以此来让模特一次性试穿全身的衣物。我们这里就以官方提供的模特为例,选择好之后, 我们再在下方选择一件官方提供的衣服,在最下方的位置,我们可以选择一次性生成多少张图片,以及图片的清晰度如何。选择完成之后,我们就直接点击立即生成, 可以看到最终生成的效果还是非常出色的,不仅完整的保留了人物的长相特征,同时像衣服的款式以及穿戴之后的光影效果都还原的十分自然,甚至生成的结果还非常贴心的给这件上衣搭配了一件颜色和款式匹配的裤子。 我们回到生成页面,在 ai 十一操作面板的右上方有一个使用指南,我们点击之后就可以来到可灵 ai 使用指南 ai 十一的页面,在这个页面我们可以查看 ai 十一这个功能的介绍以及使用指南和注意事项,以此来学习这个功能。同时官方也提供了一些视频教程, 我们下面再来讲解可灵 ai 的 对口型功能,不同于 ai 数字人让图片开口说话,对口型功能是让视频当中原本没有说话的人物开口说话,并根据说话的内容来生成对应的口型。要想使用这个功能有两种方式,第一种方式,如果我们生成的视频是一个人物正面的近景特写, 我们就可以使用这个功能。可以看到在右侧的预览窗口,视频的下方有一个对口型的选项,我们点击之后就可以来到对口型的页面,当然我们也可以手动的点击左侧的对口型选项,来到当前的页面,这个页面存在两个上传文件的窗口,其中上方这个窗口是用来上传视频文件的, 我们这里就选择一个官方推荐的视频,将视频上传以后会弹出一个窗口,在这个窗口当中我们可以预览视频的效果。 同时在窗口的右侧我们可以选择用 ai 进行配音或者上传本地的配音文件。如果我们选择用 ai 进行配音的话,可以在这个位置输入需要配音的内容,例如我们输入接天连夜无穷碧,映日荷花别样红。 输入好内容之后,在下方我们选择配音的音色,点击之后就可以试听接天连夜无穷碧,映日荷花别样红。每一种音色都可以在下方调节它的语速, 以适配视频的时长。除此之外,部分音色是可以调节朗读时的感情的,例如我们将下方的感情调整为高兴,然后再次点击试听接天连夜无穷碧,映日荷花别样红,可以明显感受到人物的语气变得更加开心了。 当然朗读诗歌我们就以中性的情绪来朗读就可以,至于上传本地配音的话,我们就直接点击上传或者拖拽的形式上传到这个窗口当中就可以了, 们这次演示就直接用 ai 来生成朗读的内容吧。确认好配音内容和音色情绪之后,我们点击右下方的添加配音,可以看到此时左侧的预览窗口下方会出现音频的时间轴,我们配音的总时长是四点五秒,因此并不是人物全程都在开口说话的,可以通过鼠标拖拽的方式来移动配音的位置, 以此来决定人物在什么时间段开口说话。确认无物之后,我们就直接点击右下方的立即生成,等待一段时间后视频就生成好了,我们来看一看最终对口型的效果吧。接天连夜无穷碧, 映日荷花别样红。可以看到,尤其是对于这种近景特写,人物朗读的内容和 ai 生成的口型还是十分匹配的。 我们最后再来看一看可灵 ai 的 视频延长功能,我们点击左侧的视频延长分选项,来到视频延长的操作界面。顾名思义,视频延长就是将已有的视频在结束时进行延长拓展,通过提示词的描述来延续视频的内容, 其实就相当于将一个视频结束时的画面作为图升视频时的手帧来生成新的画面。不过当前这个功能就只支持我们从历史创作中去选择,我们就以这个视频为例,先来查看一下这个视频的效果, 可以看到当前这个视频就是一个简单的人物动态效果,我们可以尝试将这个视频进行延长内容,我们就描述 人物伸手挡住镜头,镜头变暗。如果觉得自己的提示词描述内容并不能得到理想的效果,也可以通过 deepsea 来优化我们的描述。最后我们在下方选择相应的参数,然后直接点击立即生成。 ok, 延长后的视频生成好了,我们来看一看效果如何吧。 可以看到最终生成的效果还是十分流畅的,不仅在后半段相对的符合提示词的描述,同时在第五秒和第六秒之间, 就是原视频和延长视频之间的衔接处也并没有发生明显的衔接卡顿或者是画面突变的情况。因此,各位同学想要延长某一个由 ai 生成的视频片段的话,不妨尝试一下视频延长功能,效果还是不错的。那么以上就是本视频的全部内容了,到了这里,有关于可怜 ai 的 全部内容也都给大家讲解完了。 可以感受到,虽然可怜 ai 主打的是一个视频生成,但像图片生成、图片编辑、对口型视频延长等功能,使用的体验和生成的效果也都相当不错。其实我们的视频更新到这里, 已经和大家一起看了不少 ai 视频创作平台,也鉴赏了很多其他作者生成的优秀短片。我们不难发现,虽然每个视频平台有着不同的功能和视频生成的特性,但最终想要取得好的 ai 视频生成工具, 在给人们带来便利的同时,也对使用它的人提出了更高的要求。 ai 时代是一个容易诞生超级个体的时代,繁琐枯燥的工作被 ai 接管之后,人的价值会更加突出。因此,如何让自己的思维能力和学习能力在更深更广的维度上实现突破,这才是我们需要聚焦的问题。

仅用一段提示词,加一张图片,自动生成分镜,包含大全景、虚焦、特写等专业电影运镜 ai 声视频发展到现在,已经从能生成走到能好用了,可您这次三点零的升级,直接喊出了 o n y 创作生态的口号,今天我们就一条视频带你上手。首先是蓄势能力的突破, 开放自定义分镜体系,支持经典影视切近语法,满足专业创作者的多景别需求,同时把时长放宽到十五秒,支持精准时长控制,让 ai 生成从素材走向成片。比如这段素材,先上传一张你需要制作分镜的图片,输入以下这段提示词, 模型选择的话,我们就选择三点零阿莫雷比例以及生成数量,根据你想生成内容的时长来进行决定。之后我们就可以拿到一批分镜头,再点击视频生成自定义分镜,把你满意的分镜头呢,直接拖到自定义分镜里面,然后再对每个分镜头单独去进行描述模型,我们就选择三点零 时长比例,根据自己的需求去进行调整。之后我们点击生成, 可以看到呢,整个镜头的调度还是非常有电影感的。音画同步一直是 ai 视频的一个痛点,这次可令三点零音画同出,把语言支持拓展到五国语言加方言,同时实现基于主体的音色绑定, 哪能忘内?实现多国语言音画同步的话,我们只需要在深视频提示词里面标注好主角需要说的话就可以。最后是关于生成人物的一致性,我们可以通过官方的主体绑定来解决这个问题。点击资产,然后选择主体资产, 选择创建,选择添加图片,然后我们点击 ai 智能补全,稍等片刻,系统就会直接帮你补全你人物的三式图。我们还可以自定义主体的名称,以及上传绑定主体的音色。主体全部创建完毕之后,我们回到视频生成模式,用自定义分镜生成一段视频来看一下效果。 你根本不是警察,你少血口喷人,你们两个都是我的妻子。 以上这种方法呢,大幅降低生成的随机性,解决了多人角色纸带混乱的一个问题。可令这次升级其实是 ai 声视频从拼接式生成到一体化创作的一个节点,对于普通创作者来说,降低了专业创作的一个门槛,值得所有内容创作者去试一试。


怎么把画面从这样变成这样? 哈哈哈哈哈,我可以变成马尔福,也可以变成金刚狼,甚至我今天的全套装造身后的高级感背景,全都是 ai 现场捏的像这指哪打哪的动作控制到底怎么玩?接下来分三个阶段一次性给你讲透。 先打开可灵 ai 的 动作控制,记得一定要选最新的三点零模型。这次有个史诗级的更新,就是新增了主体库功能,再也不怕人物面部崩坏。分别上传一段视频和一张图片,神奇的事情就发生了。不管照片里是谁,都能完美复刻视频里的动作, 无论是跳舞、微表情, 甚至是那种魔性高难度的动作,他都能一比一还原。而且即使在高速运动中或者被大面积遮挡, ai 也能牢牢锁住人物长相。 以前影视剧的角色替换效果是这样的或者这样的。现在可以直接在这里上传原图,把人物面部替换为任何角色,再配合动作控制三点零模型, 人物就完美融入了表情,动作完全同步。你甚至可以把主角换成自带特效的虚拟角色。以前需要一个团队干半个月的特效,现在一杯咖啡的时间就能搞定。 这是我,这是用 ai 捏出来的。我不仅自带妆造,拍摄环境还能任意切换,这也是我觉得可零三点零动作控制最炸裂的一点,能够实现专业影视级的应用。 在这里上传你的照片,生成一张精修的人物场景图,然后在动作控制里上传你随便录的口播视频,加上这张精修图,一个带妆造带场景口型、动作丝滑的精致视频就生成了,真的实现了无痛做博主。 以前我们被设备限制,被场地限制,甚至还有颜值焦虑,但现在,只要你有好的脚本,好的创意, ai 就 能帮你完成剩下百分之九十九的执行。关注我,带你用 ai 把内容创作卷出新高度,我们下期见!

家里只有面白墙,朕就拍不出什么好看的画面了吗?哎,我看不一定。 oui yes, one happy birthday! 嗯,这个背景我还不满意,再换一个 i feel right on oui yes one 哇!今天教你六个用 ai 让视频更有趣的技巧,不需要花里胡哨的提示词,讲人话就能用,马上开始吧!第一招,场景控制。有时候我们脑袋里会有个很具体的视频创意,比如说,我想让这个小机器人变得像奥特曼一样大,然后在上海外滩大搞破坏。 脑袋里是不是有画面了?该怎么去实现呢? ok, 首先,我们拍三张小机器人不同角度的照片,点击主体添加,把刚才拍到的三张照片拖进去 创建即可。再把新建的主体添加到对话框。另外,准备一张上海外滩的照片,紧接着就像在群里聊天一样,艾特一下机器人,让他变成巨物。再艾特一下照片,简单描述一下就可以了。 这样一个炫酷的机器大战上海滩的特效就搞定了。其实你可以再无厘头一点,在某多多找一个金链子的照片,艾特一下机器人,让他戴上。 哇哦,有点社会哦!这机器人像这样可以用来锁定画面元素或者背景的图片,最多可以上传七张,可以让画面变得更可控,抽卡,再也不用看 ai 的 心情了。第二招,视频增删。来到一个好看的景点,无奈周围全是人。传统做法是后期放大重新构图, 美景都被裁掉了不说,画质呢,也会变糊。其实也可以试使用 ai 把路人消除掉。哎, 现在的画面就干净多了。同样的方式,我们还可以在身后加入各种你喜欢的元素,或者我们还可以跟小螃蟹来个互动,找图上视频,选择二点六模型。 在这里我们可以实现画面中人物的音色控制,上传一段五秒以上自己讲话的录音,就能复刻你的声线。把上个视频的截图丢进去,艾特一下刚生成的音色,并勾选音画同步,这样生成的视频就会自带音效,并且是我自己讲话的声音了。哇,螃蟹成精了,大家快跑! 第三招,主体替换是时候告诉大家我的真实身份,请看 vcr, you're ruining my snacks! 燃起来了是不是?我来教你怎么做?因为我只想替换掉韩的画面,那就先把片子里所有和它有关的画面在剪辑软件里挑出来,再给自己拍正面、背面、侧面还有脸部的特写。把刚剪辑好的片段丢进去, 提示词就这样写。把视频中的长发男人替换成我,分别艾特一下视频和我就可以了。完成后再在剪辑软件里替换一下画面就大功告成了,是不是很简单?同理,你可以把自己替换成任何角色, good 嗯, 第四招,光影重绘接下来这招可以让你的废片变废为宝。你看啊,这个画面因为天气不好,拍出来就是灰蒙蒙的,任凭我后期试了各种调色骚操作啊,哎,都不管用, 现在只需要把这个视频丢给 ai, 让他把光线重塑一下。哎,有感觉了,但这个场景还是有点普通啊,再换一个,再换一个, 哎嘿,以后拍摄是不是就不用等天气找景点了?第五招,主体锁定以前用 ai 生成视频最恼火的就是主体没有办法和现实的保持一致,还会出现那种手机背面翻过来还是手机背面的尴尬。像我给品牌做的广告片啊,最重要的 logo 经常会被 ai 加工成乱码, 根本没法用啊!那现在我们就可以在主体库里通过不同角度的照片把拍摄对象添加进去,这样在生成视频时,即使运行的范围很大, ai 也能知道物体在各个角度下长什么样子。你看这两个画面,猜一猜哪一个是我们实拍的? 哎,你有猜出来吗?如果觉得场景和运镜不满意啊,没关系,修改一下描述,再试几次就行。第六招才会表演,最后再给大家整个好活。 只需要上传一段你喜欢的舞蹈视频,再加一个自己的正面照片,就可以实现丝滑的唱跳 rap 了。和原视频对比一下,哎,简直是一个舞蹈老师教的好嘞!以上就本期视频的全部内, 哎呀,我素材怎么崩了?其实可以用 ai 替我出进口播啊, 别忘了点赞加关注,我们下期再见啦,拜拜!

挑战用 ai 做一百件事第五十九期,咱们一起跳舞吧!上个月,我曾经教大家如何用一种动作控制的方式来制作视频,让图片中的人物按照参考视频的动作动起来,就得到了大家一致的认可和关注。确实,用这种动作控制的方式来制作 ai 视频,几乎不再需要抽卡了。 除了制作这种美女跳舞视频以外,大家还解锁了不少有趣的玩法。你看这个让哈基米跳醉酒舞的视频,让马老师给大家解个印, 或者让这个金鱼给大家表演一套军体拳,有意思吧?但是呢,问题也是一大堆, 最严重的问题就是电脑配置要求太高了,手机用户啊,苹果电脑用户啊,都不用想了,肯定跑不动。就算你是 windows 用户,那显卡显存也得二十四 g 起步才能勉强玩玩。甚至哪怕你是使用我的云端镜像显存都四十八 g 了,你也最多只能跑出来一条十秒钟左右的视频。 还有那些在工作流使用过程中遇到的部署、报错、断联的问题更是数不胜数,还好资金可零二点六的动作控制功能也终于上线了,不仅手机电脑都能用,而且还有很多升级点,感兴趣的同学咱们一起来看看。首先啊,使用方法非常简单, 无论是电脑端还是手机端,你就在首页点击视频生成,选择动作控制,分别上传你要驱动的图片和要参考的视频,点击生成即可。你看这个用手机 app 生成的视频,无论是表情模仿还是动作控制,表现的效果都非常好。例如这段甄嬛的名场面回宫后,在你身边每一刻 每一次与你接触,都让我觉得无比恶心。可以用任意的人物进行高精度的还原和模仿,表情和嘴型都很棒,而且呢也非常具有感染力。还有这种快速又复杂的动作, 尤其你看这段视频中的人物,哪怕是经过转身和旋转之后,整个视频的结构和人物一致性,也没有出现崩坏和变动, 复刻的动作流畅且自然,一点 ai 感都没有。那这些呢,仅仅是最基础的功能。刚刚我不是说还有升级点吗?咱们接着往下看。第一个升级点,用可灵的动作控制生成的视频,最高可以支持三十秒的视频,一 镜到底。也就是说,你再也不用像之前那样把一个完整的视频需要切成好几段去反复的生成。你看这种超长的口播带货视频都可以一次性生成,轻松拿下,即使到了视频的后半段也不会出现崩坏的情况,用起来非常爽。 在复刻视频的时候,除了要复刻视频中的动作,还有一个能够明显提高视觉张力和情绪表达的关键点,运镜。在使用可灵的动作控制上传图片和视频的时候,你会发现这里还有两个选项, 默认的是人物朝向和视频一致。在这个情况下生成的视频,画面中的动作、表情、运镜、朝向都会按照原视频来直接复刻生成。像这种原视频本身就有明显运镜的,他都能给你完美的复刻下来。 如果你选择这个人物朝向与图片一致的时候,生成的视频就只会复刻原视频里面的动作和表情,这时候你可以通过提示词来自定义运镜了,像拉近、拉远、上移、下摇、旋转全都可以。好了,本期视频就到这里了,如果你也喜欢我的视频,记得点赞、关注、收藏。我是波波同学,咱们下期再见!

能听到我说话吗?这就是可灵新发布的动作控制功能,应该是有着目前市面上数一数二的动作模仿和口型同步,接下来教你如何使用。 首先打开可灵,选择动作控制功能,上传你的视频和一张参考图, ai 就 会将视频中的动作匹配在参考图上,生成的效果非常惊艳。

一个视频加一张照片复刻任何视频的动作,脸部细节和手部动作都能做到一比一复刻。换个高端人士,调几个镜头, 再把顶级镜镜放到科比身上, 你平时刷到的任何视频都可以用这个方法替换,是不是特别好玩?以上这三个视频都是用这款工具制作的, 只要一段视频加一张照片,就可以做到表情、动作、节奏全部对齐,不管是真人、特曼、人物,甚至是宠物都可以完美复刻工作。接下来我将带你进行实操,流程非常简单,小白也能马上上手。第一步,打开可零选择视频生成。第二步,点击动作控制,先上传你想要模仿的参考视频, 然后再上传你想要动起来的图片。第三步,提示词我们可以不写,直接点击生成,等待一会就生成好啦。 可以看到人物的动作已经完整迁移过来了,而且节奏、肢体、微表情都非常接近原视频。 这次肯尼奥利的升级很明显啊,看起来就像是真实拍摄出来的一样,而且现在单次支持三十秒的长镜头生成,一气呵成,不用再拆断,对于剪辑来说也非常的省事。学会这方法,你也可以复刻爆款短视频,用明星给你的产品做介绍, let me introduce this beautiful new fragrance。 还可以给你家小孩或宠物按照指定动作跳舞,非常的好玩。下面来看一个完整视频吧!

从零基础彻底教会你可零 ai! 注意,本系列视频耗时一个月,将带你一口气彻底学会可零 ai 视频制作,带你从零基础小白入门进阶!由于视频太长,本套教程分析发布,本期带你搞定纹身视频和图生视频。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成,配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片,真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举提示词、关键词库、免费 ai 工具清单,全都毫无保留!分享置顶评论直接领取,不用私信,不用等,现在点进去就能暴走,感兴趣的听 评论区扣六六六直接拿走,跟着流程走,轻松搞定第一集!哈喽,各位伙伴们,这期视频来讲解如何利用可灵 ai 进行视频生成的操作。 咱们打开可灵 ai 的 首页,点击左侧的视频生成的按钮,咱们就能挑战进视频生成的创作界面了。可以看到里面包括了纹身视频、 图生视频动作控制、多图参考、多模态编辑五种方式。那么我们在开始视频创作的学习之前, 先来到创意圈来看一看其他作者生成的视频作品。咱们可以随意的点开,可以看到画面的右侧,它使用的是图生视频手帧图生成的方式进行的视频创作。咱们再点开一个, 看到这条视频依然还是使用的手抷图参考生图的方式,咱们再点开一个,看到这边也是同样的, 这也能够看出来,市面上目前绝大部分的视频作品可以说都是用图生视频的方式进行的创作,虽然说利用纹身视频的方式使用现在的最新模型进行创作,效果也是不错的, 但是在美术风格、画面构图内容的可控性上,随机性也会更高一些,虽然还是能够生成理想的效果,但是花费的成本也会更高。那么咱们想要获得较好的视频效果的话, 这里还是更加的推荐大家使用图声视频的方式,但是我们进行工具的学习还是要从基础开始一步一步进阶的,所以这节课咱们来讲解纹身视频的主要目的 还是希望大家能够了解纹身视频的特征特性,对后面课程的学习会更加的有帮助。咱们回到视频生成的界面,点击第一个纹身视频,跳转到纹身视频的操作框, 现在看到最上方这里有一个下拉菜单,在这里我们可以选择视频生成时候所用到的模型,目前最新的模型是视频二点六模型,这也是当前效果最好的一个模型, 相信未来也会持续的推出更多标号更高的模型。那么无论是纹身视频还是图上视频, 大家在选择模型的时候可以选择数字更大的,通常效果也会更加的好一些。那么接下来咱们就来简单的对比一下,看一看新旧版本的模型 在纹身视频中的生成差异。首先来看看咱们使用可零一点五模型生成的纹身视频的效果, 在下方的提示词框框中输入提示词,点击生成,可以看到最终的生成结果,效果并不是那么的好, 不仅生成的人物并不太像一个樵夫,同时人物手上的干柴也没有提示词中要求的那么高。这里我们再来对比一下二点六模型生成的视频效果。 可以看到用二点六模型生成的效果有了明显的提升,不仅生成的人物是一个樵夫,而且扛着的干柴高度也符合了提示词要求。总的来说,二点六模型在生成效果上 确实要比旧版的模型好很多,即便是在纹身视频的情况下,也能生成较好的效果。同时二点六模型是支持音画同步生成的,非常的智能。 那么如果我们不需要自动生成音频,想要后期自己再去搭配音频的话,可以点击下方的这个按钮去关闭音画同步。通过对比不难发现,使用可灵 ai 平台生成视频 版本标号更高的视频模型,效果要好于版本标号更低的视频模型。接着咱们再来看一下文声视频的设置。首先是提示词, 这个地方就按照之前所讲过的纹身视频的提示词格式进行书写就可以了, 但是在它的后面要加上对运镜和画面当中事物运动的描述,比如说这段提示词描述了画面中的女孩,还有风格 镜头也进行了描述,以及后面对于女孩动作的描述。那么这里如果大家实在不知道如何书写的话,可以看到输入框的右下角,这里跟图片生成一样,也连接了 deep seek, 可以 让它来辅助我们书写提示词。同时可以看到 deep seek 左边有一个小灯泡的按钮,这个是科林 ai 官方提供的一个推荐的提示词模板, 点击就可以看到中间出现了一个新的区域,这个里面有镜头、运镜、速度、景别等等的一些提示词推荐,咱们点击一下就可以看到该提示词 被添加到了输入框中。此外,在生成视频的同时,下方还有一个音画同步的按钮,刚刚有提到过。 这里要注意的是, ai 直接随机生成的音频效果可能并不会直接符合咱们的语气, 分段生成的音频也可能不够连贯,那么我们在进行短片创作的过程中,大部分情况下还是把生成的视频放进剪辑软件当中进行后期配音的。 我们再看到画面最下方左边,这里目前二点六模型只支持高品质模式, 而像其他版本,比如说视频一点六在左下方就可以切换为标准模式进行视频生成。不过经过测试,在任何版本的模型下都建议大家使用高品质模型,不然生成的效果可能不会太好。 再来看到第二个按钮,咱们可以来选择生成视频的时长,这里有五秒和十秒可供选择,这也是大部分视频生成平台提供的时长生成选项, 这里建议大家先使用五秒,因为十秒钟的时间较长,目前 ai 生成较长视频的过程中,很容易出现逻辑不通、形状崩坏的情况,那么五秒钟的视频会更加稳定一些,也满足大部分的分镜头时长需求。 如果实在要使用十秒钟的生成时间的话,可以采用首尾帧生成的方式,在后面的课程中会重点讲解,再来看到第三个,这里我们可以来设置宽高比, 可以看到有三个常规选项,分别是十六比九、一比一以及九比十六,大家都可以根据需求去进行选择。第四个按钮,咱们可以来选择生成视频的条数, 这里保持默认的一条就可以,咱们生成视频的成本还是比较高的,只生成一条有助于我们及时根据生成的效果去调整提示词, 以此来获得后面更好的表现效果。那么介绍完参数,咱们再回来重点看一下提示词书写技巧。其实纹身视频和纹身图非常的类似,在之前的课程中,我们有讲解过纹身图提示词书写技巧,五个 w 和一个 h, 什么时间,谁在什么地方,做什么事,为什么要这么做,以及呈现出来的风格要是什么样的。最后再补充一些氛围修饰词。 而在纹身视频当中,除了对画面进行描述之外,还多出来了两个部分需要描述,就像刚刚咱们所打开的这个提示词模板库, 这个里面的固定镜头,手持镜头、镜头拉远,它们都是对镜头运镜的描述,也就对应着刚刚提示词的这个部分。 而第二个则是画面当中事物运动的描述,例如这里就描述了女孩边看着电脑边拿起一旁的咖啡喝了一口。 所以总结来说,在纹身视频时,提示词主要描述的有三个部分,分别是画面内容、画面当中事物的运动以及镜头的运镜。那么咱们就以这一段提示词为例,来看一下生成的效果 模型。这里我们还是切换为视频二点六,接着点击下方的生成, 可以看到最终生成的效果还是非常流畅的,同时像光线明亮,女孩喝咖啡,还有画面当中的电脑窗帘,这一些事物都符合了题诗词的描述。 像目前的二点六模型,它在质量上已经和图生视频相差无几了,不仅是画面当中事物的运动,还是视频中画面的质感。相比于先前过低的版本模型生成的画面可以说已经提升了不少。 但这里还是推荐使用图生视频的方式来生成 ai 视频片段。咱们现在生成一条 ai 视频成本不低,直接使用文生视频虽然很方便,但是只用文字描述来生成视频的话,随机性是非常大的, 很难生成出一致的视频效果。那么下节课将会详细的讲解如何进行图生视频的操作, 操作过程中有任何的问题都可以在评论区留言哦,咱们下期视频见!哈喽各位小伙伴们,在上一期的内容里,我们反复强调一个核心要点, 想要制作出可控性强的 ai 视频,图声视频是首选方案。相比于文声视频的随机性,图声视频能基于我们预设的图片精准把控画面主体与风格。 这里要特别提醒大家,本系列教程的知识点是环环相扣的,建议按顺序观看,避免遗漏关键操作细节,影响后续教程的学习。 接下来我们打开可零 ai 的 首页,看到左侧的视频生成功能,点击进入可以看到系统会默认跳转到图声视频的页面,也就是我们本期的核心操作区。 如果我们只做手帧图生视频的话,所有的模型都是支持手帧图生视频的,但是咱们目前选择的二点六模型是不支持上传尾帧的,尾帧图上传的 按钮是没有开启的,但是我们把模型切换为视频二点五,可以看到这里是支持首尾帧模式升视频,那么这节课咱们就先来用二点五模型来为大家进行演示。 如果大家已经跟着之前的课程制作了自己的 ai 图片,完全可以用自己的作品来进行练习。 如果还没有准备素材,真果也为大家准备了配套的练习图,方便大家同步操作。现在咱们点击 旁边的这个手绢图的操作框上传准备好的素材,上传好之后就可以来书写提示词了,那么我们下面来讲解一下图声视频的提示词书写技巧。 在上一期文声视频当中,我们讲解了提示词的三个组成元素,分别是对画面内容进行描述,对画面运镜进行描述,以及对画面中事物的运动进行描述。 那么咱们在使用图声视频功能的时候,由于咱们的手帧图已经提供了完整的画面内容风格,所以我们完全可以省去画面内容描述的部分。 去掉之后,咱们生成视频的画面也会围绕着我们的参考图,也就是手真图而展开, 不会出现过多新的画面内容。我们更多要做的事情就是描述画面当中事物的运动以及镜头的匀近。那么以当前这一张图片为例, 这张图片是一只小狗在充满春天活力的大自然里开车的画面,那么咱们按照描述要求,第一步 先来描述镜头应境,应境决定了视频的视觉节奏,比如说咱们在这里先输入镜头,缓慢推进,那么这个指令会让镜头慢慢靠近主体,增强画面的沉浸感。 第二步描述画面的动态,这个部分咱们要进行拆分,拆分成主体动作和背景动态两个部分来写,让画面更加丰富。主体动作咱们可以针对图片中的小狗进行书写, 这里可以写上小狗抬手扶了一下眼镜,打开车门下车,走到草地上和小蓝鸟打招呼。 那么背景动态,为了让场景更加生动,我们可以去补充环境的细节,可以写上背景中的树叶,还有小草小花随风飘动, 天空中的小鸟快乐的飞翔。那么到这一步,咱们的提示词正写就完成了,可以看到整个指令没有多余的内容描述,全部都聚焦于动态与运镜。 当然写完之后也可以点击输入框右下角的这个 deep seek, 让 ai 帮助我们润色语句。那么至于下面的参数设置方面, 在图升视频的时候,输出的视频宽高比会和我们上传的图片宽高比保持一致,所以我们要设置的是生成时长以及生成的数量,那么像视频时长这里咱们需要根据动作复杂程度而设定。 如果提示词里面的动作较多,这里就建议把默认的五秒钟调整为十秒钟, 避免动作还没有做完,视频就结束了的情况出现。本次演示的动作比较简单,我们直接保持五秒就可以了。后面的视频生成数量,这里建议先生成一条,查看效果之后再根据需求进行调整, 这样能够节省创作的时间和算力。那么咱们直接点击旁边的生成来看一看效果, 向镜头缓缓推进,小狗用手扶了一下眼睛,再来跟小蓝鸟互动,这些呈现都非常的自然。与此同时,在可灵 a a 上,对于视频生成,除了我们刚刚要求的用手扶眼镜下车,让植物飘动这样简单的要求除外, 其实平台对于主体面部表情的刻画也算是当前平台的一大优势, 所以在此基础上,我们的提示词当中可以补充一个描述,比如说小狗用手摘下墨镜,露出惊讶的表情,写好之后可以再次点击下方的生成。这里需要注意的是,每次生成在动态表现上其实都是随机的, 偶尔可能会出现一个简单的动作生成不好的情况,所以有时我们需要多次尝试,从生成的结果中挑选一段好的效果进行保留,稍等一会视频就生成好。我们来看一下效果, 可以看到最终生成的效果在上一条视频的基础上,符合了提示词的新增需求,露出了惊讶的表情,整体的表现还是比较自然的,但是也可以发现,小狗摘下眼镜的时候,那个眼睛飞起来了, 说明它生成的时候还是会有一些不太合理的地方,这就需要我们去反复的生成视频, 去挑选更好的效果了。那么咱们前面练习的是固定场景下的简单动态,如果想要实现镜头跟随主体移动,甚至让画面出现原图中没有的新内容,该怎么去写提示词呢?那么还是这一张图,这次 我想要这只小狗一直开车,画面中会出现沿路的新事物,对于这种画面的描述,同样遵从描述运镜和描述画面中事物运动这样的方法。但有时候我们可能想不到用太好的提示词去描述画面, 所以此时可以借助克林 ai 上的反推提示词功能,可以看到,当我们把这个自己输入的提示词删除之后, 就会出现一行灰色的小字,请描述你想要生成的视频内容,或者是使用 deep seek 反推描述图片。那么我们这里点击这个 deep seek 反推就可以看到中间这里开始分析当前画面中的提示词了,同时在这个基础上也给出了运镜以及 事物运动的描述。一共是给出了三段提示词,我们可以自己稍微看一下哪一组提示词写的比较好,或者更加符合咱们的需求。在确定好使用的提示词之后, 我们就可以点击下方的立即生成。这里要注意一下的是,很多情况下,这一些提示词描述生成的效果 可能不是特别的理想,我们还需要进行手动的修改。比如说下方的这个墨镜反射着蓝天白云,车顶绿植叶片被风吹得沙沙作响。 这些 deep sea 优化过的提示词描述会过于的复杂,不够直观,我们可以将一些可能会造成混乱的语言描述给删除。向后面环绕下摇镜头展示全景要知道我们想要坐的汽车是向前运动的,如果此 时的镜头是环绕镜头的话,很快就会错过小狗开车无法展示车子向前行驶后的画面,那么咱们就可以不挑选这一组提示词。这里我觉得第二 组提示词的效果好像更加的好一些,我们可以直接点击下方的立即生成来看一下效果, 可以看到整体的效果还是不错的。小狗开车前进,镜头跟随移动,可以看到画面中也出现了新生成的原本图片里没有的事物, 而镜头的方向也是跟随着小车运动的,效果还是不错的吧。那么咱们最后来总结一下图生视频的核心创作技巧。 首先是提示词框架,咱们无需描述画面的内容,只需要聚焦于镜头的运镜和画面动态的表述。动态部分可以拆分为主体动作与 背景动态,如果有镜头移动后新场景的需求,补充新场景的元素进行描述就可以了。第二点是工具辅助技巧,咱们可以用 deep 反推生成基础提示词, 再根据需求手动的优化,避免复杂的描述影响画面的生成。第三点是参数与生图的技巧, 咱们可以根据主体动作复杂程度来调节视频的时长,同时咱们遇到动态不连贯的情况,可以多生成几次, 挑选最优的结果。其实图声视频的操作并不复杂,哪怕是用大白话描述运镜和动态也能生成不错的效果,关键在于掌握核心框架,然后举一反三,不断的尝试优化。 那么以上就是本期视频的全部内容啦,操作过程中有任何的问题都可以在评论区留言哦,如果觉得视频内容对你有帮助的话,可以点个一箭三连支持一下,咱们下期视频见。

ai 动作可控性又上了一层,这次可零二点六的更新,从表情模仿、手部细节、高难度动作,再到生成时长都进行了全面升级。 点赞关注咱们教程走起!首先打开可零 app, 点击动作控制,现在只需要上传一张人物图和原始动作驱动视频,就可以把动作一键迁移了。这次更新之所以强,是因为它解决了很多原来动作迁移无法解决的小细节问题。 首先就是表情控制非常自然,细节做的很到位,比如眼镜腿的反光、脖子连带运动等等。而且他让 ai 表达出情绪有了可能。 小声说一句,以后演员塌房也更好换脸了,他的手部表演也更加清晰,挑战高难度手部结印也完全不在话下。 对于舞蹈、体操这种高难度动作,克林二点六已经可以做到零穿帮了,动作那个流畅自然。 你看这个围巾的摆动完全符合物理规律,而且它最高支持三十秒生成时长,完全不用千分动作既然能生成这么长,那我就送你一首我最喜欢的 go west 来结束本篇视频吧。 we will fly so high, tell all our friends goodbye, we will talk like you。