粉丝7.6万获赞173.4万

以前我们要想让 ai 视频里的角色说出指定的音色,需要跨越三个软件才有可能实现,但现在可灵二点六只需要一步就能全部搞定。其实刚刚这段话不是我本人说的,而是我的 ai 音色在说话。这就是可灵刚刚上线的音色控制功能。简单来说就是你给他一段声音,他能让视频里的人用这个声音说话, 也是全球首个音色一致模型。这回真的是把声情合一玩明白了。现在看实测,我直接上传了一段杨幂采访的音频,然后上传照片,接着就是写文案,记得打开这个音画同步。写提示词的时候选择好刚刚设置的音色,一定要放在人物后面,点击生成后,画面里的人就能直接用你的音色开口说话, 你永远不知道下一块会是什么味道。你还可以选择情感标签,比如认真的说,温柔的说,轻声的说都可以,可以看到人物的情绪表情跟台词结合的都非常到位。今天的奶茶真好喝, 快分享一下谁家的?最离谱的是这个中英双语切换,哪怕你不会英文输入一段英文台词,他也能用你指定的声音说一口地道的英文, i love you from now until forever。 这意味着你可以用一个声音打造不同风格的内容啊,是不是很酷,并且还可以唱歌? 视频中的环境音也可以灵活控制, 你再也不用担心换个视频声音就变了。音色一致性意味着你可以规模化地生产内容,同时还能保持极高的人设辨识度。大家好,我是宅急送你们好吗? 整体来说,可令这个音色控制功能让 ai 视频制作更完整了。如果你是内容创作者、品牌方,或者单纯对 ai 视频感兴趣,我都建议你去试试看,毕竟在这个 ai 时代,早一步掌握工具,就多一份创作优势。

不是,这个音画同出功能最近也太火了,只需要上传文字或者图片,就可以同时产出带有画面口型音频的完整视频,甚至可零二点六,还支持音色控制,精准复刻音色。而目前国内几个 ai 生成视频的模型也已经卷得起飞, 今天就带大家用相同的 pro 测试一下不同的模型下音画同出,音色控制表现如何。所谓音画同出,就是上传一个 pro, 点击音画同出,在生成视频的同时会完美匹配台词、口型、音效和音乐。我们用相同的 pro 来看一下可零二点六与 one 二点六和吉梦三点五 pro 的 效果对比。 我的 pro 主要是希望生成一位一边在涂精华一边在讲解的美妆博主,并且有运镜和细节展示,我们来看看生成效果。睡前用这款精华,质地像水一样清爽,吸收特别快,第二天早上皮肤摸起来又软又嫩。 睡前用这款精华,质地像水一样清爽,吸收特别快,第二天早上皮肤摸起来又软又嫩。 睡前用这款精华,质地像水一样清爽,吸收特别快,第二天早上皮肤摸起来又软又嫩。在可林中对于 poem 的 理解非常到位,能理解到我希望视频中的人在一边演示一边说话, 整个视频的节奏、环境、人物细节也很舒服,口型和音频也是匹配的,比较难看出是 ai 生成的。 但是在万二点六中,虽然它能产出视频,但是它是一个画外音的方式,并没有完全的理解我们的 pro, 而且其中有加速的过程,这就有点 ai 感了。 在极梦三点五 pro 中,虽然也是视频中的人在一边演示一边说话,但是有些细节做得不好,比如这个精华突然变形了,还是有那么股 ai 味,光是只有音画同出还差点意思。 如果我们需要控制视频中的人物用特定的音色,那么我们就可以用音色控制,在图声视频中可以添加音色,在 pro 的 主体后面加上 at, 将音色匹配进来就可以了。即梦三点五 pro 目前不支持音色控制,那我们来看看可零二点六与万二点六的对比。我们做一个单人独白的视频。 收音机前的你如果也还没睡,正在听这段旋律,我想对你说,城市的夜晚并不孤单,因为总有一个人在用声音陪你等待天明。 收音机前的你如果也还没睡,正在听这段旋律,我想对你说,城市的夜晚并不孤单, 因为总有一个人在用声。两个模型在音色控制下,表现都还可以,精准复刻音色。但是有个问题是,两个模型我都是选择生成十秒的视频,而我们看到 one 二点六并没有在十秒内念完所有台词,而可怜二点六会适配相应的语气和节奏, 将台词控制在十秒内完成,这是比较好的一点。另外,如果需要场景,需要多人的对话的情况,我发现 y 二点六并不支持多个声音控制,而可零二点六是支持控制任意声音。我们来看看可零二点六的效果。 我好像又胖了一点点,最近又吃多了。别瞎说,你在我心里的分量永远刚刚好。 我们看到可能的效果非常不错啊,画面质感很好,声音也很清晰,能清楚的理解我们的 pro, 并且现在有了音色控制的加持, 我们就可以用同一个音色来控制多条视频的输出,非常适合做 ip 角色、品牌形象、小型微电影等场景。并且它会根据 pro 的 场景适配相应的语气和节奏,使用起来也很方便。真不错,那么大家觉得哪个模型比较适合你们呢?好了,以上就是视频的所有内容,如果觉得有帮助的话帮忙点个赞,我是小卢,我们下次再见,拜拜!

clean omni 一 带来了我们目前见过最顶尖的人工智能视频编辑工具,但大多数人压根不知道这个模型到底有多厉害。今天我就来给大家盘一盘这个模型的十五种实战用法。这个视频里我用的是 hixfield 来生成图片和视频。 进入视频编辑区,选好 clean omni 一 后,你就能开始剪辑你的片子了,甚至动动嘴皮子说几句话,就能整出全新的镜头画面。当你想要调用之前上传过的照片、视频或者任何素材时, 直接打个艾特符号,然后选中它就行。这里说的元素,指的其实就是同一角色或物体的一组图片,说白了就是帮 ai 模型保持所有东西的风格统一。 你只需要上传一组图片,写段简短描述,就能创建一个专属元素。好了,废话不多说,咱们直接上手开剪。现在如果你想往视频里加东西,照着下面这个格式来就对了。你可以用文字描述你想要啥,或者直接艾特你上传过的某个素材。 如果你想从图片里扣点东西放到视频里,同样用这个格式就行。看,就这么简单,你就能往片子里加任何你想要的东西了。 how dare they betray me? 想要移除某人或某样东西,直接输入移除或者删除。选中你的视频片段,然后明确告诉他,你想去掉啥?看像这样,我就把马背上的那个女人给去掉了。在这个例子中,我把那个玻璃球去掉了。 clink 零一还有一个超厉害的功能,就是能为你现有的镜头生成一个全新的视角,这对音乐、视频和电影制作来说意义重大,因为它能让你获得额外的运镜效果,却无需实际补拍任何新镜头。 如果你视频里有不喜欢的颜色,或者你需要它在不同场景中都保持一致。更新,只需在提示词里选中那个物体,然后告诉模型你想换成什么颜色即可。 你还可以将视频中的角色完全替换成一个全新的,或者依据一段描述或一张图片替换掉任何物体。 这是一个极其强大的功能,对电影制作来说尤其如此,因为它能让你重新设计整个场景,而无需再次进行拍摄。 现在我们来谈谈视频风格重塑。说实话,这绝对是它的一大亮点功能。你把视频交给模型,选择想要的风格,它就能为你彻底改变整个视觉风格。 你甚至可以上传一张图片,让模型匹配这种风格。就这样,你的整个镜头便获得了一个全新的视觉形象。 你甚至可以改变视频里的天气,只需描述你想要的天气类型,模型就会重塑整个场景,以匹配那种新的氛围。 你还可以更换视频的背景。另一个功能是彻底替换视频的背景, 只需用文字描述你想要的新背景即可。或者,如果你想完全掌控,可以上传一张图片,并在提示词中引用这张图。 ai 模型会替换整个场景,同时确保主体、人物或物体原封不动。 你可以直接为视频里的元素添加各种特效,就像我处理这个玻璃球的效果一样。 另一种方法是截取视频中的某一帧画面,然后对这张静态图片施加特效。添加特效时,我使用的是 nano banana pro。 这款工具操作很简单,上传截取的那一帧描述你想要的特效,就能获得各式各样的特效了。 等你把图片编辑完成后,就可以用它来替换掉整个视频里原来的那个主体,就像下面这个演示一样。所以说这个功能为你打开了创意编辑的无限可能。 另一个非常实用的功能是改变人物的年龄。要想达到最佳效果,建议从视频的第一帧画面开始处理,然后用 nano banana pro 来编辑这一帧。 当你把角色形象更新好之后,把视频和修改后的图片都上传上去,然后让模型把整个视频里的角色都换成新造型。 当你需要完全掌控把主体从背景里抠出来时,绿幕就派上大用场了,尤其是在背景很复杂或者一直在动的情况下。 我一开始试过直接在视频里生成绿幕背景,但效果不太理想,于是我就换了个法子,结果好用多了。我截取了视频的第一帧画面,把它的背景换成了纯绿色的。 接着我把原视频和处理过的那个画面一起上传,然后让 clean 灵异把视频的背景换成图片里的那个,效果相当不错。 下一个应用场景是复制任何视频里的动作,比如跳舞,各种表情动作或者其他任何行为。你只需要一个参考视频和一张图片 image, 然后让模型照着视频里人的动作,让你图片里的角色动起来就行,也就是完全复刻他的动作。 你可以用自己的照片或者任何你喜欢的角色形象模型就能完美复刻出一模一样的动作。只要你有一个具体的角色模型,就能记住它的模样。如同真正的导演,确保人物在你创造的任何场景中都保持一致的容貌、服饰和身份贯穿于你创作的任何场景。 这样你就能用同一个角色打造出连贯的故事情节,纵使场景切换,也能确保情节连贯,角色形象始终如一。 有了 clay 一, 你的创作不再局限于单一角色,你可以让多个角色同台登场。模型能确保每个角色都形象稳定,特征鲜明。 在这个案例中,我想让这位女士和他的爱犬出现在不同的场景里。我使用了女士的形象元素和狗狗的图片作为输入。该功能支持上传一到七张参考图像或元素作为输入素材。你可以自由组合角色、服饰、场景等各类元素, 再通过文本提示词来定义它们之间的互动关系。在这个案例中,我输入了女士的形象元素,狗狗的图片,外加指定的外套、眼镜和场景素材。 另一个应用场景是制作广告,无需高昂预算或漫长周期, 只需导入产品素材,写上一段简短描述模型,便能生成可直接使用的吸睛视觉效果。在这个案例中,我要打造一个以巴黎房间为背景的香水广告,整合多种媒体素材和产品其实并不麻烦,我只需上传素材,然后描述一下想要的场景即可。

可灵 ai 有 多牛?我给大家展示看看。 现在大家都说可灵 ai 就是 视频界的 nano banana, 简单点来说就是你可以用 ai 来直接编辑视频了,尤其是电影制作这一块,效果真的非常夸张。如果你想学会如何把它用到你自己的项目里,那一定要把这个视频看完。 我会测试六种可灵 ai 的 用法,教你怎么制作以下这样的视频, 好冇味啊!哦噶,我以后仲可唔可以揾你倾偈 㗎? 嗯嗯, 老规矩,在正式开始之前,麻烦大家帮我点个关注,你们的支持就是我创作的动力。 第一种,替换内容,登录可连 ai 的 界面之后,你会发现里面的内容有很多,比如图片生成、视频生成、数字人、 创意特效、音效生成、 ai 四一等等。但我们这次要测的重点功能就是最近更新的视频新版本可连 o 一。 我们直接点击左上角的这个绿色的图标,进入可零 o 一 的操作界面。接着我们点击齿轮变换,上传一段赛车的视频,放进编辑区。现在你还可以往视频里添加最多四个参考元素, 以前这一步要通过 nonono 来实现,现在你可以直接在视频里完成。我想做的是把这个赛车长公里的车换成这辆超酷的摩托, 现在我们把它拖进来作为参考图,然后写提示词。可连 ai 很 酷的一点就是,你可以明确指定是引用图片还是引用视频本身。我的 pro 是 把视频中的白色汽车替换成图片中的摩托,其他物体保持不变,确认无物后点击生成。 再来看一个例子,这里是电影头文字 d 里面的一段镜头, 那我想要把女主角换成图片上的外星人。同样的,我们按照刚才的操作,把电影里的视频镜头和想要替换的图片上传到可怜 ai, 然后点击生成。这里面有需要注意的一点是,大家在上传视频的时候,视频的时间要在三到十秒之间,少于这个时间或者是多一点都是不行的。好,我们看看效果好没味啊。哦噶,我以后仲可唔可以揾你倾偈 㗎? 复刻程度很高啊,人物动作几乎跟原视频一模一样。唯一不足的就是生成视频的文案是乱码的,但这个问题我觉得不是很大,后期可以很轻松搞定。 好,我们继续看。第二种用法,视觉切换。这是一段电影画面的镜头,里面大部分的视觉都是跟我们眼睛平行所看到的一样, 现在我把它放进可灵 ai 里,再加入参考图。我的 pro 是 把视频里的跟随镜头改成俯拍的视觉参考图片的样式,结果就是这样, 老实说,目前效果还不算很完美,虽然能实现俯拍,但是跟原视频已经没有多大的关系了。这没有关系,这也许就是测试的意义。 第三种用法,视频参考。通俗点来说,就是你可以把原视频作为一个运动的模板,把它应用到一张图片上去。比如这是一段网上比较流行的舞蹈视频,这是一张卡通图片, 那我想让这张卡通图片里的女生跳一段舞蹈,而这段舞蹈和这段流行视频里的一模一样。那我的 pro 就是 参考视频的舞蹈动作,让图片人物动起来, 这效果怎么样?学会这一招以后,你在网络上也可以变得多才多艺了。又开始了, 这没完了吗?你那视频参考除了可以复制原有的视频运动轨迹之外,它还有一个作用,就是可以根据原视频预测制作下一个镜头。比如我这里有一段老年男子在开车侧面拍摄的视频, 我在提示词里面输入基于这个视频生成下一个镜头,那这个镜头是位于后座,以中景拍摄前面中老年孩子和一个年轻男性,你就会得到。 第四种用法,组合功能就像 nano banana, 可以 把很多的元素组合成一张图片一样,现在可怜 ai 在 视频里也能实现这样的事情。可怜 ai 最多可以添加七个元素, 但说实话,元素越多,你视频越容易崩,所以大家还是少用点元素,多次生成这样效果反而会更好。比如一张女生的图片和一只卡通小狗。 我的 pro 是 图片,女生牵着图片小狗走在巴黎的街头上,点击确认上传之后,你就会得到这样一个画面, 真实人物和卡通的组合,是不是还挺有意思的?第五种用法是一个很实用的功能,改变天气。 就用刚刚那段赛车镜头的画面,原本是晚上,我直接改成下雪天,结果是成功的改变了天气,但是视频里边的部分内容也跑崩了,你看这个人都飘过去了。 我觉得这个用法是没有问题的,但是目前只能用在一些简单的画面上,比如说单纯的下雨天或下雪天,我觉得效果应该会好很多。最后一种用法是首尾真功能, 首尾真功能是我觉得目前 ai 视频里比较重要的一个用法,没有这个功能,很多视频可能都没有办法跑出来。我们来看看可怜 ai 的 首尾真功能效果怎么样。上传两张图片,一张是绿色的跑车,另一张是我比较喜欢的绿巨人。 我的 pro 是 把跑车作为首帧,把绿巨人作为尾帧,过程是跑车加速向前行驶,然后漂移变成绿巨人,点击确认。 哇塞,这个效果真的很炸裂,很丝滑,很逼真有没有! 你看这个汽车漂移的时候还带起了灰尘,变成绿巨人的时候,身后的光影效果也很细节, 毫不夸张的说,这个真的跟电影画面没有什么区别。好了,以上就是可怜 ai 测评的全部内容, 那整体测评下来,我印象最深刻的就是替换内容,视频参考和首尾真功能这三大部分。替换内容可以让我们像一个魔法师一样,让视频里的任何东西都变成我们想要的样子。而视频参考呢,可以让我们变得多才多艺, 无论你是想唱歌还是想跳舞,都可以直接复刻手尾声功能。刚刚看过了,效果不用多说。好了,本期的视频就分享到这里,如果你觉得对你有帮助,记得点赞、关注和分享,我们下期视频再见!拜拜!

这个画面里面的人物是我,现在把我的声音也交给他,大家好,我是福西西丁,我还可以用我的卡通形象用上我的声音,这个能多人对话吗? 当然没问题啦,能想象吗?上面这些不止画面是 ai 生成的,连配音都是一次性跟着视频生成出来的。日常我们去做这样的视频,是不是要先生成画面,再用配音软件形成定制音色,再切换软件进行一个对口型,但是从现在开始已经可以一条直出了, 这就是可灵二点六新更新的音色控制功能。就像我平时拍摄这样一个镜头,难免会遇到一些补录的情况,现在你看到这一段也是我用可灵二点六的音色控制功能生成的,是不是和我的口播毫无违和感?在可灵的视频生成界面,我们就可以看到这个二点六的模型。 把下面的音画同步打开,你会发现出现了一个新的按钮,选择音色,在这里只需要上传一段清晰的音频样板,比如说你的声音的时候,直接为对应的角色选择这个音色即可。 这里呢,我们一定要注意描述词力呢,我们还可以添加情感标签,把要说的话用双引号扩起来,这样出来的画面甚至比我们自己录出来的还要生动,因为不只有环境音的加持还非常的生动呢。 我们来直观感受一下,当你为同一个音色赋予了不同情绪的演技对比,谁能想到 ai 能让我发出声音呢?这技术简直让我感动到要哭,那我是不是想演什么就演什么,我觉得非常值得骄傲,国产模型可量二点六,可是全球首个可以做到音色一致的视频模型。 无论你是打造个人 ip, 还是制作这种连续的动画视频,喵最喜欢的零食是小鱼干,我更喜欢骨头,你都可以轻松的为角色注入独一无二的声音灵魂。 今天又是星期四了哦,喵实现真正的音画合一,那这对于需要高效产出高质量视频的创作者来说,无疑是一个强大的提效神器。本期视频就到这里了,我是伏羲西丁,持续分享更多好用的 ai 工具。

今天直接公开 ai 短片制作全流程 o e 更新一周了,如果你学会了生成,还不知道怎么结合做短片。 别急,今天咱们一步步拆解,手把手教你做一条新手像的 mv, 尤其是怎么控制主体把画面做一致。首先我们在官网点击可零 o e, 接着点击主体屏幕右方,点击加号创建 在这个界面,我们就可以看到主体所要的基本信息,这是我准备的数字,人 最好还是用全身或者半身,方便后面使用智能补全。接着把素材传到主要参考图里,再点击 ai 智能补全,当然也可以提前准备角度素材,然后我们主体不同视角的素材就生成好了,选择有最正脸的一组视角, 然后录入你的主体名字,智能填充描述就完成了。这样你在使用主体生成视频的时候,就能有不同角度的镜头,我们就可以在 o e 中使用主体了。接着我们就进入分享环节,本次样片用大量 o e 直接生成的画面, 特意不用图声视频来制作短片,适合刚接触 ai 视频的同学来进行学习。 你以前总说再见就是再次相见的意思,所以那天我走的很干脆,我甚至没有回头看你最后一眼。后来我才知道,有些再见原来是一辈子。如果能回到那天, 不知道你们有没有想起以前在毕业的时候没有好好说到别的人, 但没关系,你们会再见的。我们回到制作中,有部分初学者会遇到的生辰问题,比如画面模糊、质感油腻,或者生出来的画面不是提示词相符合的,我将带上我的花絮素材给大家一一解析。 根据我使用的经验,我觉得 o e 不 太适合做全景和运动复杂的画面,因为它虽然能动起来,但是画面是带有很强的运动模糊的,所以尽量选择生成中景和近景特写能体现人物画面细节的内容。如果一定要有全景的画面, 就建议生成图片,然后图声视频的方法,或者说中景出来的人物依旧不够清晰,试着不要用主体库,直接用高清素材。 然后就是提示词出来的画面不匹配。我一开始在写提示词的时候也是蒙了, o e 多参生视频,如果不给具体参考,他就会随机出一些和画面有关,但与提示词无关的元素, 那如果我给他固定好场景图片,桌子背景,他就能很好的体现出想要的内容。 所以大家不要死记硬背的去写提示词,根据不同的模型去输入你想生成的画面。还有一个大家比较关注的画质问题, 无论是用 o e 还是图声视频,我们尽可能的去保证图片清晰度,因为大家可以去想一下你给 ai 参考的图片,越仔细, ai 去读取画面内容就越多。 还有一种就是试试加入一些提示词,比如八 k 画质、超逼真纹理、电影画质,或者说你的主体是三 d 与写实图片混合,除非你就是想要这样的效果。 短片分享就到这了,感兴趣的可以看我另外两个视频,谢谢大家的观看,今天就到这啦!


我就坐在这录视频,但在 ai 眼里,我有一万种可能,我可以是二十四元的热血男主,又或者是穿越到赛博朋克的街道,一个人显得太单调,请个小伙伴来聊聊天,尼克尼克,你被捕了。人脸、 衣服场景,只要我想改,甚至都不用喊卡。这可不是我用 ae 做的特效,而是在可怜 oe 模型里直接生成出来的。现在使用可怜 oe 修改视频,真的就像手机 p 图一样,简单的有点离谱。首先打开可怜首页,点击这个 oe 模型, 上传一段你已经拍摄好的视频,在对话框输入提示词,直接告诉他把视频里的人物替换成图片中的角色。结果他不光是换了一个角色这么简单,而是连我说的话做的微表情、身体晃动的惯性都保留了下来。 这种指哪打哪的精准度真的太神奇了,更觉得是他现在的语言理解能力,是真的能听懂人话。比如我现在觉得这个背景有点太素了,直接打字换成深色科技感的影棚,嗯, 反过来感觉视频里的杂物太多,圈出来直接删掉。这种修改视频的效率放在以前我是完全不敢想。可能欧一这次更新,简单说,他是把视频的生成和编辑全部融合到一个模型里, 你不需要再为一个效果来回的切换几个工具,从想法到成品,直接一站式搞定。不管你是做内容的,还是单纯想玩点有趣的,这种所想即所得的感觉,真的建议大家去试一下。