粉丝285获赞1989

还在为做不出爆款 ai 视频而发愁吗?是不是受够了每次生成视频都像开盲盒,稍微不满意就得推倒重来?今天,国内最大的 comfy ui 平台 running hub 带来的这个新工具,绝对能颠覆你对 ai 创作的认知。 它就是刚刚推出的原声 ai 智能体全能创作平台 r h t v。 它的核心亮点就是特别 告别了传统 ai 工具的黑箱抽卡模式,你只需要用大白话告诉他你的需求。比如生成一条星际迷航主题的短片, hrtv, 内置的原生自人体就会自动帮你规划出完整的工作流。从写 创意大纲、出脚本,到设计分镜、生成成片,全程透明可控。最爽的是,中间任何一个环节不满意,你都能随时暂停局部修改,再也不用整体重跑浪费战力了。 rhtv 的 能力远不止于此,它内置了品牌设计、 tvc、 广告、 ai 漫剧等 各种行业级的专业模板。想做电商主图、上传产品图,它就能一键批量生成八张带卖点的成品图。想做跨模态混搭,你只需要说 把这张图的人物塞进这个视频场景里,动作完全照搬,它就能精准复刻镜头运动和角色动作。 这一切的强大,都来源于它背后的 runninghab。 庞大的生态支持、超过十万个 ai 应用和一点三万个专业节点,让 r h t v 的 智能体就像一个经验丰富的数字导演,能自动为你调度全域顶尖的模型和工具。 当 ai 创作变得像说话一样简单,你觉得未来普通人最容易靠它变现的赛道 会是 ai 短剧?还是电商带货?评论区聊聊?

科技美学,点亮你的高品质生活,灵感感知,听后指令,无需动手,开启优雅生活。打开垃圾桶,秒速享赢 ai 智能识别,精准分类, g g 赢记智能定义未来居家科技,影响生活。小伙伴们大家好啊, 上午发了一个故事版的视频啊,就说根据人物生成故事版,然后再生成最终的展示视频的,这个流啊,好多小伙伴反馈,这个生成效果不错,但是太贵了。咱两个问题说一下,第一,这个 生成效果他和这个价格,这个没办法,特别现在吉梦这一块,其实我这边每一个生成视频也是这个价,大家看一下, 我这边用的布拉图的,然后每个视频是二十块钱,这是十五秒幺零八零 p, 如果大家觉得比较贵的话,嗯,可以把秒数降低一点,或者说分辨率降低一点啊,这个没有办法一分钱一分货,因为像这个效果,说实话,我在群里也用 ltx 二点三 这种免费的模型搞过,大家看一下啊,这里感觉怪怪的,我不该走这么远。这就是传说中的黑森纪魔法世界吗?哎,这天回程促了,现在才一定网泛世界吗? 对吧?大家看这个有时候啊,确实是效果和价格它是成正比的, 并且你像这种节点其实也不需要大家就说在官网排队,呃,看大家自己需求了,如果感觉实在有必要的话,可以这么搞啊,或者说如果感觉实在太贵的话,也可以也可以把这一块节点给隐藏掉 啊。 ctrl 加 b, 忽略掉,你只跑前面这一部分,跑前面这一部分,拿到这个图就这个图啊,还有最终这个提示词,把这两个给放到吉梦或豆包这种 免费的额度或小云券这一类的去跑跑免费的也是可以的,如果说想稳定一键直出这个费用,没有办法啊,再就再就。还有小伙伴就是老反映这 api 节点要不出白图,要不不出图之类的。 如果遇到这种情况,大家第一把响应信息这里拉出来,拉出一个展示,任何这一块如果有有报错问题,他这里会有提示的,把这个提示发到豆包或者说报错小助手这一类的,看一下他到底是什么原因造成的报错。另一点呢, 如果是视频这一块,超过十分钟,超过十五分钟没有出来,大家就需要去后台到这个易步任务这里去看一下,有时候他是卡审核的,就说审核失败之类的,嗯,我之前给大家演示过这个审核失败, 这个跑太多了,找不到了,然后正常来说就会在这里出现审核失败之类的其他原因,遇到这种情况,大家就 不要在这里干等了,给他关掉,他再重新跑,正常来说是没有问题的,大家可以看一下我这边跑出来了都。这个跑出来呃,总共用了十多分钟吧,十一二分钟, 这次呢就给大家呃重新做了一个流啊,跟刚才那个流其实是差不多的,只不过呢,这个是专门针对于电商产品优化的一个原指令,用法和刚才那个慢距的是基本一样的,只不过我们是要根据电商产品进行简单的话术调整。 当然本期对应的这个工作流呢,我也同步上传到了 r h 这里直接跑啊, 因为这个费用其实是一样的,不管是 r h 还是柏拉图,他出来都是二十多块钱一呃一个视频啊,特别是十五秒,就说幺零八零 p 或七二零 p 的 基本费用都是一样的,所以说差不多了。 并且如果大家觉得幺零八零 p 跑起来比较慢,因为我实测幺零八零 p 基本都得十分钟左右才能出来,如果七二零 p 就 二百三十多秒就能出来了,其实七二零 p 效果也是不错的。 晨曦微露,艺术降临生活智慧感应,懂你的每一次靠近,静谧开合不惊扰这份宁静温馨,守护恩爱家庭点滴红 是生活的底色, j c g 让生活更有温度。在 r h 使用呢,和和我们本地使用都是一样的,在这里选一下图片的分辨率,视频的时长和分辨率,在这里选一下就得了, 很简单的,这个工作流使用呢,也是,嗯,比较简单啊,就在这里。第一,输入你的产品名称,简单说一下这个产品的特点。第二张图呢,大家可以上传个别的, 你不管是布局图还是其他的,如果说,比如说我这里上传一只宠物小猫,让他和宠物小猫互动这一类的,那你这里就可以选, 就说说一下啊,产产,产品一和产和图二的小猫进行互动这一类的,简单描述一下,他会根据你的描述来进行最终的生成这个产品版面, 然后再把版面传到这个,嗯,吉梦二点零进行生成视频啊,操作和上午视频是一样的,大家从这里注册一个 api 密钥就可以了,跑出来效果基本也是很稳定啊,并且你像这种产品图,只要大家这两张图没有上传真人,它基本不会出现卡 卡审核这一步啊。所以说也是推荐大家试玩一下啊。对应的工作流和节点我都会同步放到网盘,大家从网盘里下载今天的就行,包括二 h 这个工作流地址我也会放到视频简介区,到时候大家自己下载试玩就行了。好嘞,谢谢大家,再见。

如何用 coffee ui 等开源软件完成一部 ai 短剧的制作?大家好,我是程序,欢迎来到第九期。今天我们详细讲解一下 ltx 二点三的工作流,包括纹身视频、头身视频、音乐声视频和手尾帧等, 同时讲解它对电脑配置的要求,必要插件和工作流优化等内容。内容比较长,请大家先点赞、收藏加关注。好,现在我们来到 coffee ui 的 界面, 还是一样,我们依然是选择官方的工作流。首先我们点击左边的模板,然后点进来以后找到视频。好,第一排最右边这个是他的图声视频,这个是他的音乐声视频,再往下拉,这是纹身视频, 这边这个是首尾针。那么今天我们主要以这个音乐声视频来详细讲解一下,我们点击它的工作流,大家看到左边这里是它的模型文件,包括 check point, 其实这个是颗粒布,这个是他的一个放大模型,他的工作流是采用双彩样,下面这是他的模型文件存放地址。好,我们现在看到这个工作流,他把 所有的工作流全部隐藏了,那么我们只需要把它进行解压出来,先把它拖到边上去,然后在这里右键选择解包工作流,这个时候才是他的整个工作流的真面目。好,我们现在看一下,这是他的一个图像加载区域,这个是他的音频加载区域, 这里整个是他的模型文件加载区域,毕竟他是有音频的,所以说他要比我们平常的工作流要复杂一些。这里可以输入我们的提示词, 这里设置我们的尺寸,包括这是这里是帧数,这里是时长,但是呢他这个工作流啊还是需要改造一下才能用,那么我就不展示我们的改造过程,我们直接展示我们改造结果。好,这就是我们改造的结果。 大家可以看到这个红色的节点要么是替换的,要么是增加的,比如说第一个,第一个这个是我们的音频裁剪,比如说我们输入一整段的音乐,他长达四分钟,实际上我们的视频也只能出二十秒或者三十秒,那么这个裁切工具就特别有意思,比如说我这一段视频结束时间是五十三秒, 那么下一段视频我们可以从五十二秒开始,然后再跑二十秒,然后以此类推,直到把我们这个四分钟的音频全部给他跑完。然后这个节点是预览,是用来展示我们当前所裁切的这个部分,然后这个节点就是图像压缩的节点,它这个节点还是比较好用的。 再来到上面是两个 lra, 第一个 lra 是 vbvr, 它是一个奖励, lra 对 我们视频生成这个动作是有很好的引导作用。然后后面这个 lra 是 一位大佬所开发的,它是专门解决我们 ltx 二点三 在生成视频,当在讲中文的时候,他有可能出现字幕,而且字幕还是乱码,那么这个解决方案有三个。第一个方案就是我们所有的提示词可以用英文来写,再加上我们叫仙侠的这个 lo ra, 然后再加上 k j 的 这个强制负面提示词, 因为我们这个工作流它的 c f g 值是一,所以在当 c f g 为一的时候,它的负面提示词是不生效的,我们加这个节点是强制它负面提示词生效。所以说我们一共用三种方案去解决它带字幕的问题,这里是模型加载区域,然后这里是 参数区域。这两天我在测试过程中,我发现我们尽量用幺二八零乘七二零的这个尺寸去生成我们的视频,这样的话能够保证我们的视频画面不会崩,当它的尺寸越高,它的效果越好。 然后这里是我们的彩样器,我是选择这个 c f g 的, 好像效果还是比较好的。现在我们来看一下之前我测试的时候生成的一段 mv, 就是 这个视频,它是直出七二零 p 的, 我没有进行任何的再次放大,大家先看一下它的效果, 这是一个二十秒的视频,效果还是很不错的。这个二十秒的视频用时是十分钟,过一点六百三十四秒,那么上一段生成他的结束时间是五十三秒,那么我们再生成下一段二十秒的视频,我们可以在这里把它写成五十二, 这里设成一分十二秒,刚好二十秒。那么当我们把整个视频伸出来,我们剪辑的时候,实际上我们要把它的原声关闭,用我们自己加载的原声,这样的话我们能够保证我们的音效不被污染,但是我们可以听一下我们这个原声效果怎么样。好,我们把它拉到三十三秒,然后我们听一下原声的效果是怎么样的, 非常不错,我们原声效果要比他刚才输出的效果是怎么样的,我们再对比下他刚才输出的效果, 音质确实有污染。现在我们在生成下一段的时候,我们再添加一个加速节点,双击,然后这里输入 set 好, 我们添加这个节点,这就是我们之前安装的 set 的 touch 二点二,他对我们的视频加速也是有效果的,但是我之前为什么不用呢?因为我的配置还是够的,所以说任何加速他都有可能对本身的画质有所影响。所以说我之前是没有添加,但是现在为了提速,我们可以尝试用它一下, 然后我们可以选择 cedar tension f p 十六库达的这个,然后我们把线给它连上,它就连到这里, 就连到这里,这样的话我们的连接生效。对了,我们这里还有一个非常重要的节点,就是这个东西,它这个节点就非常厉害了,尤其在这个工作流程链路生成过程中, 当工作里有完成某一段工作的时候,把它的这个模型文件和它所占用的内存显存全部给它卸载掉,然后再进入下一阶段的一个工作,这样的话减少我们的电脑负荷,甚至如果没有它可能到下一段,比如说这个 ve 在 解码分块的时候 有可能就爆掉显存或者爆掉内存。好,现在我们开始运行,看我们加了这个散热器以后,它的运行是多长。在它生成过程中,我来给大家介绍一下我们的内存和显存占用情况。大家可以看到这个内存已经爆到五十三 g, 而它的显存也只是二十二 g, 如果大家内存和显存不够高的情况下,可以适当降低它的分辨率,比如说这里可以设置九六零乘五四四,整个生成完成以后再进行一次高清放大,实际上目前我们直出的七二零 p 也是需要再一次进行放大,发达到幺零八零 p, 然后我们才可以用 好。在它的生成过程中,我们介绍一下它对我们的电脑配置的要求。它这个 f p 八的模型文件接近二十七个 g, 如果选存 小于二十四 g, 基本上是没有办法跑的,但它专门有一个针对五零系显卡的,只有二十个 g, 那 么那个模型文件我们的 十六 g 显存也是能跑的。其实内存我感觉至少要有个六十四 g, 要不然这么多模型文件根本加载不下。那么当我们显存比较低,比如说十六 g 或者十二 g 的 时候,那我们可以选择它的这个 g g u f 量化模型, 只需要在对应的位置输入它的 g g f 模型文件,然后把它的线给它连上,把这个加载器和替换掉就可以了。 包括下面这个克里普加载器也一样,我们可以选择 g g f, 但是无论显存多大,我觉得内存都应该超过三十二 g, 这样的话跑它应该没有什么压力,包括我目前跑这个工作流,我的六十四 g 内存也是勉强够用,如果我去跑三十秒的视频,可能也会包内存 好。生成完毕,我们看到是五百七十六秒,看来加了这个三者胎神,他只是提升了一分钟,比原来六百三十四秒提升了不到六十秒。我们现在看一下它的效果,这是紧接着前面一段音频的,后续的二十秒我们听一下, 大家可以看到我们这个是没有字幕和乱码的,看来我们的策略是行之有效的。好,接下来我们讲一下我们的核心的插件,要想运行这个 ltx 二点三,有几个插件是必须要安装的,我们点开 manager。 好, 现在看一下我们所有安装过的, 这里输入一下 l t x。 好, 这两个插件是必须要安装的, l t x video, 再加上它的这个插件,然后再看一下,我们还会遇到像电脑显存较低的情况下,要用到 g g u f, 这个必须要安装,还有这个 layer style 也是需要安装,包括 k g n l 子。 好,基本上就这些,那么现在这个音乐生成视频我们基本上都讲完了。 ok, 接着我们去看纹身视频,还是一样点模板视频。这里,好,这是我们的纹身视频,我们先把它的这个工作流解压出来,我们直接按照他的默认提示词。好,我们点击运行。好,生成结束,我们看一下效果,用时一百七十秒,不到三分钟, 挺不错,那么我们这样找豆包给我们一段提示词,把时间设置成十秒,它的时间在这里。十,好,我们现在得到了一组提示词,直接给它粘贴进来, 但是生成之前我们这还要加个东西,就是这个东西是防止它报现存给它连接上,然后我们开始运行。 这个工作里,我目前除了他没有进行任何改造,实际上我只是演示给大家看一下效果,这里面要改造无非就是给他夹老软,再就是限制他在输出的时候有这个中文的乱码字幕。这里还有一个细节啊, 当我们直接托官方的,无论是图声视频还是纹身视频,或者是这个音乐转视频的工作流,他不能够直接使用,我们要用的时候,我们要在这里把这个帧率的这根线给他连到这个 b 点上,然后我们的工作流就正常了。 好,出来了一个十秒的视频,我们现在看一下它的效果。 还可以,因为没有加这个 v b v r 这个奖励老软,所以说它的效果好像不是很好。 好,接下来我们看一下我们的图示视频,还是在模板里面找,这是图示视频,我们点进去一样给他工作流程解压出来时间,我们设十秒吧, 加载一张图片,随便输入一段提示词,一个男人在说话,这是他要说的话,然后我们点击生成。好,生成结束,用时是二百八十五秒,我们再看一下它的效果。大家好,我是陈旭,我们是博主的 ai 扎势产, 因为是十秒的视频,我给的话术太短了,然后导致他的语言混乱。好,我们又重新给他写了一些话术,再次运行一下。好,这就结束,我们再听一下它的效果。大家好,我是陈旭,一个 ai 形象,我还有一个搭档,他叫希然, 他这次是动作夸张,还有字幕,不过整体效果还不错,因为他脸一直没有崩,环境也没有崩。好,现在还有一个工作流没有讲,就是我们的首尾针,工作流好,点进来。好,我随便加载了两张图片提示词,我们改一下,他端着咖啡走到窗前, 一样工作流我们就不去更改了,直接用他试乘,这里有做一个十秒吧,五秒太短了。好,试乘完毕,我们看下效果, 这是在没有加任何奖励 lara 情况下跑成这样的一个状态,我觉得也还能接受,而且我们的提示词特别简单,什么都没有,那么真正要跑出好的视频还是需要在提示词下功夫 好。我们今天一共介绍了 ltx 二点三的四套工作流,第一个是纹身视频,第二个是图腾视频,第三个是音乐声震视频,第四个是首尾针视频, 而且他的能力是可以做到三十秒左右的一个视频主要是看我们的电脑配置,其实如果内存够大,我估计跑个一分钟视频应该也是问题不大。然后接下来就是我们的小浅层,用户可以选择把它两个替换成 g g f, 然后再就是我们的生成字幕的一个限制,再加上我们的一些奖励 l r, 让他动作更加连贯 和更加符合逻辑。然后再就是一些细节上的调整,比如加上一些我们清华村的一个节点,还有包括可以裁剪音频的一些小的节点,这些东西都很有用的。我们整个 coffee ui 的 全流程到这里也基本上讲完了。 接下来每一期我会给大家做一些具体的,包括视频呀,包括音频呀,包括图片的一些效果,然后给大家展示,那么今天的演示就到这里感谢大家观看,我们下期见。

有人能听见吗?检测到未知生命反应?大家好,这里是 like c c 光算云平台,今天带大家快速看看 如何用科目一与外跑一个完整的 ai 科幻短片工作流。首先我们先准备好角色设定和分镜脚本。在这个案例里,我们使用的是一个十秒的科幻悬疑剧情。接下来把脚本拆分成多个镜头,每一个时间段 都对应独立的画面,描述角色动作和镜头语言。然后我们通过科比与 i 的 纹身图节点生成对应的分镜画面。这里重点是保持角色一致性,包括人物脸部服装和整体风格统一,一个完整的 ai 科幻短片就制作完成了。 如果你也想体验 compt 域外云端生成,或者需要高性能显卡进行 ai 视频创作,欢迎体验 like c c 光算云平台,检测到未知生命反应, 别让他们发现你!

嗯,今天给大家讲一下这个 comui 一个基础入门啊,我们这个视频课呢,会从入门到一个比较精通吧,比较精通一个程度,因为太深了嘛,这个视频课里讲不清楚, 那我们简单的入门呢,其实也够用了。我首先讲一下这个 comui 软件, comui 软件呢, 我们在网上下了一些资源包啊,或者是安装包可能会有错误。那在这里呢,我给大家做了一个整个包啊,整个包大家可以跟我要一下, 我们安装好这个整个包之后呢,点开这个启动器啊,启动器点开之后就是这个样子,这样子这块有一个一键启动,一键启动之后呢,我们会通过这个网页形式来打开 这个浏览器啊,最好用这个谷歌的,谷歌好一点。那我们今天来搭建一个比较入门的一个工作流啊,就是文章图的工作流,而那工作流呢,我们先做一个大模型啊,双击一下,双击我们选一个大模型节点, 大模型节点就是一个拆个炮的这个节点啊,拆炮,我们呢再拉出一个体置词啊,这个大家都知道,有个体置词,体置词之后呢,我们还要有一个 k 采用器,这 k 采用器是什么呢?就是 计算机语言,把我们输入的这些文字变成计算机语言采样,采样之后呢,我们还有一个解码,计算机语言出来之后,我们要写成我们能看懂的东西啊,那就是图片,那图片呢,我们有一个预览和一个保存,我们先用预览一个图片, 那这个提示词呢?是有两个,一个是正向提示词,一个是后面提示词啊, 所以说我还要拉一个提子词的一个框,那这一排塞传感器还有两个点,两个点没有拉啊,一个拉到正向,一个拉到后向,那这还有一个慢的,慢的是设置图片的大小啊, 我们先做一个五一二,五一二的这边还有一个这个连上,那这样呢,就是这个工作流就搭建好了,我们来测试一下啊,这里呢可以换模型啊,我们先随便找一个模型,好一个模型,那就来一个一辆红色跑车, 那由于那个康 b i 呢识别的是英文,所以我们这块要把它翻译成英文,变成了 a r x 符号,用来点域型 啊,我们可以看一下啊,生成了一个,这是一个动漫风格的,动漫风格的, 那下一课呢,我们讲一些参数和一个文生图,图生图的一个工作流程,大家可以下载试一下啊,还是很简单很好玩的。而且呢 copy 还可以生成一些啊,大家都懂的啊,就网上生成不了的一些东西, 所以说这一课就到这里了,大家可以关注我一下。

很多人现在做 ai 视频最大的问题不是画面不够好,而是人物开口之后,视频立刻变假。比如你想做一个数字人带货视频,或者做一个漫剧角色口播画面,可以用图声视频解决,分镜也可以提前设计。但是问题来了, 人物的声音怎么保持一致?嘴型怎么跟得上音频?多段视频怎么保证不是前后换了一个人?今天这期视频,我给大家演示一个似图分镜的进阶工作流,它可以在 comui 里面同时输入四张分镜图和一段音频,然后直接生成一段人物讲话的视频, 这意味着什么?你可以用自己的照片做一个虚拟直播间数字人,也可以用一个动漫角色做慢剧口播,甚至可以做产品介绍、带货短片、剧情分镜等。而且这次不是只讲理论,我会直接给大家跑两个实测案例, 一个是我个人 ip 的 口播视频,一个是毛绒玩具的带货视频,中间还会讲到一个很关键的避坑点。 为什么有些人生程的视频里,总是会莫名其妙地出现字幕标题、乱码文字等等?其实问题很可能是出现在你的提示词当中,所以这期视频适合所有想用 cfui 做数字人 慢剧分镜短片、 ai 带货视频的朋友,想深入学习 kufui 的 同学也欢迎加入小黄瓜的星球,那话不多说,我们直接开始。哈喽,大家好,今天我们来看一个似图的进阶版本,那再加上一个音频的输入,也就是我们可以控制视频当中人物讲话的音色,从 从而呢,让我们生成多段视频的时候,比如说我们现在先生成个三十秒的,然后再做一个三十秒的,但是人物音色是完全一致的,这个就取决于我们上传的这个音频,大家可以看一下现在这个工作流我跑出来的效果哈,这里呢就是我用自己的照片让 gpt 给我做了一个四个分镜,做了一个虚拟的直播间的场景, 然后呢就是我正在讲话,这是我上传的四张照片啊,然后前面呢就是每一个镜头对应的提示词,然后是一个全局的提示词,下面就是我上传的音频的内容,大家可以听一下。这个音频也是我用千问 tts 克隆我自己声音做出来的音频片段啊,而不是说我自己录制的,我们听一下。 今天给大家介绍一个非常适合漫剧和分镜视频制作的组合, ltx 二点三模型,加上 prompt relay 插件,大概就是这样的,大家可以听到它的声音跟我是很像的哈,等到后面我们讲完工作流也会给大家再跑一个案例测试哈。 然后呢我们来看一下最终生成的视频哈,我直接放一下最终的视频哈,这里是我们最终生成的视频哈,今天给大家介绍一个非常适合漫剧和分镜视频制作的组合, ltx 二点三模型加上 prompt relay 插件。 l t x 二点三本身在画面稳定性、动作连贯性和角色一致性上都有不错的表现,尤其适合做动漫分镜剧情短片和图声视频。 而 prompt relay 的 作用就是把我们提前设计好的分镜提示词,按镜头顺序完整接力下去,比如第一个镜头人物出场,第二个镜头开始动作,第三个镜头推进剧情,第四个镜头完成转场,这样做的好处是视频, 今天给大家。好的,大家可以看到这个视频三十秒哈,是我们单次直接生成的,我上传的音频呢是四十七秒,好吧,那这个呢,就是我们最终的一个效果,我们也可以看一下其他的案例哈,这里依然是用一个女生的照片,让她来介绍这个毛绒玩具,但是用到的音频也是我们自己上传的哈,人物讲话的内容都是我们自己设置的。 今天给大家介绍一个特别可爱的毛绒玩具,它不仅看起来很治愈,抱在手里也特别舒服, 你看他这个圆圆的脸,还有这个小帽子和小鞋子,细节真的做的很精致,不管是放在桌面当摆件,还是平时抱着陪伴都很适合,整个感觉特别温暖。 如果你也喜欢这种软萌又治愈的小玩偶,那他真的很值得入手。好的,这个视频呢,也是总时长三十秒,但是我上传的音频是空白的,基本上没有声音的哈,就是这个位置, 从两个案例来看,我们的质量也是很不错的哈,这个工作流,并且能控制声音的一致。那么接下来呢,我就给大家讲解一下工作流的用法哈, 比起前面两期我们讲过的这个 prompt relay 节点,这一期又多了一个音频的一个输入哈,那么我们先从最宏观的角度来看一下这个工作流,那么前面的这个部分就是完成我们模型的加载, 这个不用多讲,大家到后面的话,可以到视频的剪辑区的网盘里面下载我们对应的模型,放到 models 文件夹当中,然后呢加载工作流之后,在这里重新选择就可以了,然后中间这个节点就是上传我们的每一个分镜图,同时写对应的提示词 这里哈,而且呢最近我在测试的过程中,我发现一个问题,它可以减少我们画面当中出现字幕的问题哈,一会儿我就给大家详细讲解一下。然后这块呢是设置我们视频的分辨率哈,设置视频的一些参数哈,我写在这里, 比如说你跑多少帧,那么帧率是多少?包括你视频的分辨率是多少啊?下面这一块就是上传你的音频,包括设置你的音频时长啊,比如说你上传一个十秒的音频, 你是想让他对零到五秒呢?还是对五到十秒呢?还是零到十秒都对呢?我们就是在这个位置去进行设置的哈,然后中间这两块呢就是我们的生成过程,生成过程我们不需要进行任何的参数设置,大家下载完之后,按照默认的参数就可以不用去改它哈,然后最终呢就是输出我们的结果,大家可以直接保存到本地哈, 最长可以生成九百九十多帧的视频,然后二十四帧,每秒大概是四十一秒左右啊,在五零九零的显卡上,我大概是需要用到六分钟左右的时间能够完成生成,那这个呢就是我们从宏观层面去看到了, 那么最核心的两个部分呢,就是提示词的书写,然后以及这里的音频和参数设置这两三个模块哈,那么接下来呢,我们就给大家讲解一下, 中间这一块我们就不做太详细的讲解啊,大家去看我们之前的视频就可以,我会把它放到一个合集里面,首先呢就是你准备好你的四个分镜图,然后呢在这左边就是我们的提示词,书写节点,上面写全局的提示词,比如说整个画面的质量什么的。但是呢我就发现一个问题, 这里不要出现像 title 或者说字幕以及标题等等一系列的内容哈,在这里不要出现。之前我在用 type g p t 的 时候,这里会默认给我输出一些提示词,比如说叫做什么 no subtitle, 这个 no subtitle 就是 无字幕的意思,但是我发现这个节点如果你写了无字幕,虽然它是正向提示词,但是它似乎会把这个无给省略掉,所以导致每次生成的时候都有一个标题哈, 当我把 no subttitle 这些提示词给删掉的时候,我发现大概率我们生成的视频是没有字幕的,所以说这个位置呢,大家要注意啊,不要让它出现像字幕呀,标题呀,或者说白色的文字啊,中文文字啊等等一系列的描述哈,包括下面每一个分镜都不要出现, 那么第一张图片呢就对应第一段的提示词,第二张图片呢就对应第三段,那么每一段呢都有它对应的时长,你也可以通过左右拖动去设置每一个分镜头,它的一个时长 也可以在下面点 echoize 进行一个平均四个分段进行平均。好吧,那么这里呢就是删除某个分镜,那这里就不多讲了, 下面这个 segment 一 呢,指的就是第一个镜头,它持续的时长跟你左侧的这第一个片段的时长是一致的,这里我填的是帧数一百八十一帧,那么下面这里呢,也设置一百八十一帧,这个呢就是我们关于图片的上传, 关于这个节点更详细的讲解,大家可以看我们前面两期关于 l t x 二点三 prompt relay 这个插件的讲解哈。然后这个位置呢,就是去设置你生成视频的参数, 比如说这里就是一二八零乘以七三二,因为是横屏的视频嘛,所以说我做的就是一二八零乘以七三二的一个分辨率哈,最高可以跑到一九二零乘以一零八零, 那样的话你的视频质量会进一步的提升,但是它的生成速度会很慢,但是呢我推荐大家可以看看两个之间的质量上的差距,然后选择最优的一个方案哈, 然后 l p s 呢,默认就按二十四来就可以了哈。然后这个 frames 指的是你的总帧数,比如说七百二十帧除以二十四帧每秒,那最终生成的视频呢,就是三十秒, 就是这样的哈。然后这里会有一个参数叫做 image strength, 指的是你这张图片的控制强度, 你可以理解为是这张图片跟你最终生成的视频的分镜头当中的图片是不是一样的,你就比如如果这个值我给了零的话,就相当于这张参考图片是不起作用的,如果你给到零点五的话,就相当于这张图片会保留大概零点五或者说百分之五十的相似程度, 如果说你是真人的口播,那么图片跟真人是一致的,那这里呢你可以给到一,也就是让它完全跟你上传的图片保持一致,这样的话在生成长视频的时候,也不会导致时长的增加,然后让人物变形, 好吧,所以说这个值呢,大家按虚给默认的话是一。然后这一段呢就是我们音频的上传哈,可以看到加载音频节点,这里大家可以点击选择文件上传,上传你想要对口型的那个音频文件。我这里是四十九秒的,对吧?那么这里有个 star audio from, 也就是从哪个秒数开始, 如果你设置的是零的话,那它就从第零秒开始对口型,如果你这里就比如说我是四十九秒,对吧?然后我设置了四十,那它就是从四十秒开始到四十九秒结束,相当于最终对口型的是最后九秒的音频, 所以说这个值呢,大家也自己去进行一个设置哈,然后这里呢就是加载一个音频分离的模型,叫 mailbox reformer 模型,我们在网盘里面有提供,大家可以直接下载。 然后这个呢大家把它打开哈,也就是是否使用我们的单独的人声,因为这里他会做人声的隔离吗?如果说你把它打开的话,就相当于只有人声,如果你把它关闭的话,那这里呢就是带有背景音乐的, 好吧,那这个地方大家就按需去进行选择哈,那这个时候呢,就是我们整个工作流前面参数的一些设置了,设置完之后直接点运行,就可以跑出来我们最终的一个结果哈,那接下来呢,我们再给大家跑一个完整的案例哈。 首先呢,我就让 gpt 帮我去制作一个我自己的视频内容,或者说分镜图的内容,我给他一张我自己的照片哈。 然后呢,我写一个提示词,就说给我做一个四宫格图片,每个宫格都是十六比九的分辨率,四个宫格显示的是图一中的男生正在工作室里,手上拿着毛绒玩具,然后说面对镜头录制口播,整个场景布局很丰富,以人物中景镜头为主。 然后我们交给 gpt 之后呢,就尝试让他给我做四个分镜图哈,因为现在 gpt 的 能力很强,而且说做图的质量也很高,所以说这个分镜图呢,我就交给 gpt 帮我去生成了哈。 好的,这里我们已经完成了这个分镜图的一个制作,我觉得还不错,那么我们就把这个图片给它保存一下哈,保存完之后呢,就把这个分镜图的每个分镜单独的导入我们的工作流当中哈,我就直接截图把它上传过来。 好的,那么有了这四个分镜图之后呢,我们还需要去准备人物的声音,包括台词,台词呢,我们也交给 g p t 给我制作哈,就说给我写一段介绍毛绒玩具的台词,时常在三十秒左右。 好的,那么我们就把这个台词给它复制,复制完之后呢,在 com ui 里面,我们可以使用千问三 t t s 声音克隆的形式去完成这个音频的制作哈,我把台词粘贴到这里,然后就直接点击运行 关于声音克隆的内容,大家想要学习的话,还是看我们前期的视频,关于千万三 tts, 我 们有过非常详细的一个讲解哈。 好的,那这里呢音频已经生成了,我们来听一下,大家看一下我手上这只毛绒玩具,真的属于那种第一眼就很治愈的类型,它整体是圆圆软软的造型,表情有一点呆萌。 好的,还是挺像的哈,那我就把这个音频呢也给他下载一下,下载完之后呢,我们就回到刚才这个工作流里面,在这里把音频进行上传,一共二十五秒哈,那么我们就做一个二十五秒的视频吧,我来算一下哈,二十四帧每秒乘以一共二十五秒,我们要生成一个六百帧的视频, 那这个总时长呢?我们就把它改成六百,改成六百之后呢,他会默认的哈,把这个值进行一个修改,改成八的倍数吧好像,然后是八的整倍数加一的一个尺寸哈, 那修改完这个尺寸之后,上面这个节点他会根据你设置的总帧数呢,自动的去进行一个缩放,这些分镜图的缩放,那我这里呢就给他平均一下, 平均完之后可以看第一个分镜头,它是一百五十一帧,后面的分镜头是一百五十帧,那在这里呢我们就把它修改一下,每一个分镜图下面对应的这个帧数要做一个修改,一百五十一,然后这呢就是一百五,这里也是一百五,这里也是一百五啊,然后的话我们剩下的就是写提示词的内容了,我还是让 gpt 给我写 好的,让他给我一个全局提示词,然后再加上每一个分镜头单独的提示词,那这里呢已经有了,我们就把它复制一下,但是一定要注意哈,比如说最后这个 no subtitle, no on screen text, 包括这个 know what maker 这些我们都不要让它出现在正向提示词里面,我们就不要出现像文字呀,标题这些词哈,然后只把前面的进行一个复制粘贴进来,然后第一个镜头的,也是第三个镜头,还有最后一个镜头。 好的,那么这个时候我们已经完成了所有的前置条件的准备了,那这个时候我们就可以直接点运行了哈,点击运行之后就等待它完成我们最终视频的生成, 这里呢,我们就等待一下哈,在它生成的时候,大家可以看一下大概的一个显存占用情况哈,其实这也没必要看,因为基本上这个模型它都能把你的显存给占满, 就像我这里是三十二 g 的 显存,对吧?它会尽可能的把我三十二 g 的 显存占满,去完成视频的生成。如果你是十六 g 的 话,它就会尽可能的把十六 g 占满,然后去生成。但是呢,并不会说因为你小于三十二个 g 就 不能跑哈, 如果你真的不能跑,报错了,比如说 auto memory 什么的,这个是因为你的内存不足哈,好吧,所以说呢,你去设置一下虚拟内存应该就可以了, 那这里呢,我们就等待它完成生成,在后台看一下时间吧。在这个位置啊,可以看到第一个阶段呢,我们基本上跑个一分半左右就可以了,那第二个阶段呢,估计也是在三分钟以内,那最终我们就可以大概在四分钟左右吧,完成我们二十五秒视频的一个制作哈,这里我们就等待它制作完毕。 好的,那么这里呢,可以看到已经正在解码了,生成的过程已经结束了,我们一共两个阶段,第一个阶段用了一分三十三秒,第二个阶段用了三分三十八秒,一共五分钟的时间哈,完成了我们视频的生成, 可以看一下分辨率哈,一二八零乘以七三二的分辨率,一共跑了二十五秒的视频,用了五分钟的时间,这个速度还是挺快的。那么我们最后呢,来看看视频的质量哈,大家看一下我手上这只毛绒玩具,真的属于那种第一眼就很治愈的类型, 它整体是圆圆软软的造型,表情有一点呆萌又有一点小傲娇,放在桌面、床头或者沙发上都特别可爱,最关键的是它的手感很舒服,抱起来软软的,不会塌,也不会显得廉价,平时工作累了,学习累了,随手捏一捏,抱一抱,真的会有一种被安慰到的感觉, 无论是自己留着还是送给朋友当小礼物都很合好的,那么这个就是我们最终的结果。我们直接可以在最后这个节点右键选择这个 sim preview 或者说保存预览,把这个视频直接保存到本地发上,那么还是无水印的, 我们再来全屏看一遍哈,大家看看有没有什么问题?大家看一下我手上这只毛绒玩具,真的属于那种第一眼就很治愈的类型, 它整体是圆圆软软的造型,表情有一点呆萌又有一点小傲娇,放在桌面、床头或者沙发上都特别可爱,最关键的是它的手感很舒服,抱起来软软的,不会塌,也不会显得廉价,平时工作累了,学习累了,随手捏一捏,抱一抱,真的会有一种被安慰到的感觉, 无论是自己留着还是送给朋友当小礼物都很合好的。那么这个呢,就是我们这一次单次的抽卡,都是视频当中实时的给大家演示出来的效果, 这个视频呢是二十五秒,那么大家想要用这个工作流的话,接下来给大家讲一下怎么安装哈。在视频的简介区,大家可以看到一个网盘的地址,提供了本期视频讲到的模型以及工作流,然后通过那个地址进来之后呢,可以看到这里有个 prompt relay 加似图工作流的文件夹,在文件夹里面有个 models 文件夹, 你可以直接把这四个文件夹全部下载,下载完之后放到你自己 cfui 对 应的 models 文件夹当中,把它粘贴到同名的文件夹里面, 好吧,粘贴到同名的文件夹里面,然后呢再下载,这里有一个似图加音频数字人工作流,下载完之后要保证你的 cfui 是 新的,然后呢打开 cfui, 把工作流拖入进来,就可以正常地继续使用了。好吧,那么今天这期视频呢,我们就先讲到这里,感谢大家。

很多人问我这种短剧怎么制作,今天我就用一分钟来教会你,感兴趣的验个牌。首先,我们随便找一段小说文字复制下来,上传到豆包。第一步,上传小说转有声剧本的模板, 它会输出一个 t t s 框架,包含人物声线和台词。生成完这部分后,再上传台词转分镜图的模板,它会输出每一幕的分镜描述, 建议大家不要选快速模式,尽量用专家模式,这样生成的提示词会更详细。最后,再上传一个分镜图转分镜视频的提示模板,把这三步生成的提示词对应填入工作流的三个框架里就可以了,操作其实一点都不麻烦。最后,我们点击执行。

哈喽啊各位宝子们,当前 ai 工具正处于高速发展的阶段,各类工具已经逐步走进大众生活,相信大家在社交平台上也频繁地接触到形式多样的 ai 视频内容, 不过要独立完成一集一分钟左右的 ai 视频短片,清晰系统的制作流程是核心前提, 许多同学虽然有创作意愿,却常常因为缺乏完整的方法论而无从下手。基于此,本套 ai 视频课程主播将带着大家从零基础起步,逐步掌握 ai 视频的全流程创作。 从剧本创作的基础逻辑与技巧入门,到运用 ai 工具完成咱们的角色与分镜设计,再到后面的配音配乐,最终成片导出与发布,一步一个脚印创作属于你自己的 ai 视频短片。 那么首先咱们进入第一个部分剧本创作,想要获得剧本,咱们完全可以利用好 ai 大 语言模型, 通过像豆包、 deepsea 等大语言模型提问的方式,让它直接帮我们产出理想的剧本内容。 这里有两个方法,第一个方法直接生成故事脚本,第二个方法让 ai 先生成故事梗概, 再利用故事梗概来生成更加符合逻辑的脚本,或者是直接利用故事梗概来生成静态图片。那么这两个方法呢,都能够帮助我们轻松获得有意思的故事内容,我们就直接利用豆包来生成脚本。 咱们打开豆包这个地方,问题就来了,咱们要怎样提问豆包才能更好的理解咱们的需求呢?可以按照我是什么,我要做什么,该怎么做这样的思路去发生问题。 咱们是要做视频短片,那么我们就可以告诉豆包,我是一位拥有多年电影拍摄经验的顶级导演,擅长各种影片的剧本创作, 这就是我是什么,那么我要做什么呢?我需要创作一部一分钟左右的带有美术设计的科幻片,内容要新颖精彩,能够吸引观众停留情节跌宕起伏。 接着再告诉豆包,我需要获得的剧本需要包含哪些内容,也就是该怎么做,告诉他视频中一共需要二十个镜头,分镜时长要有长有短,画面内容要描述的足够详细。最后再用一句话来概括一下, 请按照要求创作出电影剧本,那么按照这样的方式提问,思路会更加的清晰直接,这样发送需求也是可以的。 这个地方我为了让豆包更加了解电影中的知识与制作技巧,我想要将自己已经准备好的电影相关的美学知识书送给豆包。看到输入框左下角的这个链接按钮,咱们点击上传这几个文件, 稍作等待,豆包就会解析我们的三个文档,可以看到上面显示了文档的字数信息, 想要文档的保值,可以在评论区留言哦,都会免费给到大家。那么文档上传好之后呢?咱们将刚刚书写好的这段需求表述的最后一句话这里修改一下, 修改为请仔细阅读并充分理解我提供的资料,再按照我的要求创作出电影剧本。那么全部的书写完成之后,就可以点击旁边的发送按钮, 很快豆包就给我们反馈了文本,可以看到最终生成的文本也是非常详细的, 我们就获得了这个时空锚点的分镜剧本,里面标明了镜号、镜头时长、景别拍摄角度、镜头运动等等的信息,里面还有画面内容,同时还根据我提供的 知识进行了美术设计还有音效的搭配。整体来说 ai 反馈的这个脚本还是比较理想的, 大家就可以选择用这样的方式去获取剧本。之后咱们就可以利用画面内容这一部分的描述,利用 ai 工具直接生成画面的静态图片,为后续生成视频做准备。这就是第一个剧本生成的方法, 这个方法是非常便捷的,不过呢他也会存在一些小瑕疵,咱们来看一看。看到第三个镜头这里他的画面内容描述是零下转弯时,余光撇见右侧建筑内有模糊的身影, 他停顿一秒,皱眉看向建筑。像这样的一个画面,咱们的脑海中是可以想象出来画面效果的,但是如果要制作成 ai 视频的话,还是比较难以直接利用 ai 工具实现的。 像零下转弯这个画面就需要用一张图片来进行表现,余光撇见右侧建筑内有模糊的人影, 咱们还需要一张画面来表现这个模糊人影的场景,后面的停顿一秒钟也需要利用画面来进行呈现,之后还要呈现建筑的画面,如果咱们直接将这一段内容去发送给 ai 工具,生成静态图片的话,难度是比较高的, 可能难以生成我们满意的效果,所以按照这样的方式去生成剧本本非常的便捷,但是还是会存在部分的 bug, 那 么我们就可以利用方法二来获取剧本, 添加一个新对话,我们先来生成故事,再生成脚本,或者是直接根据故事来生成静态图片,那么咱们就用豆包来生成故事梗概,输入这一段需求, 提需求的思路还是和刚刚一样。首先是我是什么?我是一个擅长创作和改编故事的编剧, 我要做什么呢?要编写一个剧本故事冷盖,那么这该怎么做呢?我呢要求情节要简单易懂, 主角不超过三个人,字数大约在四百字左右,还是很简单的吧。需求提好之后,咱们就可以直接点击旁边的发送按钮, 稍作等待,咱们就获得了一个文档,这个文档里面呢就填写了我们的故事内容,我们可以来仔细阅读一下。 大致看了一下之后呢,这个故事讲的其实是一个爷爷和孙女为主角的故事,爷孙两个人是靠养活 山林中的古柏为生,爷爷这里有一个清白杖,是山神所赐,他呢能够保护山林的安危,但是突然有一天有一些外来的商人要来砍这个古柏, 爷爷就拦在树前面,可是被商人所伤,孙女看见之后就立马拿着这个青白杖跑入到了山林中去找山神,希望山神能够救救古柏。山神出现之后,告诉我孙女怎么样才能够去救整个山林, 希望有人是能够化作柏树来保佑山林的,孙女就同意了下来。到后来商人来砍这个古柏的时候, 就遇到了一些阻碍,爷爷后来就找到了山林里,就看到了他的孙女,经常坐着的石头旁边立着一个新的小柏树,上面还挂着他的物品, 其实也就是他的孙女化作了柏树来守护着山林,后来爷爷就经常的来到这边来跟柏树说话, 可以看到这一次的故事的前后逻辑性会更加强一些,前后文的联系更加紧密,咱们呢也可以就直接用这些文字去进行静态图片的生成, 也可以再利用这个逻辑性更强的故事来生成脚本。那么我们要怎么去进行提问呢?其实也非常简单,看到下面的这一块输入框,这里 咱们在输入框中写上,请用你的故事生成脚本,要求二十个镜头左右,分镜时长均在五秒钟左右,单个分镜的画面不要有紧别的切换。最后一句话还是比较重要的,赞!嗯,刚刚直接生成的脚本里, 豆包一个镜头里面会出现多个画面效果的描述,刚刚也是有说过的,这样的话呢,是不利于我们用 ai 工具去生成静态图片的,所以我们可以在后面加上这样的一句话,那么书写完成之后,就可以点击下面的发送按钮。 很快咱们又获得了关于这个清白照故事的分镜脚本了。可以看到这一次的脚本画面描述, 第一个镜头全景的景别,描绘的内容是青苍山连绵起伏,山脚下一片古柏树 林,林间小屋炊烟袅袅。可以看到,如果咱们将这句话发送给 ai 绘图工具的话呢,其实 ai 是 能够很好的为我们呈现出静态画面内容的,整个句子的描述里面没有包含多个画面的集合 语言,描述也是更加简洁的,那么就会非常方便的 ai 工具理解并且生成静态画面了,直接可以当做提示词来进行使用, 是不是还是非常方便的呢?如果大家觉得生成的脚本部分镜头不是特别满意的话,就可以看到上面这里有一个下载按钮,这里有一个 word 形式,我们可以把它下载下来,然后到文档中去对画面 内容中的文字描述稍作修改,接着也是可以直接用来生成视频所需的静态图片的。那么这节课咱们就介绍了 ai 视频剧本生成的两大方法, 不知道对于各位宝子们有没有帮助呢?如果有帮助的话可以在弹幕扣八八八哦!有任何问题都可以在评论区留言,咱们下个车见!

逼自己一个月学会刊范 ui 视频生成前一百九十八集存下吧,很难找全的!警告,本视频耗时两个半月制作,制作时长三百分钟,带你系统学习 comui 视频生成。这应该是全网最良心的 comui ui 入门教程了,专为新手小白录制相关的 ai 工具整合包以及全套工作流都已经打包好了,有需要的同学六六六抱走不谢! 只需一张显卡,你就能免费生成这样的 ai 视频,这就是地表最强 ai 生产力工具 comui v 八绿色解迫版,和那些花钱还要排队的网站相比,简直就是降维打击。 这个版本原声中文界面,哪怕是一零六零这类入门级显卡,日常练习基础短视频创作素材出图也完全够用。 不用魔法上网,没有内容审核限制,没有按月订阅、暗次扣费的各种套路,内置三百三十多款现成工作流,生成图片点一下就好,生成视频也是点一下就行。 整合包解压即用无脑安装,省去配置环境,报错挑事的各种麻烦,想试试的六六六拿去爽! 哈喽,大家好,这期视频我们一起来学习如何进行高清放大。那么首先我们来到熟悉的默认工作流,接着 咱们先选择一个大模型吧,这边我就来一个动漫 primex 大 模型。接下来边写一下正向提示词,咱们先输入质量词汇,也就是 masterpiece 杰作,还有高分辨率 high rise。 接着边写内容主体,我们就来一个 one girl 海边吧 beach 然后女孩穿着泳衣,我们可以翻译一下泳衣。 ok 接下来我们就来写氛围词汇,那么 anime style 好 的,关于我们人物的脸部特征,他的发色这些我们就先不管,接下来 写一下负面词汇,那还是输入 easy negative, 咱们的老朋友啊,这个词组包非常给力。编写好正负向提示词之后, 就来到了 k 彩样器那,这边我们先把种子值给固定一下,注意这个步骤是必要的,因为我们接下来的高清放大过程会需要锁定最开始的图像,接着把步数设置成二十五步, c f g 值为六点五,然后彩样器 d p n 加加二 n 调度器 cars。 随后我们把空 light 的 宽高都设置成七六八,也就是一张七六八乘七六八的正方形比例图片,咱们点击执行。 好的,我们可以看到最终图像已经生成出来了,但是有一点灰蒙蒙的是因为我们这个大模型的原装 v a e 其实有点拉垮。 我们这边需要另外加载一个安尼美 ve 模型,那么就在 ve 解码的 ve 输入拖出来,选择一个 ve load, 然后 在这儿加载咱们的安尼美 ve。 此时咱们再一次点击执行,可以看到图片的饱和度变高了,接着我们看到这张图象啊,放大看看看,可以发现它的细节其实是严重不足的,以及它的分辨率较低。 七六八乘七六八吗?那么我们为了克服这个问题,就要用到接下来的高清放大。咱们回到 k 采集器这边,在后边的 later 输出,拖出个节点, 按住 shift 键搜索缩放 later。 我 们可以看到这边拥有两个选项,分别是按比例缩放以及按尺寸缩放,那么按尺寸缩放就是把我们的原始图像比例给规定到某一个尺寸,这可能会导致图片的比例发生改变。 咱们一般选择缩放类型,那么它是按照原图的尺寸一定的倍数进行缩放。我这边把这个系数给设置成二吧,相当于原来的分辨率乘二, 也就是七六八,乘二等于幺五三六嘛。接着我们把原来的 k 裁样器复制一份过来,那么我们先摁 ctrl c, 然后再点击空白处,摁 ctrl shift 加 v, 我 们可以看到啊,咱们成功复制了一个带连线的 k 裁样器,哎,这一个就是 ctrl shift 加 v 的 作用,可以复制带连线的节点。接着我们把刚才的 later 按系数缩放的 later 输出连接到 k 采集器上, 哎,那么这 k 采集器我们也是二号 k 采集器,咱们可以建立一个组别,先在界面的空白处右键一下,然后点击添加组,哎,我们的这边就可以编辑组的名字,比方说一次放大,好的,我们接下来可以 设置这个组的大小,咱们在这蓝色框框的右下角可以拖动他哎,来控制他所覆盖的范围, 而被他所覆盖的所有节点都会跟着他一同进行移动。那同样呢,我们也为最开始的这个基础生图流程建立一个组别吧,添加组,然后命名为基础生图。 接下来我们就把刚才的节点都给覆盖了。随后为了让我们组与组之间更易于区分,我们可以右键这个组的任意位置,然后 看到编辑组,随后点击 color, 也就是颜色,我们可以在这儿去编辑组的颜色,哎,是吧,现在一个黄一个蓝,挺好看。然后我们在这个依次放大组,哎,怎么还没构建完呢?把 k 采集器的内存输出 添加一个 v 解码节点,然后这个 v 模型我们连哪?那肯定是连这个 v 加器的 eve 输出码,同样的连接在 ve 解码上。之后我们加载一个预览图像节点,来看看咱们的一次放大图片长啥样,对吧?那么此时我们的一次放大工作流就这么构建完了, 点击执行。哎,我们可以发现个事啊,咱们的生图怎么乱七八糟的呀,并且和我们的原图一点关系都没有,对吧?大家可以回想一下我们之前在图生图那节课所提到的降噪,那么我们此时啊降噪值为一代表什么呢? 代表着我们的 laten 输入,其实和一张空 laten 没什么区别吗?因为降噪值为一知识,整张前空间图像全是噪声,固然就和我们原图没有任何联系,所以我们这边需要把降噪值给设置成零点五, ok, 此时再次点击执行, 我们可以看到,对吧?现在在生成的过程中,咱们的原来图像的轮廓就已经非常相似了,而后续的只是进行一些细节的填充以及清晰度的提高。好的很快图片是成功生成了,我们一起来 品鉴一下,好吧,把这两张图给放在一起放大看,可以发现这张图添加了非常多的细节,清晰度也是得到了底下的提升。但是啊,我们仔细看可以发现 一次放大的这张图里边有很多像这样的矩形块,比方说像海浪的这里以及泳池内的这, 这是因为什么呢?它其实和两个参数有关,咱们先把这张图给缩小,看到 later 按系数缩放,那么首先第一个参数就是放大的倍数。 我们知道啊,如果说像这张原始图像吧,哎,这张图像它放大的倍数越高,那么它所传入这个 k 彩样器的 lat 图像也就越模糊,咱们可以实践一下, 这边我们把降噪值设置为零,就相当于直接输出这张图像的放大之后的前空间图像嘛,因为降噪值为零不会添加任何噪声。 ok, 咱们点击执行,我们可以看到哈,刚才 k 传感器这边是不是压根就没动,然后预览图像这边也是出现了, 哎,他经过二倍放大之后的未经降噪图像就长这个样子,里边其实是有很多矩形块的,对吧? 我们仔细看可以发现,原来这些丝滑的线条都变成了锯齿状。那么如果说我们继续把这个放大系数给调高,比方说四倍吧,咱们来看一下。 ok, 我 们可以看到,现在这些矩形块是不是变得更加明显了, 简直变成了一张像素风的画,大家可以想一想啊,如果说让我给这张图像进行降噪,并且把降噪值调成像刚才的零点五,带来了什么结果呢?会保留很多原先的这些 矩形块的特征,对吧?那么想要缓解这一点,我们就只能去提高降噪值,让 ai 改变的幅度变大一些。 好,我们这边还是同样做个例子,把系数给调成二,也就是调回去嘛,然后把降噪值我们设置为零点五五。 ok, 咱们再次跑一下,看一下此时还会不会有像咱们第一次做高清放大时的那些矩形块, ok, 现在我们可以看到,降噪值提高了之后, ai 确实发挥空间变大了嘛, 而此时张图像的那些非常明显的像素快就这么消失了。但是这其实是第一种方法,而这种方法带来的副作用很明显,我们的降噪值提高了,就和原图的特征 越来越远了,对吧?我们可以来对比一下他和我们原图,而我们还有第二种方法。什么方法呢? 就是改变我们像素快的大小吗?那比方说我们现在把这个系数给调成 一点五,把降噪指示成零,咱们来看一下。那么此时啊,这些像素快其实模糊化还没这么严重,代表着什么?有什么意义呢?代表着我们不需要像零点五五这么高的降噪程度,比方说调个零点五就能够让他给 非常丝滑的完全光线放大,因为我们的原始传入图像不算特别模糊吗?哦,此时我们再把这降噪值给调成零点五,我们来看一下怎么样啊?现在是不是 同样消除了那些非常明显的像素快?而这种方法优点当然就是更能够保留我们原图的特征,因为我们降噪值越低,往往也会和原图越相近。 但是这种方法也是有缺点的,也就是图片的尺寸没这么大,因为我们设置的放大倍数是一点五,相当于啥呢?相当于咱们原始图像的尺寸成个一点五倍,那肯定是不如成两倍大的。 细节方面可能也就没有系数为二的时候多,但是我们还是可以用其他方法来弥补。什么方法呢?那么就是我们接下来要讲的 二次放大,没错哈,咱们还有二次放大,双击空白处搜索 s d upscale, 咱们看到第一个奥特曼 s d upscale, 中文翻译就是 s d 放大,这个节点就是我们进行二次放大的关键节点了,咱们先为它新建一个组别吧,摁右键点击添加组,然后把这个组的名字命名为二次放大,随后先给他设置一个组别的范围, 然后调整一下组的颜色吧,让咱们工作流看起来好看一些。我们回到 s e 放大节点,可以看到它有非常多的输入,但它输出只有一个,对吧?而这些输入该怎么连呢?那么必然我们的图像就要连接着我们依次放大后的图像输出嘛,模型的话我们还是连回去,连接到哪呢? 那就是我们的 checkpoint 模型,但是大家可以发现啊,其实这个 checkpoint 加载器在这,而我们的模型输入在这,哎,是不是隔老远了拖过去很不方便,对吧? 哎,这边我们来介绍一个转接点,咱们看看。把模型拖出来之后,松开手可以看到有这个 reroute, 中文翻译是转接点的意思, 哎,那么这个节点就相当于我们这个模型输出的代理,就像个中转站一样吧,它的作用就是让我们整个工作流看起来更整洁,并且也能方便我们进行连线嘛。咱把这个转接点给拖过去,来,我们拖过来,随后把转接点和模型输入相连, 那同样的,我们正负面条件也可以用同样的方法,那么就是把这个条件给添加个转接点,当然这转接点其实还有个快捷方式,就是我们在这条件输出这边啊,摁一下鼠标中间就可以看到,哎,自动添加了一个转接点,那么下边这个也一样。好,我们接下来把这个转接点 给拖过来,之后再与正负面条件相连,注意不要连错之后的 v a e, 我 们也用类似的方法摁一下鼠标重键,接着把转接点给拖过来。好的,那么以上啊,我们基本连完了, 接着咱们看到放大模型,那么这个我们要新增个节点,叫做放大模型加载器,然后我们在放大模型名称这边点开来,可以发现也是有很多种类,对吧?比方说有放大四倍的,放大八倍的,还有放大两倍的以及放大三倍的, 大家可以根据自己的需求来进行选择,我这边的话就选一个放大四倍吧。接下来我们在图像输出加载一个预览图像节点,这么一来我们就完成了整一个二次放大工作流的搭建,咱们点击执行,我们可以看得到这个 s d 放大的工作原理, 哎,其实非常明显,就是他会分块进行放大,因为如果说我们用 sd 一 点五的模型或者说其他模型吧进行直接放大的话,效果会非常糟糕,因为咱们底膜并没有一次性直接生成四 k 图像的能力嘛, 所以说,哎,作者就用非常奇妙的方法进行分块放大,来把一个大任务分成非常多的小任务,就好像咱们 gpu 的 运行原理一样,这么一来完成了我们最终的放大过程,咱们一起来看一下吧。这个是进行过二次放大之后的图片,我们再把它 和原始图像进行一个对比来,咱们可以看到这张图像是不是整体的质感,图片的质量 提升了 n 个档次,对吧?无论是细节还是图片的明部暗部都得到了非常大的提升。比方说我们可以看到像他这个胸部上边的阴影,哎,这边只是非常潦草的 勾勒了一下,而咱们的二次放大之后,我们可以看到他还显现出了头发的阴影, 对吧?那么这些都是细节的体现,但是我们同时也能发现放大的过程中会造成图片 内容的变化,那比方说像这边泳池旁边的,哎,这个像是一个毛巾一样的玩意,在咱们最终放大之后,它变成了流水, 对,那这些都是放大过程中可能会造成的变化,所以我们就需要去抽卡,以达成我们最终想要的目标。好的,我们现在来概览一下目前已学的 二次放大。那首先我们一次放大用到的就是这个 laid 按系数缩放,把我们的 laid 图像 扩大了一点五倍嘛,同时把降噪程度设置为零点五到零点六之间,以确保和我们的原图特征相似。之后我们再用 s d 放大来完成我们的二次放大过程。而咱们的 s d 放大它的方法就是分块进行,哎,比方说把我们一张 可能是四 k 的 图像分成非常多的五幺二乘五幺二的小像素,快来一个一个的进行放大。那之后其实啊我们还有三次放大叫做使用模型放大,我们搜索节点, 使用模型放大图像,选择该节点,那么这个节点也是非常容易,并且它的处理速度也是比较快的,它就是较为简单暴力的把我们的原图给放大两倍,三倍甚至四倍, 放大的过程中不会用到像之前的降噪类似的方法,好,我们一起来看一下吧。先把这个图像给连接在二次放大的图像输出上,同时加载一个放大模型拖出来,选择放大模型加载器,这边我们也是保持默认即可, 随后拖出一个图像预览节点,这么一来我们的三次放大就构建完成了,我们先给他构建一个组别吧。好的,现在我们把这个相关参数 就是种子值给调成固定,不然的话每跑一次都会把之前的放大流程给执行一遍, 这样其实挺费时间的。同样的,我们的 s d 放大运行后,操作也是设置为固定, ok, 咱们点击执行好了,我们的最终图像也是成功生成了,我们可以一起来把它和我们的二次放大来做个对比。 我们现在不断的放大,可以发现这张图片的像素是非常夸张的,已经放的这么大了,但是还是没有看见那种模糊的像素快,而我们此时再看看咱们的二次放大图片,也是同样的位置,咱们不断放大,哎, 有没有感觉到这边明显比刚才的模糊,那么这就是我们三次放大带来的变化,不过这张图片的大小也是非常夸张的,通常都会达到几十 m, ok, 那 么以上啊,就是我们 三次放大的工作流,那么想要这套工作的小伙伴可以在评论区内领取。最后我们对比一下原始图像和三次放大图像之间的差距吧, 我们可以看到,那么经过了三次放大之后,图片的像素甚至有点过高了,而优化程度高的有点让人觉得不舒服,比方说我们可以看到这些线条 其实都是比较锐利的,所以我个人平常一般用二次放大即可,三次放大就有点过了,并且 图片尺寸太大,不太方便使用。好的,那么以上就是关于本期的三次放大全流程,我们下期一起来学习能够控制图像的 ctrl 键吧,咱们就下期再见,拜拜。 哈喽,大家好,这期视频我们一起来学习 control, 那 这 control 也是整个一个靠我以外中不得不品的一环,因为它功能实在太强大了,可以实现线条控制、姿势控制、深度控制、 面部参考、局部重绘等等功能,而这些功能目的都是为了更好的去帮助我们进行 图片的控制,从而让我们的 ai 绘画有更多可以商业落地的可能性。如果说咱们 ai 绘画一直处 于非常不可控的一段,那么提供的主要部分肯定集中于创意以及设计灵感,但是如果说像引入了 ctrl 代之后,它就可以投入到真正的生产流程中。 我们来到 configurator 的 界面后,那么首先我们腾出一些位置吧,把 k 采暖器以及后面的节点给拖动一下,然后在空白处双击界面搜索 control on 空格 a d v, 接着我们选择应用 control net 旧版高级,那么这一个啊,就是有关 control net 的 核心节点了,接下来我们要介绍的像什么 open pose, lie on, soft h dips 等等, ctrl 内有关模型都是搭载在这个节点上的,而由于我们有关 ctrl 的 内容比较多,所以我们一共分了上下两节课,那么本节课我们就一起来学习能够进行 线条控制的有关 ctrl 内模型。那么咱们第一个案例就是利用 ctrl 内来进行线稿上色, 这个过程其实是非常容易的,大家跟着我操作就好。我们先把这个 ctrl 应用的输入给连接一下,那么正负面条件当然就连接在文本编码器上吧。接着这个 ctrl 来输入啊,咱 们就拖出来加载一个 ctrl, 然后在 ctrl 里加载器里边选择 line on, 看到这个选项 s d 一 点五 line on, 那 么这个 control 内它对应的大模型底膜就是 s d 一 点五, 如果说我们用的是 s d 叉 l 的 底膜,那么就得换成 s d 叉 l 的 有关 control 内,待会儿我们再做个示范,咱们就先用这一个 s d 一 点五的 line on control 念,接着我们看到下边的图像输入,我们拖出来 按住 shift 键搜索 line on, 接着选择这一个颠倒 line on, 也就是标准线稿。那么这个节点的作用啊,就是为了预处理我们的上传图像,把我们上传图像的图片先加工一下,然后再传入到我们的 ctrl a 核心节点 中,所以说我们这个 line on 艺术线预处理器的图像输入,当然连接的就是我们的输入图像, 我们在这边上传一张动漫限稿图,注意限稿咱们最好上传的是白底黑边的图像,如果说是黑底白边的,我们就直接忽略这一个艺术线预处理器,让黑底白边图像直通我们的 ctrl 列核心节点即可。 好,我们接下来在这个预处理器的图像输出再连接一个预览图像节点,这样一来我们待会就能看到预处理之后的图像长啥样,然后就是把这个 control 内的正负面条件输出给连接在 k 彩样器上,这个也是非常容易。好的,接下来我们工作流 已经构建完毕了,还需要修改的就是提示词以及 k 裁样器的相关参数,还有大模型,咱们先从大模型看起吧,因为我们要做的是动漫上色,所以说我们最好选择一个动漫线稿图,动漫大模型,那么这边用的是 primax, 然后我们把这个最终的 ve 解码的 ve 输入啊,我们自己添加一个 ve 模型节点,选择这个,哎,看到了吗? anime ve 这个 ve 是 对于动漫图像解码较为擅长的, 同样的,我们把这个 v a e 的 输出也连接在这个 control 链核心节点上,哎,给连过来,那接下来我们就可以放心的编写提示词了。那怎么编写呢?肯定就是先输入质量词汇嘛, masterpiece 杰作,然后就是 high race, 高清晰度, best quality 最高质量,然后我们才编写人物的主体,那么就来一个 one girl 以及火红的头发, red hair, 红色的头发,然后他有着一双金色的眼睛,那么就 golden eyes, 接着他的背景是大森林,我们可以输入 forest background 以及动漫风格嘛, anime style, 好的,互相提示词,我们还是一如既往来一个 easy negative, 选择 embedded easy negative。 这样一来我们是不是只剩下 k 采氧器了?咱们就把这个迭代步数给设置成二十五步,可以增加部分的细节,然后 c f g 值为六点,五 彩样器呢? d p n p p r n 调度器 color。 随后咱们按 ctrl 加 enter 执行一下,看一下我们初次的出图效果究竟咋样。哎,我们可以发现啊,这张图片怎么样?是不是和我们的线稿做到了百分之九十九的吻合, 但是我们能发现个问题,啥问题啊?哎,我们把这张图片给稍微放大一些。怎么回事?这张图片的比例好像和我们的原图尺寸不太对啊,怎么是一张正方形比例的图片对吧?你看他的手臂以及他的这个头顶都不见了,这是 怎么一回事呢?那么这边我们就要看到空雷特了,那么咱们之前也学过空雷特是控制图像的尺寸,对吧?不过问题又来了, 我们怎么才能知道这张图像的尺寸呢?难不成我们每一次进行类似的神图流程,每换一张新的图片,都需要去查这张图片是 a r 五幺二乘七六八,还是幺零二四乘以幺五三六。查完之后呢?咱们再输入进来,其实非常麻烦, 所以说我们需要构建新的节点,新的流程来把这一过程进行自动化。接下来就跟着我一起操作,咱们在这个加载图像的图像输出后边拖出来,按住 shift 键搜索 size, 也就是尺寸的意思,然后选择 get image size。 注意这个节点是 s 三轴节点包的,当然也有很多同样功能的节点,比方说下面这个 stability 节点包的 game size 也是有相似的作用。 好,我们选择第一个,然后就可以看到这样的节点,它是什么意思啊?一共有三个输出嘛,分别是 wide 宽度、 high 高度以及 count 数量。别的小伙伴就会问啊, up 主,我要这些东西来干嘛呀?你说我们怎么匹配到这空来头的数据上呢?哎, 这边我教大家一个方法,咱们在这空来特的节点上摁一下右键,随后看到将控件转化为输入。在这边我们可以发现一共有转化宽度为输入,转化高度为输入,以及转 p c 大 小为输入,所以我们就只需要把宽度以及它的高度都设置成输入,就可以和我们的这个获取图像尺寸节点进行匹配。 匹配呢,那必然就是宽度对宽度,高度对高度嘛,咱们连接一下 y 连接到宽度上, high 连接到高度上。这样一来啊,我们每一次上传的图像都能够自动匹配相应的尺寸,从而进行我们的 现稿上色流程。好,咱们构建完之后再次点击执行来看一下此事啊,经过了我们自动化流程之后,图片的生成效果咋样?哎,是不是这张图片啊,成功变成了竖屏的比例,证明我们刚才所做的一切是有用的,对吧? 而同时我们也能看到这一张预处理之后的图像就变成黑底白边图,而这也正如我之前所说,哎,如果我们的基础的上传图像就已经是像这样的黑底白边图,那么我们就不需要这个预处理器可以直接连接到这了。 我们预处理器在这的主要只能就是把我们的上传图像也变成黑底白边,从而方便我们的 ctrl n 来进行处理。好的,那么以上就是我们的第一个 ctrl n 叫做 line, 接下来我们来讲第二个 ctrl n, 它同样也是针对于 线条控制,名字就是 soft edge 软边缘,而不同 ctrl n 的 流程其实非常的近似 我们,其实啊,只需把这个预处理器给替换成 softedge 的 预处理器,以及把我们的 control 模型给替换成 softedge 模型,就可使用上我们的 softedge 功能,所以我们在这儿先搜索 softedge, 哎, 咱们可以看到一共有两个,分别是 s d 一 点五以及 s d 叉 l 的, 我相信呢,有的小伙伴可能对咱 s d 一 点五模型和 s c 叉幺模型的区别不太了解,我这边简单的表述一下, s d 一 点五用的是五幺二乘五幺二的训练级,所以说它的升图尺寸上限是有个限度的, 比方说让它生成幺零二四乘幺零二四的弧度就会非常的古怪。而因为我们 s d 叉幺是用的幺零二四乘幺零二四的训练级,所以说它可以 植出幺零二四乘幺零二四的图片,也就是说它的基础比 s e 一 点五要牢,能够植出的图片细节的上限也更高。好的解释完毕,我们重新回到刚才的 ctrl 点模型,那么在这边因为我们的大模型 是 s 一 点五嘛,所以说我们选择的是 s e 一 点五的缩减。接下来我们就替换一下这个预处理器吧,咱们先把它给删去,然后我们在这个 ctrl 啊图像输入按住 shift 键 拖出来,然后搜索 soft edge, 我 们可以看到一共有两个,分别是 s e d 的 预处理器,还有叫做 p d n 的 预处理器,咱一般选用的是 s e d, 然后再把这预处理器的图像输出连接在 control 内上,随后我 我们再把这个域处理器连接一个域栏图像节点。 ok, 这样我们就成功完成了从 line on 到 soft edge 的 转变。咱们点即直行来看一下此时的效果,我们可以发现个事,什么事情呢?实体域处理图像是不是和刚才的 line on 区别非常大呀?哎, 刚才的 line on 非常的细致,而此时的 soft edge 也就是软边缘,它是较为模糊,给予了 ai 更多的自由发挥空间,对吧?那同时呢,我们可以看到它生成出来的最终图像,哎,感觉到效果是不是也挺不错的?虽然说没有非常一比一的还原我们的 原始线稿图,但是呈现出给咱们观众的视觉效果也有不一样的风味。而我们这个 soft a 软边缘一般匹配的使用场景是怎么样的?那就是进行风格转会,或是基于原图的线条特征来对它进行大体不变细节改变的目标需求。 比方说我们这边上传一张蒙娜丽莎,哼,好吧,接着我们点击执行。哎,我们现在是不是可以看到成功的把我们的蒙娜丽莎匹配上咱们的正向提示词,哎,我们书写了啥呀?叫做红色头发 以及深处森林之中,对吧?怎么样?我们最终生成的图像是不是非常有意思啊?并且它的整体轮廓和我们的原图是非常相近的,因为我们也可以看到他预处理之后的图像怎么 保留了我们脸部以及身体上主要的线条特征。但是咱可以发现一个问题,什么问题呢?咱们最终生成图像的手指是不是?哎?什么情况?怎么只有四根手指啊? 这很明显不对,因为我们都知道蒙娜丽莎她不是残疾人吧,对吧?我们来看看一二三四五五根手指,所以说该如何去改进这一点呢? 那么我们的下一节课就会提到有关人物姿态控制以及面部控制的 control 类型叫做 open pose, 而不同的 control 之间是可以同时 一起在工作流中运用的。那么除此之外,其实还有其他的线条处理,比方说像 kenny, 而这 kenny 我 一直不太推荐使用,大家可以看一下它们的对比图片,大部分情况下能用 kenny 场景咱们用 line on 即可, 还需要更多的 ai 艺术性,那么我们就是用 soft 在 这软边缘嘛。好吧,那么以上啊就是关于 ctrl 上半部分的内容,我们下节课继续来聊聊下半部分内容,咱们就下期再见了,拜拜。 哈喽,大家好,这节课我们一起来学习能够进行 ai 换脸的 ip adopt。 首先我们加载默认工作流界面,先为接下来的节点给腾出一些位置,然后在空白处双击界面搜索 ipa。 接着我们找到 ipad face id, 那 么这个节点就是我们今天要讲的核心节点了, 我们可以看到它的输入非常多,不过呢它的输出我们只用到这个默斗即可,那么我们一起来看一下它的这些输入该连到哪吧。首先我们要连的不是默斗,而是下边的 ipad, 我们在这儿给拨出来加载一个节点叫做 i p a 的 face id 加载器,然后我们可以看到这个加载器它一共有两个输入以及两个输出,那么针对于输入方面,下边的这个 ip address 输入啊,是方便我们与 其他 ipa 进行串联时候使用的,咱们这节课暂时不会用到。而另外一个书就是 model, 我 们只需要连接在我们的 jupiter 接收器上即可。随后我们把 model 输出连接在 ipa 上,当然我们也可以把这个 model 输入给添加一个 lora 加载器,然后在这边去添加我们想要风格的 lora。 好, 那么既然都讲到这儿了,我们就还是用个 lora 吧,比方说添加细节的 s d 叉 l lora, 我 们可以看到 像这些 lora 的 后边一般都有跟上什么 s d 一 点五或者说 s d 叉 l 的 标注,不同的 lora 对 应着不同的底膜。 如果说一点五是在选择好 lora 之后, 我们把路由加载器的模型以及客输入给连接在 checkpoint 加载器上。连过来之后,我们自然是要选用一款 s d h l 的 大模型,因为咱已经决定使用这个 s d h l 的 路由了嘛,所以我们在大模型这边选择一款 摄影写真的叉 l 大 模型。那么既然我们选择了草药,就代表着我们待会生图,可以直接把尺寸给拉到幺零二四乘幺零二四。 ok, 我 们接下来继续看到这一个 ipad face id 的 核心节点,我们要输入一张图像,那么这张图像想必也是我们的人脸参考图,我们拖出来,然后加载一个加载图像节点, 比方说参考哈利波特的赫敏吧。然后我们可以看到啊,这个 face id 下边还有一个 image negative, 翻译成负面图像,那这是啥意思? 其实它和我们的正负面提示词有点像,图像输入就是我们想参考的,而负面图像输入代表着我们 不想生成的图像,那我们不想生成什么样的图像呢?必然是扭曲的,变形的,充满噪波的,对吧?所以说我们这边呀,要给他添加这么一个图像输入, ok, 问题又来了,我们从哪去制造这么一张图像?好, 接下来啊,我们在这个负面图像的输入拖出来,按住 shift 键搜索 ipa noise, 也就是噪波, 我们可以看到有个节点啊,叫做 ipad noise, 选择该选项,随后我们在类型这边选择的是 java, 也就是反转,接着把这个 blur, 也就是模糊值设置为十,随后输入就连接在我们的原始图像上,而最下边的遮罩啊,这个输入是可怜可不怜的,啥意思?比方说我们想只参考这张图像的 人脸,不参考他的头发或者说服装,那么我们就可以给这张图像先加上遮罩,然后再用加载图像的遮罩输出,连接在注意力遮罩输入中。那么我们这边先不搞这么多复杂的操作,所以暂时先不连该节点。 然后我们看到下边还有两个输入,分别是 clip vision 以及 inside face, 这两个都是必要的模型输入,同时构建的方法也很简单,只需直接拖出来,然后选择 clip vision load, 也就是 clip 视觉加载器。 然后在这边我们要选择的是 b 幺六零 k, 看到了吗?这个 b 幺六零 k 后缀的模型,然后把 inside face 也拖出来,加载一个 ipad, inside face load 就是 该模型的加载器,其他我们什么都不用管,这么一来我们就成功的把 ipa 的 输入都给连完了。 接下来我们要看到刚刚构建的一个节点,也就是这一个 face id 加载器,在这边有多种预设,哎,我们点开来可以看到有 face id 以及 face id plus, 还有 face id plus v 二, 我们直接选择 plus v 二。之后我们再把核心节点的模型输出连接在 k 彩样器上即可。那么我们剩下的任务就是编写提示词以及 k 彩样器的调餐了。咱们就简单来一个起手视线 masterpiece high race 高清晰度 best quality 最高质量,然后 one girl 一个女孩在花园中 garden, 那 么 最好来一个写实风格吧。之后负面提示词我们就简单来一个 easy negative。 好, 我们再看到 k 裁样器,把步数设置成二十五步, c f g 值为六点五,裁样器 d p n p b r n 调度器为 cars。 点击执行。我们可以看到现在图片是成功生成了,我们一起来把它和原图进行个对比,怎么样? 人物的五官特征还是比较相像的,接下来我们一次性跑四张图,让出图效果更为全面一些,换一组提示词吧,把花园给替换成森林, 随后再次执行。好的图片是成功生成,我们一起来预览一下怎么样。这个五官特征大体来说还是比较相近的,虽然说可能会出现坏图,比方说像这张这个眼睛傻愣愣的,不过我们也可以看到这个出图质感堪比电影级。 那么我们接下来换一张参考人脸,再看看效果如何,比方说泰勒。接着 ctrl enter, 好 的图片出来了,我们可以看到这个眉眼还是比较相近的, 要提一嘴的是,当我们在进行 face id plus、 vr 以及 face id 的 切换时,可能会出现一些小报错,比方我们现在用 face id 来跑词图片。 ok, 图片出来了,我们也可以比较一下它和 vr 之间的效果对比,个人感觉 vr 可能效果更好一些。 我们可以看到啊,这个一代的 face id, 它的人脸比较僵,哎,这四张图片面部表情几乎都没什么差别。好,我们此时如果说要再调用 face id plus v 二的话,咱们点击执行可以看看就会出现这么一个报错,但是我们完全不用担心 把报错关掉,再一次点击执行又可以顺利跑通我们的工作流。我觉得这可能是 ipad 开发者在版本更迭中出现的一个小 bug 吧。 ok, 我 们现在用回了 vr 之后,感觉到图片相比一代更为自然了一些。 好的,那么以上就是关于本期的全内容了,我们下期一起结合前面所学知识来完成老照片修复工作流,那么我们就下期再见了,拜拜。 好,大家好,欢迎来到本期的康复 y y 教程,那么这节课我们一起来做一个老照片修复工作流,同时我们也会将前面所学的知识给融合进来。 我知道大家看到这一套工作流可能会觉得有点害怕是吧,因为它确实挺庞大的,但是如果我们细看的话,就可以发现它每一个构建 以及节点流程都是我们曾经所学过的。那么首先咱们从最左边看起第一个也就是提示词模块,这没什么好说的嘛,正负向提示词的输入,那接下来我们会把提示词传入到这个 control 模块中,那 control 我 们之前也学过, 这边我们一共用到了三个 control 类,分别是 line on, 线稿处理以及深度处理,还有姿态处理。咱们之前有提过深度以及姿态,但是万能的两个 control 类模型,所以说 其实特别要记得也就是这一个 line on 处理器。总之啊,这个 ctrl 内的作用就是为了保证我们生成图片和参考图片尽可能的相近,那么随后我们会进行第一次升图,而我们可以看到第一次出图的效果其实比较糟糕, 对吧?我们放大看看,哎,我们可以看到啊,只是保证了人脸的轮廓,还有他的发型以及服装特征线条上尽可能的相似,而以此深图做出的最大贡献,那莫过于给咱们的图片进行了一个上色处理,对吧? 我们可以看到上色效果还不错,只不过图片呢,还是有非常多的噪点。那么此时我们将 依次生图传入到换脸修复模块中,那么在这边我们可以用前面所学的 ipad 来进行面部特征参考进行换脸。那么我们也可以用这个较为简单的叫做 react 换脸,它的功能和 ipad 差不多, 只不过没有 ipa 大 成那么的全面,它是专门针对于人物换脸的一个节点,并不包括风格参考,那么我们可以看一下怎么样,这个换脸之后的效果还是非常不错的,同时我们可以看到 像这张图片吧,他把咱们人物脸上的这些折痕都给抹去,但是这张图片还是有非常多的噪点啊,对吧?比方说我们可以看到,哎,这个右上角有较为明显的折痕,还有这个人物的脖子上也有一些老照片的裂纹,那么如何 删去这些不必要的元素,同时增强我们画面的细节整体的清晰度?那这必然就是要放在我们的高清放大工作流嘛。我们顺着画脸修复模块往后看,可以看到 a, 那么就被导入到了我们的高清放大模块。那么在这边我们会对传入进来的图片首先进行一个一点五倍的放大,随后再次用刚才的 v i t 换脸,保证面部特征和我们的原图尽可能的接近。 我们现在把原图拖过来对比一下,来,我们一起看看这张人脸修复的效果,总体来说还是非常不错的,那么接下来我们就将从零开 开始去搭建这一套完整工作流吧。 ok, 那 么我们先在左上角点击工作流,最后点击浏览模板,选择一个默认工作流,然后 开始构建我们的完整流程。那么首先我们来选择一个大模型吧,这边可以选用 sd 一 点五,当然也可以使用 sd 叉 l, 我 的话就来一个写真的 sd 叉 l 大 模型。 好的,接下来我们就要添加第一个组建,也就是 ctrl 了,当然在我们添加 ctrl 了之前,我们先把整一个工作流给稍微整理一下,咱们把提示词 给放在一边,然后把这些基础的生图组建 a 给移动到另外一个小角落,接着我们在空白处点击双击界面搜索 ctrl n av 加载这一个应用, ctrl 内旧版高级节点,那么这个节点也是我们的老朋友了吗?之前也用过很多次,那么看到它的输入当然就是正面条件连在 文本编码器的正面条件,负面条件连在文本编码器的负面条件。随后在 ctrl 内这边拖出一个加载 ctrl 内模型节点。这边注意了,我们放大看看, 咱们在 ctrl 键名称这边选择的是这一个 s d 叉 l 通用型 ctrl n, 哎,这算是一个较为便捷的模型,它统合了所有主流 ctrl n 模型,比方说什么 line up, open pose, dips, soft h 等等类型全都包含。那么接下来我们就加载一个域处理器,这边我们第一个 control 栏用的是 line on, 所以 说我们搜索 line on 域处理器, 选择 realistic line are 真实现稿。接着我们在域处理器的图像输出按住 shift 键拖出来搜索缩放图像,选择该节点。那么这一个小节点的主要作用啊,就是约束我们的 输入图像尺寸,因为如果我们待会的输入图像尺寸过大的话,咱们在依次生图传入到 later 输入的时候,可能会因为尺寸过大而产生生图变形。所以说我们加载了一个图像缩放节点,在具体调参之前,先把我们的原始图像 给导入进来。 ok, 这边咱们上传了一张噪点非常非常多,以及图片破损较为严重的老照片,那么接下来我们先为它规范一个尺寸,因为我们此时其实并不知道这张照片啊,它的尺寸究竟是多少。我们直接在 图像缩放节点的高度输入幺零二四,就是我们希望待会啊它的高度能变成幺零二四, 宽度如果说要跟随着高度进行改变的话,咱们就把宽度设置成零,哎,那么意思就是说,待会啊,高度会按照一定的比例变成幺零二四,而宽度也会跟随着该比例进行变动, 就是保留我们原图像的宽高比。好了,既然现在已经把原始图像给处理好了,咱们就继续连 ctrl 键吧。我们来看一下,刚才这个 ctrl 键的核心节点还有个 ve 没有输入,那么这边我们可以选择 哎,直接把咱们 checkpoint 加载器的 ve 给连上来。不过这边啊,有一个其他方法,因为待会我们会构建三个 ctrl, 这么一来,咱们的 ve 其实啊连线非常多对吧,甚至后边的高清放大还需要用到该 ve, 那 么有没有方法可以节省这些连线呢? 哎,还真有,我们在 ve 节点的后边拖出来,按住 shift 键搜索 anything everywhere, 看到该节点选择它,那么这个节点呢?它的功能啊,就好像我们路由器的天线哎, wifi 信号发送到了局,此时我们可以发现这个 ctrl 内应用的 v a e 输入, 哎,这个点是不是变亮了?那么这就是接收到了我们局输入的信号,无需连线,就把咱们的 v a e 给输入到了该节点, ok, 同样的,我们也可以把这个 clip 输出也添加一个全局输入,那么咱们把刚才的 clip 连线都给取消连接,随后在 clip 输出端拖出来,按住 shift 键,同样也是搜索 anything everywhere, 选择该节点。总之啊, 我们想让什么输出发送到节点,那么都可以连接这一个全局输入节点,但是 它也是有弊端的嘛,当然就是我们的连线不够明确,有时候如果出报错的话,可能素颜问题会较为麻烦,但这边只要跟着连,基本都是 ok。 好, 我们先把这些给放在一边,接下来我们要连接第二个 ctrl 内应用,那么选中刚才的核心节点 ctrl c, 然后在空白处摁 ctrl shift 加 v。 这快捷键之前也教过啊,就是带连线的,复制该节点之后,把正面条件与二号 ctrl 键相连。那么图像输入呢,我们当然要自己 另外选择一个预处理器,而我们的二号 ctrl 呢,咱们规划的是 openpos 嘛,当然 dips 也行,我们就搜索 openpos 选择该选项,接着再把这个预处理器的图像输入连接在图像缩放的图像输出端,大家可以发现呢, 此时我们的图像缩放就好像咱们原始图像的代理人嘛,我们接下来所需的所有 有关这张原图像的输入,肯定都是经过我们规划了尺寸之后,再参与到工作流中。好的,我们废话不多说,重新回到二号 ctrl n, 那 么有的同学可能会说,哎, up 主,不对呀,咱们的核心节点 ctrl n 模型怎么连到的是同一个 ctrl n 模型呢?那么刚才我也不是说了吗,咱们的这个 ctrl n 模型啊,是通用型, ctrl n 里边包含着各式各样的 c n 模型,所以咱们可以共用一个 ctrl 键加载器。而这么连接还有个好处,就是我们不需要分三次加载咱们的 c i 模型, 只需要加载一次哎,就可以供给给三个 ctrl 一 同使用,减少了升图的时间。那么在连接完二号 ctrl 内之后,咱们就开始连接三号 ctrl 内,同样的选中刚刚的核心节点,摁 ctrl shift 加 v 复制一份出来,然后正负面条件 简单链接。图像呢,也是拖出一个新节点,搜索 depths 深度,然后来一个 z o e depths 域处理器,图像输出自然而然就是连接在刚才的图像缩放上。这么一来,我们的三个 ctrl 键节点算是构建完了, 但是参数咱们要稍微微调一下。接下来我们把线稿还有深度的权重,也就是强度设置为零点五,看到身这边也是设置成零点五,随后我们再为他建立一个组别,命名为 ctrl net, 把工作留给稍微整理一下。好的,接下来我们来调整咱们 k 采样器有关的参数。这边我们的 later 输出当然要规范一下相关尺寸,咱们把空 later 的 宽高都转换为输入, 然后我们在图像缩放的后边拖出一个节点,叫做 get image size, 获取图像尺寸,选择该选项。那么这个节点啊,我们之前也用过嘛,我们把 width 连接在宽度上, high, 也就是高度连接在 calling 高度输入之后, 看到 k 采集器,我们稍微调整一下参数,比方说运行后操作一定要设置为固定,如果说是随机的话,那么我们接下来啊,无论工作流多庞大, 每生一次图都会整一套工作留在跑一遍。因为当我们设置为种子值是随机时,意味着什么?咱们种子值是变量啊,每生成一次之前都会发生改变吗?好在固定完种子值之后,把步数设置为二十五步, c f g 值为七 彩样器,还是选择 dpn p p r n 调度器 carras。 接下来咱们就来个预览图像节点吧,把这个保存图像给删去,我一般情况下用都是预览图像,直到生成出较满意图片再手动保存即可。这么一来,咱们的 一次生图工作流就这么完成了。同样的,为下边的 k 彩样器建立一个组别,命名为一次生图。 接下来在升图之前,我们得把关键词给调整一下,那首先是正下提示词,我们就简单地输入, 起手是 masterpiece 最高质量 best quality 极致的细节。接着一个男人多的描述词,我们也不用输入真实质感。然后在副象提示词这边还是来一个 easy negative, 好 的,编辑完后直接开始生成。 ok, 好 的,图片已经生成了,咱们一起来看一下。哎,这张图片我们可以看到他还是有非常多的噪点,不过这些我们都可以在下一步 进行去除。好了,那么接下来咱们在这个 v a e 结码后边添加一个新节点,把 图像拖出来,按住 shift 键搜索 react, 选择这一个快速换脸。有的笑话可能会说,哎,怎么又是一个新节点?但是啊,这个新节点它的功能非常好理解,以及它的整体操作 即为简易,咱们只需要连两个输入即可。那么现在已经连上了目标图像,原图像连哪?必然就是我们的老照片图像吧,连过来,哎,这样咱们的主要连线就已经连完了。 接下来我们在修复模型这边选择一点四点 p h 这个选项,其他的我们全都不用管,在图像输出,连一个预览图像节点就可以点击合成。 ok, 短短几秒钟啊,我们就可以看到啊,怎么样, 咱们的人脸特征是不是成功替换成了?哎,我们来对比一下咱们这张老照片的人脸特征,但是这张图像可以作为最终的输出吗?想必是肯定不行啊,因为图片还有这么多噪点 以及人物整体细节还不够,那么我们自然就要再添加一个高清放大节点嘛。但是在添加高清放大之前,咱们先给这个换脸小节点添加一个组别,命名为 ai 换脸。 好的,接下来我们就把这个画脸后的图像输出拖出来,加载一个 v e 编码器,那么这个 v e 编码器的 v e 输入是不是已经由我们刚才的全局输入节点成功导入了,对吧?我们可以看到,哎, 它是不是闪着红光?好,那么接下来我们就把这个 laten 输出连接一个节点,叫做 laten 缩放,选择这个选项 c 保持一点五不变,接着把刚才的 k 彩样器复制一份,然后按 ctrl shift 加 v 粘贴过来,那么关于这个 k 彩样器的模型以及正负面条件都保持原样即可。 但是 laten 输入肯定得换成缩放后的 laten 输入,然后降噪值我们设置为零点六五,咱们先跑一次图,看一下生图结果怎么样。 ok, 点击执行。好的图像也是成功生成了, 我们来看一下,那么这张图像是不是对比我们的输入图片噪点少了很多,但是有个问题就是它的面部特征,我们需要再连一个 react 换脸节点进行面部特征的替换,所以说咱们在 e a e 解码的后边需要再新建一个 react 换脸节点, 咱们就把刚才的给直接带连线粘贴过来,然后利用解码的图像输出连接在目标图像上,随后再换脸的图像输出连接一个预览图像节点。 这么一来,咱们再次点击生成,我们就可以看到面部特征成功被替换。现在对比一下他和我们的一次换脸后的差距,咱们可以看到整张图片的噪点少了非常非常多, 同时图片的整体像素以及人物的细节也得到一定程度的提升。接着我们把原始图像拖过来看一下,哎, 怎么样?这个修复效果还是非常不错的吧。好的,那么以上就是关于本期的全部内容了,我希望本套课程对你有所帮助,有所提高,而想要这套工作的小伙伴,欢迎在评论区内领取,那么我们就后会有期,拜拜!

首先是模型的这个部署啊,这里我们要生成视频,首先要有一个纹身视频的这个主模型,在 one 二点二这里我们在一个工作流里面使用到了两个模型,分别是 one 二点二,然后 text to video high noise 十四比特的,然后 want to point to text video low noise, 一个 high, 一个 low, 两个模型, 使用这两个模型来完成纹身视频的这个工作。好,这两个模型我们在这个网盘里面已经给到了大家,大家直接安装在 ulike 文件夹, model s 文件夹下面的 ulike 文件夹和 fluxbear flux dv 的 模型是同样的文件夹,我们可以自己起一个子文件夹的名称,比如说就叫 one 二点二,然后将这两个模型放进去,那模型还有配套的 clip 以及配套的 ve, 这里我们看一下我们使用的是 t 五 x x l f p 八,然后 e c m 三 f n skill 的 这一个模型,这一个 ve 模型是专属的 ve 啊, 这里我们需要下载这个 one 二点一的 ve, 它使用的 ve 是 one 二点一版本的 ve, 所以 我们把这个模型存放在这个 models 文件夹下面的 ve 模型文件。好,这是纹身视频工作流,它的两个主模型 就是视频生成的主模型以及配套的 club 模型。配套的 ve 模型一共四个模型,我们给它存放在相应的这个文件夹里面。 模型安装好之后,我们拖入这一条工作流,就可以直接点击运行,这个是完整的工作流,左边是我们的操作区,右边是已经调好参数的对一个内部的运行流程,在这一部分就是这个内部区域, 这里我们要加载模型,我们看一下,这里就是我们刚才说的万二点二两个主模型,一个是 high, 一个是 low, 这里我们加载参数,我们已经给他调到最优了, 这里的负面提示词写了负面提示词,我们可以保持默认,然后这里有两个 k 裁样器,这里的参数我们可以保持默认。这里的随机数种子,我们在工作流里面给他固定了这个,你可以选择打开,选择这个随机号, 这是他内部会运行的一个流程。另外就是操作区,这个就比较简单了,首先我们可以直接通过中文的文字来写提示词,描述我们的视频他的画面,然后你要调整这个视频的宽度和高度, 这里是宽和高,九百一十二乘以五百一十二,就是十六比九的横幅的画面,宽高越高,生成视频所需要的时间也会越多,然后视频的分辨率也会越高。下面这个长度,这个长度就是总帧数的意思,比如说现在是一百二十一帧, 那么这个帧数对应的一个参数就是帧率。在视频合成这个节点,第一行就是帧率,这里的帧率我们设置二十四,然后生成的视频的时长和帧率以及总帧数之间的关系,就是帧率乘以五加一等于总帧数, 那么时长就是这个总帧数。比如说一百二十一减去一千一百二,然后除以二十四,现在生成的就是一个五秒钟的视频,如果你想生成三秒的视频, 在帧率不变的情况下,咱们直接就是三秒乘以二十四,然后是七二,这里你就直接设置这个七三就行了,或者你写七十二,它会自动给你加移,设置到七十三, 这是我们主要调节的几个参数,宽度、高度、总帧数以及帧率。帧数和帧率决定了你视频的时长,时间越长,总帧数越高,帧率越高,生成的这个时间也就会越长。 这里我们在线使用二十四 g 的 显存,生成一次大概需要十一分钟左右。好,这里模型部署完成之后,包括这个参数大家会调整之后,剩下的就是这个提示词了, 这里我们只需要写不同的提示词,就可以给我们生成不同的内容。这里提示词的话,一方面可以参考我们刚才说的官方文档,在文档这里我们看它有哪些提示词的关键类型, 然后他的视力。另一方面我们可以参考这一个万二点二,就是阿里万象的这一个在线的视频网站,我们可以打开这一个网站,这个网站呢就是万二点二这一个视频模型,他在线生成的网站,但是你要加会员比较贵,所以我们使用工作流性价比更高。但是呢你可以参考他的这个视频的提示词, 这里点击之后我们就可以看到,就是别人生成这个视频,他用的提示词是什么样的?可以做一个参考,做一个灵感的参考。比如说这个这里我们都可以打开,打开之后我们看他描述的这个光线啊、 景别啊、构图啊,然后色调等等,这些我们都可以做一个参考。好,这些视频网站,包括吉梦的在线那个网站,他的提示词,他的灵感我们都可以拿来参考,然后用在我们的工作流里面,比如说我们这里写了提示词, 一个望远镜头拍摄的老虎在丛林中穿行的画面,就是一个全景,然后镜头是跟随老虎平稳的移动, 镜头平移,老虎位于画面的中央,然后是这个关于老虎的一些细节的描述,背景是茂密的绿色植被和树木,阳光透过树叶洒下斑驳的光影,所以这里的主体呢就是一只老虎,然后场景就是森林, 然后这个老虎的动作就是在丛林中穿行,在丛林中散步向前走这样一个动作,那基于这样的描述,然后我们设置十六比九这样的宽高, 九百一十二乘以五百一十二这个比例,然后我们刚才设置的是幺二幺,就是一百二十一针针率,我们设置二十四针,这个大家如果显存就是吃力的话,你可以牺牲一下它的质量,你设置到十二针或者十六针这样 或者八针更低的针,先把这个工作流跑起来,然后在你进行创作的时候,你再把针率给它调回来,调到二十四或者三十二更高的针率, 视频的流畅度就会越高,这个帧率降低一半,生成的时间也会降低一倍左右。然后 ai 就 给我们生成了一只老虎,然后在画面的中央,然后在森林中向前移动的向前散步的这样一个视频。我们再来看这一个提示词, 这里我们写的是这个一辆黑色的 suv 在 高速公路上疾驰的这个镜头, 然后描述了它的光线,大概是白天暖色调,然后荒芜的沙漠中,一辆黑色的 suv 正在高速公路上疾驰, 是一个俯拍的镜头,全景俯拍,然后一些这个描述,具体的描述道路两侧是干燥的草地,点缀着一些低矮的灌木丛,这里我们生成的是一样的十六比九,然后帧率设置的是二十四, 看一下 ai 给我们生成的一个俯拍的视角。然后 suv 在 高速公路上疾驰的这一个镜头, 这里它会循环展示啊,这一个视频就是五秒,它会循环展示纹身图,工作流就讲到这,有需要的滴滴我。

ai 全炸缸了!横空出世的 happy horse 直接踩着 c 弹子二登顶全球第一!它完全开源音画同出,自动锁,人物一致性,自动分镜。可以说现在普通人入局做慢剧变得更加简单了。这条视频可能会让你接下来四十八小时都睡不好觉,因为看完它,你再也没有借口说不知道 ai 慢剧怎么开! apple 从安装到精通,全程无废话无套路,带你真正掌握 ai 漫剧,来拿到我的整合包和入门教程!接下来正式开始!想不想只用 ai 免费软件,一个人就完成一部动画短片,甚至开启你的 ai 视频副业之路呢? 今天,这个超详细的 ai 视频制作教程它来了!我们将一起从 ai 视频脚本创作到 ai 图声视频,再到最终的 ai 视频剪辑和配音,全程揭秘 ai 视频是怎么做的!这期内容我会带你搞定 ai 视频制作的四大核心环节。 第一,没灵感,文笔不好, ai 如何帮你写出专业的 ai 视频分镜脚本呢?第二,不会画画, ai 如何把文字一键变成惊艳的 ai 视频动画呢? 第三,没有动画基础, ai 如何让你的分镜图片流畅的动起来呢?第四,不会剪辑,更不会配音。怎么才能把所有的内容串成一个完整的故事短片呢? 内容很详细,涉及到的所有 ai 视频工具都完全免费,而且国内可用。要不咱先收藏下?准备好了吗?让我们开启这场零成本的 ai 造梦之旅吧!第一步,我们来解决创作的源头, ai 视频脚本。要让 ai 写剧本,关键就两步, 选对工具,下对 ai 视频提示词。在 ai 写作这块,你可以用 gpt, 也可以直接用国内的 kimi 或文心一言豆包,随便挑一个合眼缘的就行。 无论你用哪个诀窍都是一样的,把它当成一个聪明的导演助理。比如我之前发布的千手观音的由来就是这样给 ai 下达指令的,第一,给角色,你是一名知名的短视频导演。第二,给任务创作一个关于千手观音由来的神话短片。 第三,要结果,需要专业的 ai 视频分镜脚本和旁白,全程大白话,它就能瞬间给到你专业结果。这套主力模板我也准备好了,你改改主题就能用。拿到脚本后,我们把旁白留下配音镜头画面描述就是我们下一步的绘画蓝图。 有了文字,怎么把它变成画面呢?很简单,我们继续让 ai 把镜头描述翻译成 ai 绘画能听懂的 ai 视频 prompt。 这次我们换一套指令,让 ai 扮演 ai 艺术助理,把脚本里的镜头描述一句句丢给它,就能生成专业的绘画提示词。 分享一个小技巧,想让镜头更丰富,可以把一句长的描述拆成几段,这样一个小动作就能让你的 ai 视频短片镜头数量翻倍。拿到提示词后,所有的文案工作就结束了,接下来开始真正的 ai 视频创作。 在众多 ai 视频生成软件里,我首推堪费于爱,因为它能让你一键套用工作流,直接跳过复杂参数设置,而且完全开源,免费 打开刊费 u i 把我分享的分镜画面工作流拖进来。你唯一要做的就是在这里的绿色框框里粘贴我们上一步生成的提示词,然后点击执行,看一张高质量的分镜图就出炉了, 不断更换提示词,就能生成所有的静态分镜画面。接下来就是最激动人心的环节, ai 图声视频, 还是用 cfui 换上我的第二个工作流,分镜转视频,上传你画好的静态分镜图片。接着在这里复制粘贴一段视频,运定提示词,接着点执行, 稍等片刻,图片就动起来了,变成了流畅的 ai 视频动画。这个工作流我还加了插帧功能,能让视频更丝滑,你直接用就行。不断重复这个过程,直到所有分镜都变成视频,我们就离成功不远了。 最后一步,我们使用剪映来完成最终的视频剪辑和视频配音。第一步, ai 配音还记得最初的旁白吗?复制它, 打开剪映,新建文本粘贴进去,在右侧找到朗读功能,挑选一个 ai 声音,点击一下 ai 视频配音怎么弄的,这个问题就瞬间解决了。第二步,剪辑成片。把生成的 ai 动画拖到时间轴上,调整长短,让画面和声音对齐, 加个转场,再从音频库里配个背景音乐,氛围感就拉满了。第三步,智能字幕,所有剪辑完成后,点击智能字幕, 剪映会自动生成字幕,你只需要检查一下字幕中有没有错别字就行。 ok, 点击导出。恭喜你,你的第一部 ai 生成视频作品诞生了!