今天两分钟教会你如何利用 copy ui 生成电影级多角度分镜与图声视频内容,不需要有专业基础,只需轻松一点,就能让你的作品堪比电影级大片上传图片工作流。自动生成多角度的分镜, 再选择合适的分镜生成想要的视频画面。先看效果,视频效果更是十分突出,画面细腻,动作衔接自然真实,光影恰到好处。我已经把工具和新手操作文档都打包好了,暗号暴走,开练吧!
粉丝1317获赞4081

二月十五日 com ui 新版整合包重磅更新,妥妥的新手小白福音,全全中文界面,完全不需要懂英文。更惊喜的是,这次整合包直接内置了两百三十个 ai 模板,全是大佬们都认可的实用功能,还全都帮你整理成现成的 工作流了。安装也还是超简单的,三步就能搞定,一下载二解压三双击打开,一键升图,一键升视频,一键做音乐,一键建模,所有操作都是点一下就能实现,特别省心。模板数量太多,我就不挨个介绍,想要的小伙伴七七八直接带走去玩。接下来开始软件教学。 hello 各位小伙伴大家好,欢迎来到 kufui 系列教程的第二节课,那么在本节课中,我们将介绍 kufui 的 配置要求以及安装与部署的过程。那么首先是电脑配置以及系统环境的介绍,首先是显卡方面, 最低要求是拥有四 g 级以上显存的英伟达显卡,如果显存不足,可能会影响到绘图过程的流畅度。接下来是 cpu, 关于 cpu 要求不高,英特尔十代 i 三以上就可以使用,但推荐使用性能更强的,如英特尔十三代 i 五幺三六零零 kf, 以获得更好的性能。 接下来是内存,内存至少需要十六 gb, 推荐三十二 gb 以上,以确保可以加载和运行较大的模型。 最后是硬盘,关于硬盘呢,至少需要两百 g 的 空余空间,推荐使用大容量的固态硬盘,因为 ai 绘图过程中会下载和生成大量的模型以及图像数据。那么接下来我们详细介绍一下 cf u i 的 下载以及部署方式。我们先安装资源包里面附带的启动器运行依赖, 接着打开解压之后的 cf ui 文件夹,在文件夹内找到 a 会式启动器,随后点击一键启动即可。首次启动时可能会安装一些必要的环境依赖。 稍等片刻后,我们便来到了 cf ui 的 主界面,接下来介绍第二种安装方法,官网资源包的安装,当然关于官网的资源包我们也可以在评论区内获取。我们解压完资源包后,在文件夹内找到这个项目, 双击运行,等待片刻后,我们便可以来到最原汁原味的 comfui 界面了。这个版本的 comfui 是 没有装任何非官网的插件的。 此外, comfui 完全离线工作,对 gpu 的 要求相对较低,但是也有 cpu 模式,不过在 cpu 模式下绘图速度较为缓慢。如果小伙伴们之前有使用过 webui 或其他类型的 stefusion ai 绘图应用,那 我们可以通过修改 comui 的 配置文件来实现在不同的 ai 绘图应用间共享大模型以及 loa 等等,以此减少对硬盘内存的占用。那么接下来我将向大家演示一下 如何将我们的 comui 大 模型以及 loa 的 加载路径修改成 web ui 的。 如果小伙伴们没有玩过 web ui, 那 么这一段可以直接跳过。好的,那么我们打开 comui, 接着我们找到这个文件 extra model path y a m l 点 example, 接着我们用记事本打开。好的,那么打开之后我们找到这一项 base path, 我 们要做的是把 base path 后面的这一串改成我们 web ui 文件夹的路径。比方说我们打开了 web ui 的 文件夹后,我们可以单机上面的这个栏目, 随后 ctrl c 复制。接着我们回到刚才的记事本内,将我们刚刚复制的路径粘贴到此处,随后我们保存并关闭记事本。接下来的一步很重要,我们需要将 example 以及这个点给删除,也就是将我们的文件名后缀改成点 y a m l, 随后点击确定即可。那么接下来我们打开 ctrl u r 来确认一下。 好的,我们这边看一下区块朋友加载器里面的大模型,点开后我们可以看到多了,非常多啊,那么这就证明我们成功把模型路径合并到了 vip ui 内。好的,那么以上就是关于本期的全部内容了,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! 欢迎来到 kufu y 系列教程的第三节,那么在本节课中,我们将一起了解 kufu y 的 主界面以及各种参数到底代表了什么。最后我们将学习 stability fusion 生成图片的根本原理。好的,我们打开了秋月大佬的会式启动器后,点击一键启动。 经过一段时间的等待后,我们便来到了 comfyui 的 主界面。那么我们在面对 comfyui 这个完全陌生的软件时,我们要做的就是初步了解每一个模块的大体含义,那么接下来我带着大家过一遍。首先是操作方式,我们可以通过鼠标的滚轮来控制画面的缩放, 按住鼠标左键,我们可以拖动我们的仕途。点击鼠标右键,我们可以看到有非常多的栏目,这边我们可以试着点击新建节点,随后我们可以看到有非常多的节点可以供我们选择。好的,那么之后我们再来说一下快捷键,生成图片的快捷键是 ctrl 加 enter 框选节点的快捷键是按住 ctrl 加鼠标的左键。移动框选目标的快捷键是按住 shift 加鼠标的左键。 这边我们在框选完后,如果不按住 shift 直接进行拖动的话,我们可以看到此时只有单一节点进行了移动,剩下的快捷键我都放在这了,小伙伴们可以暂停观看。 好的,那么接下来我带着大家一起来解读一下这个默认工作流。首先在这边我们可以看到有个叫 checkpoint 加载器的东西,这个节点的主要作用是加载扩散模型,也就是我们常说的大模型。 此外该节点还提供适当的 ve 以及 clip 模型,具体它们是什么我们带回讲。我们顺着 checkpoint 加载器的节点连线,可以看到这里有两个 clip 文本编码器,在这里我们可以看到它们的输入都是 clip, 而他们的输出都是条件。那么究竟什么是 clip 模型呢? clip 全称为 contrasted language image pre training, 是 由 open ai 公司在二零二一年发布的一款多模态与训练神经网络模型。 clip 模型的作用是理解我们输入文字的意思,比如我们输入 one go 生成的是一个女孩,而不是太阳, 这就是 clip 的 作用。接着我们顺着 clip 文本编码器的条件输出看过来,连接到了 k 采阳器上,这边我们可以看到 k 采阳器一共有两个关于条件的输入,一个是正面条件,另一个是负面条件,那么这代表着连接着正面条件的文本编码器内的提示词为正面条件提示词, 也就是我们常说的负面提示词。好的,我们把目光重新回到 k 采阳器内, 我们可以看到除了正面条件以及负面条件外,还有两个输入,分别是模型以及 latent, 那 么模型则是连接着刚才的 checkpoint 加载器,也就是我们的大模型。那么这个 latent 究竟是什么意思呢? latent 通常是指前空间,可以理解为 static fusion 内部流程中的图像格式。如果将图像作为输入,则需要通过 v i e 编码将其转化为 latent 数据 在最后输出时也需要通过 ve 解码将其转化为像素空间,也就是我们最终看到的图像。这边我们可以看到 k 太阳器的 laten 连接着一个叫做空 laten 的 节点,这个节点内共有三个参数, 分别是宽度、高度以及 p 四大小。宽度和高度决定了我们最终生成图像的尺寸,而 p 四大小则代表着每生成一次将出多少张图。比如说我们将 p 四大小改为三,高度改成七百六十八, 最后我们按 ctrl 加 enter 进行生成。好的,这边我们可以看到一次性生成了三张图像,也就是我们 p 四数目的图像。接下来我们继续看 k 太阳器的其他参数。 首先是随机种,随机种的值我们一般称为种子值,每张图都有专属于他的种子值,我们也可以理解为种子值,就是图片的 id 号码。接下来是运行后操作,点开后我们可以看到一共有四个选项,分别是固定、增加、减少、 随机。如果选择固定,则在你生成完后,种子值会保持不变,方便你进行其他的调整与操作。那么接下来就是采样步数,采样步数越多,计算机的运算时间越长,在大多数的情况下,我们的采样步数保持二十到三十步即可。接下来是 c f 居值,该值的意思是提示词引导系数, cf 居值越高,则代表着生成图像与提示词之间的联系越紧密。 cf 居值越低,则代表着提示词对生成结果的影响越小。不过过高或过低的 cf 居值都会给图片带来不好的影响, 所以我们一般保持适中的 cf 居值即可。接下来是采暖器和调度器,我们可以理解它们为图像的生成方式,如果我们将其他参数比作是食材, 那么它们则是烹饪方式,不同的烹饪方法当然会带来不一样的结果。比如我们点开采暖器后,可以看到有非常多的选项,这里我们目前最好的一般是选择这个 d p n 加加二 a m 或者 d p n 加加二 a m s d e, 这两个都是挺不错的。接下来点开调度器,我们也是可以看到有非常多的选项,这里我们一般选择的是 carrots。 最后我们可以看到还有个降噪参数,由于该参数是跟图生图有关的,我们以后再说。 接下来我们看一下右边有个叫做 v i e 解码的东西,那么我们可以看到这边有两个输入,分别是 laten 以及 v i e。 至于 laten 刚才我们已经解释过了,也就是前空间图像,那么 v i e 究竟是什么呢? v i e 全称变分字编码器 variation auto encode 的 缩写,它是一种深度学习模型,主要用于无监督学习任务,特别是在生成模型领域。 ve 结合了神经网络和概率图模型的特点,而他在康复以外的作用是将我们的前空间图像编码成像素空间图像,或是将像素空间图像编码成前空间图像。除此之外,我们还可以双击屏幕上的空白处,最后就可以搜索节点,比如说搜索加载图像, 或者我们也可以双击搜索预览图像。这边再多说一嘴, v e 解码之后的图像节点,我们也可以直接连接到预览图像上, 比如说我们现在把这个保存图像节点给删去,如果这么操作的话,那么我们生成的图像不会被保存,接着我们再生成一次。 这边还要注意的一点是,在我们搜索节点的时候,我们也可以输入英文,比如说加载图像的话,那么就是 load image, 那 么我们可以看到这两个节点是完全相同的。接着我们再来说一下,比如说当我们输入英文的时候, 同样的也是 load image, 但是这个时候我们加了一个空格,好,我们可以看到这里面并没有出现加载图像的节点,那么这也意味着在我们搜索节点的时候,我们要注意区分节点的名称是否有空格。好,比如说我们需要搜索加载图像节点, 那么我们删去 load image 之间的空格之后,我们可以看到,哎,是不是加载图像节点就出现了? 好的,那么以上就是关于默认工作流的全部解释,接下来我们来看下界面还有其他哪些模块。首先我们点击左上角,这里有个文件夹, 点开后我们可以看到我们的工作流都保存在这,这边可以点击新建,那么我们就新建了一个新的工作流,当然我们也可以点击这个 import, 也就是输入我们的工作流,或者说是输入我们的文件夹。 最后我们点击 models, 我 们可以在这里找到并且下载相关的模型。接着我们来看一下右边的栏目,首先是该栏目的左上角,我们按住后可以进行拖动, 然后是这个齿轮标志,点开后我们便来到了康复以外的设置界面,在这里我们可以设置语言,点开后我们可以看到有中文,繁体中文,英语以及日语韩语等等,我们往上翻可以看到有其他的功能,比如图像面板顺序,图像面板的位置等等等等。 我们往下看,这有个文本补全,这个 enable 我 们一定要勾选上,这代表着它的起用。文本补全的意思就是在我们输入提示词的时候,会有这些英文短语的提示, 我们往下看有个添加提数字队列,这个是生成的意思。接下来我们可以看到有个保存的选项,点击该按钮我们便可以保存当前的工作流以及加载,那么就是加载工作流,同样的意思。 接着是重刷新,比如说我们下载一个新的大模型之后,那么我们点击重刷新便可使用。接下来还有个重点就是管理器,这个是 com 浏览器里面最重要的节点,点开后我们可以看到有非常多的功能, 比如说这边有数据库以及频道方式,预览方法,表情等等等等。这边预览方法我们一般选择的是这个 later to rgb, 然后表情这一栏我们一般选择的是名称, 也就是标签名称。选择了之后,我们可以看到节点的右上方一般会出现一个小狐狸按钮,而小狐狸按钮则代表的是它是官方节点。比如说我们加载一个新节点, 那么我们可以看到该节点是属于 animate develop 节点组的。接着我们回到管理器这六个 custom node manager, 点开后我们可以看到有非常多的节点,在这里我们可以查找以及安装我们想要的任意一个节点。在今后的学习过程中,我们会频繁使用到这一个模块。 接着我们看到 model manager, 在 这里我们可以安装我们想要的任意一个模型,注意模型不是节点,他们是分开来的,至于该模块我们今后也会频繁的用到。好的,在介绍完 comf 以外的主界面以及各种参数后,我们来了解一下 stepifuion 的 内在运行原理, 就可以方便我们理解并掌握进一步的学习内容。在我们输入完体式词之后,文本编码器的 click 模型会将体式词转化为特征向量, 然后再由 ve 编码器将这些特征向量传输到前空间内,这些特征向量在前空间内不断的降噪,最后再由 ve 解码器将这些经过降噪之后的特征向量解码成由一个个像素所组成的图片。好的,那么以上就是本期的全部内容了, 如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! 哈喽,大家好,欢迎来到康复 u i 系列教程的第四节课,那么本节课我们将一起学习纹身图的相关知识 以及提示词的语法。在第三节课的结尾,我们一起学习了 step diffusion 康复 u i 的 基础工作原理,那么现在我将结合默认的纹身图工作流来讲解其中的工作流程。 首先第一步,在我们输入完正负相的提示词后,文本编码器内的 clip 模型会将我们的提示词转化为特征向量输送到 k 彩样器内。那么这边有个疑问,就是文本编码器的 clip 模型从哪来呢?我们顺着这个节点往下看,可以看到它来自于 jpeg 加载器, 而这个加载器主要是加载各种各样的大模型,也就是说文本编码器内的克利普模型是属于各个大模型的内置克利普模型,而不同的大模型之间克利普模型也可能会有所差异。那么接着我们可以看到这个朋友加载器的输出有个 v a e, 那么也就是说他提供了 ve 模型,我们看看连到哪哦,连到了 ve 解码这里,而 ve 解码的作用就是将 k 传感器内经过了降噪之后的前空间图像解码成像素空间的图像,也就是我们肉眼可以看到的图像。这边我们可以做个实验,先将种子值固定,最后断开 ve 的 连接, 然后我们生成,我们可以看到这边是直接报错了,而这个报错的意思是缺少了 ve 的 输入,那么接下来我们重新将 ve 模型给连上,随后开始生成。这边再提一嘴,生成的快捷键是 ctrl 加 enter。 非常的实用,请牢记。 如果说你想调节生成图片的尺寸,那么我们可以在空内存这里,比如说我们将高度调成七百六十八,注意这个数值一定是八的倍数,宽度也一样。 至于 p 次的话,则是控制单次生成的图片数量,比如说我们设置成二。好的,我们摁 ctrl 加 enter 开始生成。 图片生成后,我们是不是可以看到它的比例已经成功变成了竖屏的比例,并且它一次生成了两张图像?好,接下来我们一起学习题序词的相关语法。首先我们来聊聊书写规范, 不论是正向提示词或者是副向提示词,我们在书写的时候一定是英文以及英文的标点符号,不然系统可能会识别错误。比如我们输入 one girl garden, 还有 yellow dress 黄色的裙子。这边再提一嘴,生成的快捷键是 ctrl 加 enter。 好 的,我们得到了一个穿着黄色裙子在花园中漫步女孩的图片。那如果说我们用中文来输入,结果会是什么样呢?一个女孩花园以及黄色的裙子, 我们这边可以看到,不能说是毫无关联吧啊,他们至少图片中都有女孩,但是黄色的裙子以及花园很明显没有在图片中出现。接下来我们来讲一讲题序词的权重。 在这之前,首先我们要理解什么是权重。对于权重概念模糊的小伙伴,我们可以理解权重就是比重 分量,那么一个提示词的权重越高,它的分量就越高,它的比重就越高,它在整体中的地位就越高。比如现在一个提示词的权重是一点二,而另一个提示词的权重是零点九,那么当然是一点二的提示词会占更大的比重。那么接下来我们做个演示, 比方说我们输入 one girl garden, one girl 的 权重是一点二,而 garden 的 权重是零点八,那么画面会更侧重于 one girl 的 展现。那如果说我们 one girl 的 比重是零点八,而 garden 的 比重是一点二,那么画面会更注重于描述花园是怎么怎么样的。 好的,接下来我们来讲一讲我们该怎么去控制提数字的权重。首先是中括号,中括号代表着零点九倍的权重,也就是说给提示词加上中括号后,提示词的比重会变小,会降低它的重要性。 那接下来是小括号,小括号代表着一点一倍的权重,比如我们给一个提示词加上小括号后,那么该提示词在画面中的比重 就会增高。最后是大括号,大括号代表着一点零五倍的权重,算是一种微调。当我们给某个提示词添加两个中括号时,那么就相当于为这个提示词加上了零点九乘以零点九倍的权重。零点九乘以零点九是零点八一, 那么就相当于给这个体式词加上了零点八一倍的权重。那么同样的,当我们给一个体式词加上两个小括号时,那么就等于一点一乘以一点一倍的权重,那也就是一点二一,相当于我们给这个体式词加上了一点二一倍的权重,大括号也同理。 那么有的同学可能会问,关于这个权重的变化有没有什么快捷键呢?哎,这个还真有。比如我们将光标移动到某一题是此上时,打个比方说 garden 摁住 ctrl 加上键,那么就是给他加权重,我们可以看到他的权重在不断的增加, 那么 ctrl 加下键,那么就是减少他的权重,是不是很方便呢?不过我们要补充的一点是,关于权重我们要多低都行,但是不是减少他的权重是不是很方便呢?不过我们要补充的一点是,关于权重我们要多低都行,但是减少他的权重是不是很方便呢?不过我们要补充的一点是,关于权重的话,图片就会过你和, 换句话说,图片就会变形,会失真。接下来我们来讲短句和长句。我相信不少小伙伴对我这么一个疑问, 为什么我写提示词的时候,一定是一个一个词这样去拼写,而不是用一句话去描述我们想要生成的内容呢?那么这边我可以很明确的回答你,其实两种都行,但是就目前而言, 用一个一个的词组去生成,效果会更加的准确,更能表达出我们提示词包含的意思。另外一点,使用一个一个的词的时候,也方便我们进行权重的调整。比如刚才我们有提到,将光标放在某一体字词上, 然后按住 ctrl 加上或下就可以调整该体字词的权重。那么如果说是一句话的话,你想调整某一体字词,那么可能就得手动去输括号,进行相关的权重调整。当然现在全世界的 a、 i、 g、 c 从业者也在不断的去 研究该怎么样让自然语言,也就是我们的长句能达到媲美短句的效果。 接下来我们来讲一讲提示词的整体长度,这边要注意,比如我们在输入正向提示词的时候,并不是说越多就越好多可能会让你的表现更加糟糕,那么我们最好把提示词控制在什么数量之内会效果最佳呢?经过众多 a i g c 玩家的经验以及研究表明, 提示词控制在七十五个之内是效果最精准的,超过了七十五个提示词的话,可能会对提示词的识别不精准,整体的表现会降低。正向提示词如此反向提示词也是一样的,记住最好不要超过七十五个。 接下来我们来讲一讲骑手势,那么什么是骑手势呢?在 stability fusion 各个大模型训练的过程中,会加入许多的 如四 k, 八 k 或者 masterpiece 各种各样高质量的图形去训练,那么当我们在输入提示词的时候,比方说输入四 k masterpiece, 那 么就可以使我们生成的图像更加的精美。反向提示词的话,那么就相反,比如我们输入模糊, 是文不想要模糊嘛,那么相当于也是会让图片变得更加的清晰,或者说我们在反向提示词内输入文字 text, 那 么在画面中就会减少文字的出现。这边我们可以来看一下这几组的对比,差异还是很明显的, 接下来我们来讲讲提述词的顺序。或许有小伙伴会有疑问,一个提示词在整体的前部或者是在整体的后部会有什么影响吗?答案是会有影响。在一组提示词中,越靠前的提示词权重会有所增加。那么在我们书写提示词的时候,我们尽量按如下格式进行书写。 首先是书写那些可以提升画质的,或者说可以改变画风的一些词汇,比如 masterpiece, high quality, high detail, 类似这些词汇。第二步是描述我们画面的主体,比如我们可以说 one girl, blue dress, 一个女孩,蓝色的裙子。 那么第三步就是描写环境,场景,灯光或者构图。比如我们可以说啊 garden 背景嘛, garden 或者说是 white background, 白色的背景,或者说是 soft light, 柔和的灯光,类似于这些。那么最后我们可以在正向题词的结尾添上我们想要加的 laura。 关于 laura 和各种模型的下载,我上期视频也有介绍,感兴趣的小伙伴可以回去观看。 接下来我们来讲一讲提示词污染。那首先我们要知道什么是提示词污染,我们可以看一下这一组图片,未经处理时,在多个提示词同时书写的情况下,各个提示词的意思可能会相互渗透。那么为了避免这种情况,我们可以用 break 来隔开提示词, 尤其是防止颜色污染。之后我们来聊一聊题序词融合,比如我们写 one girl, cat 这边我们可以看到生成了一张猫在女孩身上的图片。好的,现在我们在 one girl 和 cat 之间添加上 end。 注意这里的 end 必须是大写,全部大写。这边我们可以看到生成了一张猫娘的图片。这个 end 的 作用就是将两个提示词融合在一起。同样的,下划线也有和 end 类似的作用,也是将两个提示词结合在一块, 除此之外,隔一组提示词用中括号括起来,中间再用竖线隔开,也有类似与融合的效果。那么这个的原理是,第一步画前面的关键词,第二步画后面的关键词,第三步又在画前面的关键词,以此类推。最后我们来讲一下控制生成的时间段, 比方说现在的迭代步数是二十步,在这过程中,我想让前百分之三十生成森林,后面百分之七十生成一个女孩。那么我们可以试着这么书写,大括号 forest 在 街上冒号 one girl 在 街上冒号零点三,最后以大括号结尾,那么这一长串 代表着是在百分之三十的时候结束画 forrest, 开始画 one girl。 那 么如果说我们把零点三改成零点七,那么意思就是前百分之七十画 forrest, 后面百分之三十画 one girl。 好 的,那么以上就是本期的所有内容了, 如果你喜欢本期视频,那不妨给个三连加关注吧,我们下期再见,拜拜! 哈喽,大家好,欢迎来到 cf ui 系列教程的第五节课,那么本期视频我将分享几个非常实用的 a i g c 网站以及大模型的下载还有使用方式。那么在本期视频开始之前, 我们先了解一下大模型以及 lora 的 存放路径。首先是大模型,我们一般放在 cf ui 文件夹里的 models 文件夹内的 lora 内。 有些小伙伴可能不知道什么是 laura, 那 么我们可以简单的理解为 laura 就是 非常精简的小模型,它一般搭配着大模型使用,从而让我们的生成结果更具风格化或是质量提升。 首先是利布利布 ai, 利布利布目前是国内最有权威并且规模最大的 ai gc 网站之一,该网站包含了模型下载、作品灵感 在线生图,还有训练 laura 以及诸多功能。我们一起来看看模型广场,这里有诸多模块,动漫、游戏、插画、二次元幻想、手绘风、工艺风等等等等, 在这里都能找到你想要的相关模型。当你工作或生活中没有灵感的时候,我们可以来到这里看看大家上传的图片。如果有你喜欢的图片的右下角有生成信息,我们可以复制相关参数到 stable future 里面自行生成。第二个网站是 nova ai 点 dv, 该网站侧重于辅助功能,比如这个法术解析,我们可以把已下载好的 stable future 图片拖到这里来, 那么它就会进行相关分析,最后汇总成一个参数表格。当然我们可以复制这份参数表格到 stability fusion 里面,在这里有相关详细的使用介绍,我们看看侧边栏,这边有各式各样的标签供您挑选, 我们可以利用这些标签去组成我们想要的关键词,然后复制到 web ui 里面进行生成。此外,该网站还链接了 a i g c 的 社区,比如之前在 liblib 上看到的画作分享模块,这边也有,并且这边还对各种各样的图片进行了分类, 总体来说还是挺不错的。好的下一个网站是 poemlib, 在 这里我们可以很直观的看到每一个提示词所带来的效果。当然提示词标签也是多种多样, 我们可以看到人物的各种特征这边几乎都有包含,如果你想添加某个提示词,那么直接点击就行, 随后会在右侧的侧边来显示,有点像购物软件的购物车一样。等我们选择完所有信息的提示词后,直接点击复制便可粘贴到 web ui 里进行图片生成。除了人物外,我们还可以看到这边有诸多板块,服饰风格、各种构图、质感环境 以及一些质量参数等等。接下来是国外网站,首先是 civate ai, 在 这个网站内汇集了来自世界各地创作者所训练出的模型, 同样的也汇集了来自世界各地 ai g c 玩家所分享的图片。比如我们喜欢某一张图片,我们可以点进去看它的详细参数,比如它使用了什么模型,什么 laura 等等。当然还有关键词我们都是可以复制并直接进入到我们的 web ui 内进行粘贴复现的。 除了图片外,这边还有大家所分享的 ai 视频。总的来说, cvitai 是 一个非常非常全面并且有着海洋信息的网站,基本上市面上的所有模型以及 laura 在 这边都能找到。 接着我们来看看下一个网站 huginface, 想必这个网站许多人应该都听说过,许多最新的模型 laura 等都是在这边开源发布的, 比如我们搜索 stable fusion 三模型,这边我们可以看到网页包含了模型生成的视例图以及模型的原理,还有模型的代码等等信息,并且只要你登录了之后便可以下载该文件。最后要介绍的网站是 gitap, 这是目前全世界最大的开源代码网站,在这里我们可以找到海量的信息,其中就包括 aigc, 各个大模型或者是各种插件最新信息 以及下载方式。比如我们搜索 stable fusion, 在 这里我们可以看到有关于 stable fusion 开源的所有信息,无论是运作方式还是本地部署,亦或是它开源的代码,我们都可以从这里得知。最后是模型推荐,我们知道现在市面上已经有着成百上千各种各样的模型, 那么这边 up 主帮大家整理了一下,选出了几个我认为较为好用的大模型。首先是 dreamriver 以及麦吉系列,它们的共同点就是生图质量较高,并且生图的类型范围非常广泛。 最后是 pignix, 这是一个二次元大模型,在有关动漫的图像生成上,它的表现非常卓越。 然后是建筑类的大模型, architecture realmix, 这个模型包含了建筑相关的一切领域,包括楼体创意,现搞转会、室内设计等等等等,它都能胜任。 好,我们回到康复以外,现在我们将用同一组提示词以及其他参数仅仅变化我们的大模型,来看一下生成的结果有什么差异。首先我们选择的是真实感的大模型。好,我们可以看到生成出来的图片非常的写实。接着我们换一个二次元系的大模型。 好,我们可以看到现在图片完全变成了动漫风格,那么这就是大模型的威力。接下来我介绍一下 lora 的 使用方式, 我们鼠标左键按住模型输出,拖出来之后,我们可以看到这边有一个 lora 加载器。好的,选择了之后,我们可以看到 lora 加载器分别有模型以及 clip 的 输入与输出,那么这边我们先将它的 clip 给连上, 接着我们再将 lora 加载器的模型输出连接到 k 太阳器这里,然后再将这个 clip 连接到文本编码器。那么我们稍微整理一下工作流, 那么现在我们先设置一个 lora, 我 们其他参数同样保持不变。比如说我们来一个这个梦中花境吧,我们提示词也是没有任何变化,随后我们开始生成, 我们可以看到明明我们的提示词没有任何关于花的词汇,但是我们的结果图却出现了非常多的花, 那么这也正是因为我们的 lora 起到了作用。不同的 lora 有 不同的效果,小伙伴们可以自己去尝试。好,那么本期的视频到此结束,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! hello, 大家好,欢迎来到 comfui 系列教程的第六节课,那么本期课程我们将一起学习图生图的相关知识以及高清修复。那么在介绍图生图的工作流之前,我们先来讲讲什么是图生图。在我们使用图生图功能时, 我们一般使用一张图片与一组关键词共同作为输入生成的图像将收到这两个输入的共同调节作用,比如使用下面这张初级草图以及一段指令作为输入图中图功能会将其转化成一张完成度较高的图片。首先第一步, 我们输入的图片会由 ve 编码器编码从前空间图片并传入到前空间内。第二步,采暖器会向其添加噪音,通过设置降噪幅度可以控制究竟要添加多少噪音到原始输入的图像中,如果降噪幅度为零,则不会有任何噪音添加进我们的前空间图像。如果降噪幅度为一, 那么我们输入的图像会因为噪声过大而起不到任何参考作用。第三步,采暖器内的噪声预设器将 将上一步处理后的前空间图像与文字指令作为输入传回到 unit 网络,并预测出应减去的前空间噪声张亮。接下来前空间噪声张亮将会从前空间出属图像中减去,并得到前空间新的图像。并且第三步的全流程会重复特定的次数,而这个特定的次数就是采样步数, 比如说二十次,而这整个过程都是在采阳期内完成的。接下来到了第四步, ve 解码器会将降噪完成后的减空间图像解码成像素空间的图像,那么也就是图升图的最终图像。接下来我们回到 comfui 中,我们先加载一个默认工作流,随后将 comlinit 给删去。 接着我们点击 later 拖出来,选择 ve 编码,那么我们就成功加载了 ve 编码器。接着我们将 ve 编码器的 ve 输入连接到 checkpoint 加载器的 ve 输出上。随后我们将图像节点给拖出来,选择加载图像 load image。 那么这边我们上传我们需要的参考图像。这边我上传的是一个金发小萝莉,那么接下来我们要边写一下提示词。这边我们可以输入 one girl golden here, 然后再输入一个 lake, 也就是湖水作为背景。我们看一下啊,她穿的衣服是蓝色的,那我们可以说 blue dress, 接着我们可以看到他的衣服有一点点湿,那么我们可以加入 drench, 湿透的意思。还有白丝袜副象题诗词,这里我们一般输入的是模糊,也就是 blur 以及低质量 low quality, 还有文字,也就是我们不希望他出现文字。现在我们回到采暖器这里, 我们可以看到这边有个降噪,我们将该值修改成零点七,而对于降噪值,零点三到零点五之间属于安全的重绘幅度区间,而零点五到零点七则赋予了 ai 更多的想象与发挥的空间,那么低于零点三或者高于零点七, 图像都有可能会发生扭曲变形。好,那么这边我们先将该值设置成零点七,生成张图片试一下。 这边我们可以看到这两张图片的背景以及这个墓栈道还有人物的部分特征都是比较相似的,但是我们可以看到他们的年龄确实不太符合。那么接下来在关键词的前方加入一些质量提示词, 在我们优化完关键词之后,我们再次生成,看下效果如何。这边图片已经生成出来了,但是感觉还是不太相像,我们要做的就是将降噪幅度改成零点四五,之后我们重新生成一次,看一下效果如何。 效果是不是好了非常多呢?如果你觉得图片不太满意,那么我们可以多生成几张,直到得到你满意的图片为止。 那么接下来我们讲一下什么是高清修复,比如说我们现在生成的这张图片我们非常满意,那么我们怎么增加它的分辨率以及图片的细节呢?好,那么我们这边回到 k 采集器,我们先将种子值选择的是固定模式,随后稍微整理一下工作流 双击界面的空白处,输入 upscale, 然后我们选择 later 按系数缩放,我们将该节点的 later 输入连接到 k 渲染器的 later 输出上。 好,随后我们按住 alt 键,点击 k 渲染器拖出来,那么我们就复制了一份相同的 k 渲染器, 那么我们将这个 later 按系数缩放的 later 输出节点连接到我们新建的 k 渲染器的 later 输入中。 最后我们将文本编码器的条件输出分别连到 k 采集器的正面条件以及负面条件上,模型也是一样,我们回到 jpeg 加载器,将模型连接到我们新建的 k 采集器上。 好,随后我们回到新建的 get 检测器中,我们将步数设置成二十五, c f 居值我们设置成七。好,接下来我们点击这里选择这个 d p n p p 二 m 调度器,这里我们选择的是 carras。 接下来我们新建一个 ve 解码器, 随后我们将 ve 解码器的 ve 输入连接到 shift pro 的 ve 输出上。接着我们新建一个预览图像节点,随后开始生成。 我们可以看到这张图其实非常的不自然,那么我们该怎么去解决呢?我们回到我们新建的 k 采暖器这边,我们将运行后的操作改成随机,并且将降噪幅度改成零点五五,随后再次生成。 好,我们对比一下前后两张图片,我们可以看到脸还是变化比较大的,那么我们可以适当的降低降噪幅度,比如说我们改成零点五一再生成一次看看。 好,现在我们可以看到生成的结果,五官是和原图非常相近的,我们再来对比一下图片的细节,放大之后我们可以看到右边,也就是我们新生成的经过高清处理后的图片细节要比原图多很多,比如说水面上的气泡以及这些发丝都是非常的清晰的, 我们这边可以对比一下原图头发这一块一放大就变成一块马赛克了,而我们新生成的图片还是比较清晰的好,那么有的小伙伴可能会说,哎,这还不够清晰,那怎么办?别着急,我们还有高清修复的方法,那么接下来我们将进行第二重高清修复, 我们搜索 s d upscale, 也就是这个 s d 放大,那么接下来我们将这些节点一个一个的连上。首先是图像,我们连接的是这个 ve 解码之后的图像输出,接着模型我们还是老样子, 连接的是这个 point 的 模型输出,那么这边我推荐一个小技巧,我们将模型拖出来之后选择转接点,我们可以看到这边有一个小小的节点,那么这个节点的意思也就是代替了这个模型的输出,我们将 sd 放大的模型输入跟这个模型输出相连。 好,现在我们可以看到它其实也相当于跟我们的 point 连接在了一起。接下来是正负相条件,我们也用同样的方法拖出来选择转接点。 好,接下来我们连接 ve 模型,我们也是用同样的方法选择转接点,拖出来 连接 ve, 这边我们选择放大模型加载器节点,接下来点击这里,我们选择该选项,这个放大模型是我试用下来效果最好的。随后我们加载一个预览图像节点,接着稍微整理一下工作流, 好的,整理完工作流之后变得整洁了一些,我们开始生成图片,已经生成出来了,我们可以放在一起对比一下效果。 这张图的分辨率已经达到了二 k, 非常的清晰,我们可以看到细节都还是不错的。然后我们再来看一下第一次放大的图片,放大之后还是有点糊啊,对吧, 不过清晰度也还是可以得到保障。再来对比一下这个哦,确实特别的清晰。 随后我们再来看一下第一张图片的清晰度,这个放大之后就是一团马赛克了,对吧,差异还是非常大的 好,那么有的小伙伴可能会说觉得这张图清晰度还不够,哎,那怎么办?别着急,我们还有最后一重放大,那么加上了这最后一重放大之后,也就构成了所谓的三重放大。这边我们搜索 upscale, 接着选择这个图像,通过模型放大, 这个节点非常简单,只有两个输入以及一个输出,然后图像的话就连接到 sd, 放大之后放到模型这边,我们同样选择的是该模型, 随后我们将图像拖出来,选择预览图像。好,我们可以看到最终生成图像已经出炉了,我们来欣赏一下它的效果到底有多么的炸裂。 这是一张四 k 的 图像,清晰度非常的夸张,发丝都看得见,完全没有那种模糊马赛克的感觉,湖水也是很真实, 我们再来看一下对比第一张,那放大了之后全身马赛克对吧? 没法比啊,这个确实没法比,那么这就是本节课所介绍的图生图以及三重放大的效果。首先这是我们的原图,然后这是我们图生图之后转换成真人的图片,接着这是第一重放大, 第二重放大,最后这是第三重放大。好,那么本期的视频到此结束,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! 这些这些,这些都是 ai 生成的,距离 flex 模型发布以来呢,它的相关生态已经逐步完善,那么我们今天就来看一下如何用 flex 生成像这样具有抄写式风格的 ai 图片。首先我们来到 kufui 界面,那么映入眼帘的是我们今天的 flex 生图 高清放大工作流,那么该工作流分为了两个部分,首先是黄色部分,黄色部分代表着 plus 基础生图部分,而蓝色部分呢,则代表着是高清放大部分。这个高清放大一共也是分了三部,那么我们的话,首先关于生图,我们就先把高清放大模块给进行一个忽略。 好的,接着我们回到我们的生图部分,来看一下其中有哪一些组建。首先我们来看一下这个生图工作流的核心节点叫做 essential, 这个节点呢,它是一位印度工程师写的节点,那么那一位印度工程师,他也是 ipad 的 作者。 ok, 这也是题外化, 那么这个节点他可以省去非常多的 flex 基础节点搭建。 ok, 我 们可以看到啊,我们整一个关于 flex 的 生图部分, 也就只有这些节点而已,那么我们首先的话来看一下这些,哎,关于必备的一些节点。首先是双 clip 加载器,在这里呢一共是搭载了两个 clip 模型,那么这也是 flax 模型跟其他大模型不一样的地方。我们可以看到 这个双 click 加载器连接的是一个专属于 flux 的 文本编码器,我们仔细看可以发现这个文本框它并没有分正负向提示词,而我们的一个核心组件呢,也是只有一个条件输入, 并没有分正负向提示词,那么它的意思是说在 flux 生成工作流中,我们已经不需要负面提示词的输入了。我们可以看到这个文本编码器,它一共也是分了两个部分,上半部分是使用 传统的提示词语法,也就是一个一个词组这样去编写。而下面这个部分呢,我们可以使用自然语言编写,也就是说使用 连贯的语句来进行文本的编写,而关于这个部分,我们最好是可以两个都编写上,这样子可能得到的结果会更加准确,那么这边的话,我们只填写一个文本框也是完全没有问题的。好,我们再来看一下其他的, 那么这边有一个叫做 eonet 加载器,这个 eonet 加载器呢,我们也可以理解为以前的 jumper 加载器,也是加载我们大模型的地方,我们可以看到,哎,咱们的 flex 模型就是在这边进行加载的。 那么首先呢, plus 模型啊,它一共有两个,分别是 f p 八以及 f p 十六,那我们这个叫做 f p 八的,它是一个十一 g 的 大模型,而 f p 十六呢,它是二十二 g 大 模型,有些电脑可能 hold 不 住,那么我这边的话,为了咱们的一个生存稳定性,我也是用的是 f p 八,好, 我们再往后看,那下面这个空位腾也就不用介绍了,和以前一样,也是控制宽高的地方,那么要注意的是这个 lo 胶带系,哎,我们这边 也是用的是 flux 的 专用 laura, 大家待会就可以看到咱们今天这个 laura 的 强大之处。好,我们再来看一下咱们这个主要的模块里面有什么参数。首先是种子值,这个咱们就不过多介绍了,还有就是采阳器,采阳器以及调度器呢,我们这边用的是 euler 以及 simple, 这个是针对于 flex 大 模型的一个彩样组合,如果说你切换的话,图片效果会变得很糟糕。接着我们可以看到彩样步数,哎,我们发现没有,不是特别高,对吧?十七不高,因为据实验统计, flex 大 模型啊,在生图的第十五步之后,其实就已经变化不大了,那我这边时期呢,也是为了增加多一些细节吧。那后面的话有个叫做 guidance, 也就是引导系数,我们设置成三点五就可以。接着我们来看 vae 加载器,那么我们的 flex 也是有专门独属于它的 vae, 叫做 flex vae, 哎,这一个我们可以留意一下,那么关于我们的 vae 也好,咱们的 flex 专属 lora 以及专属的 clip 模型, 我们都可以在评论区进行一个资源获取。那么接下来的话,我们就直接来进行生成,来看一下 plus 大 模型啊,它到底有什么强大之处? 哎,我们可以看到这张图是不是非常的真实,对吧?啊,真实度非常的高,它仿佛就好像是用手机拍出来的感觉,那么这也是要归功于我们的洛尔,这个洛尔的效果呢,叫做 plus 小 红书, 那么它的效果也是为了能够更贴近咱们真实用手机拍出来的图片质感。接下来的话,我们把种子纸给换一下,接着我们再稍微改一下提示词, ok, 我 们再点击执行队列来进行一次生成。好的,我们可以看到啊,那么一张小姐姐的图片就这么生成出来了。如果说大家不是看到咱们这个 ai 工作流, 咱们是在比如说自媒体上看到这样的图片,那真的是真假难辨,毕竟它还原度非常的高,它和咱们现实世界用手机拍出来的质感,或者说用相机摄影和 ps 过的质感是非常相近的。 那么除此之外呢,我们也可以进行进一步的高清修复,比如说我们想让他画面更多细节的话,那么咱们就把高清修复模块给打开,接着我们直接点击执行队列就 ok 了。 好的,经过了漫长等待后,最终图像也是生成了,你觉得效果怎么样呢?如果你觉得本期视频对你有帮助的话,相关工作流以及资源包都可以在评论区进行获取,我们后会有期,拜拜观众朋友们。大家好啊,今天讲一个小技巧,可以让我们 fux 的 图脱离 ai 感, 然后这个就是 fux 直接出的,我们这次使用到的技术叫噪声添加或者叫噪声注入,你会发现这张图就会少一点 ai 感,对吧? 然后包括他衣服上的一些细节,他都会比呃直接出的会多出来很多。接着我们看一下其他图片,脸部的纹理、头发, 然后这个也是会发现噪声加入之后的图片会更加的真实,会少了那么多 ai 的 感觉。还有其他的应用,就比方说像出这种产品的图片,他会读出来更多的细节, 从细节上来看也是很 ok。 简单说一下这个原理,当然视频用到的工作流和模型我都打包好了,如果有需要的小伙伴可以在评论区留言,我会一一回复发送给大家。 这个原理很简单,就是正常采样是直接采完的,对吧?比方说四十步采样,然后通过四十步的去造后,到结束出一张图片,然后这边的技术就是说你四十步采样之后,先得出来一张图片,再重新把这个采样再逆过去,逆回去的过程, 到二十步的时候我再给你添加一些噪声,然后你再重新跑,然后这样就会多出来非常多的细节。具体我们到工作流里面去看一下,这是我刚刚跑的一张图,我们可以看一下它的区别,你会发现通过噪波添加之后,它的图片会多出来非常多的细节,并且少了很多的 ai 位。 简单说一下这工作流,这工作流我参考了国外两个在潜空间里添加细节的工作流,我这边用的是 f t 八的模型,然后这边我用了一个八步加速的 lora, 然后再加上了亚洲人脸 lora 这个加速度, lora 会把我们整个流程提速很多, 在第一次裁样完之后,他会到这里,这里会进行一个相当于一个逆裁样,就是他会回速到十五步,回速到十五步之后,他会来到这里添加一些噪波,添加完噪波之后,他会继续裁样的过程,然后最终得到我们这样一张没有 ai 位的图片。 我这边还用了一个锐化的节点,你们也可以关掉,如果觉得图像太锐的话,可以调整这个数值,然后这边有几个关键的参数, 我跟你们讲一下,如果说最终出来的图有很多噪声,噪点没有消除干净的话,你们可以在这边去提高它的强度,或者降低它的强度,提高它的强度之后,它会图片会添加更多的细节, 但是他有一个预值,大概我这边测试应该是在零点四吧,如果说你高于零点四的话,他可能会有些噪声,踩不完全就会可能出现一些脏脏的画面,脏脏的感觉。我这边建议的值是零点二到零点三,这边你们如果不太了解的话,就不要调了。 还有一个就是这个 latent 缩放系数调整,这个值可以保证你们最终出的图的清晰度会更高一点。如果说你们这里设置一的话,最终出的图可能会有一些模糊,但也影响不大, 这个最终就看你们怎么使用,我们这边可以跑一下看一下, ok, 我 们这个图跑完了,你会发现这个图片的细节多了非常多,对吧? 好,这就是我今天分享的工作流,如果有需要的小伙伴可以在评论区留言,我会一一回复发送给大家,然后喜欢的可以三连支持一下,感谢大家! 一直以来总有小伙伴问我有关 comfy 电商产品摄影图的问题,尤其能否利用最近大火的 flux 生成更真实更落地的产品图, 当然是可以的。今天我不仅会分享搭好的工作流,同时还会跟大家一起分析各部分的原理与功能,让你也能从零开始组合出自己的电商产品摄影工作流。电商图工作流程可以拆分成如下步骤,设计成品图片大小、物品大小、物品位置、背景等。 提供商品图片,从中获取主体和蒙版。将商品主体融合到生成的或者提供的背景中,添加光影效果,精细化成图,扩图、重绘等,还原商品细节,颜色校正,生成视频。 其中第三步是整个工作流程的关键,要求不高的小伙伴在完成这一步后就可以收工了。后续的五个步骤则是帮你实现更协调、绚丽、真实、精细的效果。 随着技术的发展,还能换成未来更新更好用的模型和插件。好话不多说,我们直接来工作流看一下。 首先我们使用 segment anything ultra v 二节点,提取沐浴露主体和蒙版,添加 image bind advance 节点,将主体放置在特定位置,添加 flux 纹生图流程节点生成符合要求的背景。接着接入 ic light 节点,为全图重新打光, 基于 s d 一 点五实现的 i c light 模型打光,图片质感稍微会差些。然后使用 flux 图升图,增加一些细节,调整彩样器里的参数,重绘幅度设置为零点三五,提升了画质。 由于彩样重绘,商品上的字体被重绘了,我们需要重连图恢复细节。目前主流的有两种方案,大家只需使用一种即可。 首先添加一个开宅实线的 i c light 插件里的 detail transfer 节点,恢复屏子上的字。或者使用 layer style 里的 frequency detail restore 节点,同样可以回复文字细节。 有些时候我们需要调整一下成图的颜色,针对不同情况,如果需要参考另一张图来调整成图的颜色,可以使用 colormatch 节点及图像调色。比如我喜欢刚刚 flex 重绘之后的那一张,就拿它作为参考来修正恢复细节后的成图参数,保持默认就可以。 还有一种情况比较常见,就是主题的颜色跟背景的颜色不太搭时,可以使用 auto adjust 节点,它能为程图遮罩里的内容进行自动调色。连接好程图与蒙版,添加一个图像预览节点。接着权重参数调整为三十 mode, 改成 lamb 加 set, 然后直接运行。 小伙伴们在使用时可能需要根据具体输入的物品来微调参数,现在我们来看一下经过各个步骤后的程图。好 flexing paint 方法就讲到这里, 视频中用到的模型和工作流我都打包好了,有需要的小伙伴可以在评论区给我留言,我会一一回复发送给你, 谢谢大家。哈喽,小伙伴们大家好,今天跟大家一起讨论一下 vlog 万物迁移在电商次世代的商业落地应用这一块的内容。 近年来, ai 技术在视觉领域的应用快速发展,尤其是在商业化落地场景中展现了巨大的潜力。 从传统的背景替换、局部重绘,到如今模型驱动的深度场景适配,这领域的技术和思路逐步走向成熟。以产品植入场景为例, 过去我们通过传统的工作流程实现效果,比如将项链带到模特身上,或者将沙发摆入不同角度的环境中,甚至在鞋子的展示上实现类似的穿着效果。这些方法虽然有效,但往往需要复杂的技术流程,如遮罩处理、边缘优化以及节点构建等。 而这些传统方式的局限性也逐渐显现,尤其在复杂透视关系或材质表现上容易出现问题。目前以 stable diffusion 为代表的生态系统中, flux 官方更新了一套生态,里面有深度轮廓。 redux 和 impaint 提供了更加精准的控制能力。例如通过 redux 的 参考功能和 feel 模型的配合,我们能够实现极高的一致性和还原度,甚至无需提示词便可生成贴近原图的效果。借助特定模型记忆物体外观,再将其复现到新环境中,不仅在视觉上更为自然, 光影适配与角度调整也更加流畅。视频用到的工作流和模型我会打包好放到网盘上,需要的小伙伴可以在评论区留言,我会一一回复发送给你。那么这个工作流具体是怎么去使用的呢? 我打开这个工作流给大家去说一下啊,这个就是在 com 与 i 里面去使用的,你拿到这个工作流把它拖进来就行了,这就是我们的 plus 电商万物迁移工作流第一步,在上方的加载图片,这里上传一张你的这个产品的图, 我已经跑了一次,这个是做的一个家具的下边边就是你的一个意向图,你可以从网上去搜,你可以用 ai 生成一张,一定要记得在这个地方右键遮照编辑器当中打开 他默认的话,这个图他是这样子的。那我希望把我的这个家具这个白底图把它放到哪个位置去,我们需要对应的去涂抹出来,把这个场景里面我们需要替换的部分把它涂抹出来, 涂抹出来的地方等会 ai 他 就去重绘我们涂抹的地方,这样子稍微的抹一下大概的位置就行了, 不用去涂抹的非常的精准,不用像我们有一些抠图技术,抠图非常的精准的这种边缘才能做它,这个不需要就简单的抹一下就行了, 点击这个 save, 剩下的就没有了,就这两步他已经开始给你去跑图了,最终他就会在这个地方去生成一个最终的结果。 看到这个图的这个场景,它的光影关系,包括它的角度跟这个都是不一样的,它都可以非常完美的融入进去,我并没有去做任何的什么 control net 控制啊这些,那它这里面的核心是什么呢? 它就是利用 flux 之前发行的几个大模型,除了我们刚刚说的这两步,打开这个工作流需要自己去操作的,那么这个是模型加载区, 可能你用的模型的路径可能跟我稍微有一些区别,那么你也可能要去加载不同的这个路径,你稍微的去检查一下这个模型加载区其实就是我们整个工作上的核心。 第一个就是我们用到了 flux 一 fill 这个模型,这个是 flux 的 重绘模型,它这个重绘技术非常的好, 那么我们在这个地方去重绘的时候,它就可以保证我们重绘的这个图跟原图它是非常协调,非常统一的。 包括我们这些家具的话,它这种光影关系,它会自动地去做这个光影的这种协调,这个 fill 模型非常重要,这个地方你要去自己去选一下你自己的路径。 clip 这个地方没什么好说的,一个 clip 八 a, 一个是 t 五 x x l f p 八,对吧? v a e 这边也是常规的,这下面这两个是做什么的?这个就是 flag 新出的一个 redux 的 模型,我们之前在评测 redux, 我 跟大家说过 redux 它把它这个风格迁移的非常的死, 我们当时一个比较保守的评价,它有可能很有用,有可能没有什么太多用,目前来看它就非常的有用,因为它控制的非常死,它就可以把这个图非常完美的迁移到这个图里面去。 风格模型加载器这个地方选择 flux 一 redux style 这个模型,下面这个是 clip 的 视觉加载器, 这个是我们使用 redux 模型必须要去加载的,选 c clip vision patch。 十四、这个模型后面就是它常规的接法,我们把这个风格模型接在我们的条件后面去这个 clip 文本里,不用去写任何的提示词,我们以前还去做一些什么图像提示词的反推,对吧? 现在这个地方提示词直接不用写,就空在这就行了,记住哈,你用这个 fill 这个模型的话, flex 的 引导这边选择三十差不多就可以了,其他的就是一个很常规的流程。那么这个 k 采阳器你们看到这里它实际上是两张图拼起来的, 那么它实际上是进一步的去强化最终生成的图片与原图的一致性。实际上这个也是受到一个叫 icloam 的 技术的影响,它的这个技术的思路其实就是我们在重绘的时候,我把这个图把它放在旁边,它去重绘的话,它会去严格的参照这张图来进行升图。 不过有个地方要注意的是,因为这个图我上传的时候就是两张图就拼起来的,那么我在拼之前得去记录一下每个图这个尺寸, 我们这边先去做了一个缩放,整体做了一个缩放,万一你这个图太大了,我们整体缩放到一零二四,你可能在七百六十八到一千五百三十六之间,这个整数应该都是可以的。 但是这个图片不要太大了,因为他还要去两张图拼在一起,如果你一张图一千零二十四,两张图拼起来,他差不多就是两千多了,这个图如果太大的话,可能会对你的显存消耗会比较大。另外一个就是把这个蒙版去做一个拼接, 因为我这个地方这个图就做了一个蒙版,那么他的蒙版要和他对应起来,那么我只是去重绘这块去就整个图,其实我现在把这个图给你扩大了, 我最后只重绘了这一块区域,他这种一致性就会更好,我们最后生成出来这个图之后,最终再把它切开,只留下这张图就行了。整个思路其实非常的简单,这个就是一个完整的工作流程, 大家把这个地方这几个模型你看懂了,实际上你自己去搭建起来,其实非常的容易,我们再来看一下,效果 好就分享到这里,如果需要工作流和模型的小伙伴在视频下面评论区给我留言,我会一一回复发送给你,赶紧玩起来吧, 谢谢大家!这个电商工作流利用了 flax 的 最新配套模型 redux 和 fill 模型,可以将模特迁移到指定的画面位置,可以用到比如家具类、机车类等所有需要模特展示的电商场景中。这里做个简要的使用说明。工作流需要上传两个图片, 第一个是主要上传需要参考的模特图,最好这个模特图也是在类似的场景中站立的,也是可以的。第二个图是需要添加模特的商品场景图,比如沙发或者椅子。 下一步还需要给添加模特的地方做一个遮罩编辑,在图片鼠标右键选择遮罩编辑器打开,在你希望模特出现的区域做一个大致的涂抹,可以适当大一些,这样 ai 发挥的空间更好。 绘制完成之后,点击直行等待一会,椅子上的模特就绘制出来了,可以看出生成的这个模特跟这个图片融合的非常好,包括和椅子的比例关系,光影色彩度都非常自然,但是这个指出的画质不是很高,还需要后期加高清修复缓解, 这都是很容易实现的,比如利用 siri 超级高清放大修复。感兴趣的小伙伴欢迎评论区交流讨论。视频用到的所有资料和工作流,我也会打包好放到网牌上,有需要的小伙伴可以在评论区回复,我会一一回复发送给你。好的小伙伴们,这期视频就分享到这里,谢谢大家! 紧急尬消息,某书平台惊现 ai 神作, 一位神秘大佬利用矩阵软件注册了上千个账号,疯狂发布超逼真照片,竟然成功骗过了平台的 ai 识别系统,点击量更是高的惊人。消息一出,群里瞬间炸锅。这位大佬透露,他使用的是 flex 大 模型的工作流, 生成的画面毫无 ai 痕迹,就连影楼专业的摄影师都直呼,你不跟我说是 ai 生成的,我真的以为这是相机拍出来的照片。 如果你还是 ai 新手小白,那么你一定要看完这个视频,学习如何使用 flax 工作流生成某书同款超逼真画面,轻松打造爆款内容! 首先下载我分享的安装包及工作流,再配合我之前的安装 comfyui 的 教程,然后打开这个 flax 某书写真工作流,接下来去利步利步下载这个写实逼真大模型。 好,我们点击进入。这里有模型使用说明,大家可以看一下。好,我们点击下载。将这个模型放置到 models 的 unit 文件夹,然后在 unit 下载器里加载这个超逼真大模型。下面 clip 下载器要指定 t 五语言大模型,然后指定一下 clip hi, 这是提示词大模型,最后再指定一下 ve, 这里的提示词可以根据自己的需要进行修改。好,我们点击生成一下,是不是就生成出这种照片级的画面了? 要是你的配置不够,你可以使用在线工作流,我们点击进入这里的模型,也同样的需要指定一下,然后根据自己的需要填写提示词。好,我们点击生成一下。哇塞,这么漂亮的女孩就生成了,是不是难以置信啊! 兄弟们,课间和相关资料已经上传到网盘了,需要的小伙伴请到评论区留言,谢谢大家!

最新最好用的 comfuse 自用整合包 v 八版本正式上线了!你或许早就听闻过 comfuse 这个名字,但是最近又更新了他的 v 八最新版本,来看看我们怎么使用吧。只需三个步骤,下载、解压、双击打开, 像开启宝藏大门一样轻松。不用安装复杂的插件,我不必为配置环境而烦恼不已,真正做到零门槛。你要问我这款软件用起来收费吗? 或者说分享资料收费吗?我可以肯定的跟你说一句,完全免费!无论是使用软件收费的,或者是发你资料还要收费的,都要擦亮双眼。值得一提的是,我们更新好后的 ctrl u i 已经完美的支持五零系显卡了, 对我们喜欢搞 ai 视频创作的小伙伴们来说更是如虎添翼了。然后就是我还增加了很多工作流,都是开箱即用的。 这里面我就拿几个经典的举个例子,比如说擅长动作迁移和角色替换的蛙二点二 animate, 专门用于决然油门的,当刹车防斜杠撞碎七八根,非常适合生成海报的千问 image, 以及全新的 flux 二模型 client 等等更多内容就等着你体验。使用的方式呢,也非常的简单,我们下载好我们的压缩包,然后解压之后呢, 我们找到这个启动器的图标,然后双击打开,然后呢就会弹出一个黑色的窗口,我们稍微等它加载一会,它就会在我们的默认浏览器打开,那么你可能看到的是这样的一个纹身图的界面,那么我还为大家准备了很多东西,像这里面 左边的模型里面有常见的 flex 模型,千问模型以及一些大模型经常使用到的 lora 等等,再比如说工作流部分,大概有两百多款,可以足够的满足大家的要求,那么这些文件呢,都放好了,然后像这里面我们得到了这样的一个工作流之后呢, 点击一下运行,我们可以看到这个彩样器正在彩样进行生成,最后呢就生成了一张图像, 那么这里面我们采用的是动漫的模型,所以他就会生成动漫图像,那么大家也可以尽情的使用其他的一些模型,比如说人物模型等等。那么同时像这种模型呢,可以生成大家任何想要的图像, 那么都给大家准备好了,大家拿到手之后呢,就可以自己动手去试一试,看看生成的效果怎么样。个人认为这样的生成效果还是很不错的,比市面上的很多需要收费的软件是效果要好的,毕竟软件是完全免费的,那么就将这款软件推荐给大家免费使用。

真正的核弹机工具来了! comfy 居然上线了云端版,不需要安装,打开浏览器就是生产力的巅峰!在云端,数千条高质量的工作流模板随便你调用,选择一个你需要的工作流,点击运行,看这个运行速度,简直快到飞起!这是继 英伟达 a 一 百在后台为你撑腰,比四零九零还要快出几个声位,生成一条电影大片,全程不到十秒,无论是视频生成、三 d 建模,还是高清修复,都能高效的完成任务。这就是降维打击,果然还得是抗 f y!

尝尝是不是被这些难题所困扰,寻觅合适的模特,又如大海捞针,那拍出的商品图呢,总是差点意思, 每次的产品上新,在模特摄影和后期的投入当中都像无底洞,成本居高不下。那不要愁,今天这期视频呢,就给大家传授一个无中生有的神奇黑科技, 跟着我呢,只需要用 ai 进行百变换装,那轻轻松松打造你的个人专属虚拟模特,让他随意的切换风格。那话不多说,我们现在开始吧, 首先大家拿到老师放在学习文档当中的这个工作流,然后呢直接把这个工作流拖入到康复有害当中,就可以显示出老师已经搭建好的这个工作流了。我们来看一下整体的一个布局, 首先呢就是我们需要上传一个啊我们的衣服的图片,然后呢在这里我们上传一张啊模特的图片,那 ai 呢,他就会记住这个模特的一个脸部, 我们不用管这个图片当中的模特是谁,穿什么衣服,我们只需要呢把他的一个面部信息,然后呢上传给 ai 就 可以了,那随后我们的这个图像就会自动的识别这模特的一个脸部, 在这里的老师已经把所有的参数都已经预设好了,在这个部分呢我们可以修改一下提示词, 那提示词文档呢,我们可以这么写啊,把这些服装首饰,鞋子,包包,然后呢搭配到这个模特身上,像这些提示词呢,大家可以根据自己想要生成内容啊进行修改。那接着呢来到这里的一个参数部分这一块呢,大家不要去改动它, 这些地方呢都是老师已经预设好的,那来到上面这里是关于一个 lora 模型,那我们这次使用到的就是千问的这个 lora 了,在这里还搭载了一个麦局的一个 lora 模型,那来到底下就是分辨率和数量的设置, 那我在这里呢也推荐给大家一些分辨率,大家根据自己的情况自行选择就好了。那接着我们直接点击生成, 最后呢图片就生成好了,我们可以对比一下这张图片当中的一个人物,是不是轻轻松松的就把衣服换到这个模特身上了, 想想看同一个模特在你手中就拥有无数的背景服装还有姿势,那相当于呢,有了一位全年无休,不知疲倦,风格百变的专属虚拟模特, 对于服装电商、产品设计,市场营销的朋友们的技术简直就是降维打击。那视频中演示用到的工作流呢?还有操作文档我都已经整理放在这个评论区了,有需要的小伙伴请在我的评论区回复,六六六即可领取。那感谢大家的观看,我们下期再见!拜拜。

逼自己一个月练完,其实你很会 ai, 存下吧,全一百零八集真的很难找!全了警告,本系列视频耗时两个半月,制作共计一百八十分钟,让你从 comfy 小 白到 ai 大 神!这应该是目前抖音仅有的从入门到进阶的全套系统 comfy 教程。先看效果, 一款软件彻底玩转所有 ai 功能,官方正版还免费,想画图点一下就行,想做视频再点一下就好, 想创作音乐还是点一下的事,就算要搞三 d 建模,也只是点一下的功夫呀!这可不是什么野鸡套壳网站,而是全球公认功能最全面、生态最丰富、还最贴近生产力的免费开源 ai 软件 kufui 哦! 你用它就能玩遍所有叫了上名的国内外最新最前沿的 ai 功能!或许呢,你早就听过它的名字,但今天真的绝对值得重新认识它,因为它变了,变得比以前有好多了!它就是 comfy 官方十二月份新推出的全新版本,变动大到超出预期, 其中有三点尤其利好咱们中国用户朋友,特别贴心。首先,全中文官方界面,大家注意哦,这可不是第三方翻译插件,是官方正版原生就支持中文的,比第三方插件权威多了,性能稳,可能性也更高。连做翻译插件的大佬都直呼有救了, 英文不好的朋友,入门的第一道坎,官方直接就帮你摆平了,是不是超省心?第二呢,内置了两百三十个开箱即用的模板,完全不用学 新版康复 u i, 官方直接筛选了两百三十多个在 ai 史上留下过浓墨重彩的经典 ai 功能,做成模板放进工作流预览那里了, 从 ai 绘画的纹声图图声图扩图,高清放大,局部重绘区域控制到 ai 视频的纹声视频,图声视频首尾帧过度动画,甚至连三 d 建模音乐音效创作都有,真的应有尽有, 这些全是 comui 官方精选的新手入门尝鲜,快速掌握时下最流行的 ai 技术,你以为这就完了? 第三呀,官方还直接提供了一键安装包,点一下运行直接就能用。那接下来的话呢,我就带着大家来从 comui 最初始的部署开始来部署到我们的本地电脑,那我已经把咱们需要用到的安装包和操作文档都已经打包好了, 同时的话呢,有一些主要的电脑配置要求也会给到大家,那如果你是第一次接触到 cfui 的 话,那就可以跟着我的视频一步一步来进行。那么在我们部署 cfui 之前呢,首先我们还需要去检查一下咱们系统的配置啊, 我们可以通过右键点击 windows 的 菜单栏,然后的话呢,点击我们的任务管理器, 打开任务管理器之后,我们点击到性能的这一个列表当中,我们就可以看到自己设备的整个的一个情况啊,包括 gpu 的 显存,然后包括的话自己的内存 ok, 好 的,那么这个的话呢,是第一步我们要检查一下咱们的一个设备,这是 comui 的 推荐配置啊,那当然如果你想要跑的更好一些的话,内存的数量要更高,或者是显存的数量更高才可以, 同时的话呢,硬盘最好能够控于有三百 gb 以上的这样的一个空间啊,那么在检查完了系统配置之后,我们就来安装一下必要的软件哈。我这边推荐的是 comfyui 官方的一键安装包,它是一款用拖拽节点的方式轻松创建图像、视频等生成工作流的 ai 工具, 支持 windows、 mac 和 linux 多种系统和硬件环境。我这边就以最简单的桌面版为例,带大家一步一步的安装到自己的本地电脑上。这里我就以 windows 电脑安装为例,给大家演示一下安装过程,非常适合新手朋友。 打开我给大家准备好的 comfyui 官方安装包文件夹,鼠标双击一下这个程序图标,接着按照提示一步一步的安装就可以, 他会弹出一个选定安装程序位置的弹窗,在这里我们选择一个宽裕一点的磁盘进行安装就可以,以我这里为例,我就安装在 d 盘了。安装路径选好了之后,我们接着点击这里的安装,他就会显示 comui 正在安装,请稍等,最后等待他安装完毕,我们点击完成就可以了。 这个时候呢,我们来到电脑桌面,双击一下 configui 的 这个图标,它就会跳出一个 configui get started 的 界面,这时我们点击一下 get started, 接着会出现这么一个窗口,我们选择 nvidia cuda, 接着点击下一步, 这个时候我们还是选择刚刚安装 configui 程序的那个的位置。路径到这里很多小伙伴们会疑惑,这是要安装什么呢?其实这一步就是要部署 configui 真正运行起来的环境依赖, 接着我们点击下一步,这里我们直接保持默认就可以,它就是一个保持程序自动更新和反馈你在使用软件过程中遇到的问题,方便 cfui 官方改进产品,其实就是对新手习惯的功能自动帮助更新, 我们点击下一步到这里, cfui 就 会自动帮你安装运行程序所要所有环境依赖,等待它安装完成就可以。 在这里我要做个提醒一下哈,就是你的电脑全程要有魔法哈,这样在安装过程中软件要用到的环境依赖才能顺利下载到你的电脑本地,否则可能会遇到下载失败或者卡住等问题。 最后安装完成之后会出现这么一个界面,这些都是 comfyui 官方在里面内置的一百多条经过社区和广大用户验证,拿到过巨大成果的工作流,其中包括图像、视频、音频、三 d 模型等等等等。那么到这里恭喜你,你已经把 comfyui 成功部署到你的本地电脑了, 是不是很简单? comui 部署成功之后,我们该怎么用起来呢?接着我们来到这边点击一下这个模板的图标,也就是一开始安装成功时弹出来的界面,我们点击视频生成,这里面很多都是通用万象视频开源模型的一些好用的经过广大社区大佬验证过的工作流, 我们选择其中一条来体验一下哈,这里我们找到万象二点二图声视频来带大家来体验一下,找到这个 one 二点二十四 b 图像到视频工作流点击一下,这时我们会看到一个缺失模型的一个提示弹窗,小伙伴们不要慌哈,我们挨个挨个的点击下载就可以了, 你不用管它具体放置在哪里,直接点击下载就可以了,等待模型下载完成之后,我们就可以愉快的玩耍了,怎么样,小伙伴们是不是 so easy? 这还没完哈!这次 comfyui 还有个重大功能,升级官方签约 api, 简单说你只需要注册一个 comfyui 官方账号, 再充点值,就能在 comfyui 里直接调用所有付费 api 了。而且 comfyui 还承诺所有 api 费用和 openai、 nano、 banana 等各大官方平台的报价完全一致,没有任何中间商赚差价,用起来特方便,一点不麻烦。 哈喽,大家好,这节课我们一起来学习如何搭建纹身图,工作流以及具体参数都有哪些。那么这个工作流我们上节课也稍微了解了一下,不过还没细说,现在我们就来看一下这其中都会涉及到哪些参数, 以及是如何控制我们生成的图像的。首先我们看到最左边的这个节点叫做 checkpoint, 加在一起,那么它是放置大模型的地方,大模型我们可以非常简单的理解为 他就好像一位厨师,那么有的厨师做的是中华料理,有的厨师做的是东南亚菜系,有的厨师做的是日料。不管之后这些参数再怎么调,主体基调都是和我们的大模型息息相关的。那么我们点开来之后可以看到,有的大模型是 真实系,有的大模型是动漫系,有的大模型是全能系,各有所长。当然除了这几种大模型之外,还有千千万万的大模型, 我们待会会提到,这边我们就先试验一下,比方说咱们先来一个真实系的大模型,接着点击右上角的执行,现在咱们可以看到最终的生成图像,很明显是写实风格, 那么如果我们来到 check point, 把大模型替换成一个动漫类的大模型,随后再次点击执行,那么此时我们能够明显的感觉到最终的画面呈现出了一种动漫的色彩。 咱们讲完了大模型,就顺着这个 point 加载器的输出往后看,那它一共有三个输出,分别是模型输出、 clip 输出以及 ve 输出。 咱们先从它的模型输出讲起,顺着这条线咱们往后看,可以发现,哎,这个模型输出啊,连接到了 k 彩样器上,那么这个节点我们可以看到它属于整套工作流的核心节点, 咱们可以把它简单的理解为中央处理器,它就是整个工作流的核心大脑在这个节点里会进行各式各样的运算,然后再 通过解码输出成我们的最终图像。接着我们再看这 power 加载器的 clip 输出,那这 clip 输出连接在了两个节点上,分别是这两个 clip 文本编码器。好,那现在问题又来了,啥是 clip 呀?要解决这个问题, 我们也可以顺着文本编码器的条件输出,哎,我们不难发现,他也是连在了 k 太阳器上,那分别一个连接到了正面条件,而另一个文本编码器连接在了负面条件上。 如果说有学过 y b y 的 小伙伴应该就知道,上边的这个啊,我们称它为正面提示词文本框,而下边的这个就是负责输入 负面提示词的文本框,因为它连接的是负面条件嘛,那么什么是正面条件呢?很简单,就是我们想要啥,咱们就输入啥。比方说我现在想生成一个女孩,那么就输入 one girl, 比如这个女孩在森林里,那么咱们就在 one girl 的 后面加一个逗号,紧接着输入森林的英文,也就是 forest。 当然语言这一块有任何不懂的小伙伴,我们都可以打开翻译器,比方说像这一个有道翻译 挺便捷的,我觉得非常适合康复以外。比方说我们想让他翻译一个水手服,那么就可以直接把这个英文给复制一下,接着再粘贴回我们的正面提示词文本框,注意词 汇与词汇之间要添加逗号。 ok, 现在我们编辑好提示词,大体就是一个女孩穿着水手服在森林里,咱们点击执行,可以看到最终图像也是成功生成了, 并且完全符合我们的提示词意思。但是我们可以发现啊,这张图片有非常多的 瑕疵,比方说他的手或者说他的面部非常的粗糙,确实太多细节了,想要完善这一点,我们会在之后的图片高清修复中一起去学习该如何解决这一系列问题。那接下来我们回到刚才的话题, 在我们知道了正面提示词之后,咱们就来聊一聊负面提示词,那这一个也很简单,就是我们不想要什么,咱们就 输入什么,比如说我们现在啊把正面提示词给输入花园,哎,一座花园,咱们先点击直行来看一下一座花园它能长什么样。我们可以看到图中的花非常的多, 当然我们也可以多生几张,我们可以看到基本上每一张花园关键词所对应的图像花朵都是非常多的,如果我们想让这些花朵的比重下降的话,那么咱们就在 负面提示词这边输入花朵,也就是 flower, 代表着我们不想让画面出现花朵, 输入完之后点击执行,现在可以明显的感觉到图片中花朵的比重大大减少了,我们可以多跑几次,是吧?能够明显的感觉到花朵占比没这么多,但是还是存在,这也正如刚才所说,负面提示词它根本的原理, 我们可以理解为降低提示词的权重,也就是花朵在这一整幅画面中的比重, 但并不是完全消失啊,如果是想要做到完全消失,那么我们可能得提高关键词的权重。怎么提高呢?看到文本编码器, 比如说我现在想提高这个花朵的权重,也就是我想更进一步的降低图片中花朵的元素,那么我们把光标放在 记住词上,然后摁 ctrl 加上键,哎,我们可以看到数字是不是变成了一点一,哎,继续摁上,然后就变成了一点一五,一点二,一点二五, 那么这个一点二五这个值,这个数字越高代表着权重越高,大家只要记得快捷键是 ctrl 加上键,或者 ctrl 加下,那么就是降低权重嘛,我们可以试一下,对吧? ctrl 加下,我们先可以看到后面的数字一直在减小,代表着权重在降低, 比如说我现在啊把这个权重给调成一点六,接着我们再跑一次,能够明显的感觉到花朵的元素占比 非常非常小,已经几乎消失不见了,那么如果我们把这个花朵摁 ctrl 加下,哎,我们降低它的权重,比如说降低到零点五吧,此时我们再点击生成,我们可以看到画面中又出现了花朵的元素, 那这就是正负面提示词以及权重的使用方法,没听懂的小伙伴可以回去多看几遍。接下来看到下边有一个叫做空内存的东西, 哎,啥是内存呢?我们看看它的参数自然就明白。可以看到它一共有三个参数,分别是宽度,高度,还有皮尺大小,很明显它是一个控制我们图片比例以及分辨率的地方,比方说高度我们设置为 七百六十八,相当于此时的宽高比二比三,点击执行。哎,那么最终图像也是瞬间就变成了竖屏比例,那么这就是 control 的 作用。还有个 p 四大小, 则是控制单次任务会出多少张图片,比方我们把 p 四设置成四,点击执行,那么此时可以看到保存图像这边多了一个交叉按钮, 点击一下我们就可以发现哦,一次性啊生成了四张图片。接下来我们看到 k 采集器,那么刚才我也说了,他就好像整个工作流的核心大脑,负责处理一切事物, 其中他也是有非常多的输入以及参数。首先看到随机种,我们可以把它理解为图片的身份证号,那么相同的参数以及相同的随机种出图会保持一致。 有同学可能还不太理解,我们这边先把 p 四大小设置为一,随后点击执行,哎,我们第一次生图是长这个样子,接着我们再点击执行,可以看到图片立马换了个样,细心的小伙伴可以发现呢, 这两张图片每次生成的时候,随机种也不一样,但是其他参数我们变了吗?比方说关键词我们有改变吗?模型有改变吗?或者宽高有改变吗? 很明显没有。那这就是随机种子的作用,能让我们相同参数生成各式各样的图片,同时只要我们约束随机种,我们也能保持出图的一致。比如说我们看到运行后操作,哎,把它设置为固定,那么代表着我们 生成完这张图片之后啊,随机种子会保持不变。那么既然随机种保持不变,此时我们再点击执行,可以发现工作流直接不动了,那么因为啊,我们的所有参数都没有发生变化,代表着如果我们能跑起来, 那么最终结果也还是这张图片,所以说康复以外会直接不动。接下来我们看到步数,那么这个值,我们可以把它想象成 毛巾擦拭一块脏玻璃的次数,哎,很迷是吧?我们的 stupefaction 生图过程啊, 其实是不断地为一张噪声图像降噪,降噪最终生成而成,那么步数也就是降噪的次数,当步数过低时,可能这块脏玻璃还没有擦多少下,上面全是灰尘或者说扭曲的色块。 我们一起来直观的看一下,比方把步数设置为三,接着点击执行,可以看到这段画面,啥玩意啊, 根本看不清。而此时我们把步数设置为七,然后点击执行,可以发现,哎,画面稍微清晰了一点,但是好像细节没这么多。大家想象一下, 我们为一块脏玻璃,如果说只擦七下跟擦一百下,那呈现的效果肯定是不一样的。比如我们此时啊,把步数设置为四十,哎,这个时候脏玻璃上的灰尘基本上都被擦干净了吗?可以看到细节就多了很多,图片的质量 以相应的有所提高,但并不是步数越高就越好,哎,什么意思呢?一块玻璃啊,擦一百下跟擦两百下有区别吗?区别不大,因为当我们擦到一百下的时候,可能玻璃上的灰尘都被擦光了,继续擦下去只是在浪费自己的力气。 我们可以实验一下,把步数从刚才的四十设置为八十,接着点击执行,我们一起来看一下两者之间的差距会有多大。我们可以发现 升图时间其实是多了一倍,因为八十是四十的两倍嘛,而我们最终图像的变化连百分之五都不到,所以就显得非常没有必要。因此一般情况下,我们的步数设置在二十到三十之间即可,所以我们这边可以取个中值二十五, 那么下边有个叫做 c f g 值的东西,又是一个新参数,那么它也很好理解, c f g 值越高,代表着我们最终生成图像和关键词越相符。 咱们也可以理解为 c f g 就是 对关键词的约束力,当我们的 c f g 为一时,则 代表着我们的约束力非常的弱。咱们的最终图像啊,就好像脱缰的野马,将和我们的关键词 没多少关系,不信的话点击执行,一起来看一下。我们能看到这生成的是一坨啥呀?所以一般情况下, c f g 保持在五到八之间即可,我这边设置为六点五,那么接下来有一个叫采集器以及调度器的东西, 这两个可以简单地理解为图片的降噪方式,图片的生成方式,我们彩样器一般选择的是 d p n p p 二 m, 而调度器我们一般选择 teras, 点击执行可以来看一下生成效果。那么最后还有一个降噪值, 有关这个值的解释我们会放在下节课图生图中再详细讲到,那么我们终于把 k 采暖器的所有参数都讲完了,现在一起来看看它的 laten 输出。那这个东西是什么啊?不太懂哎。我们看到 它后边连接着一个叫做 ve 解码的,而这个 ve 解码的作用就是让我们的 laten 图像能够转变为最终的像素 空间图像。我们可以简单地把这个 later 或者说 later 图像比作一盘刚炒出来的菜,但这菜还没有摆盘看的乱糟糟的嘛,不忍直视。而后边经过维 e 解码之后,哎,这一个服务员把这一盘不忍直视的菜 优雅的进行摆盘设计,最终端在我们面前的就是这一个像素空间的图像,也就是被优雅精心摆放过后的菜品。而其实像这个 later 以及 later 空间,我们也翻译为浅空间,在这里面的图像 我们是看不见的,而咱们平时能看得见的所有图像,包括你所看的本视频都属于像素空间。那么关于这一点咱们了解一下就好,还是来说一下维 e 解码的运用吧。 我们能够明显的感觉到,咱们刚才啊生成的这些画,感觉是不是都灰蒙蒙的,不太对劲啊啊,没感觉到也没关系, 总之啊,他们其实都有点灰,比方说我现在把种子值给稍微修改一下,然后点击执行,看一下新生成的这幅画。哎,是不是能够感觉到色彩没这么的鲜艳饱满?那这和 ve 有 关, 不同的 ve 会带来不同的解码效果。想要改善这个灰蒙蒙的现象,我们可以把这个 ve 节点先给断开,然后在 ve 解码的这个 ve, 咱们点注拖出来,选择 ve 加载器。那之后我们在这个 ve 名称点击一下,可以看到目前一共有三种 ve, 当然有更多的我们可以自行安装。 我们要生成的是动漫类图像,所以选择的是 anime ve, 那 现在我们再点击执行,哎,图片是不是立马变亮了,立马变得鲜活了,那这就是 ve 解码的作用。 好的,那么以上是关于本期纹身图的具体参数以及工作流讲解,下节课我们将进一步探讨图生图,并用图生图简单的做一个风格转变,那 我们就下期再见,拜拜!好,记好这节课我们一起学习如何制作真人转动漫风格图片,其中我们涉及到的叫做图生图流程, 接下来咱们就一起看看吧。那首先我们进入到 comui 的 默认工作流界面后,咱们先把 comlater 这个节点给删去, 随后在 k 太阳器的 later 输入,我们摁住拖出来,接着选择该选项。 vae 编码器,可以看到 vae 编码一共有两个输入,分别是图像以及 v a e。 那 首先看到图像,同样的,我们按住这个蓝色的小圆圈拖出来松手,接着选择加载图像节点,随后我们在 v a e 编码的 v a e 输入,应该连到哪呢?放眼大局,只有一个节点有 v a e 输出, 那就是去控制加载器。当我们很迷茫不知道连哪的时候,一个很简单的方法就是红色连红色,蓝色连蓝色,粉色连粉色嘛。不过这个方法并不是绝对的,咱们先连接在 v a e, 那 么我们把这两个红色节点先连接一下,这么一来, 我们的图生图工作流就构建完了,是不是非常容易啊?接着我们看到 k 传感器 在上节课,咱们提到了降噪这个参数,但是当时没讲,因为啊,这个参数是针对于 图生图的专属参数,当降噪值为一时,我们最终生成图像将和我们原图一点关系没有。比如说,咱们这边先随便选择一个大模型吧,然后点击执行, 我们可以看到最终图片和原图有一丝关系吗?完全没有。但如果我们把降噪值设置为零点 五,接着再点击执行,这个时候我们就可以发现最终图像和我们原图哎,有一些相似, 那这就是图生图的魅力所在了,非常直观,最终图像将会根据我们降噪值来以一定程度的模仿各位所输入的图 片。注意一点,当我们降噪只为零时,会发生什么呢?我相信有的小伙伴应该已经猜到了,那就是直接输出我们的上传图片原图,这两者可以说是百分之九十九点九九九的相似,但是他们并不完全相似, 这句话怎么理解?其实啊,我们经过了这一大串哎,可以看到咱们的原始图像是不是先经过了什么 click 编码器,然后又导入到了什么 k 采暖器,随后 k 里哐啷 k 里哐啷经过一顿操作,最终在解码输出为我们的最终图像,而我们的这一个最终图像 实质上是有一丢丢的画质损耗的,但是这一点损耗我们肉眼比较难发现,关于这个知识咱们知道就好。而当我们需要进行图片参考的时候,我们啊一般把降噪值设置为 零点四到零点七五之间,比如说当降噪值为零点四到零点六之间时,那么我们的最终图像就会和原图更为近似。而当降噪值为零点六到零点七五时, 比方说咱们设置一个零点七五吧,我们就可以看到此时的图像就已经有点飘了。比方说我们把正面提示词书写一个 一个女孩红色的头发,随后把降噪值设置为零点五,接着点击执行,随后我们就可以发现最终图像呈现出了一种橙黄色的头发,当然发梢带着点红 是因为我们的原图啊,会尽可能的朝关键词方向去靠拢,但是呢,由于我们的降噪幅度为零点五,所以并不是完全靠拢,只是有那个趋势, 我们能够明显的感觉到。而同时我们不难发现咱们这张最终图像是真人。哎,这是怎么回事呢? 说到这个,我们就不得不提到大模型,因为我们这一套工作流输入大模型是这一个 真实系写实风格的大模型。那么我在上节课也提到过大模型,就好像一位主厨,不管你加了什么调料,那么最终的菜系都是围绕着中华料理或者东南亚风格,日料 是有一个很明显的倾向的,而在我们这案例中,很明显,真实系大模型最终的图像必然会尽可能的靠向真实系嘛,我们也是借此 来完成角色风格的转变。那么现在我们是不是非常轻易的就把这张图像变成了写实风格?但是他们两者之间还是有点差距,因为这张图片很明显是一个金黄头发。那我们该如何更为准确的把 输入图像来进行一个风格转会呢?非常容易啊,咱们关键词可能会说, up 主啊, 什么是质量词汇?完全没听过啊,哎,我们知道啊,上节课介绍了咱们的正面提示词以及负面提示词,作用是什么呢?正面提示词就是想要什么就输入什么, 而负面提示词就是我们不想要什么就输入什么。那如果我们在正面提示词这边输入的是高清 极致的细节,杰作,完美的五官类似于这些词汇,那么最终 ai 就 会知道,哎呀,我输出的图片应该要保持高质量,高细节,高清晰度,尽可能的不出现变形的肢体。 ok, 那 对于反面提示词也是一样的,如果我们在这边输入的是 模糊、扭曲、不清晰,那么 a a, 就 知道,哦,原来啊,他不想要扭曲的,他不想要不清晰的,他不想要低质量的图片,那么最终也是间接的提高了我们的生图质量。所以这边大家可以跟着我一起输入,咱们先调出一个翻译器吧, 杰作,高质量、极致的细节、高清晰度,我们就先写这么多,然后再把这些给复制一下,粘贴在正面体式词, 那么关于负面体式词也一样,我们可以编写扭曲的,低质量的,模糊的,不过有人把这些词汇啊都编写进了一个词组包,叫做 easy negative, 大家可以跟我一起拼,哎,拼到一半我们就可以看到有这个选项,点击一下即可。那么这个东西就是包含着各种各样的负面质量词汇,目的呢,也是为了提高我们最终生成质量了, 此时我们再点击执行就可以看到,那么我们的最终生成图像也是尽可能的与原图靠拢,当然我们不满意可以重新生成吧,比方说把降噪值设置为零点四,这样子可以 原图的细节更为贴切,然后再把步数设置为三十,采暖器用的是 d p m p p r n, 调度器为 covers, 点击执行。那这一次是不是细节更为还原呢?当然如果我们继续降低降噪值会发生什么, 我们可以一起试验一下,比方说调成零点二五,接着点击执行,我们就可以发现,由于降噪值过低的缘故,最终图像受到大模型以及其他参数的影响太少太少了,并且还会发生一些变形, 我们可以看到他的眼睛发生了一点点变形。那如果我们把降噪值设置为零点三五又会怎么样呢?一起来试验一下。不出所料,发生了面部的变形,当然我们也可以多次跑图来看一下一个综合效果,那这一张也是发生了变形, 所以这又是为什么?我刚才建议的临界值是零点四到零点七五之间,这不是没有理由的,因为零点四 再往下的话,图片坏图率实在是太高了。 ok, 在 了解完降噪值之后,我相信大家应该已经学会了如何进行风格转变,那么这种转变方法是借助大模型来间接完成的。 如果我们大模型是一个动漫系,又会发生什么呢?来我们一起来试验一下。咱们呢,先把大模型给替换为动漫系, 然后咱们再上传一张写实图片,比方说这张吧,接下来把降噪值调成零点四五,随后点击生成,那么此时我们可以看到最终图像非常轻易的被我们变成了动漫风格, 但是我们可以发现生成图像漏了一个重要细节,就是原图它有一个口罩。哎,想要还原这一点,那我们就来到正面提示词, 咱们输入一个女孩带着口罩,随后点击生成,那么现在口罩这一细节是不是被成功添加上去了?好的,那么以上啊,就是关于本期的真人转动漫动漫转真人图声图工作流案例, 我希望大家在本节课中学习到了如何运用图声图以及降噪的具体使用方法,那咱们就下期课我们一起学习细节超清修复。 咱们先看这两张图片,他们有什么不同啊?主体形象是不是一样,但是仔细看就可以发现,他们的清晰度,他们的纹理,他们的细节完全不在一个档次。 那么这究竟是如何实现的呢?咱们就打开康复以外,先来到默认工作流,比如说我们只用默认词汇输入张图片看看,那么不出所料,我们会得到一张瑕疵较多,细节严重缺失的图片, 那么我们该如何对它进行升级改进呢?那么为了让接下来图片更为统一,我们得把种子值给固定一下,接着我们的宽高也稍微设置一下吧,比方说宽度七百六十八,高度我们就设置为 幺零二四。那么关键词我们替换成一把插在石头上的键吧。那么在输入主体内容之前,先要输入质量词。 注意,我们一般在书写正面提示词的时候,要遵循质量词汇主体加氛围词汇这一个书写结构。那么我们打开翻译软件,输入杰作,高质量,极致的细节, 高清晰度。然后就是输我们的主体,一把苏格兰航舰插在石头上,荒原 背景常见,散发着魔法的光芒。异世界,奇幻世界风格,真实质感,而我们后面输入的奇幻世界风格以及真实质感就属于氛围词汇。 咱们把刚才的这一些给翻译一下,然后再复制到正面提示词,那至于负面提示词,我们还是用 easy negative 选择该选项,点击生成试试看。很明显这不是我们想要的。咱们把 p 字大小设置为十, 来筛选一下。比如说这张图片吧,可以看到生成了一把非常酷炫的长剑,咱们乍一看感觉他哎还不错,但仔细一看可以发现他非常多纹理细节都有缺失。 而我们该如何提升这一把剑的整体质量呢?那画面看起来更为华丽,过程非常简单,我们在 ve 解码的图, 图像输出拖出来,按住 shift 键,随后就可以弹出一个搜索框,我们在这个搜索框内搜索缩放图像,看到该节点缩放图像比例,点击一下就可以看到, 哎,它自动的连接在了 ve 解码的图像输出,接下来我们把这个节点的系数设置为一点五,相当于待会啊,我们希望出图的像素是 原图的一点五倍。随后我们要复制一个 k 采暖器,这边我们先摁 ctrl c, 先把它复制一下,然后再点击空白处摁 ctrl shift 加 v, 此时我们就可以看到 成功粘贴了一个带连线的 k 太阳器节点,那这就是 ctrl shift 加 v 的 意思,带连线的粘贴可以省下我们非常多的,咱们就不需要一个一个的去连接了嘛。那接下来我们把这个 layton 给断开,然后豁出一个 v a e 编码器, 大家可以想想看我们这个编码器的图像输入连哪?答案就是刚才的图像按系数缩放的图像输出了,因为我们希望的是把这一张图像作为参考图片传入到 k 太阳器里, 但是又不完全是它,因为我们还进行了按系数缩放嘛,它的像素会扩大一点五倍,意味着它有着更多的空间去填补细节纹理,具体是怎么回事我们待会就知道。 咱们把 ve 解码的 ve 输入连接在 chip 接收器上,随后我们在 k 采集器的降噪设置为 零点五,然后把 later 拖出一个 ve 解码器。同样的 ve 输入啊,我们也是连在 chip 接收器上,最后添加一个预览图像节点,点击执行。那么此时我们就可以看到咱们第一次 高清修复的图片就这么出来了。放大对比一下不难看出,我们经过一次放大的图片,细节多了非常多,比方说剑柄、剑格,还有剑刃,新增了一些贵族纹理,当然还有剑柄的末端,相比于原来也是新增了一些纹理。 除此之外,石头也变得更有质感了,大家也可以看到,那这就是高清放大的优势所在。基本上如果我们想生成高质量图片, 优质的图片这一个步骤是必不可少的。如果我们只是想上来玩玩,那只用前面的这一个基础纹身图和图生图模块就得了,那很明显我们不满足于此。 我知道啊,有些小伙伴可能会说, up 主啊,如果我觉得这张图片它还是不够精细怎么办?别急,咱们还有二次放的哈。没错,我们还能让这张图片变得更加精细。 但是在此之前,我们回看刚才的工作流,可以发现节点是不是越来越多了呀?为了让我们工作流看起来更为简洁,我们在空白处右键一下,这里有一个添加组,点击,哎,就出现了一个蓝色的框框,我们可以给这个组命名,比方说基础生图, 那命名完之后,我们先把它放在这里,然后右下角有一个小小的三角形,点击一下拖动。哎,那这样我们就可以把咱们想编组的内容 都放进来,方便我们在节点越来越多的时候,区分各模块的主要功能。比如说像我这个组 名字叫做基础生图,那么里面放着的内容,我希望当然就是与我们最基础第一次生图有 关的内容。那同时我们可以看到,只要我们拖动这个蓝色框框,那么框框内的所有内容都会跟着一起拖动。又或者我们可以右键蓝色框框这边可以直接停用该组的所有节点,或者直接忽略该组所有节点,当然我们也可以起用组内的 所有节点,那这就是组的一个主要功能。同样的,我们为后边这一个依次放大流程,也希 新增的组别摁右键点击添加组,咱们就命名为一次放大。 ok, 在 我们整理完之后,我们就来添加二次放大节点, 我们双击空白处搜索奥特曼 s d upscale, 那 么它被翻译为 s d 放大 过啊,有时候如果我们直接搜索 sd 放大可能会搜不到,所以我建议大家还是输入奥特曼 sd upscale, 那 么在这我们可以看到也是有非常多的参数以及输入,咱一个一个慢慢连。 首先图像必然就是连接在刚才的 ve 解码图像输出上,那模型呢?我们应该连接在最开始的 point 模型输出,我们可以看到这个线是不是要连非常长啊?怎么办?有没有办法可以简化这一根长长的线, 哎,还真有,比方说我现在把这根线在空白位置松开鼠标,可以看到这边有叫复位节点,点击一下, 那么他就是一个小小的转换器,他是个中转站,他存在的目的也非常简单,就是为了让我们的工作流更为整洁,那么我们可以把这个节点当做模型输出的代理人,接下来我们把他的 紫色输出连接在 s d 放大即可,那同样咱们放大看看。 s d 放大还需要正负面条件,我们也是把 clip 编码器的正负面条件都拖出来,添加一个 root 中转转换简点,然后再把它们两个都 拖过来,哎,这样一来,我们连接是不是稍微方便了一些?那至于这个 v a e, 我 们也是同样嘛,直接拖出来添加复位,然后再连接到 s d 放大上,那最后这有个放大模型需要添加, 我们拖出来添加一个放大模型加载器,选择默认选项即可。之后我们可以把这个运行后操作设置为固定,其他参数均保持不变。新增一个预览图像节点,我们就可以点击执行了。经过一分钟, 我们得到了二次放大图像,那此时我们再把它和一次放大图像做个对比,咱一起来看看。首先是二次放大图像,放大之后基本没有较模糊的色块,比如说像这个煎饼的细节非常非常的 丰富写实。而我们再看一下一次放大图片,那稍微往近看就可以看到还是较为模糊的,与我们的二次放大有一段距离。 当然如果说我们为了省时间,一次放大的图片其实很多时候都够用了。如果说我们为了是得到最棒的图片,那二次放大很明显会比一次放大要提升百分之十五到百分之三十左右。那有小伙伴可能会说,啊,不如啊, 有没有三次放大?嘿,还真有。我们可以在二次放大的 sd 放大图像输出后边拖出来,摁住 shift 键搜索,使用模型放大图, 看到该节点,那这个节点非常简单,只有两个输入以及一个输出。我们在放大模型拖出来添加一个放大模型加载器,同样的使用默认选项即可。 然后我们在图像输出拖出来添加一个预览图像节点,那么我为了更直观的对比一下最终图像和我们的第一张基础生图 两者的巨大差距,我打算添加一个图像对比节点,双击界面搜索 compare, 看到该节点 image compare, 随后把三次放大的图像输出连接在图像 a 选项,那这个图像 b 我 们就连接在最开始的基础生图图像输出,先 添加一个转接点吧,然后再把转接点拖过来连接在图像 b 上,那这么一来,点击直行即可。经过一分钟不到,三次放大也是成功跑出来了,注意三次放大的运行时间往往会比这个 s d 放大要短一半左右。咱们先把这个最终的图像对比给 放大一些,方便大家观看,那么我们可以看到这个是基础生图的原始图像,接着我们再慢慢的向左滑就可以看到,哎,变成了三次放大的 最终图,这个细节的添加不是一星半点的,我相信有部分小伙伴最开始啊看到这张原始图片已经觉得哎呀非常不错了,但是此时再把它和 三次放大进行对比,那简直是天差地别。接着我们再仔细端详一下这三次放大图片,我们可以试着放大一下,接下来大家不难发现,无论我们放的多大,图片的纹理都是非常非常的清晰, 我们仿佛感觉到这把剑上的金丝以及铁锈,还有这些石头上的纹理都被刻画了出来,那这就是我们三次放大的最终结果, 成功的把一把稀有品质宝剑变成了史诗品质啊!好的,那么以上啊就是关于本期的全部内容了,在本期内容中,我们一共学习了三次放大,一般情况下我们只需要用到一次放大即可, 当我们对最终图片质量有要求的时候,才需要用到二次放大乃至三次放大,而这三次放大最终图像大小也是非常夸张的,足足有一百六十五 mb。 接着我们来看一下它的像素,那么宽高分别是九千二百一十六乘以一万二千二百八十八,大多数场合都用不到这个尺寸的图片。好,那么以上是关于本期的全部内容了,那咱们就下期再见,拜拜!

你敢信有人用 ai 做这种画风的漫画剧,几天就顶别人一个月工资,但更离谱的是,百分之九十的人连门都摸不着。没人告诉你第一步到底从哪下手,没人分享真正能跑通的方法,更没人提醒你哪些坑早就被人踩烂了。但今天,我把这条从零到一的流程彻底拆给你看,你只要照着 做,四十八小时内你的第一部剧就能上线。首先, ai 慢剧到底是啥?就是你刷到的那种动漫式短剧, 一集接一集,剧情上的画风带感。为什么全网都在抢着做?因为他的变线路径简单到吓人,用户要么花钱解锁,要么看广告分成,别小看那几秒广告,一旦跑起来睡觉时,后台都在进账,这就是为什么有人越做越上瘾。本期视频,我把用到的工具、工作流和操作步骤都整理成了文档 暗号报走吧,那么时间有限,抓紧时间上车吧。那我们话不多说,就用下面的这个 ai 动态慢案例,开始今天的课程。 这就是爸爸说的特殊学校吗?看起来还挺正常的。呃,连打扫卫生都这么着急是吗? 喂,你刚才是在飞吗?这不科学吧? 啊?这难道是异能训练营? 新同学你好,我是班长苏青月。别害怕,大家只是在用各自的方式交流, 这里就是我寻找已久的地方, 准备好开启你的超凡人生。那想要制作一个完整的 ai 动漫短片,其实和常规的动画短片的制作流程并不差别, 而异于 ai 的 加持。那很多工作呢,都是可以由一个人去独立完成的,很多专业的知识也可以借助 ai 来快速的进行学习和掌握。那想要制作一个完整的 ai 动画短片, 其实主要也就分成这几个流程,第一个是书写故事脚本,第二个是根据脚本来生存画面, 第三个就是根据画面来转视频的一个动向,那根据视频动向呢,再去进行配音以及呢配乐, 最后就是后期处理了。那这期视频我们先来讲解第一个部分叫做故事脚本,如何利用大语言模型来编写故事的脚本和剧本。那同时呢,这一期视频的相关学习资料我也放在评论区的置顶评论了, 大家需要的话呢,可以自取啊。那大多数人呢,目前都不是专业的编剧和导演,那因此我们想要获取一个好的故事脚本,就要借助大元模型的生成了。比如说我们现在有 gdp, 像豆包,还有 deepsea, 文心易言、 kimi 等等,这些都是可以去制作这个剧本的。那当然在国内呢,比较推荐大家使用豆包就可以了, 如果有条件的同学也可以使用这个 g d p 或者 jimmy 去生成故事脚本,这些都是没有问题的。那这个时候其实如何给 ai 大 元模型进行提问就显得非常非常重要了。 那在给大元模型提问的时候,这里会有一个通用的格式,必须满足这三个基本要素。那第一点其实就是给 ai 设立身份, 那我在这里呢写了一段提示词,像前面这里我给他设定的身份就是一名 a i g c 的 慢剧自媒体博主。我们先把这个提示词复制下来,我们回到豆包当中,直接粘贴上去进行发送。那第二点其实就是给 ai 提出问题, 那这里呢,我给他提出了问题,就是需要让你帮我生成一个反套疯癫剧情的一个国产修仙动画故事脚本。而第三点其实就是让 ai 给我们回答设定的一格式,我最后这里是要求让它以表格的形式输出, 分为分镜序号,长镜镜别,分镜描述,最后一个镜头包含的词语以及呢内心的画面和画画音等等。那这个都是我给 ai 提出的一个要求。那我现在呢,把提示词发给豆包之后呢,它已经给我们生成了一个故事脚本了, 我们可以看一下它整体的一个生成过程。首先我们提出了一个要求,是关于分镜序号,长镜镜 别以及呢分镜描述,还有提示词,还有话外音等等,这些都出现在这里面了,我们可以看一下里面的场景以及呢分镜描述,如果你觉得这个故事不太喜欢,你也可以直接让他重新生成。 而且呢我要跟大家说一下,就是剧本和脚本是不一样的,可以看到啊,我在这里呢,是让他为我生成一个故事脚本,而剧本呢,他就会像阅读一本小说一样, 没有特别复杂的一个解释,只是顺着观众的正常思路来讲述一则普通的故事。那脚本就不一样了, 它的内容呢,会更加的繁琐,包括像这些景别和场景,以及呢对画面内容的一个描述,镜号 以及发生的时间。它更像是一本在制作这个故事完整影视作品时候的一个指导规划书,告诉我们在拍摄这一段的时候应该要注意什么, 应该按照什么样的方式去创作?那么了解了故事剧本和脚本的区别,我们再来到刚才的一个内容当中,那这个呢,其实就是我去生成这个泡面修仙的一个剧本了, 全程非常的简单。那我们最后呢来简单总结一下这一期视频都讲了哪些内容。首先我们大致讲了一个制作 ai 慢剧作品完整流程都有哪一些,这个也是我们后续课程当中都会逐一的给大家去详细 讲解的内容。那本节课我们讲解了如何去编写一个 ai 漫剧的故事剧本脚本,其重点就是在于 ai 大 于 模型,提问时候的框架分别是给 ai 设定身份,给 ai 提出问题,以及呢给 ai 的 回答设定格式。我们通过一个简单例子得知了这个框架的重要性,同时也在实践当中生成了这个故事的脚本, 而且对于什么是剧本,什么是脚本这些功能都有了一个详细的区分。那下一期视频当中,我们就来学习如何根据生成好的剧本脚本来生成这个分镜图片。这个呢其实也是整个制作环节最花时间的部分,因为它不仅要生成图片,还要包含设计故事内容 以及各种的一个形象,以及如何保持这个角色的前后一致性,如何对于生成不满意的图片进行修改等等。 如果大家不想要在学习的时候错过这些内容,也不妨先点赞关注支持一下。在片头我们所展示的 ai 动画短片制作流程当中,我也总结成了一个文档资料,放在评论区的置顶当中了,大家有需要的话可以 自取。那这一期视频呢?我们将利用已经生成好的剧本和脚本来生成分镜头图片。首先我们需要了解为什么要生成分镜头图片。 在大多数的时候,想要制作 ai 视频片段,我们都并非是在 ai 视频平台以及纹身视频的方式直接生成,因为本身生成一条 ai 视频 在资金和时间成本上面,它都是消耗不低的,而且使用纹身视频的方式有很多的随机性,极有可能生成十条视频,有五条都是不满意的结果。因此在大多数情况下, 我们想要去生成一个 ai 视频片段,采用的方式都是先生成图片,再使用图生视频的方式,以此来更加可控的生成视频片段。 所以生成图片是制作视频作品的必不可少的一环,也是最花时间的一环。那这节课呢,我们会从前期准备提示词结构提示词描述技巧 以及图片修改技巧四个方面来讲解和分镜头图片相关生成的一个知识。首先我们来看一下生成图片的前期准备。 一般来说,我们一则完整的故事都是需要故事当中出现主要人物,所以我们先对故事当中的主要人物进行造型的设计,那通常来说,在生成的脚本里面就会包含一些对于简单的人物造型的描述。 在上一节课当中,我们已经生成好了这个反套路疯癫的一个修仙漫剧脚本了,那我们就以这个脚本为例,这里呢出现一个主角叫做李狗蛋,那在这个脚本当中呢,他没有仔细的去描写这个主角李狗蛋的一个人物外貌,还有他的形象。这个时候呢,我们 可以在这个 ai 当中去输入这样子的一段提示词,我们可以把这个提示词给复制下来,按照这个剧本为我生成每个人物的人物设定,需要具备服装, 外形、性格、行为特征等等,并且把这个角色的设定按照 comui z image 大 模型的 prom 形式生成每个角色的 prom。 那 这个主要是因为我是使用到的是 comui 里边的 z image 大 模型,那如果你是使用下这些闭源软件 吉梦或者是可林去生成的,那你可以把这里的模型换成吉梦或者可林或者豆包,都是没有问题的,我们复制下来,回到这个豆包当中,我们给他贴上去,那现在豆包呢,已经生成好了这个角色的一些设定,包含了他的服装还有外形,性格以及 行为特征,那底下这里呢是生成好的一个提示词,当然如果你觉得里面的服装以及外形你不太满意,你也可以在这个基础上面 去修改你想要的一个形象。比如说这个李狗蛋呢,他外形是一个十九岁的一个少年模样,那如果你想让他三十岁四十岁的一个模样,你是可以直接去修改的,以及他的这个服装前期是穿的华丽一些, 可以直接对 ai 给它进行描述,都是没有问题的。那有了这个提示词之后,我们还需要注意第二点,那就是给这个人物设定这个画面的风格,那大家知道啊,现在大多数的影视作品在美术风格上面都要保持前后的一致性, 都说前期是写实风格,后期就突然变成了三 d 风格,所以这里呢,我们也要预先对于将来的画面当中的一个美术风格进行固定,那这里同样是通过提示词来描述,比如说在生成角色造型的时候,我的要求就是一个二 d 慢局风格, 我可以给大家看一下这里呢我之前生成的这个李莫玉的形象,我都是给他统一规定二 d 的 漫剧风格,角色设计以及呢白色的干净背景,自然站立、单人男性等等。 那这个呢就是他生成的一个提示词了,可以看到他都是按照我的一个设定去生成的一个人物形象,那我们再来看一下他另外一个人物也是一样的, 在生成大长老这个人物形象的时候,我也是统一书写了二 d 风格,角色设计,白色干净背景,那目的呢?其实都是为了让他去统一我们的一个画风。那现在看到这里问题来了, 如果说我们喜欢某一张图片当中的美术风格,但是又不知道该如何用体式词描述的时候,那如何获取这个风格的体式词呢?那其实方法也非常简单,比如我们直接进入到极梦 ai 当中,来到这里会发现有很多 创作者生成的一个图片,那这里呢是它生成这个图像的一个图片体式,我们可以把这个提示 词给复制下来,但是呢大家有没有发现这个提示词当中还会描述这个画面当中的一个人物和主体而已,但是我们只需要它里面的画风提示词,那这个时候我们就可以打开豆包小姐姐,直接创建一个新的对话, 将刚才复制好的提示词进行粘贴在底下,这里我们直接点 shift, 那 在这一段提示下面呢,我们就可以这么去书写,去除上述提示词,对具体事物和氛围描述,只保留画面美术风格描述相关的提示词,直接点击 一发送可以看到,这样一来,我们就可以快速的从其他作者的作品当中提取出了这个美术风格一致的相关题日词了。当然由 ai 提取的 风格相关题日词未必都是准确的,或者说是我们需要的,所以在使用的时候还要经过一次人工的筛选。比如在这段题日词里面,空间交错并非是对于一些紧别的描述, 所以使用的时候最好呢将其先删除。当然很多时候使用这个方法生成的主题不同,在美术风格最终的表现上面,也并非能够绝对的完全贴合我们参考时作者生成的 图片。所以大家可以多对题目的描述,根据自己的理解,结合生成的结果来进行修改,以此来满足自己对于画面风格的一个要求。 ok, 那 我们 继续来承接之前的内容,那在之前的脚本当中呢,是已经有了这个角色的一个形象,那我们直接回到脚本当中,就可以拿到我们的一个提示词, 可以选择一个出图软件,那我在这里呢,选用的是 comforion 来进行角色的设定,那我主要使用到的是这个 zimag, 一个 bf 十六的一个大模型,那这个模型呢,它在画面的种美感 集呢,它有很多种类型都可以直接在上面进行生成,那这个也是直接调用的千问的一个 clip 加载,以及千问的一个 v a e, 那 底下这里呢,我是接入了一个提示词列表,那也就是说我可以同时的去生成五个形象的一个内容,那我也可以给大家看一下 我最后生成出来的一个结果,那这些形象呢,就是使用了这个二 d 漫剧的风格,有没有发现他在生成人物的形象,还有这种画面的画风都是保持很好的一致性的,那这个呢也就是为了更好的去生成我们后续的分镜镜头, 那我们目前呢已经确定好人物的形象,那我们就可以用这个康复员去生成这个人物的多角度仕图,那我在前面呢已经生成好了,我可以给大家看一下。这个工作流呢也是需要用到千问的一个编辑模型, 那我这里是上传了一个我的主角李魔雨的一个形象。最后呢这个 comfame 就 可以给我们跑出来这个人物形象的多角度图片了,比如他的一个正视图,还有他的一个特写, 侧面是图,背是图等等,都可以用这个工作油一键搞定。如果想要大图的话呢,也是可以直接点开就能够保存了。那这个呢就是我们去统一人物角色一致性的一个技巧了, 不需要花钱去使用币源软件生成图像,你也可以使用这个 comforo 开源的软件, 直接为我们生成这种可控性非常强的一个角色库。那我们目前呢已经获取到了这个人物造型的设计,同时也规定了画面的美术风格,那下面要做的事情呢,其实就是去书写提示词,描述了去生成脚本当中每一个分镜头, 那这里我们需要去学习一下提示词的结构,那主要有六个方面,分别是景别有近景、中景、远景等等。第二个方面呢是画面当中出现的事物,像人物,动物,环境等等都是画面当中出现的事物。 第三点就是时间和光照,白天夜晚傍晚的光照是不同的,那同时光照也是可以来自于不同的方向,像正面光,侧逆光等等,都是能够表达人物的情绪, 也是有区别的。而色调方面呢,则包括冷色调,暖色调或者呢可以用某一部电影当中的调色,比如说教父的风格等等。像构图方面就包括水平构图,对称构图, s 型构图等等,可以让生成的画面体现出更多的情绪。 一点就是提示词,像胶片、颗粒质感、电影感构图、超高清十六 k 等等,这些词汇呢都能够提升生成的结构的画面质量。那我们现在呢进行 这个分镜的一个实操,我们回到脚本当中, ok, 我 们现在呢已经解决掉了这个人物设定的一个操作方法,那接着就是生成分镜了, 那分镜呢,我们也是需要用到提示词的,那在这里我们就可以一样的让 ai 帮我们生成每一个分镜的提示词。那我在这里呢也是整理好了一个分镜的提示词,我们只需要把这段话复制下来, 我们回到豆包 ai 当中来,直接进行输入,最后点击发送,这样子呢它就会按照我们的这个分镜模式生成对应的一个分镜 prom 的 格式了, 目前已经生成好了,点开之后就能看到我们每一个分镜了,分别是像青云中的山门 以及呢考核广场等等,这些都是关于我们前面分镜所生成的一些故事剧本进行制作分镜,那我们直接也是来到 comforter 当中进行生成分镜,那我在这里呢,依旧使用到的是这个 z menu 的 大模型, 大模型这里我们就可以替换成刚才 ai 给到我们的一个分镜提示词,好直接一一进行复制。在生成这个题日词的时候呢,同学们你们可以观察一下它里面的这个具体的意思,比如说我们可以让它在生成中文进行 对照一下,那目前呢,我们的提示词已经变成中文了,我们可以仔细的去观察一下我们的整个提示词。首先我们还是一样把它复制下来, 回到这个大模型当中,直接给它贴上去,先生成五个分镜看一下,好直接给它复制下来,给它贴上。 粘贴好我们的分镜提示词之后呢,我们还需要去对这个画面风格进行一个约束,比如我们前面已经设定好人物的风格是在这种二 d 的 慢剧风格,那同样的 我们去生成分镜的时候,也可以在这个提示词当中去输入对应的一个风格,我们直接进行输入这个二 d 慢剧风格底下的提示词也是一样的,我们都进行输入, 输入好之后,有没有发现有一些分镜镜头呢?它出现了这个人物,那如何去将这个人物生成出来呢?也是非常简单,我们可以在这个人物的旁边这里去输入它对应的一个外貌和形象。 那外贸和形象提示词呢?我们可以去找之前生成好的一个提示词,比如说我们在前面这个主角叫做李狗蛋,他的服装是前期穿的,洗的发白等等等等。我们把这段提示词给复制下来, 再来到底下,我们再看一下有没有其他的一个人物出现,都可以用这种方式进行添加,那这里还有一个王大锤的人物出现,都可以用这种方式进行添加,那这里还有一个王大锤的人物设计。 输入好这个分镜提日词之后呢,我们可以设置一下这个生成的比例,那比例呢?我们直接在空内存当中进行调节就好了,那我们就统一设置在一个十六比九的一个比例,接着直接点击运行即可。 ok, 那 目前呢这个分镜就已经生成好了,我们来看一下第一个分镜,是在青云中的一个 分镜头,考核比谁更抠门,我们来看一下他的一个提示词,有没有发现他生成了一个分镜,效果还是相当不错的。那接着我们再来看一下第二个 分镜,他生成是一个拿着包子的一个形象,发现他里边的一个形象效果还是比较贴合的。再来看一下第三个分镜头, 整体的这个主角的一个人物呢,还是很像的,一次性也保持的非常好。但是呢我们的这个人物啊,像旁边的这个王大锤,他的形象就没有保持 统一,主要的原因就是因为我们在前面的这里没有上传王大锤的一个形象,所以他最后呢生成没有特别统一, 还有像这种画面呢,多出来一个手都是非常正常的,那遇到这种情况,我们就可以用其他的方式来替换里边的一个人物了,比如说我们可以利用上一个分镜 头当中的一个人物形象,来替换当中的这个王大锤的一个形象,都是没有问题的。那这个操作呢,你可以选择在这个 ps 当中去完成,你也可以直接用那个 context 的 工作流去进行生成, 都是没有问题的。那这个呢就是简单的分镜生成的方式了。那最后我们再来总结一下这节课我们讲解图片生成的一些相关知识,包括像前期准备提示词结构提示词描述技巧和 图片修改技巧。那这些知识呢,能够帮助大家在生成分镜头图片的时候,更容易生成 出理想的画面。我也可以给大家看一下,那关于我们在前面的泡面飞升的一个漫剧视频里面,我就是使用了这个这一面具为我生成的一些分镜头,这些都是利用我们这样子一个操作流程,最后生成一个分镜, 其实原理都是一样的,那同学们你们也可以试着操作一下,也欢迎大家在我的评论区进行留言。当然大家在实际操作的时候遇到任何问题,也非常欢迎你们在评论区当中进行留言,我也尽可能的帮助大家在解决操作过程当中遇到的问题, 就会分享相关的课程资料。那这节课呢,就到了正式的生成 ai 视频片段的环节了,那目前呢市面上的 ai 视频生成平台有非常非常多, 我们该如何选择呢?那目前啊 ai 视频生成平台有闭源的平台,那闭源的话呢,有这种吉梦的,可灵的,海螺的这些都能够去进行 使用,但是呢它的缺点就是它需要付费,而且呢费用也不低。那其次还有就是开源的平台,那开源平台的话就是会有靠谱以外, 那开源平台呢,它对于币源平台来说,它的质量呢会稍微差一点,但是呢很多片段上面还是完全够用的。 那今天呢,我就以开源平台 com 来给大家说一下这个图片转动效。那首先我们先来看一下我们的慢剧的一个例子,也就是前面老师给大家看的这个慢剧视频 里面呢,有一个主角叫做李摸鱼,我现在呢一共有三种生成方式给大家仔细的看一下,那第一个呢是单图的视频生成, 第二个是关于首尾帧的视频生成, 第三个是关于手中尾帧视频的生成。 那看完这三个视频之后,很显然是不是最后一个镜头能够表现出这个主角吃面表现的非常非常辣的一个特点。那这个动态效果呢,是能够去打破静态画面的一个沉闷感的,让人物从纸片人变得更加鲜活立体, 快速的能够抓住观众的眼球,避免观众流失。那在漫剧当中我们去学习一个动态的生成是非常非常有必要的。像第一个单图生成,大家可以理解成我用了一张图片,那他的特点呢,其实就是可控性低, 操作成本是最低的,那对于漫剧来说,他就比较适合做漫剧的开场静态封面转动效, 比如说镜头缓缓推向标题背景云端飘动等等等等。那第二个是关于首位真的生成,大家也可以 理解成我是用了两张图片去生成的一个动态效果,它的特点呢是画面会有这种实质性的变化,核心元素的位置形态会随着过渡到他的一个吃面特写镜头。再来看一下最后一个 就是手中为视频生成,这个是用了三张图片去生成的一个动态效果,有没有发现他的表现力是非常非常强的。那对于这种方式呢,就比较适用于漫剧当中角色复杂连贯的动作,比如角色在跑步、 跳舞、打斗、做手工等等这种多步骤的一个动作。那我们介绍完这个动态生成之后,大家有没有理解到我们的镜头语言呢?那我也给大家看一下如何去生成这样子的一个镜头画面。 那本节课呢,我们需要打开康复 ui, 那 我也带着大家看一下如何生成这样子一个镜头画面,那我们需要打开康复 ui, 这个呢是我提 前生成好的一个动态效果,那这个工作流呢,都是放在学习资料当中,感兴趣的同学呢 也可以在我的评论区进行留言,那我都会给大家一一分享的。那这个呢,主要用到的还是 one 系列的一个图像生成模型, 那目前呢,万二点二他的视频生成效果已经是相当相当不错的,而且这里是接入了一个千万反推提示词的一个节点,也就是说这套工作流呢,给你解决掉了这个输入 提示词的一个关键的一步,那比如啊,我们生成一个单图,那这个是一个单图的工作流生成,你只需要把图片上传到这里,直接点击运行,就可以生成他吃面的一 效果了。那如果你想要更多自己的一些个人想法,你可以在这个文本框当中 去输入你想要的一个效果,都是没有问题的。那这边呢,其实就是刚才我所说的接入了一个千万三的一个反馈提 示词的一个节点,那这个节点呢?我在生成十几个分镜头,我觉得它是非常好用的,而且这个提示词呢,如果你有新的想法,也可以在底下这里进行输 输入就可以了。那这个其实就是单图生成的一个工作流,那我们再来看一下多图生成的一个工作流,那在这里呢,其实也是一样,我们需要用到万二点二的一个大模型,而且呢万二点二它现在呢是由这个高噪声和低噪声模型组 成的,那低噪声呢?我是使用到了这个 t 五叉叉 l f p 一十六的加载器呢,我是使用到了万二点一的一个 v a e。 在 旁边这里我们是搭载到了三个裸软模 型,那这个裸软模型还有大模型呢,我也会放在这个网盘当中,那来到旁边这里就是一个加速器, 如果是本地部署去运用这个工作流的同学们呢,这个加速容易报错,那你就可以把这个加速的节电给关掉,在上面这里直接点 机就可以一键关掉了。那我们在云端当中去使用这工作流的时候呢,可以把加速打开,这样呢生成的速度会快一些,那底下这里还是 跟单图生成一样,也是接入了一个千问的反推提示词的节点。如果你们用到我的这个工作流呢,是可以直接把图片进行上传,直接点击运行 就可以生成出这样子一个效果了。除了像这种二 d 漫剧,它生成的效果相当不错以外呢,我也测试一下,目前像这种三 d 的 一个效果,大家可以看一下它的过渡都是非常的自然的,而且呢动画也是非常的流畅, 所以不管是说你要去生成二 d 的 慢距还是三 d 的 慢距,那这个工作流肯定是绰绰有余的。那接着呢我们再来看一下手中为视频生成,那这里呢是搭载了三个加载图像,也是一样的原理, 我们上面呢也是搭载了一个千问的一个模型,那这个呢是可以直接去反推我们图像当中的一个过渡帧,其次你有任何想法,你可以在这个文本当中去进行添加,都是没有问题的。那视频的时长怎么去 调节呢?我在这里也是直接给大家标注好了,那比如说我们目前呢这个总帧数是在这个 进行调节的,总帧数呢就等于我们帧率乘秒数加一,那十六呢就相当于我们 这个工作当中设置的一个总帧数,所以同学们你们就可以按照这样子的一个公式去调 节你最后生成图像的一个长度了。那像我们前面的这个单图生成也是一样的一个操作方法,像这个时长都是在这里可以直接进行调节,我就不过多的一 你最数了,那以上呢,其实就是我们制作这种动态视频的一个操作方法了,其实原理都是非常的简单,不管是说你 去使用闭源的,还是使用向老师的这个开源的,那最终呢,都是以这个生成动效为主,哪个好用就选择哪个。哈喽大家好,我们今天呢这一期视频来讲解一下如何用 ai 生成配音。 那目前呢,有很多平台都是可以用 ai 去生成配音的,像我们常见的可林杰梦等等,这些平台同样也具备了生成配音的功能。但是需要注意的是,在生成配音的时候通常分成两种情况,第一种情况是旁白配音, 这样的配音呢是不需要进行口型匹配的,更像是以第三人称的视角在讲述故事时进行的配音,同样这样的配音呢,就不需要太多的一个情感,只需要能够清晰的朗读出故事的文本就可以了。那第二种类型呢,就 是角色的配音,这样的配音呢就需要进行口型匹配,并且在朗读的时候要根据剧情带有感情的去朗读。那首先我们先来看一下第一种情况,有哪一些平台可以进行使用, 那其实我们去进行视频剪辑的时候呢,在简易上面就有这种文本转化成音频的功能,能看到我们已经打上了这个字幕,比如说这一句话,吃个泡面都能成仙。我们先点击一下这个字幕,来到旁边这里选择朗读, 在朗读这里呢就可以选择对应的音色来进行文本的朗读了,我们也可以听一下这个朗读之后的一个效果。卧槽,吃个泡面这都能成仙? 那这个呢就是使用了剪映的一个音色配音,那第二种类型其实就是角色的一个配音了,那这样子的配音呢,就需要进行 口型的匹配,并且在朗读的时候要根据剧情带有情感的去朗读。那我在这里呢使用到的是另外一个平台,那也就是我们 最熟悉的 comui, 那 这个呢是关于一个声音克隆的一个节点,那上面这个节点呢,就是去添加我们 所需要克隆的一个音色,那这个音色呢,你可以录自己的音色,或者呢你觉得哪个声音比较好听,你也可以录制下来,让 ai 去进行克隆, 但是大家一定要注意我们的这个声音,不要涉及有这些版权的问题就 ok 了。那这里呢是我上传的一段声音,那在底下的这个文本框呢,我们就去输入对应的想要朗读的内容就可以了, 那接着呢直接点击运行即可。再来看到底下的这个节点,那这里呢是可以去控制我们文本的一个情绪的,那比如说你觉得这一段话你想让他愤怒的说,你就可以直接在这个节点当中去书写你想要的一个情绪。 那上面这个节点呢,一般来说就是让 ai 去模仿的一个情绪音色, 那这个如果你们有对应的音频也可以进行上传,直接选用这个键盘上的 ctrl 加 b 就 可以点击起用了。那如果你有上传这个音频的情绪控制,那你底下的这个文本控制,你可以 ctrl 加 b 进行关掉,这些都是没有问题的, 那旁边的这些参数呢,大家都可以维持默认不变,那有需要用到这个工作流的同学呢,也可以在我的评论区进行留言,那关于这一期内容的 学习文档和资料我都已经放在这个访谈当中了,有需要的同学就可以在评论区进行留言,那我会给大家一一分享的。那现在呢,我们的音频 已经生成好了,我们可以听一下他最后的一个效果。青云宗,修仙界有名的卷王宗门,这里的弟子恨不得二十四小时黏在练功场,只为早日突破境界,但在这片圈海之中,总有一朵奇葩里摸鱼。 这个呢就是我们所克隆的一个音色了,那我在这里只是上传了一个两秒钟左右的一个音频都给我听好了,今天就要这破, 有没有发现他克隆的还是相当不错的。那这个呢是关于单人的一个音频克隆,那同时这个也是支持多人的一个声音克隆,我们来看一下这边的一个音色。欺青年穷 三十年河东,三十年河西,莫欺少年穷。以下这里呢是我们需要这个角色去进行对话的一个文本,那当然如果你们想要去改的,就可以直接在这底下去改就可以了,那 s 一 也就代表着第一个角色所说的话, s 二呢,也就代表着角色二要说的话,那这些音频呢,我们都可以直接在这里去进行上传,那关于情绪描述的控制也是在这个文本当中就可以直接去书写了,那第一个文本也就对应了前面第一个音频的一个情绪,第二个文本也就 对应着第二个音频的一个情绪,那最后我们来看一下它生成出来的一个效果,今日便是我李墨鱼逆天改命之时列等资质也敢来凑热闹,滚,看不起谁呢?我的泡面是全线界最好吃的,李墨鱼,你是不是傻呢? 是不是非常明显能听得出来这是两个人的一个对话呢?那这个工作流呢,就是可以直接达到我们 运用在漫剧当中的一个人物配音,它的这个声音的 ai 位呢,就没有像这些剪映上面那么机械化,没有那么大的一个 ai 位,所以呢在我整体使用下来,这个效果还是相当不错的。 那目前呢,我们已经获取了这个音频的文件之后,我们最后一步其实要做的事情就是来到这个 ai 视频的生成平台,使用数字人功能去上传视频文件,同时呢我们可以去上传这些已经对好的一个本地 音频文件了,让人物进行对口型,那本身的操作逻辑呢,并不复杂,我这里就不再进行详细的演示了。 唯一需要注意的一点就是我们所上传的视频片段,人物呢最好是能够保持正面的一个近景镜头,这样呢能够获得更好的一个对口型效果, 一些侧面视角或者是一些远近视角,通常获得的对口型效果会偏弱一些。好了,那以上就是本期的所有内容了,如果你觉得这一期视频内容对你有所帮助,也不妨点赞关注支持一下,我们下期视频再见,拜拜! 哈喽,大家好,这期视频呢,我们来讲解一下如何使用 ai 来生成配乐。那目前呢,能够去生成 ai 配乐的平台也是有非常多,像我们平时熟悉的一梦,还有可灵这些,甚至呢是我们剪辑软件的剪映, 包括 ai 大 元模型都是能够去生成 ai 配乐的了。那在此之前呢,其实也有很多能够专门的去生成 ai 音效的生成平台,也是能够去生成 ai 配乐的。那在配乐的分类上面,主要是分成歌曲的纯音乐 音效。那在本节课最后呢,我们会一起讲解看一下具体的配乐技巧。那我们首先先来看一下我们第一个软件,就是剪映当中怎么去生成配音, 怎么去生成一个 ai 音乐。我们直接来到剪映当中,在左边这里呢,我们可以看到有一个 ai 音乐,那 ai 音乐呢?这里可以去选择人声歌曲,或者呢是纯音乐的分享, 那我们在底下呢,只需要去描述你想要的一个音乐,就可以直接进行生成了。当然如果你想要这种带有歌词的, 也可以在底下这里选择自定义的歌词,把歌词输入到上面这里我们就可以直接生成了。那这个呢是第一种方法,第二个方法呢,我们还可以选择其他的品牌去生成 用 ai 音乐,比如说我在这里用到的一个平台是这样子的,它也是可以去生成 ai 音乐的。那关于这个平台的网址呢,我也会放在学习文档当中,那这里呢,它也有非常非常多的功能, 除了我们的音乐生成,而且呢也可以生成刚才我们所说的一些纯音乐,只需要打开这里的伴奏按钮就可以生成了,那底下这里呢还会有一些音效的生成器,比如说你想要这种食堂里 人声鼎沸啊等等,这种音效音都可以在这里直接生成。那底下这里呢还有一个音乐库,那在上面这里还有一个叫做 ai 歌词生成器,如果你不太清楚你想要什么音乐,那可以让这个 ai 来帮你写 词,都是非常非常简单的。那我们现在先试着生成一首纯音乐,跟我一样可以打开这个豆包。 ai 来到这里之后呢,我们需要上传一个文档,那我在这里呢上传的是一个论优秀短片谱曲的一个创作音乐, 我们可以先上传上去,这个作用呢就是告诉 ai 我 们的一些创作特质还有审美的 方式。发送完成之后,你再让它为我们生成这个 ai 音乐,比如说我们就可以让豆包帮我们去生成关于修仙的一个背景音乐,那底下这里呢,它就会给到我们一些风格的定位,那这些呢都可以成为我们去生成 ai 音乐的一些得力帮 手。那像这些呢,它就可以更好地去生成我们的一个 ai 背景音了。我们接着直接点击 这个复制按钮,或者呢可以直接选中进行复制,回到刚才的网址当中,直接贴上去。底下这里我们可以选择这个伴奏音乐,填写好之后呢,我们就可以直接选择生成音乐了。 好,那现在呢 ai 就 帮我们生成好了,这个歌曲我们可以听一下。 好,有没有发现它整体的生成效果还是相当不错的,我们再来听一下第二首, 目前来说我听着的感觉还是相当不错的,我这里是让它给我生成关于修仙类的一个背景, 那我听起来呢还是蛮适用的,那大家也可以按照我的这种方式去生成对应的一个音乐,那目前你登录这个网站呢,他是会有这个免费积分赠送的,大概是在二十五的一个积分,那你去生成一曲音乐的时候呢,他会扣掉五个积分, 而且呢这里也可以直接去生成一个音效,那音效呢,这里大家一定要注意,一定要输入这种英文的描述,比如我们在这里呢先输入一个打斗的声音。好,我们可以用这个有道翻译进来之后呢直接书写,比如打斗的声音, 复制下来之后,我们回到刚才的 app 当中,直接贴上,点击生成声音。 ok, 那 目前呢 ai 已经生成好了,我们来听一下这个音效, 有没有发现它整体的一个打动声音也是非常好 的表现出来了。那除了这个网站上面可以去生成音效以外呢,像我们的这个剪映也是可以直接去选择这个音效的,但是呢我们去选择音效的时候,一定要注意,有一些音效可能会涉及到一些版权问题, 所以大家一定要仔细的甄别,如果你能用 ai 去生成这个音效,肯定是最优的一个选择。那以上呢就是关于本期的所有内容了,如果你需要这些视频当中的文字以及学习资料,都可以在我的评论区进行留言,那我们下一期再见,拜拜。

呃,今天和朋友们分享几个呃,对室内设计和建筑设计啊都非常好用的啊, comfui 千问生态的工作流,呃,有需要的朋友呢,可以加关注,然后后台私信我,我直接给你发整盒包。呃,咱们下载下来之后呢,直接就可以使用了。 第一个呢是调整图像角度的工作流,首先呢就是上传图片,然后啊把反向提示词呢填到下边这个框里, 比如说扭曲,变形,色差这些反向提示词。填写完提示词以后呢,呃,到控制角度模块这里啊,就可以控制呃图像的水平,角度,垂直高度还有远近, 调整完以后啊,点击直接运行就可以了。呃,这个工作流呢,在室内和建筑设计中啊,角度呢不能调的过大,角度调的过大呢,结构会变,会走样。第二个呢是高清放大工作流,呃,这个工作流更简单, 呃,首先就是选择你要放大的图片,然后呢可以选择放大的尺寸,呃,一般的选五千就够了, 然后点击运行就可以了,咱们做效果图的时候呢,可以直接出小图,然后呢用这个工作流呢把图像放大,呃,就不用选大图或者是呢传到网上花钱渲染了。呃,第三个工作流呢,也是千万的多角度出图, 这个工作流呢可以一次性出六个视角,特别适合呢做产品的展示或者是建筑外观。多角度的一次性出图,每个视角呢都可以单独调整,非常方便。就是一次性出六张图呢,对显存要求比较高,我电脑是二十四 g 显存啊,跑一次也要三分钟左右。

今天来教大家如何云端部署,首先我们打开浏览器,进入仙宫云官方平台右上角登录和注册, 登录后点击屏幕中心部署新势力,选择最强 one 二点二视频镜像右下角使用该镜像部署,根据需求选择 cpu 型号即可部署。 第一次部署会比较慢,耐心等待一下。部署成功后是运行中状态,点击此处, ctrl u i 可能会失败,我们多尝试几次, 出现这个图片就成功进入了。进入后首先点击模板, 视频生成模板里的 one 二点二,此处提示我们不用管,直接关闭即可。 在劳尔加载器里面选择模型, 在下面第二个劳尔加载器里面选择模型。 首先找出绿色模块的连接线,然后复制粘贴一个这个红色的模块, 让新红色模块与旧绿色模块连接线相同,随机删掉旧绿色模块即可。 接下来就可以进行视频生成了, 在这个模块添加照片,照片命名过长容易不识别, 这个模块负责调整视频比例和总帧数, 这个模块负责调整视频帧数,在这个模块填写生成视频文案, 点击右上角运行即可。图片生成,视频 运行完成后即可显示出来了,最后进行导出工作, 最后我们一定不要忘记关机哦。 以上内容即为云端部署的实操和总结,最后希望可以帮助到大家。