生成图片免费,生成视频同样免费,今天要给大家推荐的就是目前 ai 创作圈里面口碑最炸裂最强的 ai 生产工具 comfyiv 八最新版本, 和那些买市付费套路的平台完全不同,这款整合包没有隐藏收费项,不用按月订阅,也没有按次计费的使用限制,你只需要把我提供的软件下载好,打开就能使用,从始至终不用花费一分钱,让你真正体验到免费玩转 ai 创作的快乐。 使用的方式呢也非常的简单,我们下载好我们的压缩包,然后减压之后呢我们找到这个启动器的图标,然后双击打开,然后呢就会弹出一个黑色的窗口,我们稍微等他加载一会,他就会在我们的默认浏览器打开, 那么你可能看到的是这样的一个纹身图的界面,那么我还为大家准备了很多东西,像这里面左边的模型里面有常见的 vlog 模型,以及一些大模型 经常使用到的 laura 等等,再比如说工作流部分,大概有两百多款,可以足够的满足大家的要求,那么这些文件呢都放好了,然后像这里面我们得到了这样的一个工作流之后呢,点击一下运行,我们可以看到这个彩样器正在彩样 进行生成,最后呢就生成了一张图像,那么这里面我们采用的是动漫的模型,所以他就会生成动漫图像,那么大家也可以尽情的使用其他的一些模型,比如说人物模型等等,那么同时像这种模型呢,可以生成大家任何想要的图像, 那么都给大家准备好了,大家拿到手之后呢就可以自己动手去试一试,看看生成的效果怎么样,个人认为这样的生成效果还是很不错的,比市面上的很多需要收费的软件是效果要好的, 毕竟软件是完全免费的,那么就将这款软件推荐给大家免费使用。哈喽大家好,那么这节视频呢,我将为大家充分的介绍一下我们的 kufui 整合包里面到底包含了哪些内容, 以及具体哪些重要的文件夹是我们需要知道的。那么首先我们一般拿到我们的枕头包之后呢,就是一个这样的文件夹,那么这个 kufui 呢就是我们软件的本质,就相当于是一道正在锅子里面已经炒好的菜,然后通过我们的拍摄呢, 给它包装一下,把它盛在盘子里面,然后可以端出来,这个就是拍摄的功能, 然后这个下面有一个启动器,就相当于是刀叉一样的东西,让我们直接点击启动就可以使用了。那么我们看一下这个康复员里面有很多的文件夹,那么里面有哪些文件夹是需要我们值得去注意的呢?首先前面这些都不用管, 我们依次从上往下看过来呢,首先第一个就是我们的 custom node 文件夹,也就是我们的插件文件夹,我们打开之后会发现有非常多的插件,那么这些插件文件夹里面包含了哪些内容, 就比如说我随便打开一个,打开之后呢,你会发现有这些内容,那么这里面我们不用管,但是里面有一些比较值得注意的地方,就是有一个依赖环境, 那么这个没有,我们找一个有的打开,你像我打开这个插件呢,里面有个依赖环境的 t 叉 t 的 文件夹, 然后我们打开之后呢,你会发现他在这里面要求了我们需要哪些依赖,同时这些依赖的版本是多少?那么有时候呢, 我们使用插件的时候经常出现依赖冲突,那么原因呢也就在这里,不同的插件对于依赖的版本要求是不同的,所以这里面我们要做好我们的插件管理。过掉这个插件文件夹之后呢, 我们就来到下一个 input 文件夹,也就是我们的输入文件夹,那么这个输入文件夹呢,其实就指的是我们平时使用 ctrl u i 的 时候有一个上传图像功能, 那么我们只要在上传图像里面加载的某张图片,那么这个就会传输到我们的输入文件夹里面来,也是比较好理解的。那么与此对应的呢就是来到我们的输出文件夹 out 文件夹, 在我们的 control 中使用过保存图下面令导出的文件就会来到这个文件夹里面。我们看完了音符的文件和 output 文件夹之后呢,就可以关注到我们最核心的一个文件夹 models 文件夹, 那么这里面有我们所有用到的模型,这里面我们着重的分为四个类别,首先就是我们深图的大模型文件夹,包括我们的 checkpoints 文件夹,这里面呢是我们一开始的 kufui 使用的文件夹模型呢,普遍在六七个 g 左右,反正是比较小的。 然后与此相对应的就是我们的 diffusion models 文件夹也是我们的深图大模型,但是此时呢,模型的大小已经来到了十多个 g, 更有甚者可以达到二十个 g, 是 非常恐怖的,包括我们的千万 one z e m g 模型等等, 那么这两者都是我们的一个深层图像的大模型文件夹,然后就来到了我们的克利普文件夹, 那么克利普文件夹呢,指的就是我们的文本编码器文件,像这里面我们以前老版的使用的都是这个克利普文件夹,但是自从我们出了更多的大模型之后呢, 我们更习惯于把我们的 clip 文件保存在我们的 test encode 文件夹,也就是文本编码器这里面, 这里面呢所有我们需要用到的文本编码器,那么这个和上面的 clip 是 相对应的。那么第三者就是我们的 ve 文件夹,这个其实没有什么好讲的,我们平时加载我们的大模型就是三件套嘛。 那么介绍完这一类的之后呢,我们来看一下下一类就是我们的插件文件夹,我们的插件是需要模型的,就比如说我们的 control net 插件有各种各样的模型,我们的图像分割插件,或者是我们需要换脸使用到的 inside face, 那么这一些类别呢,就属于我们的插件模型文件夹。那么第三者呢,就是我们的 rom 模型,也是我们经常使用到的模型,这里面呢包含了所有我们大模型配套的 rom, 用来生成或者实现不同的功能,那么就是在这个文件夹里面。 至于其他的,其实这一部分很多的都是我们的插件文件夹,我们在模型文件夹里面只需要注意这几个部分就可以了, 其他的部分我们可以进行一个省略,或者是等有需要的时候再进行了解。最后我们讲一下我们的个人工作流文件保存在哪里,我们打开这个 user 文件夹,然后点击这个 default, 然后在 workflow 这里面就是我们的个人工作流存放位置的文件夹。那么这些文件夹呢?都是我们在使用 cfu i 时需要着重注意的文件夹, 那么这些文件夹现在什么功能你掌握了吗?那么这个视频对你有用的话,不妨点赞加三连关注,支持一下,我们下个视频见。
粉丝1779获赞962

comfy 整合包最近又更新了,想生成破线视频点一下就行,想渲染点一下就行,想生成带音频的电影还是点一下的事情,就算是搞 ai 漫剧也只是点一下的功夫。 那如果说你是第一次接触到 comfy 的 话,我已经把咱们需要用到的安装包以及会用到的一些模型插件都打包好了。想体验的 宝子暗号暴走这是领取到了资源文件,我们把这个 config 的 压缩包右键解压到当前文件夹里,其中我们要注意我们的文件夹路径,一是不要过长,二是不要出现中文,我们等待解压完成,打开这个文件夹,再双击这个启动器图标就可以了。 那么我们就来了解一下它的一些实用性的功能。首先就是这个一键启动 config 的 按钮,还有左边针对不同玩家电脑配置的专属设置,特地为了帮助大家摆脱网络的困扰,避免无法流畅的从 get up 和 hiding face 下载模型插件依赖的窘迫, 现在只要这里的配置设置成国内的镜像网站,就可以流畅使用了。然后就是最下面这块内容,可以方便大家打开不同的目录,比如 如常见的插件以及工作流文件。当然你要是不喜欢这个启动器,老版本的启动方式依然保存着,大家可以按照自己的需求来下载,最重要的是里面增加了很多工作流,都是开箱即用的。这里面我就拿几个经典的举例子,比如说制作电影级画质的 zamechat, 动态慢视频制作的破线模型 one 二点二 d c 网,擅长动作迁移和角色替换的 one 二点二 animate, 专门用于口型同步的 infinite talk, 更多内容就等着你体验。

欢迎大家收看二零二六年全新制作的康复与 i 系统教程。相信大家在之前或多或少的看过 ai 绘画产出的系列课程,有无孔不入的 ai 视频、 目不暇接的 ai 广告,也有审时度势的数据分享和一劳永逸的自动化办公等等一系列作品。为了制作这套课程,我不仅翻遍了 b 站几乎所有的课程,总结下来我发现百分之八十五以上的视频都整的鱼龙混杂,滥竽充数, 而且很少有一步步带着你一起做,并且详细讲解某一种实用功能的教程。所以我决定摒弃所有的花里胡哨,用最原始、最直观、最纯真的方式呈现出来, 能让大家最直接、最快速的吸收,并且最大程度上的活学活用。所以我综合了 ai 绘画的所有知识点,用更有趣味性的课堂表述,加上知识和实操相结合的实际案例,历时三个月,终于做出了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。 视频中的所有素材,包括 com 一 键安装资料包、学习计划表、几十上百集素材、电子书和课件等等。暗号暴走 我们的课程将从基础篇、进阶篇和项目实战篇三个方面进行讲解。基础篇将包含 comfui 的 安装与环境配置,带你了解 comfui 的 各种模型、插件、提示词以及新人案例等基础概念。 我们将通过最易懂的方式帮助你顺利入门 ai 绘画。接下来是进阶篇,在这一部分,你将深入了解 ctrl f 和 lower 训练的概念,学习如何训练和高效调整模型,以创造更加精细化、可附用的模型,从而提高出图效率和图片质量。 实战篇会手把手带着大家练习项目,比如制作 ai 数字人、自动化直播电商、模特换装等,从而更好的应对大数据时代的挑战,让我们所学的知识进行变现,让收益流入我们的口袋。最后我为大家准备了一个小惊喜,视频中的所有素材, 包括 comi 一 键安装资料包、学习计划表,几十上百集素材,电子书和课件等等,只要你能想到的素材我这里都有, 想体验的小伙伴暗号抱走吧!哈喽,大家好,欢迎来到本期的康复来教学,咱们一起来学习一下康复来最基本的框架 以及最基础的生图工作流。那在开始之前呢?关于如何安装康复来这一点我们提一下,因为现在呢,网上已经有了非常多的安装教程了,我这边就不再过多的赘述了, 待会呢直接切入主题,不过想要本套课程安装包的小伙伴可以在评论区内获取。 ok, 我 们直接安装并且打开。康复来之后,我相信大家跟我看到的都是 一样的,也就是这样的一个默认工作流页面。那我们现在直接滑动鼠标的滚轮,可以发现 我们是可以利用滚轮进行放大或者缩小的对不对?那接着我们再按下鼠标,可以发现我们现在是不是就可以去拖动这个屏幕了,掌握了这两种最基本的操作方式。接着我们再来看一下这个工作流,他是不是由一个一个的节点进行构成呢?那什么是节点? 也就是说这个我们称之为节点,而我们在节点与节点之间呢,都是通过连线进行连接的,那我们细心观察一下,可以发现啊,就比如说像我们的这个粉色的线是什么呢?我们来看一下,它连接的也是另外的一个 v a e 的 一个粉色的按钮, 比方说像这个 v a e 解码的一个节点,那这里呢图像它也是通过蓝色的一个节点去 连接,那这个呢,其实就是我们最基本的节点与节点之间如何连接?那稍微参透了这么一点点,那在继续深入之前,我们可以看到在右上方这边会有一个叫做运行按钮,我们直接点击一下, 那点击之后呢,等待个几秒就直接生成了一张图像,对不对?那么生成这张图像的速度呢,都是跟大家的显卡性能有关的,那我这边呢还是比较推荐,至少要三零六零级 以上。那当然如果说你没有这么好的硬件设备,也可以使用云端去进行这个 kufai 的 制作生成,比方说现在有 running cap 或者呢端脑之类的,有很多都是可以在线进行生图的品牌,那这个呢我们会放在后边的课程讲到,那接着我们再回到这张 图,我们可以看到啊,它是一个装着星云,装着紫色森林的一个瓶子,以及呢它的背景是树林对不对?那问题来了, 凭什么他生成内容是这些?那这边我们就来看一下这里的正向提示词,那什么是正向提示词呢?可以细心的发现啊,这里会有一个叫做正面条件,以及呢这里连线过来所对应的这个 k 采阳器,它叫做颗粒谱文本编码器, 那在这个文本编码器当中去输入的内容呢?我们就可以简单的理解成正向提示词的内容, 也就是说我们想要什么,就在这个框里面输入什么,就比如说我们把这个词汇全部给删掉,然后呢我们使用英文去输入一座花园的句子, 大家一定要注意啊,这里输入的一定要是英文,那如果是中文的话呢,那么这个电脑将是无法识别的。那英文不好的同学呢,可以打开一下有道翻译,我们让这个中文单词进行翻译,再复制下来, 我们回到提示词当中给它贴上去,贴上之后呢,我们再次进行执行,那现在可以看到啊,我们生成的图像是不是就成功变成了花园呢?那简直就像魔法一般神奇。那我们在说完正向提示词之后,我们再来说一下它的对立面, 也叫做反向提示词,想想在哪里输入呢?我们可以看一下上面是正向条件,那底下这里呢是一个负面条件,也就是我们所连线的这个框框当中的文本编码器当中,我们可以去输入自己的一个负向提示词。 那我们新的问题又来了,那正向提示词呢,就非常好理解,也就是说我们想要什么就输入什么了,那负向提示词该怎么理? 那其实啊,就是刚才说的都是相反的,也就是说我们不想要什么,就在副五项题词当中去输入什么。那我在这里是举一个小例子,比如说我们刚才看到的这个图像,有非常多的花,有粉的,有红的,紫 色的,各式各样的,那如果说我不想要图片当中的花占比这么多的话,那我们就在副五项题词当中去输入花朵, 那接下来呢,我们再次点击一下运行按钮,有没有发现他生成出来的图片花的比例确实变少了很多,但是呢也不是说完全消除,就比如说在前面这里会有一个花朵的一个形状,再看到后边这里也是有一些 也花朵,也正如我前面所说的负面提示词呢,它做的更多的就是去降低我们输入的东西在画面当中的一个权重,但是完全要根除的话,这个需要其他的操作,那接下来的课程当中呢,我都会去 提到。我们再来看一下连接正反向提示词的这个节点,那这个节点呢,它叫做 k 采氧器, 那么大家呢就可以把它理解成人类的一个大脑,它是控制的整个工作流的。其实不难发现啊,我们看一下这个工作流, 它所有的节点其实都是汇集到了这个 k 采暖器当中,经过这个 k 采暖器的一个内部的运算,然后才最终得出我们最后的一个图像。那接着我们来看一下这个 k 采暖器, 它有一个叫做 later 的 一个按钮,往这条粉色的线往下看,这里呢接入的是一个空 later 图像的一个节点,那这个到底是什么用的呢?我们可以来看一下它的参数。那首先呢,这里一共是有三个参数,那分别就是宽高、 批量、大小,那现在是不是就比较豁然开朗了?那这个节点呢,其实就是控制我们最终生成图像的一个尺寸比例,以及呢我们图像整体像素的一个节点,比如说我把这里的一个宽度改成七六八, 那相当于我们现在的这个图片的尺寸宽高比为二比三吗?再去点击一下这个运行按钮,我们可以看到啊,现在这个图片呢就非常顺利的变成了横屏的一个比例, 而最后一个参数呢,也就是批量大小的这一个,那我们现在再来尝试一下,比如说我把这里改成一个二倍,再次点击运行, 可以发现我们保存图像之后呢,这里就同时出现了两张图像了,也都是花圆的样子,也就是说我们设置这个按钮, 也就是一次性出两张图,那比方说我们在需要大量生图的时候,或者呢是去测试某个参数的影响,那么我们就可以把这个批次大小给调高一些,不过呢如果你批量太小不高,比如说像三十、四十,甚至呢是 一百,那么就有可能出现报显存的情况,那如果大家不幸遇到了报显存,那么我们重启一下 com 来就好了,那我们再来看一下,那目前呢,我们已经把正向提示词,反向提示词的文本编码器都讲了,以及呢像这个 k 采样器当中的 com 底层图像也讲到了,还有哪 还有哪一个没讲呢?那也就是说像这个 tik tok 的 加载器,那我们把目光放在前面的这个节点当中, 他有没有发现他这里呢?其实就是整个工作的一个一切的源头了,那非常多的线也都连接到了这个节点上,我们在这个 checkpoint 的 加载器当中,里面加载的其实就是大模型, 那么什么是大模型呢?我们可以简单的这么去理解,那大模型它是可以控制整体的出图基调的,就比如说有的大模型它是全能系的,那有些大模型呢,它是真实系的, 有些大模型他是动漫系的,那我们现在呢把这个大模型换成一个动漫类的大模型,接着我们什么参数都不用调,我们再次去点击一下运行,来看一下, 我们现在呢使用的是一个动漫的大模型,有没有发现我们最后呢生成图片,他就会偏向于像这个二次元的一个效果。 那我们现在呢再去修改一下我们的大模型,我们去利用一个真实系的一个大模型,再次去点 生成,那这个图片呢,就立马变成了真实系的一个效果了,那这个呢其实也就是大模型了, 我们不难发现啊,其实呢仅仅是去修改一个大模型呢,都是会对我们最终的出土效果发生变化,那么这个其实也就是大模型的一个威力了。我们再来看一下这个 ve 的 解码, 那这个节点呢,它有点像是一个转换的接头,也就是说它是可以将我们的这个 laten 的 图像变成一个像素空间的图像, 那具体是什么意思呢?我放到下节课去讲,那接下来比方说我不小心把这个 ve 的 截码给删掉了,那删掉了我们该如何去添加呢?一共是有多种方法,那第一个呢,就是使用这个 ctrl 加 z, 我们就可以回到上一步的一个操作了。还有一种方法就是我们在 k 长系的后边这个 laten, 我 们直接拖出来,松开鼠标,可以看到这里会有一个叫做 v a e 解码的节点,我们直接点开, 那现在呢,这个节点是不是又重新出现了呢?那我们接着只需要呢将他的这个颜色,对颜色进行一个串联,那我们的工作流呢就完正了。那么还有第三种方法是什么呢?我们是可以直接去双击 界面,鼠标左击两次,就可以直接在这里去搜索我们想要的一个节点了,那我们直接去输入, 如说 v a e, 就 可以直接找到 v a e 解码的一个节点,我们再来看一下第四种方法,我们可以同样的去把鼠标放在空白处,我们摁一下右键,这里呢会有一个叫做添加节点的方式,我们点击一下,找到我们的这个 later, 点开之后呢,这里就会出现有这个 v a e 的 劫码了,在这里就可以直接去找到我们想要的一个节点,一般情况下我们都是用直接搜索即可啊,那当然呢,其实还有第五种方法啊,那我们再来看一下,目光旁边有一个叫做字典一样的东西啊,我们点开一下, 我们直接搜索 v a e, 那 么我也不难发现 v a e 结嘛,就是在这里啊,我们直接点开,那这样子呢,也是可以直接去加载我们想要的一个节点内容的,那既然看到了 左边,我们再顺着左边来看一下这些东西都代表了什么。那首先呢,我们来看一下上面这个像一个图片一样的图标,我们可以点击一下,那我们之前生成的图 片呢,都是在这里可以直接找到的,也就是我们前面所运行的一个任务,像旁边这里有两个角的一个图标,也就代表着我们刚才升的是两张图片,那我们再返回点击一下, 就可以回到刚才的一个预览界面了,那接着我们再来看一下这个小小的模型代表着什么?我们再次点开,那这里呢其实是放了我们的这些大模型啊 啊,还有裸软呀,以及呢像 ctrl 那 样,模型都是可以在这边进行显示的,那顺着这个模型往下看,这里还会有一个工作流,那我们直接点开,那比如说我们去生成图像的时候呢,是可以保存工作流的, 那保存工作流呢?他都会出现在这里,那比如说我想要去加载我之前的工作流,就可以直接点开保存好的工作流,那他就会自动的加载出来了。那假如说我想要去保存我今 天的这个工作该如何保存呢?其实方法也非常简单,我们直接点开这个黑色的图标啊,底下这里呢会有一个文件叫做保存,或者呢映成为我们直接点开保存完之后,你可以对于工作有命名,比如说我这里是一个纹身 图的工作流,直接点击确认命名完之后呢,就可以直接导出这个工作流了,那这个工作呢也是可以直接就下载放在电脑当中了, 而且呢你下一次再去进行调用的时候呢,就可以将你保存好了,工作流直接拖入到这个操作台当中,就可以直接进行使用了。 那么我们顺着这个图片来看,我们看到底下这里会有一个叫做节点与主,我们直接点开,那这个放置的是我们工作的一些节点,也就是说我们目前搭建好的这个工作流,那比方说你想要隐藏我们的工作流对不对?直接点开这个小眼睛,它就会去关闭 我们工作的一个显示,那我们再来看一下底下的这个图标。直接点开,那这个呢是我们之前生成好的一个图像,也是我们前面放置过的一些输入图像,那这个我们再来顺的往下看, 这里呢是一个模板的一个选择,我们点开可以发现啊,在康复来当中,其实它是内置了非常非常多的模板工作流的,如果你想要使用到里面的工作流呢,就可以直接 点开他所推荐的一个工作,比如说我想要去生成一个纹身图的一个工作流,我们直接点开, 点开之后呢会发现啊,他这些工作流其实是需要自己去下载模型的,但是呢工作流他会帮你提前 搭建好,那这个呢也就是在康复爱当中内置的一些模板工作流了,那我们再顺着这个功能键当中往下看啊,那底下这里呢其实也就是我们软件当中的一个说明。 再来到底下这个是一个控制台,比方说你遇到一些报错的时候,都会在日制当中可以看到啊,那我们再来看一下底下这里是一个快捷键的按钮, 大家呢去制作这些工作流的时候,就可以去看这一些快捷键的工作,比如说怎么去保存,怎么去打开。那来到底下这里是一个设置按钮,我们直接点开啊,那设置按钮呢,是可以直接去调节我们康府来当中的一些设置的,比如说像我们的一个画面的 界面,你想要什么样的,那你都可以在设置当中去调节,以及呢像这些外观呢,比如说你想要这个节电的透明度调多高等等,都是可以直接在我们设置当中去进行 调节的,那这个呢,也是设置当中的一个小技巧啊。那么接下来呢,再去讲到一个小的知识点, 还是回到刚才的这个工作喽,比方说我们现在呢是添加了一堆节点对不对?那么我们先不想要这个节点了怎么办?那我们当然呢可以这样子一个一个节点去删除,同时呢我们也可以按住这个 ctrl 键鼠标 直接全选这些节点,那全选完成之后呢,我们再直接删除,就可以把我们那些不想要的节点直接一键删除掉了。那么以上呢,其实就是本期的所有内容了,那我们下节课再见。拜拜。

最新最好用的康菲欧爱自用整合包 v 八版本正式上线了!你或许早就听闻过康菲欧爱这个名字,但是最近又更新了他的 v 八最新版本,来看看我们怎么使用吧。只需三个步骤,下载、解压、双击打开, 像开启宝藏大门一样轻松,不用安装复杂的插件。我不必为配置环境而烦恼不已,就连模型都已提前为你准备妥当,真正做到零门槛。你要问我这款软件用起来收费吗? 或者说分享资料收费吗?我可以肯定的跟你说一句,完全免费,无论是使用软件收费的,或者是翻你资料还要收费的, 都要擦亮双眼。值得一提的是,我们更新好后的 ctrl u i 已经完美的支持五零系显卡了,对我们喜欢搞 ai 视频创作的小伙伴们来说更是如虎添翼了。然后就是我还增加了很多工作流,都是开箱即用的。 这一年我就拿几个经典的举个例子,比如说擅长动作签名和角色替换的 y 二点二,它的 mate 专门用于火源用户帮山被它凹陷杠撞碎七八灯,非常适合生成海报的千万 image, 以及全新的 flax 二模型可爱等等更多内容就等着你体验。使用的方式呢,也非常的简单,我们下载好我们的压缩包,然后解压之后呢, 我们找到这个启动器的图标,然后双击打开,然后呢就会弹出一个黑色的窗口,我们稍微等他加载一会,他就会在我们的默认浏览器打开。那么你可能看到的是这样的一个纹身图的界面,那么我还为大家准备了很多东西,像这里面 左边的模型里面有常见的 flex 模型,千万模型,以及一些大模型经常使用到的 laura 等等。 再比如说工作流部分,大概有两百多款,可以足够的满足大家的要求,那么这些文件呢,都放好了,然后像这里面我们得到了这样一个工作流之后呢,点击一下运行,我们可以看到这个彩样器正在彩样进行生成,最后呢就生成了一张图像, 那么这里面我们采用的是动漫的模型,所以他就会生成动漫图像,那么大家也可以尽情的使用其他的一些模型,比如说人物模型等等。 那么同时像这种模型呢,可以生成大家任何想要的图像,那么都给大家准备好了,大家拿到手之后呢,就可以自己动手去试一试,看看生成的效果怎么样。 个人认为这样的生成效果还是很不错的,比市面上的很多需要收费的软件是效果要好的,毕竟软件是完全免费的,那么就将这款软件 推荐给大家免费使用。那么这些文件我都统一放在评论区里面,大家不用到处找资源,直接去评论区就能免费领取,省时又省力。你拿到文件之后,只需要做三步超简单操作,第一步,点击下载,第二步,解压文件。第三步,找到文件之后,双击打开就能够运行了, 就算是对电脑操作不太熟悉的新手也能够轻松搞定,不用再为配置软件浪费时间了。 为了让大家更快上手,真正把这款软件用起来,我还特意花了一个月的时间制作了一套专门的讲解视频,那么这套教程从新手友好的角度出发,循序渐进帮你掌握软件内容,相信下面的视频能够很好的帮助到你。 这些这些这些都是 ai 生成的,自二零二三年以来, ai 会读软件 speed fusion 的 发展势不可挡, 各种各样的衍生模型插件百花齐放,新五金生层,像这样的 ai 视频完全不在话下。 那么我们就一起跟随着时代的脚步,一起去探寻 c b l u 选的康复 ui 到底该如何使用吧。大家所熟知的维标和康复 ui 其实都是属于 c b l u 选, 而 webui 主要是基于数据库开发的浏览器界面, comui 则是使用图形节点流程式设计而用于稳定扩散的用户界面。这边我们将 webui 和 comui 的 优缺点列出来,方便大家作个对比。 首先我们来看一下 v u i 这一块,它的优点是简单易学,并且操作较为基础与简易,而它的缺点是不易于长期管理。那么这什么意思呢?当你在深度学习完 v u i 的 高阶内容后,你会意识到啊,如果使用的是康复 u i, 那 么节省了时纤维两到三倍甚至更多。 其次在插件过多时, v u i 会显得非常臃肿以及操作费事。那么接下来我们来看一下康复 u i。 这边 我们可以看到康复 ui 对 配置的要求比较低,这同时也意味着降低了 ai 绘画的门槛,方便更多的小伙伴加入进来。那么 它的优点其次是节点更优于管理又较强的自主性。我们可以根据个人的需求来组装属于自己的工作流,并且在未来康复 ui 将逐渐与微软在应用层面上拉开距离,比如前段时间的 sd 三点五获得国产最新的可疑大模型,都是第一时间可以在康复 ui 里搭建工作流并且使用的。 而对于 webui 这些最新的模型与插件往往得过一阵子才能时装,甚至之间不时装,那么使用康复 ui 也意味着能够更早的去接触到最新的模型与插件。而康复 ui 的 缺点是初期不好上手, 但是我相信呢,是在学习完本套课程之后,一定能够完全掌握康复 ui 等基础操作。除此之外,我们知道哎,过去有很多软件,比如说 blender、 大 芬奇、 ue 都是使用节点式工作流,因为它们有极强的自主性于可模块化。 除了头部公司的顶级团队使用的都是节点式软件,那么康复与外,除了上述优点之外,我们在使用时还可以非常方便的去套用其他人分享的工作流, 即刻便可实现相同的效果,还节省了非常多的节点部署时间以及思考时间。好的,那么接下来我们来介绍一下课程概览。那本套课程啊,共分为两个部分, 一到五节呢,为基础部分,其中包含了康复与外最基础的生图操作以及纹生图,还有图生图工 最流的搭建,加上他们背后的运行逻辑。那之后我们还会一起去了解一下咱们 ai g c ai 绘画有关的网站以及模型具体下载方式。那么咱们将在六到十节课中一起来学习 如何进行高清放大以及 control 内的具体使用方法。之后我们还会利用 ipad 来完成 ai 换脸。最后面第十节课,我们将结合前面所学知识,一起搭建一个老照片修复工作流。 ok, 那 么咱们也废话不多说,赶紧点开下一节课开始学习之旅吧! 哈喽,大家好,这节课我们一起来学习康复以外的使用方法。那么康复以外它是一个由节点构成的工作流式软件,我们现在所看到的就是最基础的纹身图工作流。 那么接下来我们将一同学习康复以外的主要模块以及各个参数究竟代表了什么? 关于软件安装有任何疑问的小伙伴,欢迎在评论区内留言。那首先啊,我们先来理解节点究竟是什么,那比方说这一个我们可以称为节点,这一个也是节点,这一个,这一个,这一个他们都是节点,而节点与节点之间 有线连接,大家可以看到有红的线、黄的线、蓝的线,各式各样。那么要想学好康复与 y, 我 们得先从最基础的,也就是这一套纹身图工作流讲解。我们先看到最左边这里有个 check point 加载器, topper 加载器,里面存放着的就是大模型。关于大模型,我们在 y b y 中接触过它啊,控制着各式各样的画面风格。接着我们顺着 topper 加载器的线往后看,首先是黄色的线 连接到了这两个节点,那么它们称为 clip 文本编码器,那文本编码器里边的内容其实就是正负项提示词,那么如何区分正项提示词还是负面提示词呢? 我们顺着文本编码器的线再往后看,可以看到由条件输出连接到了条件输入中,那么连接着正面条件的文本编码器,自然而然就是输入正向提示词的地方,而连接负面条件的文本编码器自然而然就是负向提 示词输入地方。好,我们这边先生成一张图片看看。至于如何生成,看到右上角有一个运行按钮, 点击一下,接着我们就可以生成一张符合咱们提示词描述的图片。如果说我们想把图片内容稍微换换,当然就是回到刚才的正负项提示词文本框,比方说在正项提示词内输入一个女孩双马尾负面提示词,咱们输入 easy negative, 选择第一个或者第二个都行。接着点击运行按钮,可以看到一张非常简陋的双马尾女生形象就这么生成了。至于如何该提升它的质量,之前的课程中也有讲过,就是在正面提示词内输入这样词汇, 比方说杰作、高质量、极致的细节等等等等,那么我们就一起来实战一下。先打开老朋友翻译器,输入杰作最高质量、极致的细节,把译文粘贴在正面提示 词内。当然由于我们这边呢用的大模型是全能大模型,所以我们可以添加任意的风格词汇,比方说我们想让最终图像是动漫风格,那么就添加上动漫风格。 如果说想要最终图像偏写实风格,那么就添加写实风格的英文,比如说来个写实风吧。添加完之后,负面提示词这边,因为刚才啊已经使用了 is negati 这一个负面提示词的词组包,这个单词其实包含着许许多多的预设好,打包好的负面提示词, 所以这边我们就先不用管,我们点击运行可以看到画面质量好了一些,但还是远远不够, 原因也很简单,分辨率太低了。那么该如何调整我们最终出图的长宽呢?我们顺着文本编码器往下看,在最底下有一个叫做空阶的东西,这空阶看起来挺陌生,但它的参数也非常容易理解,一共三个参数, 宽度、高度以及皮尺大小。现在是不是豁然开朗?在这里我们将控制宽高,比如我们把宽度设置为幺零二四,高度设置为幺零二四,接着再点击运行, 现在我们就能够很明显的感受到画面的细节得到了极大程度的提升。当然,如果说想进一步修饰这张图片,可以从关键词以及 laura 模型下手,至于什么是 laura, 咱们稍后再讲。如果说啊,我们想一次性生成多张图片怎么操作,那么就来到 konlayton 的 最下边,有一个 p 四大小,如果我们把它设置为四,意味着单次运行会跑出四张图片, 那么这边我们把关键词给稍微换一下,我这边重新添加的关键词是异世界的奇幻场景以及 c g 质感。编辑完后点击运行, ok, 那 么很快生成了四张异世界主题的场景图片, 也是遵循了提示词的 c g 质感怎么样?效果还是非常不错的,如果我们想让它变成横屏图片,只需要在 lin 这边添加宽度或者降低高度即可。 比如说我们高度设置为七百六十八,再次点击运行,很快也是生成了四张图片,同时也是如我们所料变成了横屏 c g 风格 好的,那么以上就是关于 later 这一个小节点的功能概述。接着顺着 later 往后看,连接到了一个叫 k 采氧器的东西,那就 k 采氧器,它可就大有来头。 如果我们仔细观察可以发现了,刚才我们所介绍的这四个节点其实都连在了 k 采集器上。 k 采集器对于我们这整套工作流而言,相当于核心大脑,他负责处理大部分的事物,将各个参数输入进来,然后在 k 采集器里边进行计算,随后再通过后边的 输出节点来输出我们肉眼能看见的图像。哎,我知道这么说可能还是不太明了,咱就一起看看他到底有哪些参数。首先是随机种以及运行后操作,这两个是绑在一起的,随机种相当于图片的身份证号每一张图片。哎, 比如说这张图片也有属于他独特的随机种子值, 当我们的关键词以及这些宽高等等参数均保持一致时,更改随机种子就能够生成不一样的图片。比如说啊,我们把 p 四大小设置为一,随后点击运行, ok, 那 么此时我们可以看到图片变成了这个样子。接着 此时的种子值是幺零九八五,作为开头,咱们再次点击运行,现在随机种子值又换了一组,变成了二零零二九开头,而最终图像 也发生了改变,这就是我们为什么每次点击运行图像都会发生变化的原因之一。 那如果说我们想让图片保持不变,这个该如何操作?现在我们先随便输入一组种子值来六六六六六吧。接着点击运行后,操作设定为固定,再次运行工作流,那么现在的图片长这个样子, 如果我们再一次点击运行,大家会发现,哎,怎么工作流没有动静啊,哎,对吧?不管我们如何点击运行,工作流就是没有反应, 因为我们生成的图像是同一张种子值,以及正负面提示词,还有宽度、高度等等参数均保持不变嘛。 ok, 那 么以上就是关于种子值对于康复 ui 的 具体作用。接着看到步数,那这个步数当然指代的就是迭代步数, 我们在 web ui 中有学过,它的步数越高,图片越精细,步数越低,图片越粗糙。比如我们此时把步数设置为二,点击运行,我们可以看到最终图像是一团马赛克,那如果说我们把步数设置为三十五, 再一次点击运行,那么现在我们可以看到图像比当初叠带步数为二十时更为精细。再看到下边的 c f g 值,这个值越高,代表着最终图像与咱们的提示词越相关。 c f g 值越低,代表着我们最终图像 与提示词越无关。而一般情况下,咱们的 c f g 下边的彩样器和调度器, 我们只需要记得彩样器选择 d p m p p r m s d e, 记不住也没关系,默认的也挺好,调度器打开来选择 carras 选 影像即可,这一个对于整体的影响不会太大。那我们此时啊再次点击生成,来看一下修改完彩样调度器之后有什么变化,怎么样?变化大吗?确实是有一些图像生成出来之后,这个变化大家也有目共睹,是带来了一些变化,但是并没有带来质变,所以这两个参数 新手玩家保持默认即可,具体该设置什么记不住真的没有关系。而最底下的降噪值, 我们将在下一节课徒生徒工作流中再涉及到。好的,那么我们这一个文生徒工作流就算是理解的差不多了。如果我们不小心把某个节点给删去了, 比如说像这个节点该如何添加新的节点呢?很简单,有几个方法。首先呢是从节点的后边直接从小圆点拖出来,松开鼠标,然后我们就可以看到这边有一系列的选项,比如说什么转接点, ve 编码, ve 内部编码器保存图像,预览图像。 大家还记得刚才我们删除的节点叫什么名字吗?保存图像对吧?刚才我们选择预览图像也行,好,那现在点击了之后就会自动连接上一个刚才我们所选的节点,哎,再次点击运行, 我们就可以发现成功的复原了工作流。当然如果我们想预览多个图像也是完全没有问题的,比如说我们来三个预览图像节点,再次点击运行,我们就可以看到每一个节点均输出了刚才咱们异世界景观的图像。 其实康复以外,这工作流是非常自由以及多样化的,大家在学习完基础知识之后,可以发挥自己的脑洞,构建属于自己的工作流。那么视频的结尾,我再教大家几个常用的 使用技巧。首先是框选节点,比如我们想同时选中这两个文本编码器以及纠错加载器,我们需要按住键盘上的 ctrl 键,然后再按住鼠标的左键进行拖动,那么现在咱们就可以同时选中这 三个节点,至于如何删除某个节点也很简单,只需要选中该节点,然后再点击这一个按钮即可,又或者点击键盘上的 delete 键。而对于运行或者说生图,同样也有快捷键是摁 ctrl 加 enter, 大家可以稍微记一下。好的,那么以上就是关于本期的全部内容,涉及的新知识比较多,大家可以反复观看,那么我们就下期再见,拜拜!

这么多 ai 工具,我到底应该选哪个?这个工具刚学没多久就被淘汰了,下个工具又来了,不断在工具之间来回切换,弄得自己眼花缭乱的。每个月都在被各种付费工具掏空钱包,但积分还得抠抠搜搜的省着花。 所有这些都是困扰大家最多的问题吧。今天三个让人无法拒绝的理由,和大家聊聊为什么我会把 comfyui 作为自己的核心主力生产工具。 首先给大家介绍一下匡皮 u i, 它是匡皮 logo 公司开发的一款免费开源的 ai 工具,它能让你在同一个界面中玩转所有前沿 ai 模型,只要一键就可以加载无穷无尽的工作流,来实现包括电商、设计、摄影、影视等各行各业的 对图片、视频、音频等内容的深层和编辑处理工作。接下来三个令人无法拒绝的理由,讲讲为什么我会选择匡皮 u i, 还是全球数百万 ai g c 创作者的最终选择。 第一,它是唯一一个能让你零成本、零门槛、通吃所有前沿 ai 模型的万能入口。市面上的 ai 工具层出不穷, sora、 nano banana、 即梦可灵等等等等,每一个新工具或者模型出来都要单独付费,单独学,操作 甚至受限于网络和硬件,不仅钱包受不了,精力更是被撕扯得支离破碎。 copy one 是 真正意义上的模型聚合器,你不用为了体验某个爆火的功能去开一堆会员,也不用在不同软件界面间反复切换, 只需要使用一个免费开源的整合包,你就能在一个界面里像点菜一样随意调用全球最前沿的 ai 模型, 别人花几千块钱学一堆软件,你只用一个框体 y 就 能把所有 ai 能力装进电脑。最关键的是,它的免费是真免费,而且永久免费。在官网最显眼的地方,你就能看到它做出的这项承诺,完全不用担心它刚开始是免费的,有了用户群体之后再收割的套路。第二, 它把受限的操作变成无限的创造,让你的工作效率实现自动化的飞跃。传统 ai 工具都是黑盒操作,开发者给你什么按钮,你就只能调什么参数。 稍微复杂一点的商业需求,比如批量处理、多模型联动就完全没法做,只能重复进行枯燥的机械劳动。 controlui 采用的是节点式的自由组合,它不是让你去适应软件,而是让你像搭积木一样,随心所欲地搭建专属于自己的 ai 流水线。 无论是复杂的商业设计,还是重复性的图片视频处理,你都能通过搭建一次工作流,实现全自动化运行。当别人还在一个一个点按钮加班时,你已经喝着茶看着 ai 自动跑完整个项目流程了,这是所有其他工具都给不了你的生产力碾压。 第三,它不仅是工具,更是你进入 ai 世界的通关秘钥。 ai 技术迭代太快,不断有更好的更新的模型被开发出来,那些封装好的傻瓜式的工具,大部分都只能使用单一或者有限的模型。你今天学的软件,明天可能就被淘汰了, 不仅浪费时间,而且你还永远只能跟在别人后面吃剩饭,无法真正理解 ai 的 底层逻辑和最前沿的开发者支持 所有最新的模型、最牛的技术和工作流,都会第一时间在 comfui 中开放给大家使用。当你学会使用它,你获得的不仅是一个软件的操作能力, 更是掌握了理解 aigc 底层逻辑的能力。掌握 comfui 就 等于拥有了自我迭代的技能,让你始终站在 ai 应用的最前沿,而不是在工具的更迭中被淘汰。 以上就是我自己在使用 copy 爱过程中收获的一些心得,希望能对你有所启发。别忘了点关注哦,我们下期再见!

求求你,别再给那些高价 ai 工具交智商税了,二零二六年最强的零元生产力,秋叶版 comv 三正式巅峰更新!别光听免费,看这三个案例你就知道它现在的性能有多离谱。 ai 视频生成,以前跑一段视频显存,动不动就爆表。现在的 v 三内核经过深度优化,即便你是八 g 显存的平民卡,也能丝滑跑出电影级的大片,渲染速度比老版本直接翻了一倍。商业写真, 告别那些昂贵的云端软件吧!秋叶板自带全中文界面,一键解压即用。从电商模特到摄影写真,全部本地无限次生成,成本彻底归零。 环境一键直达。以前装环境要折腾半天,现在的秋叶板直接集成拍照三点一三和酷逮十三,你只需要解压点启动,剩下的他全帮你搞定,连你奶奶都能一键开启 ai 大 门! 软件是免费的,接下来我将用两分钟告诉你安装方法。想实现真正的 ai 自由,安装包在评论区获取,我直接安排。 将安装包下载到电脑后,用鼠标右键点击它,在弹出的菜单里选择解压软件解压,然后点击解压到当前文件夹,等着解压完成就好。解压后的文件夹里解压完,打开文件夹就能看到一个粉色动漫角色的启动选项, 双击就能运行启动器,第一次启动时等待时间会稍长,因为启动器需要自动配置环境文件和基础依赖,大家不用着急,等进度条跑完就行。 启动器主页左侧有几个关键功能区,我们快速过一遍,避免后续操作踩坑。文件路径区,这里会显示 comui 的 根目录自定义节点,输入图片和输出图片的保存路径,后续找文件存作品都靠它。 高级设置重点看生成引擎默认会选择电脑的独立 gpu, 一 般不用手动改,要是识别错了,手动换成自己的独显 gpu 就 行。 疑难解答与版本管理疑难解答这里,如果大家后续出现整合包有问题,可以通过这里进行排查问题版本建议选稳定版, 开发版虽然功能新,但可能有报错风险,大家隔一到二个月来切换一次版本就够。小工具区是不怎么用的,所以暂时用不上限阶段,我们先聚焦核心功能, 然后确认设置没问题后,点击启动器右下角的一键启动。等环境配置完成, comfui 会自动在浏览器里打开运行界面。欢迎来到我的二零二六最新 comfui 基础系列课堂的第二课。那么从本节课开始呢,我们就将正式的开始学习我们工作流的搭建。启动完之后呢,我们就可以看到它已经进入到了我们 comfui 的 一个操作页面。我们的第二步呢,既然是要从我们在的音频局 turbo 的 一个纹身图开始讲,我们就需要把它纹身图的工作流给它拖拽进来。哇,这里呢,可以看到大宇老师是已经给 大家准备好了在的 image 特薄的一个虚拟工作流,我们给它放置起来,那放置进来之后我们可以看到,哎,这工作流其实还是蛮简单的。那把工作流放置进来之后呢,我们可以看到它这里是需要加载模型的,它这里模型呢主要由三个节点进行加载, 一个是 unet 加载器加载我们的模型,一个是 cleveland 加载器加载我们的文本编码模型,另外一个呢是 ve 加载器加载我们的 ve 模型,但是我们把它点击一下就会发现,哎,这里没有任何的显示,对吧?甚至我们点击一下箭头,现在再点它,它已经没有反应了,那么这一个 cleveland 模型也是一样的, 那么这个就代表了一件事,就是把你一个 comfui 的 整合包里面并没有放置对应的模型,那么我们现在要做的就是去把模型下载下来,然 然后再把它放置到一个对应的位置。首先我们先要去下载模型,那么我们就要来到我们的模型下载网站,那么这里呢,表示是推荐你们去使用摩达社区, 然后摩达社区呢,它是属于阿里巴巴进行一个开发的网站,那么这个网站呢,其实是对标外网的哈根 face 的 一个网站了,那么在这个网站里面,我们可以直接在上面任务栏这里 页旁边有一个模型库,我们可以点击一下,然后等它加载出来之后呢,那可以在这个搜索栏这里去搜索 set image turbo, 也就是我们要用到的模型,给大家点击一下,而我们可以看到这里有非常多关于 set image turbo 的 模型,对吧?我们到底该选择哪一个呢?那么我们这里可以看到其实第一个这一个照相 set image turbo, 它属于一个在训练的大模型,我们先不对这个进行使用,我们使用的只用它最初的版本就可以,我们找到 comforuc 的 这一个官网,然后把它点击进去,坐在这里我们可以看到这里有模型介绍以及模型文件,我们选择模型文件, 然后这里可以看到这里有五个文件,而第一个呢是属于一个文件夹,我们可以把它点进去,然后在文件夹里面它又有四个文件夹。第一个是 diffusion model, 也就是我们的大模型,那么对应回我们 comforion 里面的这一个呢,就应该是对应的 unad 加载器。第二个 laura 呢,它属于一个小模型, 那么小模型呢,对应我们 comforion 主页呢,就应该是 laura 加载器这一个,然后在下面这一个 tag in code 就 应该是我们的文本 模型,也就是我们的可 delete 加载器里面要用到的模型。然后 v a e 呢,就是我们最后 v a e 要用到的一个模型,然后呢我们这里先把 future model 打开,然后你可以去下载这个模型,可以看到这个模型需要 十二点三一 g b 的 一个内存,对吧?那么有十二点三一 g b 的 一个内存,那么就运行这个模型低了显存至少就要十二 g b 以上,所以我上节课说到了,如果你是本地部署的同学呢,最好的显存至少就要十二 g b 以上,所以我上节课说到了,如果你是本地部署的同学呢,最好是有十二 g b。 这里呢,我是把四个模型都已经下载好了,可以看一下, 我们现在要一一的把它放在硬的地方,我们可以点击一下这一个文件夹哦,这里呢它就会显示出来几个一个文件,对吧?首先我们先把这一个 zed image turbo b f 幺六,也就是我们的 unet 模型 diffuse model 模型这一个文件夹里面的模型,它剪切出来,剪切出来之后呢,我们再去到我们的或 u i 的 这一个文件夹里面,也是我们上节课去解压过的那个文件夹里面,然后点击我们的 comforu i a k i v 幺点六,然后这里呢找到我们这里面有一个 comforu i 的 文件夹,点击进来,然后往下滑动, 找到一个 model 文件夹,我们放置模型的一个文件夹,然后 model 文件夹里面你会发现它有特别多的文件夹,对吧?各种各样不一样的名字。那么首先呢,我们就对应在 博达社区里面下载模型的时候,我们需要把这个模型放到 diffusion model 这一个文件夹里面,然后就去找看一下有没有 diffusion model 啊,有的,对吧?在这里 那么我们就把刚刚的模型给它复制进来,复制进来完成之后呢,它第一个模型就放置成功了,然后我们再回去操作第二个模型,那么我们第二个模型呢,就是这一个千万三四 d 的 模型,那么这一个呢是属于我们的 clear 的 模型, 我们可以看一下我们这一个 clear 模型应该放在哪个文件夹里面,我们依然回到我们的摩达社区,对吧?那么 clear 模型呢?这里对应它这里的文件夹就是 test in code 这一个文件夹,可以点击看一下, 确实是我们陈伟三的,对吧?然后我们再回到我们的那一个 cover ui 的 这一个文件夹里面,然后返回到上一集的 model 文件夹,我们找到 ted in call 的 这一个文件夹,可以看到吧,在这里我们点击进来,然后再把模型给它放进进来,以此类推呢,我们再次回到我们的下载主页这里, 然后把 a e 的 这一个模型也给他剪切一下,我们也可以回到我们 set 的 image turbo 哦,可以看一下它是属于我们的 ve 模型,对吧?我们就把它放到 ve 里面,那么同样的返回到上一集的这一个 model 文件夹里面,到我们的 ve 哦,把它放进进去。最后一个呢,就剩下一个罗拉模型呢,我们只需要 再一次的把这一个剪切一下哦,返回上一集 model, 然后导到我们的罗拉,可以看到吗?在这里我们把它粘贴进去,那么这样子呢,我们就把所有的模型都配置完成了,那么模型配置完成之后呢,我们就回到我们 的 for ui 的 一个操作页面,我们该怎么样去加载这一个模型呢?我们刚刚把模型放进来,我们点击它可以看到还是没有反应,对吧?那么我们就需要刷新一下这个页面,我们只需要按住键盘的 ctrl 键,然后再和 r 键,它就可以重新刷新我们这一个网页,我们再稍微等待一下,刷新完成之后呢, 我们就可以在这里面模型加载出来了。首先是我们的 lala 加载器里面的模型,看到,哎,刚刚的模型出来了,对吧?我们把它加载一下, u 内加载器也 一样的,刚刚的模型也加进来了,把它加载一下,可类似的模型哦,我们的 ve 模型,那么全部加载完之后呢,我们就可以尝试一下去跑一下这张图片,看一下能不能把图片给它跑出来啊?这里呢我们就只需要点 击一下运行即可,然后我们稍微等待一下,这里我们需要说到的是,当你首次去跑这工作的时候,它所用的时间是会比较久的啊, 为什么会比较久呢?因为我们需要去加载这些模型,所以他要用的时间会稍微久一点,我们就需要稍微的再去等待,然后我们就发现图片是跑出来了,那么图片既然能跑出来,就证明这个模型配置放置的没有任何的问题, 既然它的模型加载已经没有任何的问题了,那么我们就来看一下它这些呃节点的一个使用,它这一个节点的使用其实也是非常的简单,我们可以简单的把它拆成几部分,第一部分属于模型加载部分,就像我们刚才说的一样,可以把 unad 加载器, cleveland 加载器以及 ve 加载器单独给它提取出来,然后把它们在一个框里面,那么这个放在一个框里面要怎么去放呢?我们只需要按住 ctrl 键,然后就可以多选 缩写完之后,然后右键右键就有一个并入到框,哎,我们就可以看到它就放在一个框里面了,对吧?然后是我们的罗拉模型,那么这个属于一个小模型,我们就把它放在外面,或者呢就是我们两个 clive 的 文本编码器,那么 clive 的 文本编码器的作用是什么呢?其实就是拿来书写我们想要它生成的一个内容, 当然了这里背绿色框和红色框,对吧?那么绿色框书写的就是我们不想要的东西,也就是我们的负面提示词, 那么过后呢就是我们的空愣腾,再过后呢就是我们的 k 长器,然后再过后呢就是我们的一个 v a 解码, 到现在我们再来一一看它的一个效果。首先呢我们的 u n 的 加载器的作用是什么?其实就是拿来加载我们的大模型, 那么这个大模型里面呢,拥有非常多的一个图片训练级,以及图片打标的训练级。那么什么是图片训练级呢?就是我们要去训练一个模型的时候, 我们会不断的往里面投入图片,当我们图片喂的够多的时候,那么它对于世界观就会更好了。 red image turbo 呢,它是一个有六十亿参数的一个模型,所以它的一个数量还是蛮大的,它的打标数是什么意思呢?就是我们每次投入的图片,我们都需要在图 片旁边进行打标,之后我投入了一张小女孩的图片,对吧?这个小女孩是红色头发色的衣服,绿色的眼睛,我在这张图片旁边呢,就要需要用文字去描述这个小女孩的 外观,是有一个红色头发的小女孩,对吧?他有一个绿色的眼睛,黄色头发,因为我们得告诉 ai, 哎,他这一个片的特征,因为他自己看不懂,所以我们得教他。那么这个就是我们训练模型的一个过程,也是我们打标的一个过程。所以这一个 u 类加载器里面含有的大模型呢,它就有非常多的一个文字参数以及图片参数。 那么这一个 cleve 的 加载器的这些文字属于什么语言?是不是属于我们人类看到的语言? 但是 ai 总体来说还是计算机来的,对吧?那么计算机看不看得懂,我们人类看得懂语言,他肯定看不懂,对吧?因为他需要在识别我们这些语言的时候,他需要把语言转换为数字,那么 delete 加载器里面的 delete 的 这个模型呢?他就可以把我们的文本转化成为数字的一个信息。 那么 ve 的 作用是什么呢? ve 就是 它可以把我们大模型里面的图片信息以及打标的文字信息也转换成 计算机看得懂的语言。那么我们会发现我们这里的 unad 加载器里面加载的模型里面的图像信息以及文字信息,那么我们可列的文本编码器里面的图像信息,最后被编码为数字信息之后,都要传向哪里?是不是都要传向我们的 k 长器,对吧? 那么在 k 场景器里面呢,他就会进行一个信息匹配,那么在这个信息匹配呢,他就会先读取我们里面的这个我们输入的文本信息,他就知道,哦,原来我们需要的是一个人的手,对吧?拿着一张照片,那么这个照片里面有什么内容, 然后背景是怎么样的,对吧?然后他再一一的去匹配我们大模型已经有的一些图片信息,他就在这里面图片信息也一样,他就知道,哦,原来我要生成的,根据他这一个提示词去生成的图片, 我应该采取哪些数据,对吧?这个猫耳朵应该长什么样?哎?这个人的这个裙子应该长什么样?这个背景应该长什么样?然后一一把信息采取完之后呢,他就会把信息给到我们的空灵特,那么这里的空灵特其实就相当于我们 人类在进行作画的时候的一个画布,可以明白了,对吧?然后他会根据这些信息在这个画布里面进行作画,然后这个作画他画的大小是多少了?这里就是我们设置了 宽高,就是幺零二四乘以幺零二四,那么这个画布给他的也就是幺零二四乘以幺零二四,那么他就在这个画布之内进行作画,然后画完这个画之后,他再次返回给我们的 k 函数, 然后再给到我们的 v a e 解码。那么为什么需要用到这里的 v a e 解码呢?因为前面这有个 v a e 加载器,这里的 v a e 加载器其实属于一个 v a e 编码的一个范畴,它会把我们所有的一个信息量匹配完之后,转化到空内存里面。作画的时候,我们这个 v a e 是 需要在这空内存里面进行压缩空间的。 那么什么是压缩空间呢?就是我们原先在这一整套工作流里面,你会发现,如果我们直接用幺零二四乘以幺零二四的尺寸给这个工作流这一个 ai 进行作画的话,其实对他来说这一个参数量是太大了,对吧? 那么越大的参数量,他主要运用的算力也就越多,那么他主要占用的 gpu 显存也越多,那么我们这个作者就想出一个方法,他用一个 ve 的 模型,把我们幺零二四乘以幺零二四的这一个图像点, 它在空棱台里面先压缩到六十四乘以六十四,那么我们的 ai 就 在六十四乘以六十四这个大小里面进行一个作画,然后画完之后,最后再由 v a 一 解码给它释放到幺零二四乘以幺零二四,再给我们呈现出来,就可以看到又是我们人类看到的一个语言了,这是一张图片, 是不是非常的简单易懂,对吧?那么这里还有另外一个,这里为什么会有一个罗拉模型呢?那么这个罗拉模型其实它属于一个呃再生的一个小模型,那么这个小模型呢?其实它是不属于这工作流的,但是我们的摩达社区里面,它确实让我们把这个罗拉模型也下了下来。那么这个罗拉模型呢?我给同学们试了试了一下,它主要的作用是增加我们图 图片的一个细节用的。那么这一个 logo 模型它到底是怎么样起效果呢?我们简单的用两个框去给大家做一个比喻,比如说我先新建一个框,然后把这个框给它放大一点,然后我们再建一个框, 那么这个框呢?就这么小,那么这前面这个呢就属于大模型,也就是我们这里 unit 加满器加满的 de 塑身 model, 那 么我们这里就用 unit 去代表, 那么下面这一个小模型呢,就相当于我们这一个裸老模型,对吧?那么这个裸老模型是怎么起效果呢?我们会发现我们这个 unine 的 模型后面的线是连接给我们的裸老加载器的,对吧?也就是说我们这个 unine 模型去加载我们的 图片信息以及打标信息的时候,我们要去到 k 长 g 这里的信息处理中心的时候,我们是不是要先经过 loa 加载器,对吧?那么我们既然要先经过 loa 加载器,那么这个 loa 加载器就可以在这里面做手脚了,什么手脚呢?就是我们可以看到 loa 其实它属于一个非常小的一个体量,我们的 unit 属于一个非常大的一个体量,对吧? 我们的 unit 里面有非常多的信息,在它经过我们 loa 的 时候,那么我们 loa 的 通道就变窄了,有没有发现,对吧?那么通道变窄了,那么所经过的信息就会变少, 但是这个变少的这一个信息就要由谁决定,由我们罗拉决定。我们这个罗拉里面练的模型是怎么样的,那么它经过的信息就应该是怎么样的。比如说我们这一个罗拉,现在这一个不是增加细节的一个罗拉,而是一个动漫模型,对吧?好,它现在属于一个动漫模型,那么我们这个 u n 比如说它现在属于一个混合模型, 那么混合模型是什么意思呢?就说这个模型里面,它既有真实图片的参数,也有动漫图片的参数,那么当我们这一个 unet 模型里面的信息经过 rola 的 时候,那么 rola 由于是动漫模型,他就会优先把 动漫模型的信息留下来,然后把真实的信息给他去掉,或者说给他冻结住,那么我们留向 k 长期里面的这些信息呢?更多的就是动漫模型的信息, 那么最后它在生成图片的时候就会更加的动漫化,可以明白吧?这个罗拉模型其效果,那么它主要就是起到一个缩小通道,以及哎冻结住前面大量的信息的一个效果,可以这么简单的一个理解,虽然说大一老师可能讲的不准确,但是他的基本逻辑大概就是这样子,那么我们这里也可以看到这里还有一个 模型彩样算法,对吧?那么这个东西是什么呢?就是我们可以用这一个模型彩样算法里面的偏移值去让 我们这里面的信息变得更加活跃,那么这个活跃是什么意思呢?我们可以把这个活跃给他说成是一个自由度,也就是说通过这个模型彩样算法这一个节点之后的所有信息,再来到我们 k 彩样器 在进行深图的时候,它的自由度会更大,那么它生成的图片会更加具有不确定性,那么这一个不确定性呢,其实是可以为我们图片增加光彩的。那么还有另外一个功能呢,就是它能够使深图的时候更加的稳定,不会使它混乱,或者说深层多手多脚的一个情况, 那么这就是我们模型采用算法的一个功能了。那么这里最后呢,我们再看一下我们 k 函数里面有的一些参数,然后 k 函数里面我们可以看到这里有种子数,对吧?种子数其实对应的就是我们的图片,我们每一张图片呢都会有一个对应的种子数, 那么相当于他的一个身份证吧,然后这有一个运行后的操作,运行后操作呢我们可以固定,那么就可以固定上面这个整数,那么整数如果固定的话,其实这张图片它就基本上永远都不变了。然后我们也可以随机,我们一般都是选择随机的,那么就算整数始终都在改变,那么这样图片你就会一直的改变,就会起到一个抽卡的一个效果。 然后这里呢 red image turbo 他 是用九步,他就可以把这张图片给大家画出来了, 那么有一些模型呢,可能需要用到二十步,那么另外呢,这一个 c f g 是 什么意思呢? c f g 就是 对于我们这一个提示词的一个参考程度,那么由于我们的 c f g 调低就可以了, 调到一,那么就能起到一个很好的一个效果,那么这个也是官方给的一个参数,我们一般不去骗它,然后我们的彩样器和调度器呢?呃,这个我们去设置它,它都会影响到我们图片的一个出路效果, 但是哪一个输出效果会更好呢?这个就要同学们自己去探索了,但是官方的给的是 u 了加新跑的一个模式,这个我们一般也可以不去改变它。然后降噪是什么意思呢?那么降噪这里我们就要说到一个概念了,就是我们的这个深图模型其实是属于一个 扩散模型,那么扩散模型是什么意思呢?就是我们这个工作流在生成图片的时候,其实它是属于一个反扩散的一个过程。那么什么是反扩散?我们再举个例子,比如说,哎,我这里现在属于一个空人,他对, 也就是我们的白色画布,那么在这个白色画布里面呢?它并不像我们人类世界的白色画布,它完全是白色的,那么这个白色画布里面它有许许多多的噪点,那么这些噪点主要是由 红色、蓝色、黄色这些颜色组成,对吧?但是这些粒子一个一个噪点的粒子,它分布是不均匀的,那么在分布不均匀的情况呢,我们就需要把它变得均匀。那么在这一个扩散模型,也就是这一个 unit 模型, red image turbo 这一个模型里面,在运行的时候呢,它就会把这些 散乱在这个画布里面的这些粒子给他进行一个收缩,那么从一个松散的状态变成一个聚拢的一个状态,那么他在收缩的时候呢,你就会发现有一些颜色的粒子他就会叠加,就会叠加出他原来没有的一种颜色,然后他越叠加越多呢,他就可以在这些地方把它处理成为一个一个一个的色块, 而这些色块拼接起来之后呢,就是我们现在看到了一个图片了,比如说,哎,他在这里聚集了很多颜色,组成了我们 的一个什么,组成了我们的一个肉色,对吧?那么通过这种组合的方式呢,我们就把它叫做反扩散,就是把扩散在外的一些散断粒子给它聚集,就叫反扩散,对吧?所以我们就做扩散模型,那么这个降噪呢,也就是代表了我们要去掉一些没用的噪点,然后把有用的噪点留下来,再把它聚拢的一个过程。 如果说这个降噪幅度比较低的话,我们可以看一下它的一个效果,那么我们就可以很明显的看到它这些色块是不是乱七八糟的,那么就是一个没有聚拢完的一个效果。那么在降噪零点五的时候,所以我们这个降噪呢,把它调为一属于一个纹身图最好的一个效果。 那么简单的讲完这个基础之后呢,我再带大家来搭建一下工作流,那么基本上这工作流我们看一眼之后基本上就熟悉了,那么首先我们就要三个模型加载,对吧?那么第一个就是我们的 un 的 模型加载器 去加载我们的大模型,也就是有很多训练参数的一个大模型。第二个呢,就需要我们可立的加载器,用来识别我们后面要填写的提示词,对吧?然后再来一个 ve 加载器, 用于压缩我们空扔它的一个空间。那么有了这三个模型之后呢,我们就可以通过拖拽的方式把其他的节点给他召唤出来,比如说 六加载器后面跟随的应该是我们的文本编码器,也就是说我们输入提示词的一个地方,对吧?那么文本编码器呢,我们有两个分成了正面条件和负面条件,所以说我们还需要再从这里拉出来一条线放掉,然后作为我们的负面条件。 然后我们的 unit 加载器呢,我们可以拉出来一条线给它放掉,可以看到它直接转接的就是我们的 k 长器了,对吧?但是 k 长器中间还少了两个其他的一个增加效果的节点,那么一个呢,属于我们的罗拉模型加载,我们可以把它复制过来,那么另外一个呢,属于我们的模型彩样算法,对吧? 那么这里呢,我们就把我们的 unit 加载器的点先给它在 k 传感器这里断开,先让它经过我们的 roi 加载器,让它留下我们需要的一些细节信息,然后再给到我们的模型传感器算法,增大它的一个活力,然后最后再给到我们的 k 传感器,让它进行一个信息的匹配, 那么这里的信息匹配呢?他是跟谁匹配?是不是跟我们输入的文本进行匹配?所以我们也需要把文本连接到 k 长器里面去,那么分别把正负面条件连接进来,那么我们在进行作画的时候呢,我们也需要给他一个白色画布,就需要一个空人头,那么空人头有了之后呢?我们最后需要怎么样在这里画完画之后?画完画之后,我们是不是要把 里面的这一个空间给它释放出来,那么释放出来呢?我们就需要用到 ve 解码,然后我们把这个空间解码出来,然后我们要解码它呢,我们也需要用到前面的这一个 ve 加载器里面加载的 ve 的 一个功能,给它进行一个释放 好,然后最后再来一个保存图像或者预览图像,就可以把这工作流搭建出来了,是不是非常的简单?那么这里的底层逻辑你弄懂之后呢?哎,也是非常有益于你后面的一些工作流的搭建的。 那么我们这节课的内容有那么多,如果小伙伴们觉得大家老师讲的不错的话,不要忘记一箭三人哦,我们下期再见,拜拜!那么欢迎来到我的二零二六最新康复 u i 基础系列课堂的第三课。 那么上节课呢,我们已经讲完了我们在 e m g 特狗的这一个纹身图的基本工作流,并且给大家简单的讲解了一下他的一个 底层逻辑,对吧?那么本堂课呢,我们就将即将的讲到他的图深图的一个底层工作流的一个搭建,那么 我们说到图生图,我们就要第一时间反应,那么什么是图生图?那么就应该是从一张图片上面再次生成另外一张图片,对吧?所以我们肯定就要引入一个新的节点,叫做加载图像, 那么有了这张加载图像节点之后呢,我们就会发现这张图像是不是我们人类看的懂的语言,那么计算机能不能看得懂,那么计算机肯定是看不懂的,对吧?所以我们也需要对这张图片进行编码,然后把这张图片编到我们工作流 里面的一个序列里,那么我们要编码的话,我们就需要用到另外一个节点,叫做 ve 编码器,我们先把图像拉出来一条线,那么我们就可以看到有一个 ve 编码, 那么通过这个节点呢,就可以把我们的图像编码成为计算机看得懂的语言,然后通过这一个 learn 点给它连接到我们的 k 长器 里面去,那么这里我们就会发现,哎,这一个 ve 编码器里面是不是还有另外一个点要连接,就是我们的 ve 点,所以说我们这一个节点它需要我们 的 v a e 加载器里面的 v a e 模型进行一个激活,那么这里你就会认识到一件事情,就是我们上节课有讲到 v a e 的 作用是什么?是将我们空扔腾的一个幺零二四乘以幺零二四的尺寸压缩到六十四乘以六十四的一个潜空间里面,对吧?那么这里的 v a e 呢?它也是一样的,它把我们这张图, 那么这张图像可以看到是五幺二乘以六四零的,对吧?那么通过这一个 v a e 编码,把它压缩到潜空间里面,把它压缩到一个非常小的值,然后再把这个 lin 信息传给我们的 k 传感器。 那么既然是通过 v a e 压缩到潜空间里面,我们就需要知道在最后 v a e 解码出来之后,图像的尺寸应该是多少,是不是就应该跟我们上传的这张尺寸是一致的?那么我们既然说到是图深图,那么肯定 就是在这张图片的基础上再去生成另外一张图像,对吧?那么上节课我们讲到空帧的时候呢?空帧相当什么?是不是相当于一个人的 一个白色画布,对吧?那么既然是白色画布的话,那么里面就充满了一些不确定的噪点,所以我们这里的降噪就要调为一,不然在零点五之下,我们上节课也试过了,在零点五之下,他会产生一个降噪不完全的一个效果,那么画面就会变得非常的模糊,对吧?非常的抽象。 那么这里呢,既然是从一张图片里面去再次生成另外一张图片,那么这张图片里面的已有信息是不是应该起到一个参考的作用?那么这个参考的作用呢?它就分成了两部分, 一部分就是这个图片的宽高比例会被完全的参考。第二部分呢,就是这个图片里面已有的元素会被参考,那么既然我们要参考它的一个已有的元素,那么我们是不是应该把降噪值给它调到零点五左右,为什么?因为这张图片对于这一个工作流来说,他已经是被 聚拢过的图片了,也就说已经把扩散在外面的粒子把它聚拢过了,对吧?我们只需要在里面重新添加一些粒子,然后再次进行去造,那么它就可以生成一个 全新的一张图片,但这个全新的图片呢,会根据我们已经被扩散过的图片进行一个再次添加细节, 比如说我这里上传了什么?上传了一张真实的图片,那么我在这里就输入啊,一个动漫风格的女孩子,然后呢,我们现在要做的就是在一个低的重绘幅度下,把这个真实图像的女孩子变成一个动漫图像的,然后我们点击生成,可以来看一下它的一个效果。好,那么我们可以看到画面确实被重构了, 他是完全参考我们这张图像来的,甚至说手指部分都给我们画回去了,有没有发现?那么这里为什么他没有显示为动漫风格的一个女孩子呢?那么原因肯定有其中几个。第一个就是我们在的一米九 turbo 的 这一个大模型里面, 动漫训练的参数并不够,那么我们就需要把降噪调高,给他调到零点九左右,我们试一下,那么你就会发现,哎,动漫人物果然出来了,对吧?只不过现在的动作他是完全参考不住了,那么我们再把它降到零点八, 那么你就会发现,哎,他又变成真实人物了,所以说这有一个界限,零点八到零点九之间,他就会在真实跟动漫里面去进行跳脱,所以这里我们也可以看出来,在 the image turbo 这一个模型里面所带有的动漫图片训练参数真的是不多, 所以我们这里把它调到零点六,基本上就可以保持住我们这一个人物的一个动作啊,或者说他的一个脸部朝向,对吧?或者说他的一个外观,然后进行 把它添加细节的一个操作,因为我们 red image turbo 这款模型还是非常厉害的,可以看到吧,那么这里呢,既然我们是图生,图肯定是可以把这个人物变成一个动漫风格的,只不过我们需要另外的 lora 模型来进行驱动,那么这里呢,我们就加载进来一个叫做 o v c 的 一个 lora 模型, 那么这一个 lora 模型呢,是我在里铺里铺上面下载的,可以看一下属于 red image turbo 的 一个模型,是一个动漫模型,对吧? 那么我们通过这个龙脑模型,跟上节课讲的一样,让他去加重我们动漫图片的一个权重,让他进行一个出图看一下可不可以。那么这里呢,我们可以在 lebanese 这里可以看到作者给的参数呢,大概是多少?是零点八,对吧?我们就把它调到零点八,那么我们就在零点八的这个权重之下去把这个图片生成出来, 然后提示词不变,依然是一个动漫风格的女孩子,我们点击生成看一下它的一个效果。好,那么这里呢,图片出来我们就可以看到,哎,他现在确实变成了我们动漫风格了,对吧?只不过这个外形好像有点丑,那么有点丑的原因呢,是因为 它参考了我们这个原图的这一个图像因为是由真实转向动漫的,所以它并不能说像完全动漫那样去进行输出,那么我们可以尝试再把它调高一点,比如说调到零点八啊,调到零点七,我们看一下它的一个效果,那么零点七呢?很明显效果就好了很多了,对吧?只 不过它这个衣服的部分,它变成了头发的一个遮挡,那么它现在在这个降噪幅度越来越高的一个情况下,它就越来越靠近我们的 loa 模型以及我们的 unet 模型的一个 原声自由度的一个输出,那么就越来越趋离我们的这一个原声图片,也就是说我们这里的降噪幅度,从这里开始他就变成了重绘幅度,那么重绘幅度越低呢,他对我们原图的参考就越强,那么重绘幅幅度越高呢?他对我们原图的参考就越不强。那么这里呢,我们还可以 引发出来另外一个问题,就是如果我们这一个降噪幅度变为一的话会怎么样?我们可以点击一下生成,看一下它的一个效果,那么我们就会发现它生成出来的这个图像跟我们原图变得完全没有任何关系了,对吧?那么它唯一有关系的地方就是在这里的 尺寸五幺二乘以六四零,跟我们上传的原图基本保持一致,也就是说在我们降噪为一的时候,它只会采用这里的宽高比以及它的一个分辨率,那么其他部分呢,就完全变成跟我们空帧一致的了,也就是说它会被覆盖成 一张完整的白色画布,只参考这个画布的一个宽高,其他的完全不参考。那么说到我们的图生图呢,我们就要想到我们能不能只对画面的某一部分进行一个修改,那么当然是可以了,那么这个就叫我们的局部重绘, 局部重绘呢,我们这里就要使用一个新的节点,叫做设置 lantern 照波遮罩的这一个节点,然后我们先把它搜索出来,然后设置 lantern 照波遮罩,我们把这个节点给它弄出来,弄出来之后我们会发现这一个节点它分成了两个点,一个是 lantern 点,一个是遮罩点, 那么 lincoln 点呢?肯定就是由我们的 v a e 编码输出的这一个 lincoln 了,对吧?那么这一个遮罩点呢,就应该是加载图像这里面的这一个遮罩,但是这里我把它换一张图片,为了更好的一个演示,那么这里呢,我是上传了一张由 flos 模型生成的呃,一个女孩子的照片, 那么我们要怎么样去给它进行一个遮罩处理呢?我们只需要在加载图像这一个节点右键,然后往下滑动,找到 open in mask, 也就是打开我们的遮罩编辑器, 然后在这个遮罩编辑器里面呢,我们可以看到右边任务栏,这里可以选择我们画笔的一个大小,第一个滑栏,第二个滑栏呢,可以选择我们画笔大小,可以调大一点点,那么这个太大了啊,我们把它缩小一点, 然后我们在衣服的这一部分去进行绘画一下,那么这里我们就简单的画啊,简单的画我们 这里就不画那么细,然后保存,然后呢我们在这里再告诉他,哎,去给我们生成一个白色的 t 恤,直接说 啊穿着白色的短袖,那么这里告诉他之后呢,我们就要把最后的这个设置引擎罩播了这一个引擎了,然后这里给完他之后,我们就可以进行一个生成, 我们先以降噪为一的这一个幅度去深层一下,看一下它的一个效果好,那么我们可以看到效果是出来了,对吧?在降噪为一的一个情况下,确实给我们穿上了白色的一个短袖,可以看到连手部部分就都给我们修复了,但是这里我们可以看到,呃,这里还有一些锯齿的一部分, 为什么呢?就是因为我们的这一个降噪给到了一,那么他去绘画的时候可能边缘融合的不是很好,我们可以把这个降噪稍微的降低一点,比如说我降到零点八,然后再次生成,那么我们可以看到他生成就失败了,对吧?那么这个也是大叶老师给大家开个小玩笑,在 the image tabo 这里面呢,我们要去做局部重绘, 一定是要把降噪调为一的,那么我们还有没有其他的办法去对我们这一个呃遮罩的这一部分进行一个处理了,我们可以看到它的边缘生硬的这个效果主要是因为什么?主要是因为我们的遮罩画的太过于生硬了,对吧? 如果我们能把遮罩的边缘给他过度的更加的柔顺一点,那么他是不是效果就会更好呢?那么我们这里就要用到一个新的节点了,叫做遮罩模糊生长, 我们把这个节点给他弄出来,然后把遮罩部分给他进行一下连接,然后再把遮罩部分给他连接过去,然后我们可以看到里面有一些参数我们是可以设置的, 比如说拓展部分,我们可以调到十,也就是说这一个遮罩部分他会往外扩十的一个参数,然后这里呢也有一个模糊半径,我们可以把模糊半径调到十五,那么模糊半径是什么意思呢?就是他会把我们这个硬边缘的遮罩变成一个软边缘,那么这样子他就会过渡的比较好一点点, 然后我们再次的点击生成,看一下它的一个效果。好,那么我们可以看到现在图片是出来了,可以发现这个边缘的部分依然没有得到一个很好的处理,那么现在呢我们就要意识到一个问题了,就是我们的遮罩涂的太过于潦草, 那么我们就不妨把遮罩重新进行一下涂抹,我们再一次的在遮罩编辑器中把它打开,然后这里呢我们先清除一下,清除完之后呢,我们把这个画笔调小那么一点点,然后沿着它的边缘部分去进行涂抹,我们先把这一整块给它简单的给它圈出来。 好,那么在这里简单的涂抹完之后呢,我们再一次深层看一下它的一个整体的一个效果会不会有所改观。 好,那么现在呢我们可以看到整体画面就好了不少了,对吧?但是这里我们可以看到他手臂部分,这里依然有一个袖口没有处理好,那么他的原因就还是我们的遮罩部分并没有涂的很好,那么这里呢最好就是把手臂这部分也覆盖起来,可能会更加的完善一点点。 好,那么这就是我们在的一米九 turbo 里面的一个局部重绘的一个方式。那么这节课呢?内容也有那么多,如果大家觉得戴老师讲的不错的话,不要忘记一件三元哦,我们下期再见,拜拜。

工业革命告诉我们,谁率先掌握了流水线,谁就拥有了定价权。 ai 时代逻辑一模一样。在二零二六年的今天,如果你问我,影视视觉圈真正的主动权在谁手里?答案不是那些只会用 mijiri 抽卡的人,也不是熟练操作 ps 的 老手,而是掌握了 comfyui 生产系统的人。 为什么?因为这是手工作坊与现代工厂的对决。我们要先搞清楚一件事, comfyui 和其他工具最大的不同在于,它是生产系统, 官方正版免费。传统的工具思维是,我要一张图,打开软件,输入指令,得到结果,每次都是从零开始,这叫点对点的单次任务。但 copy y 的 系统思维是,我要一批图,我先设计生产流程,定义标准,然后批量运行,持续优化。 发现区别了吗?传统工具的天花板是你的手速和精力,一张图十分钟,一百张图可能就要耗掉你一整天。 当你累了,质量就开始失控。而 comfy ui 的 逻辑是,你设计规则,机器执行,第一次搭工作流可能需要两小时,但第二次、第十次,你只需要点一下鼠标,调整几个参数,你的效率不再受限于体力。这就是为什么传统方式永远逃不出时间换钱的困局。我们来算一笔账,假设你一年接六十个项目, 传统方式下,每个项目耗时差不多,第一个项目二十小时,第六十个项目还是二十小时,一年总耗时一千两百小时,也没有任何提升。但在 coffee ui 模式下,前十个项目你在搭建系统,平均每个耗时二十五小时,可能比别人还慢, 但第十一到三十个项目,你开始赋用,流程耗时降到了十小时。到第三十一到六十个项目,你已经拥有了完整的工作流库, 每个项目只需要三到五小时,第一年你节省了六百小时,第二年你的效率会直接提升六倍以上。这就是系统的复利,你在积累可以变现的资产,而别人还在苦哈哈的手搓像素。为什么说 comfyui 是 生产方式的代差?因为它实现了五个维度的全方位碾压。 第一是极致的可控,客户说要把衣服红色改成蓝色,其他都不许动。用 mj, 你 可能要重抽二十次,脸都变了。用 comfyui, 你 精准定位节点,三十秒定稿,这叫精确掌控。第二是规模化批量, 你要看主角在三十个不同场景下的效果。传统方式要一张张修 comfyui, 只要挂在列表,你去喝杯咖啡回来,三十张图已经整齐排好,这叫自动化生产。第三是一致性的工业标准。 三个月前做的项目,客户现在要追加传统方式,靠手感和运气很难还原。 comfyui 直接调出工作流,百分之一百复现,这叫工业稳定性。 第四是附庸性的积累,你的经验不再只存在于脑子里,而是变成了一个个 json 文件,新来的助手直接调用你的工作流,立刻就能输出和你一样的水准。第五是持续进化的潜力, ai 技术每天都在变,换个模型,换个算法,在 comfyui 里只是更换一个节点的连线, 你的生产系统会随着技术进步自动升级,永远不需要退道重来。这五层碾压的本质,其实是一场创作权力的重新分配。 现在的渗透率还不到百分之二十。这意味着绝大多数人依然陷在那种体力式创作的泥潭里,看着身边优秀的同行,为了赶一个微调的进度,不得不通宵对着进度条发呆。这种努力其实最让人心疼, 因为最可悲的莫过于用你最顶尖的才华去处理最琐碎的杂事。你苦练了十年的审美构图、对光影的直觉,这些才是你最值钱的东西。 但在传统工具面前,你百分之九十的精力都被浪费在了重复操作和烹运气上。这百分之二十先掌握系统的人,并不是比你更聪明,他们只是先一步决定要把时间还给创意,把重复交给系统。 在这个时代,最令人无奈的不是你不够努力,而是你还在用肉身去硬刚别人的自动化工厂。如果你还死守着旧时代的残余工具,那你卷的不仅是价格,更是你本该享受生活、思考更高级创意的时间。时代的轮子转过来的时候,从不发出巨响, 他只是静静地把那些拥有高校系统的人送上更高的维度。你是想继续在那场看不见尽头的体力竞赛里硬扛,还是想通过 comfyui 给自己建一座能自动化产出的创意工厂?接下来的这些底层架构,其实是我在实践中沉淀出的一套自救方案。 我希望通过这些逻辑,帮你找回那份久违的掌控、创作的纯粹和快乐。别再让工具成了限制你天花板的那块短板,你要做的,是成为那个站在天花板之上的人准备好了吗?让我们一起重新主宰我们的创作空间吧!