对,这两款对 cpu 支持非常好,用,其他的浏览器可能会出现一些兼容性的问题。嗯,硬盘的话,硬盘的话就这里有。呃,如果是说要轻量,轻量模型是吧?轻量的话五百五百 g 以上吧。对, 呃,就是要选固态硬盘,不要选那个机械硬盘。内存的话呢?就电脑内存是四十八 g 或者以上。 嗯,然后如果是说用来做视频的话,是要用到六十四 g 或者是以上的电脑内存。 微软的话还好吧?我,我没,我没怎么用过微软的,我一般是用谷歌的。所以说为什么推荐大家用谷歌的,然后再去啊,考虑微软的,其他的浏览器不要考虑。对, 那如果你的如果你的电脑已经是八 g 的 话可以去。嗯,结合云端使用。 对啊,这是配置方面的。然后就是继续把这个讲完吧。讲完。呃,讲。
粉丝567获赞157

这个工作流网上已经有大神做出来了,最简单的办法就是把这个工作流下载下来,然后啵往那一放就行了,就跟你学 ae, 学什么剪辑,会有一些模板给你套用一样,这个就是最简单的方法。但是 comfy ui 这个东西,没玩过的人是对他比较陌生的, 所以想套模板,你也得先对他有一个最简单最基础的了解。我的学习过程是这样的,我跟他说我知道不可以直接套模板,我也不是教大家,国内的这些教程抖音 b 站上都教了,但是他们讲的非常的不详细,就感觉就不想把你教会一样,就想着等你后台私信他们,让他们把你拉到一个麦克。 我现在呢也是一个刚入门的阶段,就是边学习边分享吧,专业玩 ai 的 朋友就别看我这个视频了,我就单纯分享给像我一样的这种新手小白朋友。点进去之后 看它这个页面还挺好看的。点击下载,这里有 windows 版和 mac 版。还有一个方法是从 github 上安装好,安装完直接点击完成,它会运行 这边跳出来的英语是我们没在设备里找到 git, 在 继续安装这个 confluence 桌面之前,请下载并安装 git。 我 们来打开 git 的 下载页面, 它就直接跳转了这个下载页面。啊,我们这个是 windows, 就 选 windows 下载, click here, 点击这里下载,下载成功,跟着它这个步骤去安装这个 git, 反正就一路默认 自动更新,让它自己安装。还有一种下载方式是在这个 github 里面下载的,网址是这个,点进来之后找到这个 release, 点进去 这里面这几个下载方式就是你是 amd 的 就下 amd, 这个英伟达的就下英伟达, 我这个台电脑下了的是这台。好,我已经下完了,下完之后就解压安装,我现在拿我这台 amd 显卡的电脑给大家演示下载 amd 这个版本就是这个压缩包,解压之后长这样。好,双击进来会看到这个东西,跟我们往常看到的软件不太一样,没有那个什么一个程序两个字, 它都是这种一 kb kb 的, 这个结尾是点 bat, 看到这两个就都试一下,如果这个打不开,那就再打开这个,因为这是跟你的显卡配置有关。点击运行它,跳出来一个类似终端一样的东西。 软件下载完之后,它界面就是这个样子的,打开这个界面之后是一个画布,先别管,直接点这个 templates, 这个就是一个模板,这个 templates 里面有很多 其他人已经做好了,这些工作流非常适合新手过来研究学习,但这些工作流都比较简单,比较 low, 就 没有那些网上的那些博主也于 top 大 神做出来的那么厉害,这些都比较简单。好,我下了一个一个最简单的纹身图的工作流,就在这儿点这个 templar 词, 然后比如这边这边是 a 妹纸,就是图,纹身图,视频、音频,这还有三 d 模型的这些大语言模型,这也不管的好点,一个最基础的纹身图模型,这边有 a、 p、 i 三个字母了,不要碰再多是要花钱的,就用千万的吧,二五零九重新下一下这个 一点,他就直接把这个工作流跳转进来了,这每个小方块就是一个节点,这个界面是我认为非常舒服的一种界面,你看拿鼠标一拖抓手就出来,用这种模板非常简单,因为他所有的东西都告诉你了,这个工作流他能干什么?我们现在不知道,因为没没做测试吧。 我们先看这个工作流的作者,他跟我们说了什么,他说这些是链接,你现在要去下这些东西,一二三四五,每一个链接里面都有每一个这个大标题,下面都有一个链接,点上去就能下了,我们待会儿就要挨个下,下完之后还有这个就是放摆放的位置,这个 diffusion model, 放到这个 diffusion models, 放到这个,这个里面都在 comui models 这个里面啊,这是作者或者官方吧给的一个 下载公告,根据这个做就行了,很简单,全是傻瓜式的。好,这下载的时候跟你说一下这些节点都是干什么的?首先我们要理解这个节点流程,他就是他为什么叫工作流, 其实我是跟流水线一模一样的一个原理,每一个小方块就是每一个节点吧,他就执行一件事情,一步一步一步一步把最终这个活给完成。这每一个小方块就是这些东西,这个有字的就是他的节点名称,这个节点是干什么的? load image 就给你加载图片的,这个节点是干什么的? save image 就 保存图片了。又有一个开头,一个结尾,然后中间呢?就它的整个生产过程,这个工作流,它是把它给 打包了,大家看到有这么一个标志,就是作者把它打包了,我不知道它是怎么打包的,然后点这个点这个标志右边的这个标志就能进去,然后我们就能看到这里有一个哎主文件夹,一个子文件夹,这里就它中间的这个生产过程,每一个小方块,一二三四,这四个小方块给作者 弄成了第一步,第一步是加载模型,然后第二步是干嘛干嘛嘞?就你看到这些牛逼的作者弄出来的工作流,你又觉得非常的赏心悦目, 非常的舒服,强迫症患者的福音,你要是自己没事一个人自己去答,那你答的乱七八糟了,我在前两天尝试过自己答,到后面我才开始用这些 typeface, 用这些模板以及在网上下别人下的工作流 typeface, 它只是一个平台,你要是想生成更多的视频,生成更多的更好的效果,你也自己疯狂的去下这些模型,下这些配件模型。 这个 laura 呢?我的理解就是它的配件模型,比如说你现在下的是一个图神图的,那它这边给你一个 lightings for steps, 就是 这个 laura, 它能够通过四个步骤,就四步闪电版的给你深图。 然后还有这个什么 b 十六,可能是一个氢氧化版的这个 laura, 在 我的理解下,它就是一个辅助的模型,然后这个 text encode 是 文本编辑器,文本编码器,每一个模型都有一个属于自己的 文本编码器吧,或者说某一类的模型有一个属于自己的文本编码器。像这个它就是像的,是千问的模型吧,这个 q w e n 是 千问哎,也挺厉害的,最近也出了很多开源的这种大模型。好,下面这个 v a e v a e 有 点像是 你图片画完了之后,它开始给你上一些颜料之类的吧,我觉得就是让你的一个画质的真实度或者干嘛的变得更好,这是我的理解,这些东西都不重要,就你完全不需要搞懂他们是干什么的,你就会用就就行了。 好,现在已经点击下完了,这个下载呢,很简单,你一点就跳转了,你要么用浏览器下载,要么迅雷下载,我一般都是用迅雷下的,下的比较快。 这一二三四四个东西,打开文件夹所在的位置,然后我们把这四个东西按照人家说的这个方法给他剪切到或者复制到相应的文件夹里,在这个安装的文件夹里找到一个 mod。 四文件夹,基本上所有的下载下来的东西都是要放到这个里面。 第一个文件夹 models 里面, diffusion models。 好, 我们找 diffusion models, diffusion models, 找到在这下的是这个 q w e n r sift and sensor, 我 们记一下这个 e 四 m 三这玩意儿,这玩意儿给它拖进去, 然后再看下一个文件夹 l 找找找找找 l 开头了,在这儿把这个也给放进来,放到这个 l 文件夹里,剩下的就一步一步按照它的这个东西 放。下面是 ve 和 textincode, 在 model 里面找, ve 在 下面在 ve 可不是许嵩呢,加一个 textincode 文本编码器,千万二点五。好, 也已经抽过了。 ok, 那 现在这个就是一个目前已经下载了东西的一个工作流啊。他说让我们上传一个图片看一看,遇到不知道怎么解决的问题的时候,先跑一下,跑完之后他会告诉你哪里出问题,就非常简单,不需要自己排查 任何问题,他直接给你指出来,然后去解决就行。在这一看,哎,题词进来之后也没办法编辑,那怎么办呢?那是不是出问题了?不是,我们往前往前倒,看到这个题词前面还有一个节点,这个题词前面还有一个节点,顺着这根线走,走走走 看,哒哒哒。啊,原来这个作者在这弄了一个单独的题词放到这里。好,那作者还是 非常良心的,就是整个节点流程看着很很赏心悦目。就我刚刚生成的一个提示词,很简单,让这个帅哥的头发变成白色,咚,他变成白色,我可以给他直接放到这个位置来,这样的话就可以并排看。那继续修改。 这个就是简单的让你去熟悉一下,了解一下这 ctrl u i 的 效果是什么样的。 他的身图的快慢呢?取决于你电脑的算力,我现在弄一个复杂一点的提示词。好,我自己手敲了一个简单但是比刚刚要稍微复杂一点的提示词,看下他能跑多久,让他变成一个带盔甲的钢铁侠的盔甲, 再给他来一个眼镜。现在这个是近景吗?我要一个全身景,我看他能不能理解啊。好,点击这个 run, 就是 运行,就是跑嘟跑, 这里能看到一些净度,我们还可以点进这个里面来,然后我在这听不到风声啊,因为这电脑不是我的,我在远控,我朋友的电脑,那我们能在这里看到他不停地跑,在现在跑到这个节点了,我不知道怎么读啊,应该是 case app。 好, 跑完了,我们在这看一下预览 全身图,他给我的也不是全身图,但总体上来说还行。这个工作流用来 p 图我觉得是已经足够了,这里可以看到他跑的这些时间,三十多秒,二十多秒正常,我的四零九零 d 跑这种的话应该也就十几秒, 应该像素不是很大,八百八。他这里有一个问题啊,就是你给的原图尺寸其实挺大的,你看 我这是二 k, 然后它生成呢?就是很小,你如果说想在这个里面去修改它的尺,输出的尺寸也可以,但它跑的会很慢。好,现在我们对这些节点有个大概的了解了,就是它是通过这些线一个个连出来,然后最终生成一张 你想要的这个效果图。那我们回到刚刚一开始我说的怎么样给一张图,然后通过这个摄影机的调整,让它生成你想要的角度的图片呢?好,我们把这个保存一下,保存按钮在这儿,这里有三道杠, 点击 save 或者 save as 都行,点确认,你也可以把它下载下来,点这个下载好,下载到某个地方,它导出来是一个这个东西,这个 json 格式的, 你就可以把这个工作流直接丢给你朋友他那边接收到了之后,他再拖进来,拖到自己的这电脑上,直接往画布上一拖,因为我左右都已经改变了,关掉,我新建一个空画布,好一拖拖到这个画布上,非常简单,不松手。出来了, 这工作流出来了,这个没办法,多角度不好玩,我们去找多角度的, 别人做好了这样的工作流,还给它保存成了 json 格式的,那我们下载下来,拖进去,然后再去下载一些东西。那我看到的就是这个国外大神,我不知道这个是不是他最开始的原创啊?总之他这里的信息是最全面的, 他告诉你这个模型在哪,多角度的插件在哪,还有这个加速 laura, 这些都是要下载的,下下下下啊,这,这个是他做的广告,就不下啊,这个是节点, 这个是参考工作流,那我们就先把它这个参考工作流下下来,点击进来之后跳转到了一个 github 页面,点击这个下载, 在这好一下它就下完了。我习惯上是喜欢把这些工作流给放到一个文件夹里的,这样的话自己找起来比较方便, 那尤其是你做好的,或者你调试好的工作流,这个就是我们刚刚下的二五幺幺的这个前面这个是演示的二五零九的工作流,这个二五幺幺 multi angle 就是 多角度嘛,它每一个名字其实写得很清楚。 好,我们跟刚刚一样也是拖进来,往这一放,我就说嘛,它会告诉我们遇到了什么问题,那它就有什么问题呢? 他说 missing models 缺失模型,当加载这个图片的时候,下面的这些模型找不到,所以我们要把找不到的这个模型给下载一下,这个模型有点大了,二五幺幺 b f 十六三十八个 g。 好, 点击下载。 这还有一个加速 lara, 给它下一下八百多兆,这个不是很大,所以你要玩本地部署的这些 ai 模型,你的电脑 存储一定要够大,否则这十几个模型下来,那你的电脑就已经塞满了。这个下的有点慢,那我们等它下一会网址没法贴,之前贴被限流了,大家只能自己去英语网站里搜了这个关键词,官方版的它也有一个下载链接, 当然我们就以官方版为主,他这边没有报错的,我们就先不管他,就等他跑起来,哪里报错了改哪里,让他后台先自己下着。我们要先去下另外一个非常重要的东西,就是这个插件,找到这个插件把它下下来,就是这玩意。 这个网站叫 github, 可以 在这点下载这个扣的,这里点一个这个,然后这里有下载 download, 这个插件就很小,直接下这是个压缩包,给它解压一下。下载的这个网站我们改成中文,看的更清楚一点,它这里有安装的方式, 进入到四点一节点文件夹里,这里有两种方式,一种是克隆,一种是直接把它放进去,这两种我都跟大家演示一下。第一个下载刚我们已经下载好了,现在就去找到 comfyui custom notes, 把刚下的这个给它拖进来。 还有一种是 git 克隆,这个 git 克隆就是一个什么东西呢?这整个网页就是一个可以下载到它的一个网页,那么这个 git 克隆 就是你把这个这段代码也不是代码了,这段东西给它复制过来,找到相应的这个文件夹里,刚就是这个自定义节点文件夹, custom notes 这个里面右键 在终端打开,然后它这里会出现那么一个终端,黑色的就不要害怕,这东西根本就不是什么很高深的代码,就按照它一步一步去来就行了。粘贴, 然后按回车键,他就会在后台克隆这玩意,但是现在我们已经下好了啊,我不知道他会不会再克隆一个,现在他就在克隆,就等待他就行了。这个东西呢,我的理解他就是一个插件,然后同时他又是一个 独立的节点, computer ui 里面是没有这个节点的,没有这个节点我们就得自己去下,下完节点之后还得安装。刚刚我跟大家说的就是这两种安装的办法,现在它正在克隆 好,这个没克隆好,它这显示是 unable, 经常会出现这种没办法克隆的情况,不过无所谓,如果你碰巧克隆好了,那就行了, 这两种方式都可以体验一下。我一般都是下载先让它下着,然后我们再去看一下这个工作,大家没看到吗?它作为一个 j s o n 格式的东西,它很小很小是因为 这些东西它就是表面的那个说明书,你做一个东西,光有说明书是没用的,这说明书里面只有文字,但没有实质性的工具。我来告诉你,你要用电钻去凿一个洞,这个洞的大小是这么大, 但是现在你手上没这个电钻,你就得去网上把这个电钻下载下来,你还得把它安装到合适的位置里面。玩这个工作流的时候,很多很多东西都是需要下载,需要更新的,大家看到这里有个大大的叉,是因为我们还没有刷新这个界面,然后中间的这个 被它打包的点进去看,就它中间的这个过程,作者用好多这些节点,不同的模型,不同的 lora, 不 同的 clip 和 ve, 组建成了这么一个工作流。下载的时候再跟大家介绍一下啊,如果你想了解,你就可以简单了解,这边就是 models, models 就是 模型, 就是各个大公司,比如说字节,阿里,他们会弄很多很多个这种模型,这些开源模型就是免费大家用的。 这个 diffusion models 是 一个扩散模型,它跟另外一个模型叫,就这个这种类型叫 checkpoints, 都是以这个玩意儿 safe tensors 作为结尾的,本质上差不多,但是把它们分成了两个类别嘛,这个是 lora's, 这个已经说过了,这 ve, 这个 text encode, 然后这个是 diffusion models, 这个是 clipvision, clipvision 也是跟文本编码相关的东西。剩下的这些我就不太了解了,这个用的也不是很多,用的最多的就这几个。大家玩这个熟悉了之后就会发现,每次下载都是无非是下载这个,要么下载这个,要么下载它, 要么就全下,下完之后剪切或者复制到相应的文件夹里,然后再重启, ctrl v i。 我 的学习之路就是这样的,用人家的工作流,在这个工作流上面自己去调试,并不是他每个工作流,你把这些东西下载好了, 就能生成跟它参考图一样的东西了,你还得自己去调试的。不同人的电脑也不一样,进去这个里面去调这些参数,最主要的一个参数节点就是这个 saplla 这个节点,这是一个 k saplla 节点,还有别的一些节点也是,反正都是这个 saplla 类型的,它就是主要的这个 核心操作工具,反正这些东西大家自己去弄一弄,就是这些东西它并没有我们想象中去做那种 调色软件或者剪辑软件那么直观,你去改一个东西,你立马就能看到你得在这改完之后,你再跑个一分钟、两分钟你才能知道到底改了什么。 然后等你跑完之后,你又发现,你又忘了你之前改的这个东西是什么,所以只能自己去琢磨一下。但我觉得这这些都不重要,这些都不重要,我们理解他的整个逻辑是最重要的。你跟我说这个节点 说不定下周就淘汰了,这个工作流说不定再过两个月就会被新的工作流,被新的模型取代,还有可能节点更少,效果更好。所以我们现在去纠结他这个什么意思,这些东西没意义,就去理解他整个工作流。就是我 目前看来,你说这些东西会不会变化,那肯定会,但是他的这种运行逻辑,包括你去工作的这个逻辑是不会变的。因为这个工作流节点就是人类发明的一个效率最高、最容易 让大家去执行的一个东西。就从福特当年做出汽车流水线之后,人类的工业化快速生产东西,就靠这套东西。好,我已经下载好了,找到下载的这个位置, 看是不是他说的这几个,这个二五幺幺 b f 十六下好了,还有这个也是 v 一 点零, v 一 点零的也下好了, 都下好了,我们就要去安装,安装的时候要把它给擦掉,或者说你安装完再把它擦掉重启。我这个所谓的教程尽量慢一点,让大家陪着我一起做, 因为最讨厌的就是你自己一个人漫无目的的去搜,去问豆包,去问 jamie 奶,去问 groot。 很 烦,跟着我一起做就可以直接慢慢来了,所以我废话会比较多一点。主要就是这个 v a e 很明显就放到 ve 里了,跑到 ve 里给它一粘,看它这里都写了 put ve here, 把 ve 放到这个里面看,这人家都已经写好了,非常有意思,就生怕我们不知道这个很长的 four steps, 你 看到这边有个什么 lighting four steps, 这就是一个 lora, 这就是我说的它是一个辅助型的模型,就能够让它用尽量短的步骤 给他跑完找 lars。 哎,在这就像我现在已经熟练了,我就能很快的找到他们了。就一开始看完的时候还是挺两眼一抹黑的。这个清亮画板有意思就有意思,在这就是得自己放,放进去, 在放的这个过程当中,你就已经基本上熟悉了整个流程,它是有哪些东西弄出来,这两个记不得放哪了,我们再打开工作流,再看一眼就行了。工作流上面人家写的清清楚楚的,双击一下,打开它后台运行一段时间, 就会自己跳转到一个网页上,所以这个东西为开头了。你看,刚已经装了两个了,还有这两个刚我们不知道在哪了。好,这两个分别是 diffusion models 和 text in code, 这个放到 diffusion models 里面, ok, 进来了,进来之后得再重启一下网页关一下,后台也关一下。可能是我习惯了这么用啊,当然我也用了一下单纯的软件版,其实都是一样的, 继续双击它,它跑后台的时候你能看到它的后台,在跑报错的时候,你把这个一截截给豆包 jamie 奶什么的, 他们就能帮你分析出来,现在没有再报错了。上传一张图看一下,测试一下行不行。这个是第一个节点,上传图片的第二个节点就是 can 问 multangle camera, 我 们在这点击一下这个蓝色的运行,它就单独运行一到二这个两个节点, 它这一运行就把这个图片给加载过来了,加载过来的目的是方便我们调整摄影机,这个摄影机摸一摸就知道了, 当然这个并不是真正的摄影机,它的逻辑并不是说一个无级的摄影机,我们可以任意调整角度,它其实是有九十六个机位,我不知道设计这个的人是怎么想的,反正就 弄了九十六个位置,然后你弄到不同的位置,每个位置对应着一个提示词,它其实还是通过提示词去改变图片的角度的,并不是那么神奇的一个什么三 d 的 效果来看一下,我把它相机往它右侧面高居位往下打一点,拍一条看看。哎, 好,非常 nice, 非常 nice。 一 跑红了,红了,我们就点进去看一下是哪里有问题,有问题的地方 compeg 就 会给你用红的给你标出来。哪里有问题呢?其实是因为作者用的时候他用的就是这个 safensils, 但是我们下载下来的并不是,所以我们得找到我们下载的这个 再跑一遍看看。运行到现在为止,只要它是绿的就舒服啊。没报错,好,已经跑完了,我把这两张图给挪过来了, 可以看一下。这跑的效果还是挺不错的啊,我摄影机的角度是放在了高机位俯拍的一个角度, 然后他就是高级辅助拍的,这个效果基本上是没什么问题,他也把这个豆包水印也给放进来了,非常搞笑。那这个小教程基本就这样了, 大家有什么问题可以私信我,我看到的话就会回大家,大家通过这么一个工作流的简单学习,也基本上能够会用这些工作流了。就是怎么套模板吗? 无非就是遇到报错,然后去解决,去下载,下载完之后就去安装这几个东西,如果你用的是官网下载的那个版本,你都不用进这些后台这些文件夹里,就可以直接下载出来了,更简单。 就这个东西我玩下来我才觉得就是一个信息差,你在之前不了解,你觉得,哇,这个玩意好高深啊, 大家怎么这么牛逼啊,都弄弄出来这么厉害的东西。实际上当你开始研究这种所谓技术性所谓 ai 工具的时候,你会发现 使用这些工具其实并不难,关于作品,关于怎么样生成好内容方面,难的其实更多是想法。就我个人觉得,现在单纯的生成这种好看的图片,什么科幻特效的这些效果已经意义不大了,就不足为奇了。剩下的就是 这个工具有了。大家怎么样去讲一些故事,再讲一些好玩的故事。就像我大概在一个月前刷到的一个特别牛逼的 ai 生成的视频,抖音上两百多万赞,我想大家应该都刷到过,就是那个讲 emoji 表情的那个 ai 视频, 太牛了,这类的东西我觉得才是我们使用 ai 进行内容创作的意义所在,因为这类的内容你没办法用实拍或者说一般的特效给它实现出来。好,这期视频已经够长了,如果你能观看到这里,那证明你的学习能力真的非常强,谢谢大家。

明明是在 comfy 官网下载的官方整合包,打开之后一用,为什么还是有各种报错呢?不是节点缺失,就是模型找不到,难道官方的也不靠谱吗?我相信这应该是你们开始学习 comfy 遇到的第一个困惑吧。 今天关于 comfy 的 本地安装部署一次性给大家说清楚,记得先点好关注收藏,需要解压即用满血版整合包的我已经给大家准备好了,先给大家解决视频开头的疑问, 为什么官方的整合包你用上了还是会有报错呢?首先是节点缺失,官方整合包中只有一些空 p y 官方自己构建的基础节点,除了这些节点以外,还有很多常用的第三方开发者构建的扩展节点,这些节点官方整合包中都是不会给你提前安装的, 所以当你加载进框架的工作流中,包含整合包里还没有安装的第三方节点时,就会出现节点缺失爆红的问题。 其次就是模型缺失, comfai 中的工作流运行时,一般都需要调用本地特定文件夹中的相关模型才能正常发挥作用,而官方整合包中也不会提前给你下载这些模型,所以当你没有下载模型直接运行工作流就会出现模型缺失的问题。 所以并不是官方整合包有问题,是你没有把零件给它安装好。但对于刚开始使用 comfai 的 新手来说,想要自己顺畅的安装节点和下载模型是有一定难度的, 因为你不仅需要提前安装一些环境文件,保证 ctrl 键正常打开运行,还需要配置好魔法网络用于下载模型和节点, 最后还要知道下载好的模型该放进哪个正确的根目录文件夹。但这些其实都很好解决,那就是直接使用节点和模型都已经提前安装好的满血版整合包, 这个是我一直都有在给大家分享的,而且还是长期持续更新的,这样你就可以省下大力气快速上手体验 kufi 的 使用了。除了以上所说的这些,还有一个问题是你无法回避的,那就是电脑配置问题。 想要在本地电脑流畅使用 kufi, 必须满足一定的电脑配置需求。首先就是显卡的显存一定要足够大,才能支持模型正常运行, 一般深图模型需要至少十二 g 显存,视频模型一般至少需要十六 g 显存。这里比较推荐新手入门的高性价比显卡,就是五零六零太十六 g 这张显卡了,什么牌子的一般都影响不大,主要是显存大,而且相对便宜。 除了显存以外,还有内存,做图建议至少需要三十二 g 内存,做视频建议至少六十四 g 内存。最后就是此款空间,本地模型一般体量都比较大,建议至少留有五百 g 的 此款空间用于存放模型。 以上所有这些配置都是上不封顶的,配置越高,使用体验越好,我相信大多数人的电脑配置可能都达不到这个要求, 如果你的电脑性能也不太够,那我真的非常不建议你在使用 ctrl 的 初期就花大价钱去购置高性能的电脑。上面所说的这些硬件配置,因为 ai 的 爆火,价格都一度水涨船高,但我们其实还有更加经济实惠的解决方式,那就是云端部署使用 ctrl y, 简单来说就是租用一台高性能的云电脑来部署使用软件,这个就比自己去买电脑要便宜多的多了。云端部署的方式我们会在下一期给大家讲。好了,这就是我们今天分享的所有内容了,记得点赞、关注、收藏,我们下期再见!

给你们看个贼恶心的 ai 工具,打死都不能删除,只需一张显卡,你就能免费生成这样的 ai 视频,这就是地表最强 ai 生产力工具,康费 u i v 八破线板。和那些花钱还要排队的网站不同,这个版本不用联网,更不用魔法上网, 所有运行均在本地,无需审核压力,不用积分,不用排队,也没有按次按月的计费的套路,支持一零六零显卡,并且原声中文自带三三零加款常用配件 生成图片点一下就好,生成视频也是点一下的事,只需三步,一,拿到整合包,二、解压缩,三,双击打开想试试的老规矩,验个牌。今天我们就从最基础的安装启动到如何使用 sd comfyui 一 步步讲明白,新手也能轻松跟上。 我为大家已经准备了 comfyui 的 秋叶安装包,并放在网盘,方便大家快速入门。首先找到你下载好的压缩包,用鼠标右键点击它,在弹出的菜单里选择解压软件解压,然后点击解压到当前文件夹,等着解压完成就好。 解压后的文件夹里,之前有使用过 sdui 的 小伙伴会看到同样的 a 会式启动器的标识,双击就能运行。启动器第一次启动时 等待时间会稍长,因为启动器需要自动配置环境文件和基础依赖,大家不用着急,等进度条跑完就行。启动器主页左侧有几个关键功能区,我们快速过一遍,避免后续操作踩坑。 文件路径区,这里会显示 confui 的 根目录自定义节点输入图片和输出图片的保存路径,后续找文件、存作品都靠它, 高级设置,重点看生成引擎默认会选择电脑的独立 gpu, 一 般不用手动改,要是识别错了,手动换成自己的独显 gpu 就 行。 疑难解答与版本管理疑难解答这里,如果大家后续出现整合包有问题,可以通过这里进行排查问题版本建议选稳定版, 开发版虽然功能新,但可能有报错风险,大家隔一到二个月来切换一次版本就够。小工具区是不怎么用的,所以暂时用不。上限阶段,我们先聚焦核心功能, 然后确认设置没问题后,点击启动器右下角的一键启动。等环境配置完成, comui 会自动在浏览器里打开运行界面。好的, 进入 comui 后,我们会看到一个有几个方框和线交叉连接的东西,这个就是我们最基础的纹身图,工作流节点, 然后工作流的语言默认是中文,不用额外切换,要是不小心切到英文,点左下角的设置图标,找到语言一栏,在里面切换就好。然后配置模型这一块 comui 是 没有自带的模型文件,大家可以将下载好的模型安装至根目录 checkpoints 文件夹中。 将下载好的模型放入文件夹后,小伙伴们还要记得重启一下我们的启动器,打开后台,点击右上角的中指进程, 然后再点击一键启动,这时我们就可以将之前的网页页面进行关闭,重新等待跳转进去模型放入文件夹后,我们来简单测试一下, 感受下 confui 的 基础流程。首先我们先选模型,在 checkpoint 加载器里挑一个你常用的模型,然后写提示词,找到文本编码器,也就是提示词输入区,在正向提示词里输个简单需求,比如 one girl solo long hair。 反向提示词可以暂时空着,点击下方运行按钮,也就是我们的图片生成按钮。 等进度条跑完,第一张图就出来了。今天这期我们搞定了 comfyui 的 安装和基础测试, 下节课会正式讲 comfyui 的 核心思维逻辑,还会教大家手动创建文声图图声图的工作流。最后别忘了给视频一键三连,你们的支持就是我更新的动力,我们下节课再见!

这是一个不限次数生成图片和视频的 ai 工具,它就是地表最强开源 ai 生产力工具, ctrl u i v 八破线版,或许你早就听说过它,但这个大版本的更新完美解决了康复 u i 安装困难和工作流报错问题,这种电影级的 ai 视频完全不在话下。 和那些花钱还要排队的网站不同,纯中文界面,完全不用懂英文,不用联网,更不用魔法上网,所有运行都在本地或限制 审查,最低支持一千零六十显卡。更惊喜的是,这次整合包直接内置了三百三十七个顶级工作流,全是大佬们认可的使用功能,使用也是超级简单的,三步就能搞定,一,拿到整合包,二,解压缩,三、双击打开 还没有试试的老规矩,验个牌。接下来开始教学,欢迎来到本期的康复 ui 教学,那么本节课呢,我们一起来学习一下纹身图以及它背后的生图逻辑。 那首先我们来到了 comui 的 界面,那么接下来呢,我们一起来看一下它究竟如何去完成这些直能的,那比方说这个 clip 文本编码,它是怎么做到把这个文字 最终通过 k 采集器转化成相应的一个图片?那首先呢,我们来先看到这一张,那这一张呢,就是 ai 生图最基本的框架了,我们从左边开始看起,分别有 promen, 那 是这个是什么意思呢?就 是说正向提示词以及反向提示词吗?那接着这两个东西就会传入到 ai models 里面,那经过计算呢,最终就能够生成我们 想要的图像了。那这个呢,确实是大体上正确的,非常笼统的概数,那我们今天 ai 生图的逻辑,那接下来呢,我们就从这个正反向提示词看起吧。我们回到刚才的 左流,我们可以看到向正反向提示词输入在哪里呢?我们可以看这里第一个有 clip 文本编码器, 而这个文本编码器的 clip 到底是什么意思?那为了弄清楚这一点,我们再来看一下这张图, 那在这一张图里,我们可以看到有一堆英文,也不用害怕,我们来看一下它代表的是什么意思。那首先我们来看一下左上角这些东西有稍微熟悉一点的,那有什么呢?我们可以看到有这一些, mountain, landscape, eastern running horse and gaddis gottis。 那 这些东西呢,其实就是我们的正向提示词,比方说第一个就是与山有关的一个景观,那第二个呢,其实就是宇航员骑着一匹马, 那顺着我们后面的一个箭头看到我们,他们被送往哪里呢?可以看到一个叫做 transformer 的 东西,而这个 transformer 呢,它出自于二零一七年的一篇论文,那这篇论文呢,也是 ai 史上最重要的一个里程碑过。我们这边呢先补 打开来讲,那我们回到刚才的这个图片,那我们继续来看一下这张图片,那具体它是干什么用呢?那在这个 transformer 在 弄懂这个之前,来看一下它后边输出了个什么。 那首先我们可以看到这里是输入了一些一点几几,还有大致的一些中括号,那我们可以看到像这些代表的就是叫做特征向量, 所以我们的这个 transformer 的 一个作用呢?也就是说我们输入的文本通过特定的方式给转变成了这个特征向量。那有的小伙伴可能会说啊,那这一步有什么意义吗?当然在我们的计算机处理文本的时候是比较费劲的,就好比我先让你去翻译一大段英文, 好比我现在跟你说,你长得真的很像姓刘名亦菲的人,或者说我说,哎,你长得真好看,那我问你哪一个更能清晰明了,能更容易让你一瞬间就懂呢?那肯定是第二句话嘛, 直接夸你好看。虽然说第一句话也是听起来比较好听,但是对于电脑也是这样子的,他是觉得让电脑去识别并处理一大段英文或者中文是更容易的, 还是让它去处理一段蕴涵着这些文本信息的数字容易?那毋须质疑,那肯定是处理数字对电脑来说更容易些。 那这个呢,就是我们的这个 transformer 在 其中扮演着类似于转换器一样的一个作用了,它识别文本,并且把它转化成这个特征向量,那这个就是它最重要的部分, 那在这一条流程当中,就是属于类谱模型所需要包含的一些内容啊。那我们接下来呢,回到现在的这个工作当中,还记得刚才我所介绍的流程吗? 也就是说我们在这个文本编码器当中去输入文字后,由 transform 转化成什么呢?也就是特征向量对不对? 而这个特征项链呢,它好像就是蕴涵着非常多信息的一个浓缩小盒子,那么它被传到哪里呢?也就是它会被传到这个 k 采氧器当中,最终呢,它会在这个 k 采氧器当中进行一个运算, 具体的流程呢,待会我们也会提到。那我们接着回到刚才的那一张图片里,那下半部分呢,其实就是我们的一个图像编码了,大家可以看到左下角这里是不是有一堆图片啊?那这些图片我们也可以把它称之为训练级,大家可以想一下, 我们在康复来工作流当中,哪里会包含着训练级呢?那必然就是我们的一个大模型了,那 diffusion models 扩散模型,那比方说有大模型是二次元风格,那必然呢,它的训练级大部分的内容就是使用的二次元图片来进行训练的,那如果是大模型 是写实风格,那必然它的训练级肯定是包含着大量的真实系图片。那接下来呢,我们再顺着这个训练级往后看, 可以看到它这里一共是连接的两个箭头,对不对?那分别是什么呢? v i t 和 resident, 那 这两个呢?并不是同时进行的,注意我们这边代表的意思啊,有的是这个克里普模型用的是 v i t 的 框架, 有些 clip 模型呢,用的是 restit 的 框架,那不管是说 clip 包含的是这两个其中的一个,那么它本质上的目的是只有一个啊,也就是说为了让我们的训练级干嘛呀?就是转化成特征向量。 那现在呢,是不是就觉得和刚才的文本编码器有点像了,那目的呢?其实都是为了去简化我们的一个信息,让信息更好的去处理以及。 那么接下来呢,问题又来了,为什么克利普模型要做两个部分呢?那上面处理完文本之后,那下面的这个图像该怎么去配合呢? 那接下来呢,我们来讲一下这个文本编码和图像编码是怎么进行配合的。那比方说我现在呢画一个 s 轴和 y 轴,然后这个位置呢,我们就代表是猫相关的一个特征,那在后面的这个位置呢,我们就代表是人的位置。那此时啊, 如果我想要生成一张猫粮的图片,那这个猫粮的位置应该是在哪里呢?大家可以思考一下啊,那必然呢是我们这两者之间的一个范围,对不对?你可以想象一下,那我们的这个猫粮的范围区间呢?它是有这么大的, 那么我们的目标呢,其实是不是这个猫粮?那必然我们的这个猫粮的取值范围呢,就在它的这个区间里面,也就是说这两者之间的一个交集范围内。那我们刚才的这个位置呢,这个编码作用 其实就是锚定这个猫,还有人他们在特征向量当中的一个位置,从而让文本编码器编码之后,特征向量一个框架内。 我知道我这样子说,可能有很多小伙伴是比较懵的,那么我们再回到刚才的工作流里面,我们来看一下,首先呢是咱们的训练级,也就是大模型,那大模型呢,它包含的就是在这个 checkpoint 的 加载器里面, 它是会经过我们的一个克里普连线制定好一个框架。那制定好这个坐标轴之后呢,我们输入的文本就会经过这个克里普模型转变成特征向量, 那特制向量呢,就会套用在我们的这个 x o y 轴上面的一切套用的一个逻辑是在背后的这个 k 传感器当中内发生的。那我们刚才呢已经讲解完了这个理论知识了,我们再来看一下实际的操作吧。我们讲一个难度稍微低一点的, 我们目光呢先锁定在这个 k 采集器当中,可以看到它有非常非常多的一个参数,比如说像随机种子,还有像这些什么步数啊, c f 居址啊, 采集器名称啊,调度器,降噪啊等等,一共有七种参数。那首先呢我们先从随机种子开始讲起吧,这个呢就好像是我们的图片当中的一个身份证号,那比方说我现在呢先把这个随机种子随便输入一段数字, 比如说六六六六,接着我们直接点击一下运行操作。那我们每次升图之后呢,这个随机种子数固定了还是变化呢?是增加了还是减少呢?那我们呢只需要在底下这里设置成固定就可以了。那接下来我们再次点击一下运行, 可以看到啊,我们现在这张图像是长这个样子的,那如果说我们不在改变随机种子的情况以及呢任何参数的情况下,我们再次去点击一下执行的话, 会发现我们的工作流呢是完全不会动的,因为呢他生成的图像是完全一样的,以至于这个随机种子是如何做到这一点,就像是一个身份证一样, 图片进行绑定。那接下来呢,我们来看一下下面的这个步数,那这个步数呢,它也就是代表着多少个降噪的次数叠带一共分成了多少步啊? 那我们想象一下这个 star diffusion, 它在生图的过程中,就好像是一块脏玻璃,用抹布进行 擦拭,当然你擦拭的越多,那么图片呢,也会越清晰,细节也会越多。我们现在呢,先把这个叠带步数设置成二十,也就是相当于我们给这个肮脏的玻璃擦了二十下。那如果我们把这个步数设置成 五下,我们再来看一下它到底会发生什么样的变化,有没有发现这张图片啊,是不是明显细节比刚才的那张少了很多? 如果说我们设置的更低呢?比如设置在二,我们再次进行运行,可以看到啊,现在的图片是不是一片模糊,那反之同理。 如果呢,我们的步数设置在四十,再次点击运行,那此时呢,我们可以看到我们的这一块玻璃就被擦的非常的干净,像这些细节和纹理都多了非常多, 当然过高的步数不总是都是好的,那大家可以想象一下啊,一块玻璃你擦一百次和跟擦两百次有很大的区别吗? 反而没有,那基本上我们所有的灰尘都被擦干净了,那我们的康复仪其实也是一样的,那我们的步数一般设置在四十步以上呢,就不会有过多的一个变化了。 那比方说我们现在呢,把这个步数再次设置成六十步,我们来看一下点击升图 怎么样?我们现在呢,是不是跟刚才几乎没有区别,但是呢,却增加了百分之五十的升图时间,对不对?因为呢,他增加了二十步,那原来我们四十步步数越多,生成的这个升图时间也会越久, 而我们在一般生图呢,就设置在二十到三十步之间即可,那这里呢,我就先设置成二十五步看一下,那底下的这个 c f g 值又是一个新东西了,那它的作用呢,主要就是为了去控制我们的最终图像与提示值的失配程度。 俗话说我们的 c f 居值越高,则代表着我们最终生成的图像与关键词也就越匹配,意思也就越相近。那如果说我们的 c f 居值过低的话,就会让 ai 有 更多的自由发挥空间,意思也就是与提示词匹配程度也会有所下降。 那接下来呢,我们把这个 c f g 值设成四,再次点击升图,我们来看一下,可以看到啊,有没有发现它们的整体色调它会变灰是不是?那这个其实就是 c f g 值过低带来的一个负面影响, 那由于我这边输入的元素不是很多,当我们比如说设置在二十到三十个的时候呢,那么 c f g 值的表现会更加的明显。那此时我们继续把 c f g 值的这个系数提 低一些,比如设置在一,我们来看一下会带来什么样不好的一个效果。可以看到啊,那现在呢,整体的这个图像变得更灰了对不对?并且图像多多少少都会有一些变形。但是呢,当我们的 cf 居室过高,也会有不好的影响,比方说我们设置成实物, 点击运行,可以看一下它的这个出图质量怎么样,很糟糕,是不是?为什么感觉它的一个清晰度远远比这个 cf 值为七为八的时候要低很多呢, 我们可以对比一下,此时我们将这个 cf 值设置在七的时候的一个效果,那么现在我们的这个紫色的星云屏又恢复了原有的一个清晰度,而我们在正常的升图过程中呢, cf 值一般设置在五到八步即可,大家可以稍微记一下。 那么接下来呢,我们再来看一下这个采暖器还有调度器到底是什么意思。那点开来看,像我们的这个采暖器呢,会有非常多的选择,比如说 d p m 加加呀,还有像一些传统的这些老的采暖器,那这两款采暖器呢, 一般来说大家就选择 l 采暖器,还有像这个 d p m 的 都是比较不错的,那这两款采暖器呢,都是大家测评下来比较好用的,大家直接无脑进行选择即可。那调度器呢,我们一般就会去选择这个叫做卡拉斯的一个采暖器, 这个彩样器呢是比较好用的,那至于下面的这个降噪呢,我们会放在下一节的一个图生图当中,会涉及到我们之后再讲。那么现在呢,我相信大家应该就会有些疑问了,那 彩样器和调度器他们到底是干什么的?那为什么这个随机种子可以像身份证号一样控制我们的图像呢?那为了解答这些问题,我们再来看一下这张图片,那么这一张是更为详细的 ai 生图流程, 我们先看一下左上角,那么这个就是我们去输入完这个 prom 的, 也就是关键词之后,会发送至我们的 cleveland 模型当中,之后呢再由这个 cleveland 模型把我们的文本转化成下面的这个 extend and bearing 的 一个文本,陷入到这个特征向量里面, 那么这组呢,更易于电脑处理的数字信息就会发送到这个 unit 当中,那这个又是一个新名词,对不对?其实都是属于我们 k 场气,明白了吗? 那这一大块的内容啊,都是在 k 场气当中去完成的,那这个特制向量被发送至 unit 之后,会发生什么样的操作呢?会降噪吗?那但是问题来的,我们的噪声从哪里来呢?那大家都知道啊,我们的 stabilification 用的是扩散模型,而扩散模型的运行机制呢,就是为噪声图片段的一个降噪, 从而生成了咱们的一个目标图像,也就是现在较为清晰的一个图像。那么现在我们要考虑到这个噪声的添加了,以及我们的这个滑步大小。 我们可以看到上面呢有一个叫做 gustnor, 也就是高斯噪声,它具体的分布规律也就是随机种子来决定的,那 不同的水滴种子呢,会添加不同的这个高斯噪声,从而影响到我们最终生成的一个图像嘛。那么现在呢,咱们的这个噪声就添加完毕了,我们来看一下这个话布大小了,那我们上一节课是不是有提 到过这个 klenet 呢?我们可以看到,那这个高斯噪声发送到底下的这个 klenet, 那 这个 klenet 的 大小呢?我们是可以在 klenet 当中的设置当中去设置的, 比方说我这这个花波的一个大小,我就规定了它是一个正方形,那么噪声呢,它会在这个正方形内添加,那么之后呢,这个结合了高斯噪声之后的 latent 图像在 unit 当中有什么呀? 也就是说与我们的这个特性向量进行组合,而 unit 的 一个作用就是在预测下一步的这个降噪之后的一个图像,以及呢,我们要去减少噪声,以及 我们可以看到啊, winet 降噪完成之后,被降噪的雷腾图像又发送至了上一步了,那这一步 其实就是我们所循环的这个次数,那也就是说我们在这个降噪的过程中不断地去进行循环,比方说有二十次一个循环,可以看到这有一个橙色的内容,那这个代表的其实就是我们的调度器和采暖器了,那其中呢,调度器的作用是为了控制降噪的方法, 而采暖器的作用呢,就是去控制降噪的一个程度,于是我们就这样子不断地降噪,降噪,降噪之后就经过了我们设置的这个迭代步 数了,比方说我们是设置了二十五步,也就是说我们这里是循环降噪了二十五次之后,我们才得出到这个最终的一个图像被发送至 v a e 当中,而 v a e 呢,它就好像是一个转接插头,它是可以把我们的 light 图像转化成一个像素 空间的一个图像的,也就是我们肉眼可见的一个图像了,那么最终呢,就被解码成大家所能看见出来的这个狗哥的图像。那么在我们的这一整套工作流里面呢,我们的 clip 模型,还有 unit 模型以及 v a e 模型, 一般情况下都是由我们的大模型,也就是 star diffusion 的 这个模型来提供的,那我们回到刚才的这个康复 ui 工作流里面,我们来看一下这里的这个加载器,它是不是一共有三个输出,分别是模型输出以及呢 clip 输出, 还有另外一个是不是 ve 输出?那么这个模型输出指的是什么呢?那其实指的也就是我们刚才图片当中的这个 unit, 那 我们刚才介绍的这个 unit 模型呢,会在我们的 k 测量器内配合我们的特征向量, 而咱们的这个 clip 文本编码器呢,输入进来的这个特征向量会进行降噪,之后再由这个 v a e 解码器这个转换接头输出成我们能看到的这个像素空间的图像。 那比方说我们现在呢先来一个二次元的一个大模型吧,接着我们书写一下提示词,那我在我们去书写提示词的时候呢,可以先写一下质量提示 词,在写主体,在写这个氛围词汇,那什么叫做质量提示词呢?如果我想要输入的是一个高质量啊,高清壁纸,杰作极致的细节,哎,类似于这种词语,那咱们的这个颗粒普文本啊,他就知道我们想要的就是这个范围内的一个词汇, 那比方说你现在呢想要的就是一个比较清晰并且具有非常细节的这个词汇就会在这个范围当中帮助你寻找符合条件的。所以这边呢我们一起来进行输入吧。那首先我们打开一下翻译器,然后我们就可以输入杰作高质量 极致的细节。那接下来呢,我们就输入我们想要的一个主体内容,比方说一个女孩,好双马尾,蓝色的头发,校服。 那输入完主体之后呢,我们再来输入这个氛围的词汇,比方说是环境词汇,比如教师背景,动漫风格。那我们最后呢再来翻译一下这个词语,粘贴到我们的文本编码器当中。 那刚才我们也提到了,为什么要先输入这个质量词汇,再输入这个氛围词汇呢?那因为啊,我们越靠前的词汇,它的权重比重也就越高,在整体的内容呈现上也会占比更大。那接下来呢,我们再来输入一些反向提示词, 比如说我们输入的是这个模糊不清晰,低质量,类似于这些词汇,我们把它复制下来,模 回到我们的编码器当中给它贴上,那传达的意思就是我们不想要模糊,不想要低质量的图片,不想要一些混乱的图片,对不对?那这边呢,有的玩家呢会把这个负面提示词整合成一个组 词包,我们只需要呢输入这个 e、 c、 n、 g、 t。 那 随后我们再来看一下有质量提示词和没有质量提示词添加的一个差别。直接点击运行, 可以看到我们现在呢生成的这个形象就变成了一个二次元的风格了。那造成这两个原因其实有两种,第一方面呢是因为我的提示词当中去输入了这个动漫风格了。 其二就是我们的这个大模型,那这个模型呢,它本身的训练级呢,就是拥有非常多的关于二次元的一个训练级所训练成的一个大模型。 所以它所预测之后的这个降噪图像呢,必然是跟我们的动漫还有二次元是有关系的,所以我们最后的生成图像呢,就会呈现出这种非常自然的一个动漫效果。而我们的这个 comelon 呢,它也就是说我们可以去限制我们 的 layton 图像的一个大小,比方说像这么大的正方形的一个尺寸图片,随后在我们的随机种子所对应的这个高噪声当中进行降噪, 当然在降噪的同时会结合我们的这个可立普文本编码器输出的特征向量,对吧?不然他也不知道就是你想降噪之后生成的图像到底是个什么啊?是一匹马呢?还是一个动漫的女生呢?这些都是由我们的关键词所决定的对不对?而 unit 它只是为了让我们将噪的 图片尽可能的往这个方向去靠拢。那今天我也知道本节课是非常的干,但是呢,我相信学会了这些之后,对于我们后续的节点理解还有模型的学习都有着直观重要的部分。 以上呢,就是我们本节课的所有内容了,那下一期我们再一起来看一下图生图以及它背后的运行逻辑吧,那我们下节课再见!拜拜。

最近有很多粉丝反馈 coffee ui 的 插件安装不上,或者不知道怎么安装,那么今天我给大家详细介绍一下 coffee ui 插件的安装方式。好,我们首先打开 coffee ui 的 manager, 这是一个插件管理系统,我们点击一下。 好,我们首先介绍一下它这个插件管理系统,第一个 custom node manager, 我 们点击一下。好,这里我们可以安装所有我们需要的插件,我们先来看一下 有很多的。第二个是 install missing custom node, 这个就是说当我们拖进来一个工作流的时候,如果没有安装插件,只要我们点击它点进去,它就会把我们需要安装的插件列表给列出来, 然后我们对应的去安装就可以。现在我来给大家介绍一下我们的插件究竟是要怎么样安装。举个例子,比如说我们要装这个 one video 的 一个插件,它是我们视频生成的一个重要插件, 那么为了省事,我们肯定是点这个进行安装,点击,然后这里面可以选择版本。好的,大家可以看到这里面有一个列表, latest 和 nightly, 这个表是我们最新的版本,这个 nightly 是 开放版。点这个进行安装, 然后看他已经开始安装,然后我们看一下我们的端口,端口这里确实已经下载,然后他这里提示让我们重启,那么重启以后我们看一下这个插件有没有安装成功,然后这里点确认。好,现在重启结束,我们点击确认重启下载,然后再看一下我们这个插件有没有安装成功。 好,这表示安装成功了,但是呢,并不是说所有插件这样的安装方式就一定能成功,有很多插件是非常难安装的,那如果安装不成功怎么办呢?很简单,我们就去手动安装,比如说我们再找一个 control net control net 这个插件也挺重要的, 这个插件我们就不选择直接安装了,但是一般情况下我们先尝试一下,如果他能安装成功那最好了。安装不成功我们再选择手动,我们只要点击这里,然后就回到了他的这个给他仓库,我们只需要点击 code 好, 复制我们的仓库地址, 然后来到我们 cf ui 的 歌目录,点击 custom node, 在 这里右键终端,然后这里输入 get close, 然后粘贴我们刚才复制的地址, ctrl 加 v 回车。 好,这个时候我们看到这个插件已经开始安装,现在这个插件已经安装完成,但是他只是安装了我们的一个安装包,我们还有依赖没有进行安装。我们再来到他的根目录底下,来到刚才安装的这个 controlnet 的 根目录, 我们检查一下他有没有环境依赖。大家可以看到这个 requirement, 这个就是他的环境依赖,但是有一些插件他是没有环境依赖的,那么他有了环境依赖,我们必须要安装这个环境依赖。这个环境依赖怎么安装呢?再来到我们的终端,先 cd 一 点点 这里,回车以后就会退回到我们的康菲尔根目录,这个时候需要激活我们的环境依赖在这里,我们输入这一行命令,然后回车激活我们的环境。 好,现在虚拟环境表示已经激活。这里面我再说一下啊,因为部分电脑他是执行策略受限,当你要直接激活的时候,他是激活不了的, 那么我们还需要一行代码去绕过他的执行策略。好,那就是这行代码,当我们无法激活的时候,只需要把这行代码输入,然后回车,然后再 输入这行代码去激活就可以了。实际上我把它粘贴到这里只是为了给大家演示,所以说我们现在把它删掉。当我们看到这个 v e n v 是 绿色的,就表示我们的虚拟环境已经激活, 那么这个时候我们再安装我们插件的相关依赖。我们来到我们插件的根目录。好,这就是刚才这个 ctrl n 的 一个根目录,我们只要点击下空白处,然后再复制它这个地址,回到我们的终端 cd, 粘贴我们的文件夹地址,然后回车。好,现在我们已经来到了我们的 controlnet 的 根目录,这个时候只需要输入 这行命令, p p style requirement t x t 它是直接读取我们根目录底下的这个文件。好,我们现在回车,它已经开始安装 好,我们看到这里 success 证明它已经安装完成。那么这个时候我们要启动我们的 com 员,看一看它的这个插件到底有没有安装成功。 cd 点点退回,再退回一次 cd 点点 好到根目录了,输入这下代码,然后回车。好, com 员已经启动,我们来刷新一下, 再点击我们的曼丽者,然后再点击它。好,我们已经看到这个插件也已经安装成功了,所以说这就是我们的插件安装方法。 首先用我们的插件管理系统自带的安装进行安装,如果成功,那是最好的,如果不成功,那么我们就选择手动安装,手动安装百分之百是可以成功的。好,今天的介绍就到这里,谢谢大家观看。

五月一日,康威 u i v 八中文版整合包震撼更新,妥妥的小白福音全中文界面,而且支持中文提示词,根本不需要懂英文。更重要的是这次整合包直接内置了三百一十一个风格模型,全是主流模型,还帮你预设成工作流了,点开输入提示词就能用。 安装也还是超简单的,三步就能搞定一下。二解三,找到启动器,双击即可打开运行。支持苹果和 win 十十一系统,一键升图,一键升视频,还能建模和做音乐,所有操作都是点一下就能实现,特别省心。模型数量太多,我就不挨个介绍,感兴趣的铁子七七八带走尝尝。 那么接下来我们详细介绍一下 cf ui 的 下载以及部署方式。我们先安装资源包里面附带的启动器运行依赖,接着打开解压之后的 cf ui 文件夹,在文件夹内找到 a 会式启动器,随后点击一键启动即可。 稍等片刻后,我们便来到了 cf ui 的 主界面。首先是电脑配置以及系统环境的介绍,首先是显卡方面, 最低要求是拥有四 g 及以上显存的英伟达显卡。接下来是 cpu, 关于 cpu 要求不高,英特尔十代 i 三以上就可以使用。接下来是内存,内存至少需要十六 gb, 推荐三十二 gb 以上,以确保可以加载和运行较大的模型。最后是硬盘,关于硬盘呢,至少需要两百 g 的 空余空间, 推荐使用大容量的固态硬盘。 ok, 在 咱们安装并打开康否 u i 之后,我相信大家跟我看到的都是一样,都是这个默认的工作流界面,咱们现在滑动鼠标的滚轮就可以发现,咱可以利用滚轮进行放大或缩小。接着现在我们按住鼠标滚轮,哎,按下去我们就可以发现了, 咱们是不是可以拖动屏幕了?好,那么恭喜你掌握了两种最基本的操作方式。接着咱们看到这工作流他是不是有一个一个的 节点构成的,啥是节点?这一个咱们称为节点,那这一个我们也称为节点,这一个也是节点,这个也是。而节点与节点之间它能通过线连接, 咱们细心观察可以发现这个粉色的按钮要连哪?连的是另外一个节点的粉色按钮。 继续看,比方说像这个什么 ve 解码的图像蓝色按钮,那它连接的也是这个保存图像的蓝色按钮。 好的,那么现在我们最基本的节点与节点之间是如何连接的?稍微参透了一点点,再继续深入之前,我们先看到右上角有一个直行点击一下,那么这个东西就好像咱们的升图按钮,点击了之后 等待个几秒到数十秒,这个等待时间就会由小伙伴们的设备来决定。我们可以看到现在生成了一张图像,那么生成这张图像的速度和大家的显卡性能有关,我这边还是比较推荐大家 至少要三零六零级以上。当然如果说你没有这么好的硬件设备,我们也可以用云端,比方说现在什么 app, ai, 什么端脑之类的,有很多可以在线升图的平台,那这个我们放在第五节课中会提到。接着我们重新回到这张图片,咱们可以看到它是一个 装着星云,装着紫色森林的瓶子,以及它的背景是树林。问题来了,凭什么它生成的内容是这一些,而不是一头大象护着做一只小猫?那这边咱们就要看到正象提示词, 啥是正向提示词啊?细心观察可以发现这边有一个正面条件,那正面条件这根线连出去的框框,这个叫做什么? c l i p 文本编码器,咱们称之为 click 文本编码器, 那么在这边输入的内容就被称为正向提示词内容,也就是我们想要什么就在这边输入什么。咱们可以来做个简单的小实验,大家看我们把这些词汇给删去,输入一座花园,注意这边一定要输入的是英文, 如果是中文的话,那么电脑将无法识别,从而生成错乱的图片。好,那么在我们输入完一座花园之后,就点击直行,现在我们可以看到 生成的图像是不是成功变成了花园呢?简直是像魔法一般神奇。好的,那么在我们说完正向提述词之后,我们来说一说他的对角叫做反向提述词,也称为负向提述词。想想在哪输入,看到正面条件的下面有一个负面条件, 当然就是在这所连线的框框,也就是这个 clip 文本编码器,输入咱们的副象提示词。 ok, 那 么新的问题又来了,正向提示词非常好理解,咱们刚才这个就是想要什么就输入什么, 那副象提示词该怎么理解?其实和刚刚说的相反,我们不想要什么,就在副象提示词文本框内输入什么步骤我还是不懂。好,我这边来举个小例子, 比方咱们看到刚才生成这张图像怎么样?是不是有非常多的花,有粉的、红的、紫的,各式各样?那如果我们现在不想要图片中的花占比这么多的话,那么我们就在复相提示词中 输入花朵,那花朵怎么拼? flower? 当然如果小伙伴们在园上遇到任何问题,我们都可以用翻译,比方这个 有刀翻译我就挺喜欢的,非常便捷。 ok, 这边是纯推荐,还不是广告?好,我们接下来就点击执行。现在咱发现了没有, 图片中花朵的元素是不是降低了很多?比方我们再次点击执行来看一下,经过两次实验,图片中的花朵确实是比例明显变少了,但是并不是说完全消除。 那这也正如我刚才所说,负面提示词他所做的更多是消除我们输入的东西在画面中的比例,在画面中的权重, 是吧?但是完全根除,这需要其他操作,我们接下来的课程中会提到。 ok, 那 么现在学习完正负向提示词,我们再来看一下连接正负向提示词的这一个叫 k 彩阳器,那么他我们可以理解成就好像 人体的大脑,它控制的整个工作流。不难发现,基本上所有的节点都汇集到了 k 采集器里,这些所有的数据参数汇聚到这之后,经过 k 采集器内部的运算,然后最终才得出了我们的 ai 图像。 至于背后的生图逻辑,我们下一节第三节在纹身图以及背后的运行原理中会详细展开,那么这边我们先大概了解一下就好。接着我们来看到这个 k 采阳器,它有个叫做 layton 的 东西,这个 layton 我 们顺着粉色的线往下看,连到了一个叫空 layton 的 节点, 大家看看这空雷特,他是干啥用的呀?我相信关于这个名词不能说百分百吧,百分之九十九的小伙伴应该都是非常的困惑的。好,那么我们在学习一个新东西的时候, 我们可以看一下他的参数,咱们一起来研究一下。首先他一共有三个参数,分别是宽度、高度,还有皮尺大小, 现在是不是豁然开朗?这个节点就是控制我们最终生成图像尺寸比例,图片整体像素的一个节点。比如我们把这宽度给改成七百六十八,相当于此时的宽高比为二比三,咱们点击直行 怎么样?最终升图是不是非常简单的就被修改成了竖屏比例,那么同样的比方,我们把这个宽度给改成七百六十八,然后把高度改成五百一十二, 此时咱们再点击直行,就可以看到图片也是非常顺利的变成了横屏比例。而关于最后一个参数,也就是空阶的 p 次大小,这一个我们是不是还有点疑虑?好,那么咱们就来尝试一下,比方把它给改成个四吧,具 体会发生什么我们待会才知道,咱们只管点击直行就好。 ok, 我 们来看一下发生了什么变化吗?咱们看到这个保存图像节点的右下方出现了一个 四分之一,并且这边有个交叉按钮,咱们点击一下,发现原来刚才的批次大小代表着一次性出多少张图片,像刚才我们设置成四, 此时也就是一次性出了四张图片,比方说我们在需要进行大批量生图的时候,或者说在测试某一个参数的影响,那么我们就可以把这个空内存的批次给调高一些。不过如果说批次大小过高,比方说三十、四十甚至是一百, 那么就有可能会出现报显存的情况。如果大家不幸遇到了报显存,那么我们重启一下 comfui 就 好。好的,我们来看一下。现在啊,咱们已经把正向提示词还有反向提示词的文本编码器都讲了,以及 k 太阳器 comlatin 也讲了,还有哪个没讲,那就是 click point 加载器。咱们把目光看到这儿, 可以发现了,它是不是有点像一切的源头,非常多的线都连到了这个节点上,这代表着它有非常重要的地位。也确实我们在 checkpoint 加载器里面加载的就是大模型, 我相信这个名词大家或多或少都听说过。那么啥是大模型呢?咱们可以这么简单的去理解,大模型可以控制整体的出图基调,比方说有的大模型是全能系,有的大模型是真实系,有的大模型是动漫系。 咱们现在把大模型给换成一个动漫类大模型,接着什么参数都不用调,直接点击执行 来看一下单单修改一个大模型,会对我们最终出图效果发生什么样的变化。好的,现在我们不难发现图片了,是不是整体风格都变成了偏动漫或者说非写实的风格, 那么我们现在重新看到大模型,咱现在再换一个真实的大模型,再点击执行,是不是感觉到画风一转啊,瞬间变成了写实风格, ok, 这又是大模型的威力,非要比喻的话,可以把它想象成人体的意识。 啥意思?如果我整天哎只想着色色的事情,我最终出图,咱们最终的成品必然也是和色色有关。 那如果说我整天想的是非常正能量,积极向上的事情,那咱们的最终成品也必然会,你懂吧? ok, 之后我们来看到这个 v e 解码, 它就好像一个转换接头,可以把咱们的 latent 图像变成像素空间图像,那具体是啥意思?我们放在下节课去讲。接下来比方说我们不小心把这个 v e 解码给删去了,之后我们该如何去添加?一共有多种方法,一个就是摁 ctrl z, 那么就可以回到上一步的操作。好的,现在我们再把它给删去。还有种方法就是我们在 k 采集器的后边 laten, 咱们把它给拖出来,松开鼠标,看到这个 ve decode 怎么样?它是不是又重新出现了?接着我们只需要把它的图像与 原来的保存图像相连,这个 ve 又是个新名词,把这个 ve 连接在哪?咱们可以找一找 哪有红色的输出,那就是 checkpoint 加载器。我知道小伙伴们现在可能有非常多困惑,但是都不用着急,因为我们本节课主要教的是基础的操作,至于接下来的比方说参数,或者说他们背后的逻辑,我们会在后边揭晓。好的,那么刚才我们讲完了第二种添加这个 v e 解码的方法。 那么还有第三种方法是啥?我们可以双击界面,此时出现了一个搜索节点栏,那么我们可以在这边输入,想要查找节点的名字, 咱们就搜 v a e 解码,可以看到这边也是有非常多的选项,咱们选择第一个看到 v a e 解码,点击一下,它就这么出现在了我们画面之中,接下来也是与其他节点相连即可恢复成原来的样子。 好的,第三种方法讲完了之后,我们来看一下第四种方法,我们同样的把鼠标放在空白处,按一下右键,接着看到这一个添加节点按钮,点击一下, 随后我们找到 later, 同样的点击一下后,就可以发现咱们的 v a e 解码在这边出现了,对吧?接下来只需要再次点击,那么他就重新出现在了工作流之中,不过我们也能发现这第四种方法非常的繁琐,一般情况下我们都是直接搜索即可。 当然其实还有第五种方法啊,我这边也说了,因为这节课是基础操作课,咱们就把这些最基础的给讲透,我们把目光看到左边有一个像字典一样的东西,点击一下,那么这个东西它是 存放所有节点的地方,我们同样的可以在这边搜索节点,输入 ve, 然后就可以看到各个节点包里面和 ve, 也就是咱们相关输入的词汇有关的节点, 那么我们也不难发现 ve 节点码在最上边,对吧?同样的点击一下,就可以看到它又再次出现在了工作流之中。那么以上就是五种常见的加载节点的方式, 而正如我刚才所说,咱们平时最方便最实用的方法就直接双击界面,然后搜索 ve 即可,这是一种,还有一种就是直接来到比方说像这个内存拖出来,可以看到在这个默认的加载节点里面有 ve 解码,点击一下, 那么它是不是也非常快速的就被加载出来了?那么以上两种方法是最常用的,大家稍微记一下即可。 好,既然我们看到了左边,我们就继续顺着左边来看一下这些东西都代表了什么。首先上面这一个像时钟一样的点击一下,可以发现咱们之前生成的队列, 也就是咱们所执行的任务都在这边出现了,比方像这一个下面有个四的角标,代表着一次性出了四张图,对吧?咱们可以点击一下,这一次任务所生成的四张图就会被展开。好,我们在队列的返回按钮点击一下,咱们就可以回到刚才的队列预览界面。那接着 我们来看一下这一个小小的立方体,它代表什么?这一个是我们存放模型的地方,比方说像什么大模型, lol 什么 ctrl 内模型,都可以在这边显示。那具体像我刚才说那些名词,他们代表了什么, 也是在之后的课程中咱们会逐一揭晓。那顺着这个立方体往下看,有个文件夹,那这个文件夹就是我们存放工作流的地方。这边又要隐身出个问题了, 比如说我们现在这一套工作流想把它给保存下来,怎么保存?我们同样的也是看到左上角有一个工作流,点击一下,随后咱们可以点击保存后的另存为咱们先点下保存,接着编辑一下工作流名字。比方说第二节课 点击确认怎么样?咱们刚才保存的工作流是不是就到了这下一次想要调用的时候,我们只需要双击或者说把它给拖出来,拖到空白处就可以重新加载咱们保存的工作流。好的,我们顺着文件夹往下看,有一个月亮按钮, 点击一下,那么整体的风格就会变白,变得明亮,再点击一下又会回到刚才的深色风格。 ok, 那 现在重要的来了,看到这个齿轮,也就是设置,我们可以在这边来调整咱们的界面语言, 我们看到这个 comfy 的 区域设置,在这里就可以调整相关语言了,当然你想要英语或中文或者说什么其他语言都行,那我这边也是选择了中文。好的,接下来我们看到 这个 comfy 下面的画面,点击一下,随后我们看到连线渲染样式,那这边我们可以选择曲线或者说其他的线型, 比方说直线,咱们点击一下,接着就可以看到垂直,怎么样?界面的所有连线都变成了直线,直来直去的,那这一个就根据大家的个人喜好来进行调整了吗? ok, 我 们重新回到刚才的画面,那我这边也是先保持直线,我觉得直线会更为直观一点,更方便大家去辨认哪一个节点连接的哪个地方。 ok, 接下来我们看到画面下边的外观,那么在这边我们可以调整色彩主题, 也就是美化咱们的界面,那么我相信大家刚和我进来的时候都是这个 dark, 也就是默认选项,我们可以调成明亮的风格,也可以调成这个蓝色调 或者黑色调。 ok, 我 还是调回默认模式,接着可以看到下面有一个节点不透明度,那这个参数比较重要,因为比方说我们看到这套工作流,如果我们把 v e 解码 不小心放在了这个 k 采暖器的后面,我们就压根看不见了,而节点一多,就有可能会出现这种节点之间相互遮挡的情况,从而增加我们构建工作流的难度, 那么我们就可以回到刚才的节点不透明度,把它给设置成零点四,当然更低也行,那么此时我们就可以透过 k 采暖器看到下边的 ve 解码节点了,对吧?这样我们在构建工作流的时候会更加的 轻松愉快。 ok, 咱们再讲一个小知识点,比方说像我们刚才是不是新添了这一堆节点了,咱现在不想要了怎么办?我们当然可以一个一个节点的这样去删除, 我们也可以摁住 ctrl 键,然后再摁住鼠标左键,这样子就可以框选节点,接着再摁键盘上的 delete 键,就可以做到区选删除。而同时比方说我们现在区选这一套工作流, 我想同时拖动这么多节点的话,直接摁住鼠标左键就可以进行整体拖动了。而如果说我们想升图的时候,我们除了直接点击执行, 我们也可以摁 ctrl 加 enter 键,这样就可以做到快捷的图片生成。好的,那么以上就是关于本期的全部内容了,知识点比较碎,比较杂,可能需要吸收一段时间,那么我们就在下节课纹身图以及深层原理再见。

最近有挺多粉丝问我这个康复 u i 怎么安装,现在我出一个教程,首先你要准备一个康复 u i 的 秋叶整合包,没有的在评论区扣六六六。 其次你就要准备这四样东西,第一个是解压工具,因为这个康复 u i 的 整合包它的容量还是蛮大的,所以需要用到这个工具去解压, 解压完之后他就是这个文件夹,接着就依次安装这三个环境依赖,没有环境依赖的也在评论区扣六六六。然后打开解压出来的整合包,在里面你会找到一个启动器,双击打开, 那么你就会进到这个启动器的页面。打开启动器之后,第一件事先点击设置, 再找到代理设置,右边有几个开关,如果你是没有魔法的,那你就不用设置了,这下面默认开着就可以了,如果你是有魔法的,那这下面就关掉,上面开了, 简单的说就是魔法用上面,没有魔法用下面。接着找到版本设置, 在右边这里选择最新日期的版本,点击切换,再点击确认,可以把 ctrl y 更新到最新版本, 然后来到左上角点一键启动,再点击右下角的一键启动,启动过程中会在启动器这里显示这一些启动的过程, 等到完全启动之后,他就会弹出这一个最基本的纹身图。工作流,那么你可以尝试运行,会发现报错了, 所以在这里给大家提个醒,你的康复 u i 安装成功了,并不代表你就可以运行所有的工作流,接下来你要做的是学习最基本的工作流的使用方法,比如查看报错,刚才报错之后,这里显示了红框,说明这里出了问题, 其实就是没有选择模型,现在我随便选择一个模型再尝试去运行,你会发现,哎,就可以了。 在后续的 com 加使用当中,其实还会遇到其他的问题,比较常见的就是显存不足,那对应的方法就是设置虚拟显存。 还有环境冲突,这个冲突一般是指环境依赖的版本冲突,那你就要去学会怎么看他们的环境依赖版本, 以及如何去安装和卸载相关的依赖环境。最后就是各种不同模型在不同工作流当中的运行逻辑以及搭建思路, 入门相对痛苦,但也因为痛苦入门之后你相比其他人会有更大的优势,特别是在未来 ai 时代。

超级变态的 ai 工具,打死都得学,只需一张显卡,你就能免费生成这样的 ai 视频,这就是地表最强的 ai 生产力工具 config 八破解版。和那些花钱还要排队的网站不同, 这个版本不用联网,更不用魔法上网,所有运行皆在本地,没有审核压力,不用积分,不用排队,也没有按次按月的计费套路,最低支持幺零六零显卡,并且人声中文自带三百三十七个 ai 功能。常用配件生成图片点一下就好,生成视频也是点一下的事, 需三步一拿整合包,爱解压缩三双机,打开想试试的老规矩,验个牌。那所熟知的 web ui 和 comf ui 其实都是属于 stability fusion, 而 webui 主要是基于数据库开发的浏览器界面, comui 则是使用图形节点、流程图设计而用于稳定扩散的用户界面。这边我们将 comui 和 webui 的 优缺点列出来,方便大家做个对比。首先我们来看 webui 这块,它的优点是简单易学,并且操作较为基础与简易, 而它的缺点是不利于长期管理。那么这是什么意思呢?当你在深度学习完 web ui 的 高阶内容后,你会意识到,如果使用的是 comui, 那 么将节省两到三倍甚至更多的时间。其次,在插件过多时, web ui 会显得非常的臃肿以及操作费时。那么接下来我们看一下 comui。 这边我们可以看到 kufui 对 配置的要求较低,这同时也意味着降低了 ai 绘画的门槛,方便更多的小伙伴加入进来。那么它的优点其次是节点更易于管理,有较强的自主性,我们可以根据个人需求来组装属于自己的工作流, 并且在未来, kufui 将逐渐与 webui 在 应用层面拉开距离,比如前段时间的 s d 三或者国产最新的颗粒大模型, 都是第一时间在 kufui 里可搭建工作流并使用的。而对于 webui, 这些最新的模型与插件往往得过一阵子才能时装,甚至直接不时装。 所以使用 kufui 也意味着你能够更早地使用到最新的模型与插件。而 kufui 的 缺点是初期不好上手, 但我相信在你学完了本套课程后,一定能够完全掌握康复原来的基础操作。除此之外,过去我们知道有许多软件,比如 blender、 达芬奇、 ue 等等都是使用节点式工作流, 因为他们有极强的自主性与可模块化,许多头部公司的顶级团队使用的都是节点式软件。那么康复以外,除了上述优点之外,我们在使用时还可以非常方便的套用他人分享的工作流,即刻便可实现相同的效果,节省了非常多的节点部署思路的思考时间, 以及从单个节点构建成工作流的部署时间。好的,那么接下来介绍一下课程概览。本套课程共分为两个部分,一到六节为基础部分, 其中包含了 com 以外的配置要求以及如何安装与部署。界面导览与原理介绍文声图以及提示词的语法。之后还会聊聊 ai g c 的 相关网站以及模型下载,最后还有图、声图以及高清修复的过程。 那么从第七节课到第十三节课属于进阶部分,先后会讲解 com 内及其诸多预处理器的使用方法以及使用场景,之后还会教大家 ipadder 及其强大功能的应用。随后我们还会学习最基础的 ai 视频生成原理。

五月大佬科目一八中文版整合包震撼更新,妥妥的小白福音全中文界面,而且支持中文提示词,根本不需要懂英文。更重要的是,这次整合包直接内置了三百一十一个风格模型,全是主流模型,还帮你预设成工作流了,点开输入提示词就能用, 安装也还是超简单的,三步就能搞定,一、下载二,解压,找到启动器,双击即可打开运行。支持苹果和 win 幺零幺幺系统,一键升图,一键升视频,还能建模和做音乐,所有操作都是点一下就能实现,特别省心。模型数量太多,我就不挨个介绍,感兴趣的铁子七七八带走尝尝。 我们可以看到这个界面有非常多的选项框,以及各种各样陌生的参数,我相信小伙伴们此时一定跃跃欲试,想大展身手了,哎!那么先别急, 我们先来了解各个参数究竟是什么意思,以及具体的使用方法。我们可以看到这边有文生图,还有图生图以及诸多模块。首先最基本的就是文生图以及图生图了,我们从文生图讲起,这边我们可以看到有两个文本框,这个是正向提示词文本框,而这个呢是副向提示词文本框。 那么什么是正向提示词呢?比如说我们想生成一个女孩,那么我们就可以输入 one girl, 这个就是我们的意愿对吧?我们想让 ai 给我们画出一个女孩,这边我们点击生成, 好的,我们可以看到我们成功生成了一张动漫女生的图像。那么接下来我们来讲一下什么是负面提示词,比如这张图片背后有非常多的建筑,如果说我们不想要这些建筑的话,那么我们可以在这个负面提示词文本框内输入建筑,也就是 building, 那 么我们再生成一次看看, 我们可以看到此时的背景变得干净了许多,已经没有任何建筑了。总结概括就是,在正面提示词这里,你想要什么就输入什么。而在负面提示词这里,你不想要什么便输入什么。好的,接下来我们看到上面有个叫做 stable diffusion 模型的选项, 点开后我们可以看到这边一共有五个模型,而这些大模型都是安装包内预先为大家准备好的。这个 anything 威武,是一个哄用大模型,无论是写词还是二次元风格都可以胜任。而这个 animal hunting 以及下面的大客寿司还有 reanimate 都是二次元系的大模型。而上面这个 mighty mix realistic 则是写实类的大模型,比如说我们使用该模型接着直接生成, 哎,我们可以看到此时的图片变成了写实风格,而我们并没有添加任何的关键词,那么这就是大模型的威力。比如说我们切换成二次元素的大模型,我们再生成一次, 我们可以看到此时的图片完全变成了动漫风格。好的,相信大家对大模型已经有了一个初步的认知。接下来我们再来看一下这个外挂 ve 模型,那么这是什么意思呢? 我们可以简单的理解为 ve 就是 滤镜,我们使用不同的 y 会带来不同的效果。这边我们可以看到一共有两个选项,分别是 anime ve 以及这个八四零零零零 ve, 那 么在生成动漫类图像的时候,我们可以选择这个 anime ve, 而在生成真实系以及其他图片的时候,我们可以使用这个八四零零零零 ve。 好, 接下来我们再来看看下面的这些陌生参数。首先是采用方法,点开后也是可以看到有非常多的选项,那 那么经过测试,这边效果最好的是这个 d p n 加加二 m 以及 d p n 加加二 m s d e 我 们可以简单的理解为更具创造力。 好,这边我们先选择 d p n 加加二 m, 然后我们再来看一下这个调度方式,点开后我们也是可以看到有非常多的选项,这边呢经过测试 cara 是 效果最好的。 然后再来看看迭代步数,迭代步数代表着生成图片一共分多少个步骤,比如说我们将迭代步数改成五, 我们可以看到生成的跟一堆乱码没有区别,而迭代步数越高则代表着运算的次数越多,时间也越长, 那么我们一般选择一个合适的织即可。很多时候运算四十次的效果和运算二十五次的效果百分之九十九的相同,那么我们也完全没有必要去因为那百分之一而浪费非常多的运算时间。好的,我们接下来看一下下面有个叫做宽度以及高度, 那么这顾名思义啊,就是控制着图像的尺寸,比如这边我们将高度改成七百六十八,所以这个值一定是八的倍数。然后我们再点击生成,这边在提嘴的是生成的快捷键是 ctrl 加 enter, 非常实用, 我们可以看到此时的图像已经成功变成了素屏。然后我们再看一下后面的总批次数以及单批数量,他们也是顾名思义啊,单批数量就是指每生成一次会出多少张图,而总批次数呢,则代表着一共生成几次。比如说我们将单批数量改成四,然后点击生成, 我们可以看到他一次性出了四张图片,那么这边我们将总批次数改成二,再次生成, 此时的图片数量则是二乘四,也就是八张图片。那么接下来我们看到下面的这个叫做随机种子,哎,什么是随机种子呢?我们可以简单的理解为它就是图片的 id, 也就是它的身份信息。比如说这边我们生成一张图片, 我们可以看到此时生成了一张穿着蓝色服装的女孩在秋天中漫步的景象。那么如果说我们还想要复现这张图片的话,我们点击这个按钮,循环利用啊,这一串数字就是这张图片的 id 号,不信的话我们再次生成。 哎,我们可以发现还是刚才的那张图片,那么这就是随机种子的含义。当正负项关键词以及各种参数还有随机种子都相同的时候,我们完全可以在另外一台电脑上复现同一张图片。我们再来看一下随机种子的其他用途,比如说我们在正向提示词这里输入 yclose 白色的衣服,哎,我们发现了没有,女生的服装变成了白色,而背景的大体几乎保持不变,那么这就是随机种子的应用。好的,接下来我们往下滑 看到这个 control net 可能有的小伙伴已经听过这个名字, stable fusion 里面最最重要的一个插件,那么这边我做一个小案例,教大家如何实现现稿转化。首先我们上传我们的现稿图,然后点击允许预览 看到控制类型,这里我们选择 line 二限稿,随后预处理器以及模型都保持默认即可。点击红色的爆炸按钮, 我们可以看到预处理图像已经生成出来了。接下来我们按 ctrl 加 enter 进行图片生成,我们可以看到此时已经成功完成了限稿转会, 是不是非常的简单呢?当然如果说你想改变现稿转会的服装颜色也非常容易,比如这边我们可以输入黑色的衣服,那么就是 black clothes。 接着我们再次生成即可,我们可以看到此时女生的服装已经成功变成了黑色。好的,那么以上就是关于本期的全部内容。

ai 视频靠运气抽卡的时代,已经被开源神器 comui 彻底终结了。此前劝退无数人的显卡配置,蜘蛛网一样的复杂节点,在他面前全都是冷笑话。 虽然都知道它免费无限制,但很多人刚上手就被现实狠狠打脸。本地部署疯狂报错,看着满屏的英文节点脑壳直发蒙。今天我直接把运行半个月干出来的 comfyui 满血通关大礼包端上来,主打一个无保留分享。这份战略直接帮大家铲平了安装报错、显卡带不动、节点连不明白的三大痛点。 想少走弯路的小伙伴往下看,想给真人换装点一下就行,想替换人物动作再点一下就好了。指定做光影炸裂的赛博朋克点一下的事,就算要搞爆款短视频的瞬息全宇宙特效,也只是 点一下的功夫。这可不是什么按章收费的套壳网站,而是圈内公认的控图能力最高级别的 ai 绘画神器。软件本身开源免费不说,只要把现成的工作流拖进去, 可以体验所有最前沿的视觉效果。首先,界面完美汉化,并且支持中文提示词指出。大家注意,这可能不是以前那 种半调的插件汉化包,连带底层逻辑全给你安排的明明白白。第二,我给你准备了两百三十加个开箱即用的 ai 功能,完全不用你从零学连线,你以为就这样了吗?第三,我还解决了新手最头疼的三座大山。环境老报错,低配电脑带不动,不知道去哪找优质大模型。 我用了两个多星期,翻遍全网,通宵测试了各种方案,不仅总结出了最稳妥的一件整合包和配低电脑网上免费跑图的渠道,甚至把几十个 g 的 绝版神仙模型全部给你重新跑通了。拿到手之后跟着保姆级教程走, 不用自己瞎折,打开软件,选个感兴趣的工作流拖进去,直接就能出视频。对零基础的 ai 视频,小白宠粉可是认真的。

五月最新的秋叶 comfyui 整合包已经更新了,不用复杂的环境配置过程,只需三步一下载,二解压,三双击打开即可使用。支持 win mac 和 a 卡,最低幺零六零显卡显存八 gb 即可本地部署运行。和那些花钱还要排队的网站不同, comprise ui 这次的更新诚意拉满,内置三百加模型,工作流,图片和视频直接本地生成,无惧审核压力,不用积分,不用排队,也没有暗此暗月的计费套路。无论是做最近很火的漫剧分镜,还是工作需要的电商产品详情页, 还是创意十足的三 d 建模渲染,都是点一下的事,想试试的。老规矩,验个牌,现在开始教学, 各位同学好,我们这节课呢,来教大家如何第一次搭建工作流。相信大部分来学习 confluence 的 同学都是对 stable diffusion 的 操作有一定理解的,所以我们下面呢,就对比一下 stable diffusion 当中不同的操作模块,来帮助大家更深刻的认识 confluence 的 流程。是这样的, 我们先选择一个大模型文件,选择好之后呢,输入正反面提示词,然后设置输出尺寸。必要的时候呢,我们会选择一个插件模型, 选择好插件模型之后,我们点击生成,最终呢,在右下方就会生成一个我们符合提示词要求的内容。那么其实像大模型 ve 模型正反面提示词,生成图片时所使用的彩样器,以及生成时的输出尺寸插件,还有生成结果 在 confui 当中也是对应有相同功能的节点的,只不过这些节点呢,在 confui 当中,我们可以对其任意的移动位置删减或者复制或者新增一些其他功能的节点,来强化我们生成的结果。 所以相比于 stable diffusion 不 可动的模块, confui 当中的节点呢,它的灵活性会更强。至于在生成效果上,两者并没有特别大的区别,甚至它们使用的模型文件都是相同的。大家可以将 confui 呢理解成开发者版本的 stable diffusion, 它的自由度呢会更高一些。 我们下面来简单的介绍一下 ctrl y 的 基础操作。我们首先点击右下方的清除,将当前默认的工作流呢进行清除。清除之后,我们就得到了一个空白的操作台,我们右键界面当中的任意位置,然后点击新建节点, 就可以从中呢选择我们想要创建的功能节点,例如我们现在点击新建节点当中的彩样,点击创建 k 彩样器节点,那么这样一个具备 k 彩样器功能的节点就被我们创建好了。 相信从这个节点当中呢,大家不难看到在 stable devolution 当中,我们熟悉的参数,例如彩样器选项,提示词,相关性以及迭代部署。 我们在节点当中呢,还能看到很多颜色不同的小圆点,此时我们拖拽其中的一个小圆点,例如拖拽紫色的模型圆点, 拖拽后松开,可以看到此时就弹出了一个选项菜单,其中下方这个区域呢,是我们拖出这个圆点之后经常会创建的节点选项。因为我们拖拽 k 彩样器当中的模型圆点,通常呢会创建一个 checkpoint 加载器,简易的节点, 此时呢, checkpoint 模型加载器与 k 参照器这两个节点就以相同颜色的模型原点进行了相连,其他位置的原点呢,也是相同的逻辑。我们拖拽之后呢,选择我们需要创建的对应节点,那么两个节点当中相同颜色的原点就会进行相连。 此外,我们双击所创建节点的名称,可以看到此时它的名称呢,就变为了可编辑的状态,我们就可以对其名称进行重命名,比如我们给它起一个名字叫模型, 然后回车确定,这样名字就改好了。当然通常是没必要刻意修改这些节点的名称的,但有些时候呢,可能两个节点是相同的节点,只是功能不同, 所以需要对其修改名称。例如在 k 采集器当中,我们拖出正面条件,这个源点会创建一个叫做 clip 文本编码器的节点,这个节点是用来输入正面提示 词的节点,这两个节点是相同的节点,这 是一个连接正面提示词,一个连接负面提示词。所以有时候呢,我们就要对这样的情况对应的节点去修改名称。比如说把连接正面条件的这个节点呢,我们改名为正面提示词。把连接负面条件的这个原点的节点呢,我们改名叫做负面提示词。 不过平时自己用的话,即便是这样的情况,其实也没必要修改。我们点击之后可以选中这个节点, 选中之后呢,这个节点的周围会多出一些白圈来显示我们已经选中了这个节点。选中之后,可以对当前的这个节点呢进行拖拽,或者呢 ctrl 加 c 复制, ctrl 加 v 粘贴,再或者呢按 delete 键删除,跟我们在电脑上操作文件呢是非常类似的。 我们最后来简单介绍一下 confy 右下方的这个操作位置。首先最常用的就是点击添加提示词队列来开始运行工作流。我们创建好完整的工作流之后呢,点击这个位置就可以开始运行当前的工作流,这跟我们在 stable default 当中点击生成是一样的。 我们创建好一个完整的工作流之后,如果确定运行无误,你想保存的话呢,就点击这个模块当中保存的按键。点击之后呢,给这个工作流起一个名字,比如说我们起名叫 abc, 然后点击确认,此时我们这个工作流啊就会作为一个工作流文件下载到本地, 可以看到此时我浏览器的右上方呢,就已经成功的下载了这个工作流文件,拖拽到我们当前的浏览器 comui 的 操作页面就可以了。 另外就是我们刚才演示过的清除当前所有的工作流节点,我们点击清除,点击确认画面就清空了。当然我们同样是可以通过 ctrl 加 z 撤回刚才的操作的,或者呢按 ctrl 加 y 去重新执行刚才的操作。至于其他的功能不是特别常用,我们就不再赘述。 下面话不多说,我们来开始演示如何从零开始搭建一个完整的纹身图。工作流通常呢从原点最多的工作流节点开始搭建, 就是 k 彩样器,我们右键画面当中任意的空白处点击新建节点,点击彩样这个选项,从中呢点击 k 彩样器,我们创建一个 k 彩样器节点, 这个节点上面的原点是最多的,所以我们先创建它,将来创建其他的节点呢,调理会更加的清晰。我们下面拖拽 k 彩样器节点当中的模型原点, 拖出之后呢,松开我们点击创建 checkpoint 加载器简易这个节点,然后我们再次拖拽 k 彩样器当中橙色的正面条件源点,松开之后呢,点击创建 c l i p 文本编码器节点,负面条件源点呢,也重复刚才的操作。拖出之后呢,创建 c l i p 文本编码器节点, 然后我们继续对 k 彩样器这个节点上的源点呢进行拖出操作。首先拖出左侧的这个粉色的 lighten 的 源点, 拖出之后呢,我们点击创建这个叫做空 lighten 的 节点,这个节点呢是用来输入输出图片的尺寸的,那么最后呢,就只剩下一个原点没有拖出了,就是 k 彩样器右侧的这个粉色 lighten 的 原点,我们点击拖出,然后点击选择创建 ve 解码这个选项。 最后呢,我们点击拖拽 ve 解码这个节点当中图像的这个节点拖出之后呢,我们点击创建保存图像这个节点, 这样一来我们纹身图工作流所有的节点呢,就都已经创建完成了,但如果现在我们点击添加提示词队列来运行节点的话,可以看到 ctrl u i 呢会给我们一个十分明显的提示,告诉我们哪些节点是出问题的, 包括这个节点上面的哪些原点是没有进行连接的,所以我们就可以根据提示呢来继续补全我们当前的工作流。首先是两个 c l i p 文本编码器当中左侧的 c l i p 原点, 我们需要将其与 checkpoint 加载器节点当中的 c l i p 原点进行连接,连接好之后呢,我们再将 ve 解码器当中的 ve 这个原点,将其与 checkpoint 加载器当中的 ve 原点进行连接, 这样的连接逻辑其实很好理解,相同颜色的原点连接相同颜色的原点就可以了。最后我们选择一个合适的模型,写下我们需要的内容, 比如说 one go, 我 们点击生成可以看到此时我们就成功的生成了一个符合提示词描述的内容。那么至此呢,我们文生图的工作流就搭建完成了,相信各位同学只要跟着我们的视频一步一步的操作,都是能够搭建成功的。 即便在搭建过程当中出现了原点没有连接全的问题, comui 在 运行之后呢,也会给出一个明显的提示。 那么我们最后呢,来对康飞 y 的 工作流搭建进行一个总结。首先大多数情况下呢,我们从零开始搭建节点,都是要先创建一个 k 彩样器节点的,因为这个节点上面的圆点最多,我们创建好它之后呢, 将 k 彩样器节点上面的圆点拉出之后,往往只需要创建一个节点就可以,所以调理会比较清晰。各 同学可以把 ctrl y 的 操作理解成搭建台式电脑,像左侧的 c l i p 文本编码器, check point 加载器,还有 comlight 的 输入尺寸的节点,就相当于我们的键盘鼠标,我们将它们插在电脑的主机,也就是 k 测量器上面,通过 k 测量器进行运算,最终呢再输出到显示器上面, 这样来类比呢,相信各位同学对 control ui 的 节点连接逻辑就有了更贴近生活的体会。至于我们 stable default 的 操作逻辑非常的相似,也就是先选择模型,再输入提示词,再选择采用方法, 然后设置输出尺寸,最后点击生成,这是一个十分正常且完整的生成顺序。而在 control ui 当中呢,也遵循这样的顺序,例如此时我们更换一个随机种子,然后点击添加提示词队列, 我们可以看到绿色的位置啊,就是标注在生成过程中工作流运行的一个顺序。会先从 checkpoint 模型加载器开始 获取我们使用的模型信息,然后进一步的获取正反面提示词和输出尺寸,最后呢,将它们都集成在 k 彩样器,整合这些信息之后呢,由 ve 解码器进行解码,最后呢留下我们的保存图像这个工作流节点。 不过相信大家第一次接触 cfui 的 话,即便工作流能够搭建完成,其实对工作流运行的逻辑呢,也处在一个比较懵懂的状态。不过根据我的学习经验,大家学习 cfui 最好呢,能够本着先操作后理解的方式来进行学习。 我们前期从零开始教大家搭建工作流,也并非是为了今后你一直从零开始搭建,而是为了在不断的搭建当中愈发的理解 cfui 的 运行机制。 像在将来获取了其他作者所创建的完整工作流之后,我们也可以更加灵活地对其加以改进,使其符合自己的需求。对此呢,我也专门制作了一套课件,上面不仅展示了 stable diffusion 不 同的功能模块去对照 comfy 当中的节点的一个对照图, 同时也包含了我们课上所讲解的 comfy 基础操作知识以及工作流搭建流程,还有最后的总结。各位同学如果需要本节课的课件的话,也非常欢迎在评论区留言,我会尽可能的帮助大家解决在操作过程当中遇到的问题,同时也会发放这套课件。那么以上呢,就是本节课的全部内容, 各位同学如果觉得本节课的内容对你有帮助的话,也不妨点一个免费的一键三连支持一下,我们就下节课再见!各位同学好,我们这节课来讲解 confui 精细化纹身图工作流的第一部分。我们首先来说明一下什么是精细化纹身图工作流。 我们首先打开 stable diffusion, 相信熟悉 s d 的 同学呢都知道 stable diffusion 是 只有一个正反面提示词输入窗口的 们,此时在正面提示词窗口当中输入 one go 还有 right here, 然后选择一个合适的负面提示词模板,点击生成,可以看到此时我们就生成了一个符合提示词描述的结果。那么如果我们想要在画面当中生成两个人物,其中一个是红色头发的少女,一个是蓝色头发的少女, 正常的思路呢就是在提示词当中再追加对于另外一个少女的描述,也就是 one go blue hair。 剪好之后呢,我们再将画布的生成尺寸去拓展一倍,再次点击生成,我们可以看到此时生成的结果呢,并不是十分理想, 我们明明想要生成两个少女,但是画面当中却只有一个,而头发的颜色呢,是以红色和蓝色拼接形成的。 我们现在回到 confui, 打开我们预设好的工作流,也就是精细化纹身图工作流。相信此时部分同学已经猜想到了,既然 confui 相比于 stable default 能够更加灵活地去部署模块儿,也就是节点,那么我们就可以同时部署两个提示词的输入窗口, 来分别描述我们想要生成的两个人物,最后再通过一定的方法呢,将两个人物合并在同一个图像上,以此呢来避免 stable default 当中因为提示词无法做分割 而导致两个人物的特征同时出现在一个人物身上的情况。例如此时我们在 confui 当中,第一个正面提示词输入窗口呢,我们输入红色头发的少女,而第二个提示词输入窗口呢,我们输入蓝色头发的少女。 这些都输入好之后呢,我们点击添加提示词对列,可以看到我们此时生成的结果呢,左侧的人物就是红发的少女,而右侧的人物就是蓝发的少女。 由于这两个人物的提示词都是独立成一个节点的,所以并没有出现颜色之间相互混合,特征之间相互混合的情况,这就是精细化纹身图工作流的优点。 那么话不多说,我们下面就从零开始教大家如何搭建精细化纹身图工作流。我们首先新建一个空白的工作台,点击左上方的文件加图标,点击这个加号,新建好这个默认工作流之后呢,我们清空当前的工作流节点, 下面的操作就与我们之前所讲解的纹身图工作流操作十分类似了,我们依然在任意的空白位置,右键点击新建节点,点 击采样,然后点击 k 采样器。回想起我们上节课所举的类比, k 采样器呢,就好比电脑的主机,我们下面要把键盘,鼠标还有显示器都接到这个主机上,所以我们下一步呢,拖出模型这个圆点 松开之后呢,创建 checkpoint 模型加载器。与基础纹身图工作流不同之处在于,我们这次呢,从 clip 这个圆点上面拖出的内容一共有三个,也就是两个正面提示词输入窗口,以及一个负面提示词输入窗口。 当然如果各位同学想要拖出两个负面提示词输入窗口也是可以的,但通常负面提示词是通用的,所以我们只拖出一个负面提示词窗口就可以。 我们回到 k 彩样器这个节点,从 latent 源点当中呢,我们依然拖出一个节点,叫做空 latent, 用来输入输出图片的尺寸。大家在拖出节点之后呢,最好整理一下它们摆放的位置, 这样将来在拖出其他节点时,调理会更加清晰。然后我们继续从 k 彩样器右侧的 latent 源点当中拖出,选择建立 ve 解码,然后再从 ve 解码这个节点当中拖出图像,选择保存图像这个节点, 然后我们回到 ve 解码这个节点,将 ve 源点与 checkpoint 加载器当中的 ve 源点呢进行相连,这两个是相同的颜色,都是红色的, 我们下面要创建一个之前的课程当中没有提到过的节点,它的名字叫做条件采样区域节点。对于这样的节点呢,我们可以直接双击画面当中的空白区域,打开搜索选项,在搜索选项当中搜索它的名称,我们就搜索条件采样 区域。值得一提的是,旧版的 comui 是 不支持搜索中文的,各位同学需要更新到新版的 comui 才能搜索中文。 我们选择搜索结果当中的条件区域彩样这个选项,这个节点呢,一共要创建两个,所以我们复制当前创建好的条件彩样区域节点, ctrl 加 c, 然后 ctrl 加 v, 粘贴一个一样的, 然后我们分别将条件采纳区域两个节点上面的条件左侧的条件呢,与 clip 文本编码器右侧的条件相连,就连接到两个正面提示词 clip 文本编码器右侧的条件原点上。 连接好之后呢,我们再次双击空白的区域,搜索一个叫做条件合并的节点,搜索到之后呢,我们点击创建,然后我们将两个条件采纳区域右侧的条件一,条件二原点相连,它们的颜色也是一样的。 连接好之后呢,我们的所有节点就都已经创建完毕了,剩下要做的操作就是将那些没有连接好的原点进行相连,逻辑也非常简单,相同颜色的原点连接相同颜色的原点。首先将条件合并当中,右侧的条件原点连接到 k 采集器的正面条件原点上。 最后呢,再将我们要输入负面提示词的 c、 l、 i、 p 文本编码器节点右侧的条件源点连接到负面条件源点上。这样一来我们康复 ui 精细化文声图工作流的第一部分就搭建完成了,我们现在点击添加提示词队列来测试一下, 可以看到我们整个的工作流呢是没有出现报错的,但是生成的结果呢,并非我们一开始所演示的那样的结果,其原因在于我们并没有设置合适的参数。所以我们最后呢来讲解一下如何设置合适的参数,让我们想要生成的内容出现在合适的位置。 首先我们要设置的是最终所生成的图像的宽高,在空 light 的 这个节点上面,我们将生成图片的宽度呢,从五百一十二的默认宽度改为一零二四。当然这个参数呢要根据大家的需求来决定,我们测试的话就设置的稍微小一些。然后我们要设置的是条件参照区域节点上面的参数。 各位同学可以把精细化纹身图工作流理解成我们分别生成的两张图片,生成之后呢,再将这两张图片合并为一张图片,其中传统的 konlighten 这个选项呢,设置的是总图片的尺寸,而两个条件参照区域节点上面设置的尺寸呢,则是合并之前两张图片各自的尺寸。 所以我们首先来设置第一张图片的尺寸,我们就设置为五百一十二乘五百一十二,第二张图片的尺寸呢也是相同的,五百一十二乘五百一十二,这样两张图片加起来的尺寸呢,就可以满足一零二四乘五百一十二的尺寸。 其次我们要设置的是第二张图片在画面当中的坐标,由于第一张图片生成时默认的坐标就是从左到右,从上到下,从零 零开始这样一个坐标,因此第一个按默认的坐标就可以,也就是 x 零 y 零。各位同学可以在脑海中构建一个坐标轴,只有两个方向, x 和 y。 那 么第二张图片呢,就要摆放在第一张图片的顺位位置,与 其相连。那么首先第二张图片在高度上是没有进行移动的,两张图片的关系呢,我们设置的是横向摆放,所以第二张图片的 y 呢,和第一张图片是一样, 都为零。但是第二张图片需要向右平移一个图片一的身位,所以此时第二张图片的条件采用区域 x 值呢,我们就设置为五百一十二, 然后点击确定。这样两张图片呢,就是从左到右依次摆放,横向摆放的关系最终生成后合并在一起。提示词方面呢,我们就套用之前所使用的提示词,也就是第一张图片生成红色头发的少女,我们输入 a girl 还有 red hair。 而第二张图片呢,我们来生成蓝色头发的少女,输入 a girl 还有 blue hair。 写好之后呢,我们再次点击添加提示词队列,可以看到此时我们生成的结果呢,就是一个总尺寸为一零二四乘五幺二,左侧五幺二乘五幺二的尺寸为一个红头发的少女,而右侧五幺二乘五幺二的尺寸为一个蓝头发的少女,他们之间紧密相连的关系了, 并且两张图片的人物造型呢,互不影响,独立存在,这都要归功于我们创建的两个独立的正面提示词窗口。 当然各位同学在创建的时候呢,也不推荐去死记硬背,可以跟着我们的视频一步一步的来创建精细化纹身图的工作流。 我们再次强调,教大家逐步创建工作流的目的并不是为了让你去死记硬背,而是为了让你在不断的练习当中能够理解 comfyui 的 运行机制,能够在将来获取到一些其他作者现成的工作流之后,更善于自己加以改进,为自己所用。 不过话说回来,各位同学可以看到我们当前生成的两个人物,虽然说彼此独立,互不干涉,但他们的融合程度也非常的低,两个人物呢,并非处在同一个背景上,有着非常强烈的割裂感, 那我们该如何既能保障两个人物的造型相互独立,互不亲染,同时又能保障人物处在同一个背景上,让他们相互融合的自然呢?这个知识就留给各位同学思考,我们在下一个视频当中呢,会详细的讲解如何将精细化纹身图工作流当中人物的背景在生成时变为统一的背景。 同样针对于本节课的知识呢,我也制作了一套完整的课间,这面不仅说明了精细化文生图工作流的逻辑,同时也有详细的精细化文生图工作流搭建的过程, 还有最终搭建好之后的全貌展示。同时本节课的康复 ui 搭建好的工作流文件呢,也会发放给大家,各位同学有任何的问题非常欢迎在评论区留言,我会尽可能的帮助大家解决问题,同时也会发放本节课的相关资料。那么以上呢,就是本节课的全部内容, 各位同学如果觉得本节课的内容对你有帮助的话,也不妨点一个免费的一键三连支持一下,我们就下节课再见。各位同学好,我们这节课呢,来讲解 cfui 精细化纹身图工作流的第二部分。 相信各位同学通过上一节课的学习呢,已经掌握了如何从零开始去创建一个完整的精细化纹身图工作流。通过这个工作流,我们一共创建了两个正向提示词输入节点,这两个节点的提示词内容不同,我们最终生成的结果也通过合适的参数设置, 使得两个提示词输入节点生成的角色出现在了同一幅画面上,同时也在设计上并没有相互的亲染和干扰。 但在我们上一节课的结尾呢,也发现我们生成的这两个人物呢,他们虽然在设计上并没有相互的干扰,但与此同时在背景上也毫无关联。所以我们今天这节课的目的就是来教大家如何去对我们上一节课所设计的工作流加以改进,使得我们的人物在背景打光和氛围上能够更加的和谐统一。 我们下面就来讲解一下如何去对我们上一节课的工作流进行改进,来新增一些节点,使我们获得更加理想的效果。 我们首先在上一节课工作流的基础上,在 check point 加载器这个节点上拖出 c l i p 原点,拖出后松开,我们新建一个 c l i p 文本编码器节点。需要说明的是,我们建立的这个新的 c l i p 文本编码器节点,就是用来负责描述这两个人物同时出现的统一背景的 说,我们希望这两个人物都出现在一个街道上,那我们新增的这个节点内容呢,就填写街道,然后我们复制当前工作流当中的条件合并节点,复制好之后粘贴,然后将我们刚才新增的 c l i p 文本编码器右侧的条件源点连接到我们刚刚复制粘贴的这个条件合并节点当中的条件一源点上。 之后,我们将原本连接在 k 彩样器正面条件的这条线设为取消状态,也就是点击拖拽之后松开,然后将原本的条件合并节点右侧的条件源点连接到我们新增的条件合并节点下方的条件二源点上, 我们稍微调整一下这些节点的位置。那么此时呢,各位同学不难看出,在原先工作流的基础上,我们通过这样增加节点连线的方式, 我们描述红色头发女孩的正面提示词节点与描述蓝色头发女孩的正面提示词节点在进行条件合并之后,并不会直接传输到 k 彩样器,而是先与描述背景的正面提示词节点进行了一次合并。最终呢,我们才将整合后的信息连接到了 k 彩样器的正面条件源点上。 就相当于我们先炒了两盘菜,我们生成的红色头发的少女呢,就好比番茄炒蛋生成的蓝色头发的少女呢,就好比烧茄子。在上一节课我们所创建的工作流当中,我们将番茄炒蛋和烧茄子炒好之后,仅仅是装在了同一个盘子里就端上了桌。而我们今天所创建的工作流 在上一节课的基础上,将番茄炒蛋和烧茄子重新倒回了锅中,加入了新的作料,最终呢才端上了盘子。这样我们的生成结果,两个人物的背景呢就会更加融合。 那么话不多说,我们来尝试一下。现在的工作流呢,已经完全连好了,我们在新创建的正面提示词工作流当中写入街道 street 以及夜晚 night。 写好之后呢,我们点击添加提示词队列。那么此时各位同学可以看到, 我们改造之后的工作流就成功的将两个造型特征不同的少女既进行了造型上的区分,两个人的设计完全独立,同时让他们都出现在了同一个背景当中。当然我们可以追加一些负面提示词,以谋求更好的效果。那这里呢,我就沿用 stable diffusion 当中的负面提示词,我们重新生成一遍, 看到有了更好的负面提示词的加持,我们就获得了生成人物更好的效果,并且两个人物的背景依然是和谐统一的。当然生成的结果是随机的,各位同学可以更改随机种子,以谋求更符合需求的效果。 那么到这里呢,我们的精细化纹身图工作流,它的完全体版本就搭建完成了。当然如果我们想要在画面当中不仅生成两个人,而是要生成三个人,四个人,各位同学可以举一反三,在我们当前的工作流基础上,进一步的去增加描述人物所用的正面提示词节点, 并且用条件采样区域以及条件合并工作流节点去将它们整合,最终连接到 k 采样器上。具体的创建方法呢,我就不再演示了,各位同学自行尝试之后如果遇到问题也非常欢迎在评论区交流,我会尽可能的帮助大家解决在操作过程当中的问题。 我们下面对先前没有提到的康复 ui 的 基础操作知识做一些补充,我们之前只讲解了点击右下方的保存,将当前所操作的工作流保存到电脑本地。 但是各位同学会发现,我们点击左侧的文件夹图标在这里呢,我也创建了很多在 comui 操作界面就可以直接选举的工作流,比如我们选举这个换脸的工作流就可以直接打 开。那我们该如何将当前操作的工作流保存到 comui 上面,让我们直接打开工作台就可以选择自己想要操作的工作流呢? 方法也非常简单,首先我们点击左上方的文件加图标,将其展开,然后我们点击这里的加号键,就可以新建一个工作流。这个工作流呢是默认的纹身图工作流, 如果你不需要的话,可以直接按住 ctrl 键不要松开,然后拖拽工作台,将这些工作流全选,然后按 delete 键删除,再重新从零开始建立或者拖拽新的工作流, 我们撤回一下。就以当前的纹身图工作流为例,例如此时呢,我们已经对当前的纹身图工作流进行了一定的修改,那么此时各位同学可以看到,在这个位置就出现了一个保存图标,叫做 save work flow, 我 们点击这个图标就可以保存当前的工作流。 此时我们再次点击左上角的文件夹图标,展开下拉菜单,可以看到在这个位置呢就出现了一个叫做 united flow two 这样一个名称,这个名称呢就是我们当前正在操作的工作流的名称,我们也可以点击这个名称去进行重命名, 比如说我们给它起一个名字叫做 abc, 然后点击 save, 那 此时我们再次展开左上角的文件夹图标,可以看到当前呢就有一个名为 abc 的 工作流被保存到了我们左上角的展开图当中。那么我们现在先切换到其他工作流,然后再次点击左上角的文件夹展开, 再次点击 abc, 此时我们就可以看到我们刚刚所保存的名为 abc 的 工作流了。除此之外,各位同学可以看到这些工作流当中某一些呢是带有预览效果图的,甚至还有一些是动图,那么这些图片是如何产生的呢? 其实也非常简单,我们选择一个合适的模型,然后直接点击添加提示词队列去生成一张图片,那么生成好之后呢,我们再次点击左上方的保存图标,此时我们再展开左上角的文件夹,可以看到我们当前名为 abc 的 工作流就多出了一个我们现在所生成的预览图。 我们再来补充一下对于工作流节点的相关操作。首先是如何一次性选中多个工作流节点,方法非常简单,我们按住键盘的 ctrl 键不要松开,然后用鼠标点击工作台当中的任意空白位置 进行拖拽,那此时会出现一个白色的选框,选框内所含盖的节点呢?我们在松开手之后都会被选中,可以看到是有选中的效果的, 那么此时呢,我们进行任意的操作,都可以对我们当前选中的工作流节点进行操作,比如按 delete 键可以看到我们当前选中的所有节点呢就都被删除了。 如果我们不想选中相邻的节点,想要跳跃的进行选中的话,就按住键盘的 ctrl 键,不要松开,依次的点击我们想要删除或者操作的节点,因为我们先选择 checkpoint 加载器,再选择保存图像节点,可以看到此时呢,这两个节点也被同时选中了。 我们最后再来讲解一下如何对节点赋与颜色,以及如何对功能相似互相搭配的节点进行分区。想要给节点赋与颜色,我们只需要右键点击这个节点, 点击之后呢,我们在右键菜单当中选择颜色,然后在颜色展开菜单当中,我们选择自己需要赋予的颜色就可以了。例如我们现在点击红色,可以看到此时 checkpoint 加载器这个节点就被变为了红色。当然我们在操作时,由于是多选的状态,所以保存图像这个节点呢也被变为了红色。 我们现在右键工作台当中的空白处,然后点击新建框这个选项,点击之后呢起一个名字,例如这个名字呢,我们就叫提示词,写好之后回车确定,此时可以看到我们新建的这个框,它的名字呢就被改为了提示词。 我们可以通过鼠标拖拽的方式改变这个新键框的位置,通过拖拽其右下角的方式改变它的尺寸,此时我们将这个新键框拖拽到 c l i p 文本编码器的下方,那么当我们再次拖拽这个蓝色的新键框时,各位同学可以看到,但凡是出现在这个新键框上方的节点呢,都会被随着一起 拖动,但如果我们此时所拖动的是节点本身的话,那么这个新键框是不会为之所动的。利用这个特性呢,我们将这个新键框拖拽到合适的大小,以涵盖我们想要的内容。 给我们拖拽到这个大小,再将 c l i p 文本编码器下方的这个框拖拽到合适的位置。这个新建框功能呢,就相当于给我们的工作流当中同类型的节点做了一个区域的划分,让操作者或者说使用者在编辑当前工作流时, 能够更容易的判断这些部分的工作流它的用途是什么。其实并没有什么实质性的功能作用,各位同学平时自己做工作流的话,没有必要做这些。 那么针对于本节课的内容呢,我也制作了一套完整的课件,上面以图文教程的方式讲解了我们本节课所讲解的相关知识点, 同时也包含了我们刚刚所提到的康复 u i 基础操作知识的补充。各位同学如果需要本节课的课件的话,也非常欢迎在评论区留言,我会尽可能的帮助大家解决问题,同时也会分享这节课的课件。那么以上呢,就是本节课的内容,对你有帮助的话,也不妨点一个免费的一键三连支持一下, 那就下节课再见。各位同学好,我们这节课呢,来讲解 confui 当中文声图 controlnet 工作流的搭建。在 stable diffusion 当中,我们使用 controlnet 的 时候,不仅要选择 controlnet 的 模型,同时也要选择对应的 controlnet 与处理器。因此我们在 controlnet 当中,我们要想搭建具备 controlnet 功能的工作流,同 同样要先搭建 controlnet 预处理器的工作流节点,那么我们下面呢就新建一个空白的工作台,新建好之后呢,将默认的工作流进行清除。然后首先呢来搭建一个 controlnet 的 预处理器,方法呢也非常简单,我们双击工作台空白的位置, 然后从中搜索我们想要搭建的预处理器名称。比较熟悉 stable definition 的 同学都知道,我们常用的模型预处理器呢,通常就是 canny 边缘检测、 deep 深度检测以及 line art 线稿检测, 有时做室内设计时呢,还会用到 m l, s d 直线检测。如果记不起这些名字的话,可以回到 stable default 的 ctrl n 的 插件看一眼, 然后我们回到 comui。 比如我们此次呢来建立一个 kenny 线稿检测的预处理器,我们就在搜索栏当中搜索 kenny, 然后选择搜索结果当中的 kenny 细致线预处理器,点击之后呢创建这个节点,创建好之后,我们将左侧的图像源点拖出,然后点击创建加载图像节点, 这个位置呢是我们用来放置现稿参考图的,同时我们将 kenny 细致线域处理器节点右侧的图像源点拖出。我们创建一个保存图像节点,这个节点呢是用来放置提取现稿之后的预览效果图的。 六、此时呢,我们直接点击添加提示词对列,就可以看到在保存图像节点当中出现了左侧我们所上传图像的现稿提取结果 么?创建好了与处理器相关的节点,我们下面就从您开始搭建一个纹身图的 control net 工作流。我们首先搭建一个正常的基础纹身图工作流, 那么就直接双击空白处,然后我们搜索 k 彩样器来创建一个 k 彩样器节点。创建好之后呢,按照我们第一节课所教授的流程, k 彩样器当做主机,我们从上面的圆点当中呢去接触键盘鼠标显示器,拖出模型圆点之后,我们点击创建 checkpoint 模型加载器节点,然后分别拖出正面条件源点,创建 c l i p 文本编码器,拖出负面条件源点,创建 c l i p 文本编码器。 然后左侧的 lighten 的 源点拖出,我们创建空 lighten 的 节点,用来设置输出图片的尺寸。而右侧的 lighten 的 源点我们拖出后呢,创建 ve 解码器节点, 最后再将 ve 解码器节点右侧的图像源点拖出,我们创建保存图像节点。最后呢,将 ve 解码节点当中的 ve 源点与 checkpoint 加载器节点当中的 ve 源点两个相同颜色的源点相连。 最后适当调整一下这些工作流节点的位置,让他们看起来呢更加整洁好看。调整好之后呢,我们基础的纹身图工作流节点就全部创建完成了。我们下面要考虑的事情呢,就是将 control night 以及我们刚刚创建的与处理器相关的节点都融入到我们当前的纹身图工作流节点当中。 这里建议大家不必有过多的思考,跟着我们的视频教程边暂停边做就好,等做完之后呢,我们再去尝试理解其中的逻辑。我们首先双击工作台空白处任意的位置,然后搜索 content 应用,然后点击搜索结果当中的 content 应用这个选项,创建 content 应用节点。 当然 controlnet 应用这个节点呢,有很多种不同的版本,但是其中包含的源点都是相同的,因此各位同学在观看视频教程时,只要保障自己创建的 controlnet 应用这个节点包含了我们视频当中所提及的源点内容,就可以 多出的部分呢,可以暂且不管,我们下面将 controlnet 应用当中左侧的正面条件源点连接到正面提示词的 c l i p 文本编码器节点右侧的条件源点上,而 controlnet 应用节点右侧的正面条件源点,我们则连接到 k 彩样器的正面条件源点上。 此时原本正面提示词 c i p 文本编码器节点当中的条件源点与 k 彩样器正面条件源点的相连关系就断开了。这就意味着我们的内容生成之前,会先经过 controlnet 应用这个节点,使我们的 controlnet 能够发挥效果后再抵达 k 彩样器。 我们下面将 controlnet 应用节点左侧的 controlnet 圆点拖出后松开,然后在弹出的窗口当中,我们点击 defcontrolnet 加载器这个选项,创建 defcontrolnet 加载器这个节点。这个节点的功能呢,就是用来设置 controlnet 模型的,我们点击这个节点的内容后呢,会出现一个下拉菜单 们此次要使用的 control net 功能是线稿检测,所以我们选择 kenny 这个模型。我们下一步呢,将 control net 应用这个节点左侧的图像原点连接到 kenny 与处理器这个节点右侧的图像原点上。这一步操作之后呢,我们的参考图就与 control net 之间发生了关联, 我们的 control 相关的节点能够读取到参考图的内容。我们最后一步呢,就是将 diff control 加载器节点左侧的模型原点拖出之后呢,连接到 checkpoint 加载器节点当中的模型原点上。这样一来,我们的文声图 control 工作流就搭建完成了。 我们现在选择上传一张线稿作为参考图,然后选择一个合适的大模型。因为是二次元的线稿,所以这里呢,我选择一个二次元风格的大模型。提示词方面呢,就尽可能描述贴合线稿的内容,我们就书写 one go 还有狐狸耳朵 fox ear。 对 于负面提示词呢,我们就将 stable diffusion 当中的负面提示词模板直接粘贴过来。全部设置完成之后,我们点击添加提示词队列, 可以看到此时我们的工作流当中呢,出现了一些报错。很明显,我们的正面提示词与负面提示词左侧的 c l i p 并没有与模型这个节点相连, 所以我们现在根据提示呢,将这些缺失连接的原点进行相连。其中负面提示词 c l i p 文本编码器右侧的条件原点与正面 c l i p 文本编码器提示词的右侧条件原点相连的思路是类似的, 我们先将其连接到 controlnet 应用这个节点左侧的负面条件源点上,然后再将 controlnet 应用节点右侧的负面条件源点连接到 k 彩样器的负面条件源点上。最后我们点击添加提示词对列,可以看到此时呢我们就成功的生成了一幅根据我们所上传的现稿参考 而得到的一幅有着狐狸耳朵的二次元动漫风格的人物。这里图片尺寸呢,我们可以设置的稍微高一些,将高度呢设置为六百,然后再次点击添加提示词对列,这样我们就获取了一幅更加完整的生成结果,可以看到效果还是相当不错的。那 那么以上呢,我们的 comui 纹身图, controlnet 相关的工作流就全部搭建完成了,我们最后来补充一些关于下载节点相关的知识。其实从我们上一节课开始呢,我们就用到了一些当前我们所使用的 comui 版本并不具备的插件节点, 那么这些新增的插件节点如何下载呢?这里提供三个下载方式。首先第一个下载方式呢,就是我们打开会事启动器,然后点击版本管理, 在上方的分页当中,我们选择安装新扩展这个选项,在这里呢搜索我们想要下载的节点插件的名称,然后点击安装,就可以在会式启动器当中安装新的插件。不过需要注意的是,某些版本可能会出现异常的 情况,导致我们无法在这个位置加载相应的插件,比如说我当前的版本这个功能就失灵了,各位同学呢,可以尝试更换版本。第二种方式呢,是比较稳妥的方式,我们直接在 github 上面来手动的下载相关的插件节点, 我们抵达对应的页面之后呢,点击绿色的 code 选项,在下拉菜单当中,我们选择 download zip 下载压缩文件,最后解压到 confui 根目录当中的 custom nodes 专门放置节点插件的文件夹当中就可以。不过这个功能呢,需要大家有一个特殊的用网 环境,如果你不了解如何使用特殊的用网环境,也非常欢迎在评论区留言,我会尽可能帮助大家解决这个问题。第三种方式呢,就是在 confui 的 操作页面当中,我们点击右下方的管理器, 在弹出的窗口当中,我们点击节点管理这个选项,然后在左上方的下拉菜单当中,我们选择所有这个选项,这样就可以展示出我们当前所有可下载的插件节点,在这个位置呢,搜索相应的名称便可以获得对应的结果。例如我们搜索 control night, 可以 看到直接呢就蹦出了跟 control night 相关的选项,对于那些没有安装的插件节点,我们直接点击这里的 instyle 即可安装,安装成功之后呢,重启一下就可以使用了。 对于本节课的内容呢,我也制作了一套完整的课件,课件上以图文教程的方式讲解了我们今天课上所讲解的全部知识。各位同学如果需要本节课的课件的话,也非常欢迎在评论区留言,我会尽可能的帮助大家解决问题, 同时会分享本节课的课件。那么以上呢,就是本节课的全部内容,各位同学如果觉得本节课的内容对你有帮助的话,也不妨点一个免费的一键三连支持一下,我们就下节课再见! 各位同学好,我们这节课来讲解 comfui 图生图工作流搭建我们都知道在 stable default 当中是有图生图的功能的, 我们将图片导入到图生图的预备窗口,写上合适的提示词,调整合适的生成尺寸与重绘幅度,然后点击生成。生成的结果呢,就会根据我们当前所书写的提示词以及重绘幅度,根据所选模型的风格 原图为蓝本进行重新生成。生成时我们所选的重绘幅度越高,那么生成的结果呢,就越与原图相去甚远。反之,生成的重绘幅度越低,生成的结果呢,就与原图越相似。 同样在 comui 当中,我们在文生图工作流的基础上,加入图片上传节点 v a e encode 节点、蒙版节点、尺寸设置节点 control net 节点,即可创建一个相对完整的图生图工作流。同时我们本节课也会讲解一下,除了局生成之外,如何在 comui 当中创建局部重绘的工作流, 也就是我们可以通过选区笔选择我们需要重新生成的部分,然后再次点击生成。此时我们生成的结果只有在原图当中所选择的区域会受到影响发生改变,而未选择的部分则会维持原状,与原图保持相同。 那么话不多说,我们下面就来详细的演示一下。首先打开 comui, 我 们新创建一个工作台。由于在先前的课程当中,相信大家已经非常熟悉基础文生图工作流该如何从零创建了,所以我们这次就不再从零开始, 我们以当前默认的纹身图工作流为基础来添加相关的节点创建图生图工作流。首先我们双击工作台的空白处,然后搜索加载图像,点击创建加载图像节点,这是用来专门上传原图的节点。我们将加载图像节点当中的图像原点拖拽后松开,然后点击创建 v a e 编码节点, 然后我们再将 ve 编码节点当中的 laten 的 原点拖出后,连接到 k 彩样器左侧的 laten 的 原点上,这时我们原先的空 laten 的 节点就处在不可用的状态,因为我们此次创建的工作流是一个全局生成,工作流生成的结果在尺寸上将与原图保持一致,因此不需要设置输出尺寸的大小。 我们下面将 ve 编码节点左侧的 ve 原点拖出,连接到 checkpoint 加载器当中的 ve 原点上。这样一来,我们的图生图工作流就创建好了。 我们现在选一个合适的模型,例如原图是写实风格的,我们就选择一个偏二次元风格的模型。选择好之后呢, k 彩样器当中最后一个选项降噪,对应的就是 stable diffusion 当中的重绘幅度,我们通过调整降噪这个属性的大小来控制生成的结果与原图的相似程度。 例如此时我们将降噪调整为零点三,然后点击添加提示词对列,可以看到我们再次将降噪选项调整为零点九, 然后点击确定添加提示词对列,可以看到我们此时生成的结果呢?虽然有原图的影子,但是更多听从了提示词当中的描述,生成了包含有瓶子内容的结果。如果我们在生成的时候想要调节生成的尺寸, 也可以将编辑尺寸的节点添加到我们当前的工作流中,相信经过之前的练习,各位同学对这个 laten 的 节点已经非常熟悉了,通常呢,它就是用来连接设置尺寸的节点的,但是我们可以看到原先的空 laten 的 节点,它只有一个 laten 的 原点,也就是单向的。 而我们加入了加载图像节点之后,需要有一个双向连接的 latent 节点,才可以保证加载图像会经过图片尺寸设置节点再抵达 k 采集器。所以我们此时双击空白的工作台, 然后搜索 latent, 我 们从中选择 latent 的 缩放这个选项,创建 latent 的 缩放节点,可以看到此时 latent 的 缩放节点上面有两个 latent 的 圆点, 我们将左侧的 latent 原点连接到 ve 编码节点当中的 latent 原点上,而右侧的 latent 原点连接到 k 采集器当中左侧的 latent 原点上。 此时我们不难发现,在加载图像这个节点当中的数据抵达 k 采集器之前,会先经过我们创建的 latent 缩放这个节点去进行图片尺寸的分割,最终才会输出对应的结果。我们现在再次点击添加提示词对列, 可以看到此时生成的结果,在尺寸上就是符合 lin 的 缩放节点当中所输入的五幺二乘五幺二的正方形尺寸。我们现在将降噪调整为零点一,然后点击确定,点 击添加提示词对列,可以看到当前对于原图的缩放模式呢,是以拉伸压缩的方式进行缩放的,如果我们需要对原图进行裁剪后输出结果, 我们可以将 laten 的 缩放这个节点最下方的裁剪这个选项,点击之后呢选择中心,然后再次点击添加提示词对列,可以看到我们此时生成的结果就是以裁剪的方式对原图进行分割,并根据参数输出对应结果。那么以上就是我们如何搭建一个图生图全区生成的工作流, 我们下面再来讲解一下如何搭建图生图局部重绘工作流,我们就以当前搭建好的内容为基础进行搭建, 要想在我们当前工作流的基础上加入局部重绘的功能,我们只需要替换当前工作流的一个节点就可以,也就是 ve 编码这个节点,我们双击工作台的空白处,然后搜索 ve, 从中我们点击创建 ve 内部编码器节点,有了这个节点呢,我们就可以对原图进行局部重绘的操作, 具体的连接方式呢,就是将图像这个原点连接到加载图像当中的图像原点中,而内部编码器节点当中的 ve 原点就连接到 checkpoint 加载器当中的 ve 原点上。内部编码器当中的遮照原点我们就连接到加载图像的遮照原点上, 最终 laten 的 原点呢,就连接到 laten 的 缩放左侧的 laten 的 原点上。此时原先的 ve 编码节点我们就可以进行删除了, 我们下面调整一下各个节点的位置,使他们的调理更加清晰。我们下面就来演示一下如何进行局部重绘操作来使用局部重绘工作流。首先右键加载图像节点当中的图像,我们从右键菜单当中选择在遮罩编辑器中打开, 此时会弹出一个新的窗口,而我们的鼠标呢,也会变成一个画笔工具,用来选择需要重绘的区域。在左下方的滑块当中,我们可以选择画笔的大小。 选择好合适的大小之后,我们按下鼠标选择需要重绘的部分,比如我们当前选择人物的脸的部分。选择好之后呢,点击窗口右下方的 save to node。 此时我们加载图像窗口,当中的图像就被替换为了一个有遮照的图像, 选中的区域就是人物脸的部分。我们下面调整合适的重绘幅度,例如调整到零点三左右,然后点击生成。可以看到此时生成的结果呢,就与之前的局生成有了些许区别。但 值得注意的是,我们生成的结果并不理想,这是由于我们当前 k 彩样器的默认重绘方法为浅空间去噪,所以使用局部重绘,重绘幅度呢,需要在零点八到一之间,因此我们将当前的降噪选项改为零点八。然后重新点击添加提示词队列, 可以看到此时我们生成的结果呢,才符合了提示词的描述。我们将提示词更换为我们想要生成的一个女孩的提示词, 然后重新点击生成。可以看到这次生成的内容呢,就更加倾向于一个与人物的身体相契合的脸了。当然这样的结果也并非十分理想,这也得益于浅空间去造的特性,并不会基于原图来生成对应的结果。生成的图像呢,完全是根据周边未选中的环境进行生成的, 所以我们最后来讲解如何在图生图当中加入 control 节点,以此呢来保持生成的结果,即便在浅空间去造的模式下,依然能够维持与原图的高度统一,或者说参考原图, 我们依然以当前的节点作为蓝本,在此基础上创建新的节点。已完成 controlnight 图生图局部重绘工作流。首先双击空白处,我们搜索 controlnight 应用,然后点击创建 controlnight 应用节点, 这个节点在我们之前文生图 controlnight 工作流当中创建过,相信大家还是比较熟悉的。具体的连接方法呢,就是我们将 controlnight 应用节点当中的正面提示词 c l i p 文本编码器右侧的条件源点 连接到负面提示词 c l i p 文本编码器右侧的条件源点上。对应的 controlnet 应用节点右侧的正面条件源点以及负面条件源点均连接到 k 彩样器当中的正面和负面条件源点上。这样一来,正反面提示词在抵达 k 彩样器之前就会先进行 controlnet 的 处理。 我们下面将 ctrl nite 应用节点当中的 ctrl nite 圆点拖出,松开。之后呢,我们创建 def ctrl nite 加载器节点,这个节点是用来选择 ctrl nite 模型的。我们此次使用的模型呢是线稿检测模型,所以选择 line art 或者 kenny 都可以,为 这让生成的结果更加柔和。我们此次选择 line art 创建好之后呢,我们将 diff control net 加载器节点左侧的 model 原点连接到 checkpoint 加载器当中的 model 原点上。我们现在还缺少两个原点没有进行连接,那就是 control net 应用节点当中的图像原点和 v a e 原点 中。图像原点呢,我们连接到加载图像当中的图像原点上,这样我们的参考图呢,就导入了 control net 当中,而 v a e 原点呢,我们就常规的连接到 checkpoint 加载器节点当中的 v a e 原点上。其实到了这一步, control net 节点已经可以发挥其效果了, 但是并不具备输出检测图的功能。如果各位同学想要预览一下是否对原图检测成功,我们还可以加入一个预处理器节点。 我们现在双击工作台的空白处,然后搜索 line art, 点击创建 line art 艺术线预处理器节点,我们将这个节点当中左侧的图像原点连接到加载图像当中的图像原点上。而右侧的图像原点呢,我们可以直接拖出后松开,创建一个预览图像的节点。这个节点呢,是用来放置检测图。 那么我们现在万事俱备,点击添加提示词队列来生成一下,看看效果如何呗。那么此时各位同学可以看到,有了 line in art 现稿检测的加持,我们最终的生成结果,人物的五官特征是相对契合原先的身体的,但生成的效果呢,并不是很明显。 我们可以尝试更换模型以谋求更好的效果。例如,我们将当前的模型呢,更换为一个生成效果较明显的模型。同时为了确保更好的效果,我们将 stable fusion 当中也粘贴到 comui 当中。不, 图片的生成尺寸呢,也尽可能与原图保持一致。我们修改一下输出的尺寸,最后再次点击添加提示词对列。此时各位同学可以看到我们这次生成的结果,人物的面部就根据我们当前所选的模型进行了二次原画风格的转变,而身体的其他部分呢,依然保留了原图的内容。 与此同时,面部的生成与身体之间的契合度呢,也远远高于我们之前未创建 control 的 工作流时的契合度。这就是由于我们添加了一个线稿检测,它会检测原图人物的面部线条,以此来更加规范的生成我们所选区域脸的位置, 以避免我们之前出现的脸生成的方向与身体并不契合的结果。这样一来,即使我们的 k 彩样器使用的是浅 充铅降噪,也不用担心生成的部分与原图的身体毫无关联的情况出现了。针对于本节课的内容呢,我也制作了一套完整的课件,上面以图文教程的方式讲解了我们本节课的相关知识。各位同学如果需要本节课的课件的话,也非常欢迎在评论区留言,我 会尽可能的帮助大家解决在操作过程当中遇到的问题,同时也会分享这套课件。那么以上呢,就是本节课的全部内容,各位同学如果觉得本节课的内容对你有帮助的话,也不妨点一个免费的一键三连支持一下,我们就下节课再见!

生成图片免费,生成视频同样免费,今天要给大家推荐的就是目前 ai 创作圈里面口碑最炸裂最强的 ai 生产工具 comfyiv 八最新版本, 和那些买市付费套路的平台完全不同,这款整合包没有隐藏收费项,不用按月订阅,也没有按次计费的使用限制,你只需要把我提供的软件下载好,打开就能使用,从始至终不用花费一分钱,让你真正体验到免费玩转 ai 创作的快乐。 使用的方式呢也非常的简单,我们下载好我们的压缩包,然后减压之后呢我们找到这个启动器的图标,然后双击打开,然后呢就会弹出一个黑色的窗口,我们稍微等他加载一会,他就会在我们的默认浏览器打开, 那么你可能看到的是这样的一个纹身图的界面,那么我还为大家准备了很多东西,像这里面左边的模型里面有常见的 vlog 模型,以及一些大模型 经常使用到的 laura 等等,再比如说工作流部分,大概有两百多款,可以足够的满足大家的要求,那么这些文件呢都放好了,然后像这里面我们得到了这样的一个工作流之后呢,点击一下运行,我们可以看到这个彩样器正在彩样 进行生成,最后呢就生成了一张图像,那么这里面我们采用的是动漫的模型,所以他就会生成动漫图像,那么大家也可以尽情的使用其他的一些模型,比如说人物模型等等,那么同时像这种模型呢,可以生成大家任何想要的图像, 那么都给大家准备好了,大家拿到手之后呢,就可以自己动手去试一试,看看生成的效果怎么样。个人认为这样的生成效果还是很不错的,比市面上的很多需要收费的软件是效果要好的,毕竟软件是完全免费的,那么就将这款软件推荐给大家,免费使用。 这些这些这些都是 ai 生成的。自二零二三年以来, ai 绘图软件 stupefuge 的 发展势不可挡,各种各样的衍生模型插件百花齐放,现如今生成像这样的 ai 视频完全不在话下。 那么我们就一起跟随着时代的脚步,一起去探寻 stupefuge 的 compui 到底该如何使用吧。大家所熟知的 ypu 和 compui 其实都是属于 simplification, 而 ypu 主要是基于归类库开发的浏览器界面, cover ui 则是使用图形节点流程式设计而用于稳定扩散的用户界面。这边我们将外部 ui 和 cover ui 的 优缺点列出来,方便大家做个对比。 首先我们来看一下 ypu 这一块,它的优点是简单易学,并且操作较为基础与简易,而它的缺点是不利于长期管理。那么这什么意思呢? 当你在深度学习完 y b y 的 高阶内容后,你会意识到啊,如果使用的是 comfortui, 那 么节省了时间为两到三倍甚至更多。其次,在插件过多时, u u i 会显得非常臃肿以及操作费时。 那么接下来我们来看一下 gmail 这边喂,我们可以看到, gmail 对 配置的要求比较低,这同时也意味着降低了 ai 绘画的门槛,方便更多的小伙伴加入进来。那么它的优点其实是节点更利于管理,有较强的自主性,我们可以根据个人的需求来组装属于自己的工作流。 并且在未来,钢普尼 y 将逐渐与 y b y 在 应用层面上拉开距离,比如前段时间的 s d 三点五,或者国产最新的可灵大模型,都是第一时间可以在 cloudy 里搭建工作流并且使用的。 而对于 y b y 这些最新的模型与插件,往往得过一阵子才能使装,甚至直接不使装。那么使用 cloudy y 也意味着 能够更早地去接触到最新的模型与插件。而 cloud ui 的 缺点是初期不好上手,但是我相信呢,你在学习完本套课程之后,一定能够完全掌握康复 ui 的 基础操作。除此之外,我们知道哎,过去有很多软件,比如说 blender、 达芬奇 ue 都是使用节点式工作流, 因为它们有极强的自主性于可模块化,许多头部公司的顶级团队使用的都是节点式软件。 那么康复以外,除了上述优点之外,我们在使用时还可以非常方便的去套用其他人分享的工作流即可,便可实现相同的效果。哎,节省了非常多的节点部署时间以及思考时间。好的,那么接下来我们来介绍一下课程概览。那本套课程啊,共分为两个部分, 一到五节呢,为基础部分,其中包含了最最基础的生图操作以及纹身图,还有图生图工作流的搭建,加上他们背后的运行逻辑 之后,我们还会一起去了解一下咱们 ai g c ai 绘画有关的网站以及模型具体下载方式。那么咱们将在六到十节课中一起来学习如何进行高清放大以及 ctrl 了的具体使用方法。 之后我们还会利用 ipad 来完成 ai 换脸。最后面第十节课,我们将结合前面所学知识,一起搭建一个老照片修复工作流。 ok, 那 么咱们也废话不多说,赶紧点开下一节课,开始学习之旅吧!

如何用 coffee ui 等开源软件完成一部 ai 短剧的制作?大家好,我是程序,欢迎来到第九期。今天我们详细讲解一下 ltx 二点三的工作流,包括纹身视频、头身视频、音乐声视频和手尾帧等, 同时讲解它对电脑配置的要求,必要插件和工作流优化等内容。内容比较长,请大家先点赞、收藏加关注。好,现在我们来到 coffee ui 的 界面, 还是一样,我们依然是选择官方的工作流。首先我们点击左边的模板,然后点进来以后找到视频。好,第一排最右边这个是他的图声视频,这个是他的音乐声视频,再往下拉,这是纹身视频, 这边这个是首尾针。那么今天我们主要以这个音乐声视频来详细讲解一下,我们点击它的工作流,大家看到左边这里是它的模型文件,包括 check point, 其实这个是颗粒布,这个是他的一个放大模型,他的工作流是采用双彩样,下面这是他的模型文件存放地址。好,我们现在看到这个工作流,他把 所有的工作流全部隐藏了,那么我们只需要把它进行解压出来,先把它拖到边上去,然后在这里右键选择解包工作流,这个时候才是他的整个工作流的真面目。好,我们现在看一下,这是他的一个图像加载区域,这个是他的音频加载区域, 这里整个是他的模型文件加载区域,毕竟他是有音频的,所以说他要比我们平常的工作流要复杂一些。这里可以输入我们的提示词, 这里设置我们的尺寸,包括这是这里是帧数,这里是时长,但是呢他这个工作流啊还是需要改造一下才能用,那么我就不展示我们的改造过程,我们直接展示我们改造结果。好,这就是我们改造的结果。 大家可以看到这个红色的节点要么是替换的,要么是增加的,比如说第一个,第一个这个是我们的音频裁剪,比如说我们输入一整段的音乐,他长达四分钟,实际上我们的视频也只能出二十秒或者三十秒,那么这个裁切工具就特别有意思,比如说我这一段视频结束时间是五十三秒, 那么下一段视频我们可以从五十二秒开始,然后再跑二十秒,然后以此类推,直到把我们这个四分钟的音频全部给他跑完。然后这个节点是预览,是用来展示我们当前所裁切的这个部分,然后这个节点就是图像压缩的节点,它这个节点还是比较好用的。 再来到上面是两个 lra, 第一个 lra 是 vbvr, 它是一个奖励, lra 对 我们视频生成这个动作是有很好的引导作用。然后后面这个 lra 是 一位大佬所开发的,它是专门解决我们 ltx 二点三 在生成视频,当在讲中文的时候,他有可能出现字幕,而且字幕还是乱码,那么这个解决方案有三个。第一个方案就是我们所有的提示词可以用英文来写,再加上我们叫仙侠的这个 lo ra, 然后再加上 k j 的 这个强制负面提示词, 因为我们这个工作流它的 c f g 值是一,所以在当 c f g 为一的时候,它的负面提示词是不生效的,我们加这个节点是强制它负面提示词生效。所以说我们一共用三种方案去解决它带字幕的问题,这里是模型加载区域,然后这里是 参数区域。这两天我在测试过程中,我发现我们尽量用幺二八零乘七二零的这个尺寸去生成我们的视频,这样的话能够保证我们的视频画面不会崩,当它的尺寸越高,它的效果越好。 然后这里是我们的彩样器,我是选择这个 c f g 的, 好像效果还是比较好的。现在我们来看一下之前我测试的时候生成的一段 mv, 就是 这个视频,它是直出七二零 p 的, 我没有进行任何的再次放大,大家先看一下它的效果, 这是一个二十秒的视频,效果还是很不错的。这个二十秒的视频用时是十分钟,过一点六百三十四秒,那么上一段生成他的结束时间是五十三秒,那么我们再生成下一段二十秒的视频,我们可以在这里把它写成五十二, 这里设成一分十二秒,刚好二十秒。那么当我们把整个视频伸出来,我们剪辑的时候,实际上我们要把它的原声关闭,用我们自己加载的原声,这样的话我们能够保证我们的音效不被污染,但是我们可以听一下我们这个原声效果怎么样。好,我们把它拉到三十三秒,然后我们听一下原声的效果是怎么样的, 非常不错,我们原声效果要比他刚才输出的效果是怎么样的,我们再对比下他刚才输出的效果, 音质确实有污染。现在我们在生成下一段的时候,我们再添加一个加速节点,双击,然后这里输入 set 好, 我们添加这个节点,这就是我们之前安装的 set 的 touch 二点二,他对我们的视频加速也是有效果的,但是我之前为什么不用呢?因为我的配置还是够的,所以说任何加速他都有可能对本身的画质有所影响。所以说我之前是没有添加,但是现在为了提速,我们可以尝试用它一下, 然后我们可以选择 cedar tension f p 十六库达的这个,然后我们把线给它连上,它就连到这里, 就连到这里,这样的话我们的连接生效。对了,我们这里还有一个非常重要的节点,就是这个东西,它这个节点就非常厉害了,尤其在这个工作流程链路生成过程中, 当工作里有完成某一段工作的时候,把它的这个模型文件和它所占用的内存显存全部给它卸载掉,然后再进入下一阶段的一个工作,这样的话减少我们的电脑负荷,甚至如果没有它可能到下一段,比如说这个 ve 在 解码分块的时候 有可能就爆掉显存或者爆掉内存。好,现在我们开始运行,看我们加了这个散热器以后,它的运行是多长。在它生成过程中,我来给大家介绍一下我们的内存和显存占用情况。大家可以看到这个内存已经爆到五十三 g, 而它的显存也只是二十二 g, 如果大家内存和显存不够高的情况下,可以适当降低它的分辨率,比如说这里可以设置九六零乘五四四,整个生成完成以后再进行一次高清放大,实际上目前我们直出的七二零 p 也是需要再一次进行放大,发达到幺零八零 p, 然后我们才可以用 好。在它的生成过程中,我们介绍一下它对我们的电脑配置的要求。它这个 f p 八的模型文件接近二十七个 g, 如果选存 小于二十四 g, 基本上是没有办法跑的,但它专门有一个针对五零系显卡的,只有二十个 g, 那 么那个模型文件我们的 十六 g 显存也是能跑的。其实内存我感觉至少要有个六十四 g, 要不然这么多模型文件根本加载不下。那么当我们显存比较低,比如说十六 g 或者十二 g 的 时候,那我们可以选择它的这个 g g u f 量化模型, 只需要在对应的位置输入它的 g g f 模型文件,然后把它的线给它连上,把这个加载器和替换掉就可以了。 包括下面这个克里普加载器也一样,我们可以选择 g g f, 但是无论显存多大,我觉得内存都应该超过三十二 g, 这样的话跑它应该没有什么压力,包括我目前跑这个工作流,我的六十四 g 内存也是勉强够用,如果我去跑三十秒的视频,可能也会包内存 好。生成完毕,我们看到是五百七十六秒,看来加了这个三者胎神,他只是提升了一分钟,比原来六百三十四秒提升了不到六十秒。我们现在看一下它的效果,这是紧接着前面一段音频的,后续的二十秒我们听一下, 大家可以看到我们这个是没有字幕和乱码的,看来我们的策略是行之有效的。好,接下来我们讲一下我们的核心的插件,要想运行这个 ltx 二点三,有几个插件是必须要安装的,我们点开 manager。 好, 现在看一下我们所有安装过的, 这里输入一下 l t x。 好, 这两个插件是必须要安装的, l t x video, 再加上它的这个插件,然后再看一下,我们还会遇到像电脑显存较低的情况下,要用到 g g u f, 这个必须要安装,还有这个 layer style 也是需要安装,包括 k g n l 子。 好,基本上就这些,那么现在这个音乐生成视频我们基本上都讲完了。 ok, 接着我们去看纹身视频,还是一样点模板视频。这里,好,这是我们的纹身视频,我们先把它的这个工作流解压出来,我们直接按照他的默认提示词。好,我们点击运行。好,生成结束,我们看一下效果,用时一百七十秒,不到三分钟, 挺不错,那么我们这样找豆包给我们一段提示词,把时间设置成十秒,它的时间在这里。十,好,我们现在得到了一组提示词,直接给它粘贴进来, 但是生成之前我们这还要加个东西,就是这个东西是防止它报现存给它连接上,然后我们开始运行。 这个工作里,我目前除了他没有进行任何改造,实际上我只是演示给大家看一下效果,这里面要改造无非就是给他夹老软,再就是限制他在输出的时候有这个中文的乱码字幕。这里还有一个细节啊, 当我们直接托官方的,无论是图声视频还是纹身视频,或者是这个音乐转视频的工作流,他不能够直接使用,我们要用的时候,我们要在这里把这个帧率的这根线给他连到这个 b 点上,然后我们的工作流就正常了。 好,出来了一个十秒的视频,我们现在看一下它的效果。 还可以,因为没有加这个 v b v r 这个奖励老软,所以说它的效果好像不是很好。 好,接下来我们看一下我们的图示视频,还是在模板里面找,这是图示视频,我们点进去一样给他工作流程解压出来时间,我们设十秒吧, 加载一张图片,随便输入一段提示词,一个男人在说话,这是他要说的话,然后我们点击生成。好,生成结束,用时是二百八十五秒,我们再看一下它的效果。大家好,我是陈旭,我们是博主的 ai 扎势产, 因为是十秒的视频,我给的话术太短了,然后导致他的语言混乱。好,我们又重新给他写了一些话术,再次运行一下。好,这就结束,我们再听一下它的效果。大家好,我是陈旭,一个 ai 形象,我还有一个搭档,他叫希然, 他这次是动作夸张,还有字幕,不过整体效果还不错,因为他脸一直没有崩,环境也没有崩。好,现在还有一个工作流没有讲,就是我们的首尾针,工作流好,点进来。好,我随便加载了两张图片提示词,我们改一下,他端着咖啡走到窗前, 一样工作流我们就不去更改了,直接用他试乘,这里有做一个十秒吧,五秒太短了。好,试乘完毕,我们看下效果, 这是在没有加任何奖励 lara 情况下跑成这样的一个状态,我觉得也还能接受,而且我们的提示词特别简单,什么都没有,那么真正要跑出好的视频还是需要在提示词下功夫 好。我们今天一共介绍了 ltx 二点三的四套工作流,第一个是纹身视频,第二个是图腾视频,第三个是音乐声震视频,第四个是首尾针视频, 而且他的能力是可以做到三十秒左右的一个视频主要是看我们的电脑配置,其实如果内存够大,我估计跑个一分钟视频应该也是问题不大。然后接下来就是我们的小浅层,用户可以选择把它两个替换成 g g f, 然后再就是我们的生成字幕的一个限制,再加上我们的一些奖励 l r, 让他动作更加连贯 和更加符合逻辑。然后再就是一些细节上的调整,比如加上一些我们清华村的一个节点,还有包括可以裁剪音频的一些小的节点,这些东西都很有用的。我们整个 coffee ui 的 全流程到这里也基本上讲完了。 接下来每一期我会给大家做一些具体的,包括视频呀,包括音频呀,包括图片的一些效果,然后给大家展示,那么今天的演示就到这里感谢大家观看,我们下期见。

这是一个不限次数生成图片和视频的 ai 工具,它就是地表最强开源 ai 生产力工具 comfyui v 八破线版,或许你早就听说过它,但这个大版本的更新完美解决了 comfyui 安装困难和工作流报错问题,这种电影级的 ai 视频完全不在话下。和那些花钱还要排队的网站不同, 纯中文界面,完全不用懂英文,不用联网,更不用魔法上网,所有运行都在本地或限制无审查,最低支持一千零六十显卡。更惊喜的是,这次整合包直接内置了三百三十七个顶级工作流,全是大佬们认可的实用功能,使用也是超级简单的,三步就能搞定, 一拿到整合包,二解压缩,三、双击打开,还没有试试的老规矩,验个牌,接下来开始教学。那么我们说到学习康复 ui 最基础 最基础的功能呢?那么肯定就要提到我们的纹身图了,对吧?当然还有其他两个是图身图跟局部重绘。我们需要知道的一件事是,我们任何的复杂的工作流都是在纹身图、图身图和局部重绘 之上去进行搭建的,也就是说这三个最基础的工作流就是我们所有复杂工作的地基。所以我们画不 多说,直接来开始学习我们 comfui 里面的纹身图工作流。那么我们看这个纹身图工作流可以看到它主要包含了几部分,我们来数一下。第一部分就是我们的 chipon 加载器,第二部分就是我们的 clip 文本编码器,第三部分就是我们的 k 太阳器, 那么第四部分呢?就是 colon 第五部分 v a e 解码,对吧?第六部分就是我们的保存图像,也就是我们最后输出图像的地方,那么我们一个一个部分的来看,我们先看我们的 chip 加载器,我们 chip 加载器的作用就在于它可以加载我们的大模型啊,大模型, 那么大模型是一个什么样的东西?我们任何的 ai 绘画都是需要大模型去驱动的。我们举个例子,如果说我们把这一整套工作流比作一个人的话,那么我们的大模型就相当于我们人的脑子,对吧?我们需要这个脑子才可以去控制我们人的行为,也就是控制这个工作流去进行运作。 那么既然说到人脑,其实我们知道在现实生活中每个人的人脑他都是不一样的,也就是说我们的大模型其实也是不一样的,有一些大模型呢,可以绘画动漫风格,有一些大模型可以绘画真人风格,有一些大模型呢,又可以绘画室内的装修风格, 这个就是我们大模型的作用,它总管着我们的一个风格的一个绘画方向,比如说我在这里选择一款动漫大模型啊,或者说真人大模型,我们选择这个,呃,麦菊 v 七模型,大家可以看到 哎,我们把它选择一下这个去碰加气,大家还可以看到它有三个点,对吧?它有三个点,一个是模型点,一个是 klev 点,一个是 ve 点,那么我们从下往上看,这个 ve 点的作用是什么呢? 那么说到这个 ve, 我 们就不得不提到我们大模型的一个训练了,在训练大模型的时候是不是要先准备一个炉子,然后往这个炉子里面去丢入一些图片,比如说动物的图片,人物的图片,或者说花花草草的图片。对,我们把它丢进去,但是你丢入这些图片的 时候呢?我们需要知道的时候,我们必须给这个图片进行打标。打标是什么意思?就是我们得把这个图片里面有个内容,通过文字的形式把它呈现出来,比如说一只小狗,那么这只小狗的外貌怎么样的?或者说它的场景里面有一些什么内容,我们都 得用一个文本的形式把它呈现出来,然后把这张图像和文本一起打包投进这个炉子里面。当我们投入的照片和打标的这个文本够多的时候,哎, 那么这个大模型它就会自己去学习这里面的一些内容,学习完之后它就变成了我们这一个具有偏向性的大模型了。我们也可以把这个大模型完全只投入动漫的啊,这个图片,那么它就会变成动漫大模型,或者说我们只投入真实场景的图片,那么它就变成真实的大模型, 那么这个就是我们大模型的一个训练的一个过程。那么我们刚刚说我们投入去的图片它是什么图片?是不是只有我们人类才能看得懂的图片? 那么既然是我们人类能看得懂的图片,那么计算机能不能看得懂?那当然是看不懂的啊。我们这个 ai 绘画的过程,其实它就是在计算机里面去进行操作的,对不对? 所以说我们任何的数据最后都会变成计算机的信息,所以我们需要把人类能够看得懂的语言变成计算机能够看得懂的语言,所以我们就需要这个 v a e 去对我们这个模型里面的图片进行作用。 我们把这里面所有的图片编码成为计算机的语言之后,我们就再把这些语言进行分配传输,然后最后由这些语言进行重组, 变成一张人类又看得懂的图片,对吧?所以我们的 ve 把里面的图片进行一个解析,解析完之后它变成了许多许多的信息,然后通过我们这一个模型点给它传到 k 太阳器,看到没有?我们可以把胶线断开, 然后给它连上,对吧?给它传到 k 场去,然后可以看到它也有 clive 点,这个 clive 点其实就是我们的,我们可以说它是条件点,你也可以把它当作文本点,当然了,文本点它可能不太正确,我们又把它叫做条件点,对吧?条件分成了很多种了,我们后面说到了 control net, 它也是条件点的一部, 但是我们这里姑且先把它当做是一个文本点,它这个文本点它可以读取我们所有照片刚刚说的打标里面的图片的一个文字信息,读取到之后把它继续往下传,传到我们的 copy 文本编码器。那么我们的 copy 文本编码器的作用是什么呢? 当我们去用吉梦或者可林的时候,你会发现我们在输入一串文字之后啊,它会生成一个图片,对吧?那么这个 klib 文本编码器,也就是我们输入文字的地方,比如说我在这里输入 a cap, 我 在这里输入一只猫啊,输入一只猫之后,然后点击执行,我们看一下, 我们可以看到它是不是生成了一只猫出来。那么这个 klib 文本编码器,它为什么叫做编码器呢?也是一样的,我们输入了 a cap, 是 人类的语言,对吧?我们需要把它进行编码,编码成为计算机的语言,那么计算机才能够读得懂。那么有同学会问了,为什么我这里的 clear 文本编码器它有两个,那是因为我们 comforion 或者说 stable diffusion 的 一个特殊性,它会给我们用户配置一个负面条件,也就是说上面这个我们可以把它叫正面条件, 也就是说通过这一个文本我们可以把它叫正面条件,也就是说通过这一个文本,我们自然也就输入我们不想要的东西。 然后这个可列文本编码器呢,就是拿来输入我们的正负面条件了。我们再来看一下我们的 k 传感器,我们会发现 k 传感器它是最后的一个信息处理中心,有没有发现 什么叫做信息处理中心呢?我们会发现我们的通过这个正面条件和负面条件输入了这个我们想要的东西之后,哎,把它编码成为计算机的语言,他会传到我们的 k 传感器里面,对吧?我们大模型里面被编码完的图像信息里面,然后我们 k 传感器里面现在有几份信息, 是不是有两份?第一份信息是我们大模型里面所有的图像信息,第二部分的信息是我们的这个正负面条件的文本信息在里面,那么通过我们的文本信息跟图像信息进行比对之后,那么我们的 ai 就 知道我们要生成什么样的东西,比如说这里面我们刚刚说到图片可能会训练一些人 些猫,一些狗进去,对吧?那么我们如何精准的让它生成猫,那么就通过信息比对了,通过跟我们文本的信息比对,把它比对完之后,它自然就会出现猫的图片。 ok, 我 们继续往下看,这个空扔腾的作用是什么?空扔腾的作用其实它就相当于一个白色的画布,我们都知道我们 人在进行绘画的时候需要一张白色的纸,对吧?那么我们的 ai 也是需要一张白色的纸的,那么这张白色的纸就叫做空扔腾, 自然空间腾的宽高我们是可以去设置的,我们可以看一下,它可以设置成为五幺二乘五幺二,对不对?五幺二乘五幺二,你也可以设置成七六八乘七六八,那么它的画布就会更大一点,当然你也可以设置成五幺二乘七六八,也就是说它会变成一个竖屏的一个画布,那么它画出来的东西它自然也就是竖屏的,我们可以看一下, 哎,是不是竖屏了,对吧?你也可以把它变成横屏的,也是可以的。然后这里还有个批次大小,我们可以把它画成二,那么它一次性就会画两张图片出来。 好,我们可以看到是不是一次性画两张图片出来,所以这个批次大小主要是拿来管理我们的。呃,图片的出的张张数的就是,如果你是二,它就出现两张,如果是三,那就是三张,这样子,以此类推过去。 好,我们再来看一下 k 传感器里面的一些参数。第一个是这个随机种,这个随机种是什么东西呢?其实他就是我们这一个图像的身份证,我们的这一个图像,哎,每一张图像生成出来,他都会有一个不同的随机种的数字代码,我们可以看一下, 比如说我又生成了一张,可以看到随机种是改变了,对吧?所以说一个随机种一般来说是对应一张图片的,那么我们后面看一下运行后操作这一个栏目,它是拿来干嘛的?我们可以点开,它里面有固定、增加、减少、随机,对吧?如果我们填写的是固定呢? 我们再跑一张,可以发现我们这个随机种它是不进行改变的,有没有发现好?我们再点多几次,你会发现它没反应了,我们点击直行的时候,它已经没反应了,对吧?为什么没反应?就是因为我们把它的随机种固定了,那么这个随机种它就是 对着我们这一张图像的,对吧?所以他不会进行改变,他也不会进行再一次的跑图,因为这张图片他已经怎么样生成完成了,对吧?我们也可以选择增加和减少,但如果你选择了增加的话,你会发现后面这个数值他会加一,变成了九,看到没有? 好,我们再点一下,现在变成了七十,对吧?好,第七十张会发现他出现了人,我们可以继续往后跑, 可以看一下他又加了一,他又变成了不一样的,还是那那句话,他就是一个随机种,对应的怎么样一张图片?当然了, 这这个随机种的增加、减少,你可以自己去调,我们一般把它调为随机啊和固定,我们用的是最多的,然后是步数,步数就是说我们画这张图像的用了几步,比如说我们人类去画一张图像,可能我们需要画五十下才能把这张图片画出来,对吧? 按道理来说,我们这个步数越高,那么我们画的图像所具有的细节也就越多,当然了,这也并不是完全的,如果说我给他一百步,但是我画完张图像,其实我只需要二十步,那么你是不是又形成另外一个词语,画蛇添足,对吧?所以说并不是说你步数越高越好, 那么这个步数的高低主要看我们的大模型的选择,比如说我选择一点五的大模型,那么我自然这里的步数我选择二十步,他就是可以的。如果说我选择 plus 模型,对吧? plus 模型训练参数很多嘛,那么我步数选择十步,那么我也可以画出一个很好的照片, 对吧?那么这个步数就看大家自己去调了。我们一般来说最好就是不超过五十步,为什么?因为如果说你超过了五十步,其实呢,它没有什么太大的效果,甚至说会让你的图片进行一个崩坏,对吧?而且会更加耗费你电脑的一个配置的显存,所以说我们一般定为二十步就好了。然后这个 c f g 的 话, cfg 是 什么意思?它的全称叫做,呃,条件引导,也就是说这个 cfg 越高,它跟我们这个哎提示词越贴近,如果我把 cfg 改为零,大家可以看一下,我们去跑一下, 哎,可以发现它出现了一个什么女生,对吧?跟猫有没有任何关系?没有任何的关系,如果我们调成了一, 可以再跑一下,好,这边出现一只猫啊,但这只猫它怎么样?太过于抽象了,对吧?就是说 呃一这个参数对于我们一点五的模型来说,它太低了,它贴合不了我们这个正面提示词想要的一个内容,所以,呃,一般来说我们这个一点五的这个模型啊,一点五大模型,我们一般这里我们选择的是呃七左右,七到八左右就会出现一个比较好的, 那比较好的图像可以看到。然后另外一点呢,我们需要知道的是, cfg 其实对我们画面的饱和度有一定的控制,如果说你的 cfg 太高的话,对于这个模型来说,那么他可能会出现过拟合化的一个效果,比如说我这里调成二十,我们看下会有什么效果 好,可以看到它锐化是不是特别的严重,以及饱和度非常的高,对吧?如果说你用的不是一点五的吗?大模型用的是叉 l 的 大模型或者 plus 模型的话,你会发现一个很严重的问题,就是它的锐化太高了啊,或者说饱和度太过于严重,那么出现的画面也就会变得很抽象, 对吧?所以我们的这一个一点五的大模型的话,我们一般是五到六之间,而 plus 一 般我们把它调为一, 也就会发现有一个规律,大家有没有发现你越强的大模型, cfg 相对来说就越低,对吧?然后采氧器和调度器,我们可以看一下, 采氧器和调度器不同的选择呢?对我们图像的深层也是不一样的,不一样的采氧器啊,它输出的质量也就不一样,那么我这里呢,主要就是呃,用的最多的就是 d p 二 m 了, d p m 是 一个效果比较好的一个采氧器,或者说 d d p m 也不错,这两个都不错啊,这里我推荐你们直接使用,这里我就不过多的讲解,因为这个东西比较麻烦。 然后调度器呢啊,我们一般选择 k 这个开头的啊,这也是一个比较好的调度器,也是大家测试出来的一个比较好的,我们可以看一下, 可以看到效果是不是更好。比起刚刚的这个 u r 的 时候, u r 的 这一个彩样器呢,它其实更适合于深沉动漫的那个风格,但是我们选择的是真实大模型嘛,对吧?真实大模型,所以我们这里用 d p m 和 k 这个彩样器出来的出路效果就非常的不错,我们可以看一下, 哎,对吧?是不是更加的真实,感觉好。最后就是一个 v a e 解码,那么我们在这里 k 长计刚刚说我们会进行一个信息比对,对不对?那么信息比对完了之后, 我们是不是需要把计算机的信息给他释放出来,变成我们人类能够看得懂的语言才可以,对吧?那么这个 v a e 解码就是能够把我们 计算机的信息给它释放出来了,然后把它转换成我们人类可以看得懂的语言。所以说我们最前面这个 ve, 我 们可以把它叫做什么 ve 编码啊? ve 编码,通过这个 ve 可以 编码我们元大模型里面有的图像,就人类看得懂的图像信息,把它变成计算机的语言, 变成计算机的语言之后呢?通过在 k 盘器里面进行一个信息比对完之后,然后让计算机知道我们想要什么样的内容,最后把图片生成出来,就在这里通过噪点的一个回收啊,噪点的一个反扩散,把我们这个图像生成出来,生成出来之后通过 v a e 解码,怎么样 把它解码成为我们人类看得懂的图像信息,就完成了我们一整个纹身图的一个工作流。好,那么其实这节课也就讲到这里啊,希望大家积极学习康复 u i, 然后有一个更好的未来。