ok, 然后这个阿特拉斯教程给你们录一下,首先右键,然后点开这个这个贝塔这个部署,然后点一下这个, 然后我们找到就是说你的那个阿特拉斯的这个部署的包啊,我们要选这个零点五版本的,快,先打开,然后下一步,等一下啊, 这已经安装过了,再检测一下下一步,然后这个更新我们给它取消,等它稍微检测一下 下一步,下一步,然后这个点是。 ok, 然后这个点一下,然后这个 different 就是 杀毒,杀毒这个东西我不建议就是说你们就直接给它禁用掉,尽量还是打开,因为 啊你们只要手动给它关掉之后,就说拿工具之类的给它关掉之后,你这边全打开,它是不会自动给你打开的。那就就为了防止你们你们有万一以后要用到,比如说像内盒隔离这种杀毒东西,你如果给它禁用,它就回不来了,你必须得重装了。所以说这边我建议你们选 enable 的, 先给他打开好这个位置, disable, 这个位置 更新也是更新很重要啊,给他打开,然后下一步,然后这个位置这两个给他取消, 然后这个是阿特拉斯的那个工具,这个工具是在外网的服务器上下发出来的。呃,国内的网基本上下不了,你们有需要的也可以下,但是不一定能下下下,嗯,不一定能下成功啊,所以说我建议你们取消就好了,下一步,然后直接下一步他就开始就优化了,好,就这样。
粉丝32获赞173


一款软件带你玩转 ai 所有功能,全球公认的 ai 生成功能最全面,生态最丰富,最贴近生产力的免费开源软件 comfyui, 无论是生成图像还是视频,甚至是三 d 建模、配音、对口型,通通一键搞定。 要知道其他平台在生成这些内容的时候普遍都需要付费,而且我还为大家整理了模型和工作流文件,保证大家一下载完就能够使用, 那么这些文件全部都发在我的评论区里面,大家直接去领取就可以。 ok, 大家好,欢迎来到我的 comforion 系列课程的第一课。 那我们都知道现在哎,随着 ai 绘画的发展,对吧? comforion 也是逐渐被推到了大众的视野,并且它也是许多许多大公司小公司所要求的必备技能之一,就是你要会 ai 绘画,那么就必须会 ai, 不 然我就不要你打脸。 那么我们说到学习康复 ui 最基础最基础的功能呢?那么肯定就要提到我们的纹身图了,对吧?当然还有其他两个是图身图跟局部重绘。我们需要知道的一件事是,我们任何的复杂的工作流都是在纹身图,图身图和局部重绘 之上去进行搭建的,也就是说这三个最基础的工作流就是我们所有复杂工作的地基。所以我们话不多说,直接来开始学习我们 comfyui 里面的纹身图工作流。那么我们看这个纹身图工作流可以看到它主要包含了几部分,我们来数一下, 第一部分就是我们的 chip 加载器,第二部分就是我们的 k 长器,那么第四部分呢?就是空软腾第五部分 v a e 解码,对吧?第六部分就是我们的保 存图像,也就是我们最后输出图像的地方,那么我们一个一个部分的来看,我们先看我们的 chipon 加载器,我们 chipon 加载器的作用就在于它可以加载我们的大模型啊,大模型, 那么大模型是一个什么样的东西?我们任何的 ai 绘画都是需要大模型去驱动的。我们举个例子,如果说我们把这一整套工作流比作一个人的话,那么我们的大模型就相当于我们人的脑子,对吧?我们需要这个脑子才可以去控制我们人的行为,也就控制这个工作流去进行运作。 那么既然说到人脑,其实我们知道在现实生活中每个人的人脑他都是不一样的,也就是说我们的大模型其实也是不一样的,有一些大模型呢,可以绘画动漫风格,有一些大模型可以绘画真人风格,有一些大模型呢,又可以绘画室内的装修风格, 这个就是我们大模型的作用,它总管着我们的一个风格的一个绘画方向,比如说我在这里选择一款动漫大模型啊,或者说真人大模型,我们选择这个,呃,麦菊 v 七模型,大家可以看到 哎,我们把它选择一下这个去碰加气器,大家还可以看到它有三个点,对吧?它有三个点,一个是模型点,一个是 klev 点,一个是 ve 点,那么我们从下往上看,这个 ve 点的作用是什么呢? 那么说到这个 ve, 我 们就不得不提到我们大模型的一个训练了,在训练大模型的时候,是不是要先准备一个炉子,然后往这个炉子里面去丢入一些图片,比如说动物的图片,人物的图片,或者说花花草草的图片。对,我们把它丢进去,但是你丢入这些图片的 时候呢?我们需要知道的时候,我们必须给这个图片进行打标。打标是什么意思?就是我们得把这个图片里面有个内容,通过文字的形式 把它呈现出来,比如说一只小狗,那么这只小狗的外貌怎么样的?或者说它的场景里面有一些什么内容,我们都得用一个文本的形式把它呈现出来,然后把这张图像和文本一起打包投进这个炉子里面。当我们投入的照片和打标的这个文本够多的时候,哎, 那么这个大模型它就会自己去学习这里面的一些内容,学习完之后它就变成了我们这一个具有偏向性的大模型了。我们也可以把这个大模型完全只投入动漫的啊,这个图片,那么它就会变成动漫大模型,或者说我们只投入真实场景的图片,那么它就变成真实的大模型, 那么这个就是我们大模型的一个训练的一个过程。那么我们刚刚说我们投入去的图片,它是什么图片?是不是只有我们人类才能看得懂的图片? 那么既然是我们人类能看得懂的图片,那么计算机能不能看得懂?那当然是看不懂的啊。我们这个 ai 绘画的过程,其实它就是在计算机里面去进行操作的,对不对? 所以说我们任何的数据最后都会变成计算机的信息,所以我们需要把人类能够看得懂的语言变成计算机能够看得懂的语言,所以我们就需要这个 v a e 去对我们这个模型里面的图片进行作用。 我们把这里面所有的图片编码成为计算机的语言之后,我们就再把这些语言进行分配传输,然后最后由这些语言进行重组, 变成一张人类又看得懂的图片,对吧?所以我们的 ve 把里面的图片进行一个解析,解析完之后它变成了许多许多的信息,然后通过我们这一个模型点给它传到 k 传感器,看到没有?我们可以把胶线断开,然后给它连上,对吧?给它传到 k 传感器, 好,可以看到它也有 clive 点,这个 clive 点其实就是我们的,我们可以说它是条件点,你也可以把它当作文本点,当然了文本点它可能不太正确,我们又把它叫做条件点,对吧?条件分成了很多种了,我们后面说到了 ctrl alt, 它也是条件点的一部, 但是我们这里姑且先把它当做是一个文本点,它这个文本点它可以读取我们所有照片,刚刚说的打标里面的图片的一个文字信息,读取到之后把它继续往下传,传到我们的 copy 文本编码器。那么我们的 copy 文本编码器的作用是什么呢? 当我们去用吉梦或者可林的时候,你会发现我们在输入一串文字之后啊,它会生成一个图片,对吧?那么这个可丽本文本编码器,也就是我们输入文字的地方,比如说我在这里输入 a cat, 我 在这里输入一只猫啊,输入一只猫之后,然后点击执行,我们看一下, 我们可以看到它是不是生成了一只猫出来。那么这个可丽本文本编码器它为什么叫做编码器呢? 也是一样的,我们输入了 a cap, 是 人类的语言,对吧?我们需要把它进行编码,编码成为计算机的语言,那么计算机才能够读得懂。那么有同学会问了,为什么我这里的 clear 文本编码器它有两个, 那是因为我们 comfor ui 或者说 stable diffusion 的 一个特殊性,它会给我们用户配置一个负面条件,也就是说上面这个我们可以把它叫正面条件,也就是说通过这一个文本我们可以把它叫正面条件,我们自然也就输入我们不想要的东西。 然后这个可列文本编码器呢,就是拿来输入我们的正负面条件了。我们再来看一下我们的 k 传感器,我们会发现 k 传感器它是最后的一个信息处理中心,有没有发现 什么叫做信息处理中心呢?我们会发现我们的通过这个正面条件和负面条件输入了这个我们想要的东西之后,哎,把它编码成为计算机的语言,他会传到我们的 k 传感器里面,对吧?我们大模型里面被编码完的图像信息里面,然后我们 k 传感器里面现在有几份信息, 是不是有两份?第一份信息是我们大模型里面所有的图像信息,第二部分的信息是我们的这个正负面条件的文本信息在里面。那么通过我们的文本信息跟图像信息进行比对之后,那么我们的 ai 就 知道我们要生成什么样的东西,比如说这里面我们刚刚说到图片可能会训练一些人, 一些猫,一些狗进去,对吧?那么我们如何精准的让它生成猫,那么就通过信息比对了,通过跟我们文本的信息比对,把它比对完之后,它自然就会出现猫的图片。 ok, 我 们继续往下看,这个空扔腾的作用是什么?空扔腾的作用其实它就相当于一个白色的画布,我们都知道我们 人在进行绘画的时候需要一张白色的纸,对吧?那么我们的 ai 也是需要一张白色的纸的,那么这张白色的纸就叫做空扔腾, 自然空人腾的宽高我们是可以去设置的,我们可以看一下,它可以设置成为五幺二乘五幺二,对不对?五幺二乘五幺二,你也可以设置成七六八乘七六八,那么它的画布就会更大一点,当然你也可以设置成五幺二乘七六八,也就是说它会变成一个竖屏的一个画布,那么它画出来的东西它自然也就是竖屏的,我们可以看一下, 哎,是不是竖屏了,对吧?你也可以把它变成横屏的,也是可以的。然后这里还有个批次大小,我们可以把它画成二,那么他一次性就会画两张图片出来。 好,我们可以看到是不是一次性画两张图片出来,所以这个批次大小主要是拿来管理我们的。呃,图片的出的张张数的就是如果你是二,他就出现两张,如果是三,那就是三张,这样子,以此类推过去。 好,我们再来看一下 k 传感器里面的一些参数。第一个是这个随机种,这个随机种是什么东西呢?其实他就是我们这一个图像的身份证,我们的这一个图像,哎,每一张图像生成出来,他都会有一个不同的随机种的数字代码,我们可以看一下, 比如说我又生成了一张,可以看到随机种是改变了,对吧?所以说一个随机种一般来说是对应一张图片的,那么我们后面看一下运行后操作这一个栏目,它是拿来干嘛的?我们可以点开它里面有固定、增加、减少、随机,对吧?如果我们填写的是固定呢? 我们再跑一张,可以发现我们这个随机种他是不进行改变的,有没有发现?好?我们再点多几次,你会发现他没反应了,我们点击直行的时候他已经没反应了,对吧?为什么没反应?就是因为我们把他的随机种固定了,那么这个随机种他就是 对着我们这一张图像的,对吧?所以他不会进行改变,他也不会进行再一次的跑图,因为这张图片他已经怎么样生成完成了,对吧?我们也可以选择增加和减少,那如果你选择了增加的话,你会发现后面这个数值他会加一,变成了九,看到没有? 好,我们再点一下,现在变成了七十,对吧?好,第七十张会发现他出现了人,我们可以继续往后跑, 可以看一下他又加了一,他又变成了不一样了,还是那那句话,他就是一个随机种,对应了怎么样一张图片?当然了, 这这个随机种的增加、减少你可以自己去调,我们一般把它调为随机啊和固定,我们用的是最多的,然后是步数,步数就是说我们画这张图像的用了几步,比如说我们人类去画一张图像,可能我们需要画五十下才能把这张图片画出来,对吧? 按道理来说,我们这个步数越高,那么我们画的图像所具有的细节也就越多,当然了,这也并不是完全的,如果说我给他一百步,但是我画完张图像,其实我只需要二十步,那么你是不是就形成另外一个词语,画蛇添足,对吧?所以说并不是说你步数越高越好, 那么这个步数的高低主要看我们的大模型的选择,比如说我选择一点五的大模型,那么我自然这里的步数我选择二十步,他就是可以的。如果说我选择 plus 模型,对吧? plus 模型训练参数很多嘛,那么我步数选择十步,那么我也可以画出一个很好的照片, 对吧?那么这个步数就看大家自己去调了。我们一般来说最好就是不超过五十步,为什么?因为如果说你超过了五十步,其实呢,它没有什么太大的效果,甚至说会让你的图片进行一个崩坏,对吧?而且会更加耗费你电脑的一个配置的显存,所以说我们一般定为二十步就好了。然后这个 c f g 的 话, cfg 是 什么意思?它的全称叫做,呃,条件引导,也就是说这个 cfg 越高,它跟我们这个哎提示词越贴近,如果我把 cfg 改为零,大家可以看一下,我们去跑一下, 哎,可以发现它出现了一个什么女生,对吧?跟猫有没有任何关系?没有任何的关系,如果我们调成了一 只猫啊,但这只猫它怎么样?太过于抽象了,对吧?就是说 呃,一这个参数对于我们一点五的模型来说,他太低了,他贴合不了我们这个正面提示词想要的一个内容,所以,呃,一般来说我们这个一点五的这个模型啊,一点五大模型,我们一般这里我们选择的是呃七左右,七到八左右就会出现一个比较好的, 那比较好的图像可以看到。然后另外一点呢,我们需要知道的是, cfg 其实对我们画面的饱和度有一定的控制,如果说你的 cfg 太高的话,对于这个模型来说,那么他可能会出现过拟合化的一个效果,比如说我这里调成二十,我们看下会有什么效果 好,可以看到它锐化是不是特别的严重,以及饱和度非常的高,对吧?如果说你用的不是一点五的吗?大模型用的是叉 l 的 大模型或者 plus 模型的话,你会发现一个很严重的问题,就是它的锐化太高了啊,或者说饱和度太过于严重了,那么出现的画面也就会变得很抽象, 对吧?所以我们的这一个一点五的大模型的话,我们一般是五到六之间,而 plus 一 般我们把它调为一, 也就会发现有一个规律,大家有没有发现,你越强的大模型 c、 f、 g 相对来说就越低,对吧?然后彩样器和调度器我们可以看一下, 彩样器和调度器不同的选择呢?对我们图像的深层也是不一样的,不一样的彩样器啊,它输出的质量也就不一样,那么我这里呢,主要就是,呃,用的最多的就是 d p 二 m 了, d p 二 m 是 一个效果比较好的一个彩样器,或者说 d d p m 也不错,这两个都不错啊,这里我推荐你们直接使用,这里我就不过多的讲解,因为这个东西比较麻烦。 然后调度器呢?呃,我们一般选择 k 这个开头的啊,这也是一个比较好的调度器,也是大家测试出来的一个比较好的,我们可以看一下,嗯, 可以看到效果是不是更好,比起刚刚的这个 u r 的 时候,呃, u r 这一个彩样器呢,它其实更适合于深层动漫的那个风格,但是我们选择的是真实大模型嘛,对吧?真实大模型,所以我们这里用 d p m 和 k 这个彩样器出来的出路效果就非常的不错,我们可以看一下, 哎,对吧?是不是更加的真实,感觉好。最后就是一个 v a e 解码,那么我们在这里 k 函数刚刚说我们会进行一个信息比对,对不对?那么信息比对完了之后, 我们是不是需要把计算机的信息给他释放出来,变成我们人类能够看得懂的语言才可以,对吧?那么这个 v a e 解码就是能够把我们 计算机的信息给它释放出来了,然后把它转换成我们人类可以看得懂的语言。所以说我们最前面这个 ve, 我 们可以把它叫做什么? ve 编码啊? ve 编码,通过这个 ve 可以 编码我们元大模型里面有的图像,就人类看得懂的图像信息,把它变成计算机的语言, 变成计算机的语言之后呢,通过在 k 盘器里面进行一个信息比对完之后,然后让计算机知道我们想要什么样的内容,最后把图片生成出来,就在这里通过噪点的一个回收啊,噪点的一个反扩散把我们这个图像生成出来,生成出来之后通过 v a e 解码,怎么样 把它解码成为我们人类看得懂的图像信息,就完成了我们一整个纹身图的一个工作流。好,那么其实这节课也就讲到这里,那希望大家积极学习康复 u i, 然后有一个更好的未来 的大鱼老师。那么欢迎来到我的康复 u i 系列课程的第二课。上节课我们讲到了我们纹身图的工作的底层逻辑, 那么这节课呢,我们就即将讲到我们的图身图跟局部重绘,我们上节课有说到我们的纹身图图和局部重绘是共列为我们康复 ui 工作流里面的 地基,对吧?那么这节课用到的所有的工作流,还有我们的整合包资源,我都会放在我们的置顶评论区,有需要的小伙伴们直接去领取哦。我们话不多说,直接开始讲解,那么我们先来看一下我们的 图深图工作流。图深图工作流其实也是非常的简单,它跟我们纹身图工作流不一样的地方是它少了一个 colon, 对 吧?它 多了一个 v a e 编码以及我们的加载图像,当然了这里还有一个图像按像素缩放,这一个我们待会再讲,那么这个 v a e 编码这个节点它是什么东西呢?我们上节课有讲到我们大模型在训练的时候,是不是注入了非常多人类看得懂的图片,那是人类的语言,那计算机能不能看得懂? 那当然是看不懂的,那既然计算机看不懂我们的图片,那么我们的图片就需要经过我们这一个 chipon 加载器里面的 ve 去进行怎么样进行编码,对吧?最后传输给我们的 k 长进行使用, 这样子我们的计算机,也就是我们这个 ai 的 流程才能够跑得动,才能够跑出我们想要的图片。那么既然是图身图的工作流,也就是说我们是需要用图片去生成图片的,而不是像我们纹身图工作流一样 直接是无中生有。那么既然我们是需要用图片生成图片,那我们是不是需要上传一张图片,所以我们需要一个新的节点,叫做加载图像节点。但是我们上传这张图片之后呢,你会发现这个图片它是什么?什么图片?是不是我们人类看得懂的语言这个图片,那么我们也同样需要对这张图片进 行一个编码,把人类看得懂的语言变成计算机所看得懂的语言。所以我们就会问了,我们为什么不能直接用 chip 加载器里面的这一个 ve? 这就要讲到我们去训练这个模型的时候,这张图片它不一定存在于我们这个大模型里面,就是训练的时候,那么我们在不一定的情况下,我们就需要保证它在接下来的工作流的过程中呢,是能被编码到的,所以我们需要加载一个 ve 编码进来, 我们直接把图片,我们可以先把这个图像按像素缩放给它删掉,我们可以直接把图片给到我们的 v a e 编码这么一个节点,然后给到它之后呢,你会发现它编码完的信息是通过 lantern 点传给我们的 k 传感器的,那么我们上节课纹身图的时候,我们的空 lantern 是 不是传到这个 lantern 点,那么现在变成了 v a e 编码的这个 lantern 传到了 k 太阳器这里面,那么我们上节课有说到我们的空 lincoln 相当于一张白色画布对不对?那么我们进行作画的时候,是不是需要一张白色画布进行使用?那么我们图深图也是一样的,我们也需要一张画布,但是这张画布不再是空白画布,而是我们这张上传的图像,他把我们上传的图像当成了一张画布去使用, 所以这个 lincoln 点上传到 k 太阳器,那么我们就可以知道我们上传的这张图像的大小跟我们的画布大小应该是一致的,对不对? 那么还有一点我们需要注意的是,那既然是用图像生成图像,那么我们这一个上传的图像它是不是具有一定的参考性?那么待会我们进行图身图的时候, 我们要达到的目的应该是我们生成的图像跟我们的原图具有一定的相似度,但是又跟原图有不一样的地方,所以我们这个降噪我们能不能调到一不行?为什么不行?因为我们上节课纹身图的时候,我们用的是空人腾完全的白色画布, 我们的降噪需要为一对吧?如果降噪不为一的话,他会有降噪不完全的一个效果,这是对于空画布来说的,但是现在是我们的图生图,对吧? 现在是我们的图生图,那么画布里面已经有了内容了,我们需不需要再把降噪调为一?是不需要的,如果我们把降噪调为一的话,那么他就会把我们上传的这张图像当做一张白色画布来使用,只不过这张白色画布的尺寸是跟我们上传的图像是一样的。 那么如果我们把降噪调到零点五,也就是说我们待会让他画画的时候,不要完全去改变我们画面的一个内容,也就是说你要有百分之五十的参考到我这个画面,所以这个降噪我们就不能调到一,然后这里的降噪也会变成我们所说的重绘幅度, 就是说你这里的降噪的指数越低,那么他跟我们原图的样子越像最后的出图效果,如果说这一个降噪越高,那么他跟我们的原图的样子越不像最后的出图效果。那么知道了里面的一些逻辑之后,我们就可以尝试的去 跑一下这个工作流。比如说我自己的模型换成动漫的一个模型,但是呢我这个上传的人物是一个真人,那么他会发生什么效果呢?我提示词只输入一个女孩子提示词,然后去跑一下这工作流。 five minutes later, 好, 我们发现刚刚我们去进行跑图的时候,它的速度非常的慢,这是为什么?是因为我们上传的图像它的大小具有两千乘以两千的分辨率,那么也就是说呢,我们这个画布大小它是两千乘两千的一个宽高比, 对吧?那么两千乘以两千呢,也就是差不多达到我们的二 k 图片了,它的大小是非常的大的,对于我们 ai 这个工作来说呢,它的负荷也需要非常的大,那么我的本电脑用的是三零六零的显卡,所以说对我的本电脑显卡的负担是比较大的,所以它跑的是比较慢的。那么我有什么方法可以解决这个问题呢? 就是我们刚刚说的像素按系数缩放这么一个节点,我们可以先把图像 给他连过来,连到这个节点上,然后我们再把这一个输出的图像连到我们的 v a e 编码,然后这里有个像素数量,我们可以把它调成零点二五,也就是说我们的两千乘以两千,经过这个节点的时候要再乘以零点二五,那就会变成多少,大家可以自己去思考一下。 然后我们把它降到零点二五的大小。之后呢,我们再来跑一下,看一下它的速度, 好,现在的速度是不是非常的快了?好,我们可以看到最后跑出来的图像呢,跟我们的原图是非常相似的,只不过他的画风改变了,对吧?为什么他的画风改变了?因为画风现在是由我们的大模型去掌控的,但是我们上传了一张图像,对他进行图深图,最后的结果就是他会在参考我们原图的基础上, 又去配合这个大模型的画风进行一个深图,就得到了我们一个风格转会的效果。我们可以继续尝试调节一下我们的降噪,比如说我们把降噪调到零点八,看一下效果, 有没有发现这一个图片跟我们原图就变得不那么相像了,但是构图什么的都还是比较一致的,是因为我们的降噪调高了,那么它需要重绘的部分也就越多,那么我们再把它调到零点三 好,调到零点三的时候是不是更加的贴近我们的原图,现在我们可以把它调到零点一 好,有没有发现基本上就跟我们这个原图比较相似啊,只不过还带着大模型的一些风格在里面,也就是偏向于动漫的那一种质感,对吧? 那么我们的图生图就是这么的简单。当然了,讲完了图生图,我们需要讲一个局部重绘,那么局部重绘的工作流我们该怎么去搭建呢?其实局部重绘也是要让我们上传一张图像,然后在这张图像的基础上进行部分的修改,因为我们的图生图跟局部重绘来对比的话,图生图是不是对整张图片的风格进行修 改?但是我们需要用到一个新的节点,叫做设置 lantern 照波遮罩,我们需要对我们这一张图片的局部进行修改,那么我们就需要让 ai 知道我们这个局部到底在什么地方,比如说他的眼睛,或者说他的头发部分,对吧?所以我们需要设置 lintern 照波遮罩这么一个节点,去输入遮罩部分,这个遮罩部分也就是我们加载图像这里有的遮罩部分我们可以给它连进来, 连进来之后呢,这里的 v a e 编码我们不能直接上传给 k 厂机,我们应该先把这个编码完的 lincoln 给到我们这个设置 lincoln 照波遮罩这里,为什么? 因为我们这个 lincoln 编码对我们这整张图像进行编码完之后,他有我们整张图像的信息,我们把整张图像的信息给到我们的设置 lincoln 照波遮罩之后,然后跟我们的遮罩进行匹配,两两重合之下,他就知道需要重绘的部分应该是哪里,然后最后我们再把 lincoln 上传, 就达到我们局部重绘的一个效果。然后呢我们需要对这个遮罩进行一定的处理,我们怎么样处理出来这个遮罩呢?我们左键点击选中这个加载图像这么一个节点,然后右键右键之后在遮罩编辑器中打开,可以看到吧,选择选择一下,我们把他的头发简单的进行一下涂抹 好,涂抹完之后呢,我们简单在提示词这里写一下,比如说我想让他头发变成红色的,我就打红色头发这么一个提示词给他,然后点击生成就可以, 我们可以看到效果是不是非常的不明显,为什么?因为我们刚刚的降噪这里还是零点一,那么他会急剧的去参考我这个原图,基本上不发生变化,如果我把它调零点五,我们看下效果 好红色的部分是不是已经出来了?只不过我们这个模型用的是什么模型?用的是我们一点五的模型的动漫模型,对吧?所以他有一点点这种动漫质感很正常,如果你想让他变得更红一点,我们就可以再往上调调零点八, 好,可以看到现在效果已经变得非常的不错了,对吧?只不过我们看一下这个边边的地方,他可能融合的不是很好,为什么呢?是因为我们这个遮罩部分啊,涂的有点太过于潦草了,其实你可以涂的更加的精细一点,可能效果会更好一点,或者说你降一下这个降噪的数量,比如说把它降到零点七, 好,这样子就更贴近原图了,对吧?跟我们的原图融合的更好,那么这个就是我们的局部重绘。那么这节课呢,我们就讲到这里啦,如果觉得大鱼老师的课讲的不错,不要忘记一箭三雕哦,我们下节课再见到我的康复 ui 系列课的第三课,那么我们前两节课已经把纹身图、图身图还有局部重绘的底层逻辑给 大家梳理完了,那么本节课呢,将为大家带来另外一种局部重绘的方式。我们上节课讲到我们局部重绘的一种方式是 v a e 加上我们的设置 l t 照波的方式,对吧?那么这节课就应该是要讲到我们的 v a e 内部编码器的一种方式,因为这两种呃局部重绘是我们最基础的两种局部重绘的方式, 那么我们本节课呢,除了要讲到 v a e 内部编码器的就这个方法之外,我们还需要跟上节课的那种方式进行对比,我们看一下这两种方式到底 有什么区别,他们的区别在哪?我们去运用的时候,最好就是用哪一种方式才能达到我们最佳的效果。那么本节课所讲到的工作流以及整合包我都放在了置顶评论了,有兴趣的小伙伴可以去评论区领取,那我们话不多说,直接开始讲解 好,又是我们这一个基础的工作流,这是一个基础的纹身的工作流,我们第一节课的时候已经讲到了,那么我们如果要讲局部重绘的话,我们肯定就要把我们的空人腾给它删除掉,对吧?把它删除掉之后呢,我们先把上节课的局部重绘的那两个部件给它弄出来,一个是我们的 v e 编码, 另外是我们的设置 lincoln 照波的形式。我们上节课已经讲到了这两个节点可以结合成为一个节点组,然后变成我们局部重绘的一种方式,对吧?那么我们这节课要讲到了是我们的 v a e 内部编码器 的另外一种方式,那么这两种方式既然都可以局部重绘,我们到底该选择哪一种?哪种方式更适合我们,那我们就需要一一去探索了。那么上节课我们讲过了 v a e 编码和设置 lincoln 照波,我们这节课先把 lincoln 编码器给它连上,那么如果我们想要 连接这一个 v a e 内部编码器的话,我们是不是需要先把图片上传下来,得加载一个图片,然后把我们大模型的 v a e 给它借过来,这也是我们上节课说过的,然后记得把图像的遮罩这个给它传过去,然后最后把人脸输出好,这样子就连接完了我们局部重绘的 呃,一个简易的工作流。然后我们还需要做的是,不知道同学们记不记得我们需要给加载图像,这里面的图像加一个遮罩,对吧?因为这样子才可以具有指向性的绘画我们某一个部位。好,我们在遮罩编辑器中打开,然后我们把他的头发简单进行一下涂抹, 然后涂抹完了之后,跟上节课一样,我们把这个提示词改成红色的头发,然后改完之后呢,我们就可以进行怎么样?是不是可以直接进行跑图了?我们点击运行 好,我们看一下他的效果,他的效果是不是非常的潦草,或者说他就很生硬的生成了一个头发,就直接这样子贴上去了,也没有什么过度之类的。那么我们上节课讲到,我们在用 v a e 编码和设置冷很照波的时候,我们会把降噪幅度给他降到比较低,对吧?因为这其实也是属于图深图的一部分吧,我们试一下这里把降噪幅度降低,看一下会发生什么效果, 哎,有没有发现这里变灰了,为什么会变灰?其实这是一种降噪,不完全的一个效果,有没有发现它这个变灰的部分刚刚好就是我们涂抹遮罩的部分,也就是说在我们的 v a e 内部编码器之下啊,我们去用这一个局部重绘的方式,我们的降噪它必须是多少?必须是一, 但是如果降噪这里必须是一的话,它就更像我们的纹身图的形式了,对吧?因为在我们图深图里面降噪会变成什么?会变成重绘幅度,那么我们重绘幅度越低呢? 它就会跟我们的原图越像,也就是说我们上节课用到了 v a e 编码,加上设置 lincoln 照波的这一种形式,我们通过降低它的这种重绘幅度, 然后让它去参考我们原头发的一个形状,之后它才会再用多的那个降噪幅度去进行头发的上色。但是用在我们这个 v a e 内部编码器这么一个 局部重绘的这个工作流里面,你发现它是并不适用的。如果你的这个降噪的这个幅度太低的话,那么它这里重绘的部分它就画不出来。那为什么会有这种情况呢?是因为我们的 v a e 内部编码器,它会在我们的遮罩部分生成一个完全崭新的白色画布, 也就是说我们相当于在遮罩的部分给它添添加了一个空人腾,然后这一个空人腾呢?如果我们需要对这个空人腾进行降噪的话,那么我们就必须把降噪调到一,也就是跟我们的纹身图的这么一个形式是一样的。所以说在我们的局部重绘里面, 它有两种方式,一种是 ve 编码和设置的罩播,另外一种是我们的 ve 内部编码器。那么这两种方式呢?其实它就一一对应了我们的纹身图跟图身图的一个底层逻辑的一个形式。 然后这种 ve 内部编码器呢,它就更偏向于纹身图,所以我们的降噪需要为 e, 然后 ve 编码加上设置人腾照波,这种形式还更像我们的图身图,所以我们可以去调节我们的降噪,可以用降噪比较低的情况下去参考原头发的那种形状, 最后就达到我们想要的那个头发比较贴合那种效果。但是这两个方式优缺点也是很明显的。 呃,比如说我们的 v a e 内五编码器,它虽然是在我们的折角部分加上了一个空人腾,对吧?但是它具备了我们纹身图的一种优势,那就是什么是它的灵活性够大,以及它的自由度够大,它的自由度完全由我们的大模型去进行选择。 但是我们的 v a e 编码和射人腾照波呢?因为是图身图的形式,所以它就会更贴合我们的原图,那么我们就要引出另外一个概念了,就是我们的 control。 我们这里的 ctrl 内呢,可以先加载出来一个 ctrl 内的旧版高级,然后再根据这一个 ctrl 内的旧版高级的这个应用去把它的每一个点都给它,把相对应的所需要的节点再拖拽出来。比如说这里的 ctrl 内的点,我们可以拉出来一条线给它放掉,然后 它就有一个 ctrl 内的加载器给它加载出来,然后这里的 ctrl 内的模型我们要加载哪个呢?我们先看我们的大模型,我们的大模型很明显它是一个一点五的模型,对吧?所以我们 ctrl 内的模型也是需要选择一点五的模型的,比如说我这里要用到一个线稿模型, 那么这里就要选择我们的 live on, 你 可以直接像老师一样打一个 live, 这里就有个 live on, 这是一个真实的建搞模型,我们先把它选择出来,然后选择出来之后,它这里需要上传一张图片,那这张图片应该是什么?是我们这张原图吗?其实不是的,我们需要先把我们的原图进行一个处理 处理,那么我们要怎么样处理这一个原图呢?就需要一个预处理器,然后这个预处理器的类型是什么?这个预处理器的类型应该是跟我们的选择的 ctrl 类型有关的,我们刚刚 ctrl 类型是不是选择了 live on 的 模型?所以这里我们也需要选择 live on 的 预处理器,看到没有把它选择出来,然后这个预处理器作用是什么呢?我们先把原图上传,然后将预处理器把这个图片处理出来,我们先预览一下,看一下它的作用, 你可以看到他把我们的原图处理成为了线稿的形式,看到没有?然后处理完这个线稿呢?我们把这个线稿上传,上传完之后,然后再把其他的这个点连接一下,比如说正面条件,我们就连接正面条件,负面条件我们就连接负面条件,然后正面连正面 啊,负面连负面,然后我们先把这个连接完之后,这个 ctrl 键它起的作用是什么呢? ctrl 键的作用就是把我们这一张现稿的这一张图像转变成为我们的条件点啊,我们的条件点,那么条件在这里代表什么?应该代表我们提示词啊,对吧? 那么他把这个现稿图像转变成为了这个提示词之后,最后一起输入我们的 k 长器,那么这里面就会有一份这个原图现稿的条件在里面,那么他就会根据这个现稿 去处理我们最后这个图像,也就说我们这个线稿能够把我们的最后这个图像给它固定下来。那么有了这个线稿之后呢,我们再输入红色头发,然后把降噪调为一,我们可以看下效果。当然了这里的 ve 我 们不要忘记连接给它连接上去。好,我们执行一下。 好,我们现在可以看到他这个头发是不是完全贴合进去了?只不过这个边缘怎么样?这个边缘显得很深。草,那是因为我们在涂抹遮罩的时候,他并没有涂抹的很好, 它涂抹的这个范围太大了,所以这周围它只能根据大模型的意思把它生成出来,但是至少你现在看这个头发它是完全稳固进去了,对吧?那么这样子就又得到了我们 纹身图的一个大模型的灵活度,又得到了一个呃,头发的一个贴合的稳定性。当然了,还有没有其他方法去处理呢?当然有了,我们把这个遮罩涂抹的更精细一点,那么它跟这个原图它就会更加的贴合。 那么这两种方式我们应该选择哪一种呢?其实如果你只是想对我们的某一部分进行一个重绘,那么其实我是觉得 v a e 编码加上设置等等照播的形式会更加的适合你,但是如果你需要进行大面积的那种创作的那种呃,去重绘,那么我就建议 v a e 内部编码器会更加的适合你。 那么这里呢?呃,大家会看到就整个工作流,大宇老师很少在负面条件这里填写任何的词汇,对吧?为什么?那是因为大宇老师懒呢?但是 不是说这个负面条件都不需要填,在我们的一点五和叉 l 模型里面,我们的负面条件是很重要的,它可以起到一个提升我们图片质量的一个效果,比如说我把这些节点全部给它删除, 然后我们再把这个 lunton 换成我们的空 lunton, 然后以这个一点五的这个大模型去生成一个女孩子, 好,你会发现这个女孩子的质量其实是不高的,对吧?我们这个模型他是属于一个写实模型,就是一个比较真实系的模型,但是他出来的这个效果,他好像有点偏向动漫了,我们可以再出几个,比如说我现在让他出四个,我们看下这四张图片。 好,你会发现这四张图片他出来的各有不同,但是好像质量都不高。那么有同学就会问了,是不是我的大模型的一个质量不高呢?其实并不是的,我们这里只需要加入一个节点,或者说你把这个负面提示词给它填了,填多一点那种通用,比如说, 呃,低质量,对吧?坏手坏脚、模糊这些词语都给它填进去。那么到了最后呢?你输出的图像的质量它应该是会有所提高的,但是我们每次都去填写就会有点麻烦,或者说你用别人的已经写好的封面提示词,你把它加载进来也是可以的,只不过你需要复制粘贴。那么这里大宇老师就给你们推荐一个新的节点,叫做 自动负面提示词,那么这个节点呢?我是已经在我的 comfort ui 里面预装好了,如果你没有装的话,你可以点开管理器,然后点开节点管理, 输入 button b u t t o n, 你 输入 button, 然后找到这个 one button pro 这一个,你把它安装进来,安装完之后重启你的 comfort ui, 那 么你的这一个 自动负面提示词这个节点就出现了,那么这个节点的作用是什么?它里面已经内置了呃,大量的那种通用的负面提示词,我们只需要把这个节点直接通过这个绿色的文本点给它连到我们的负面条件这里,然后简单设置一下它的参数,比如说这个基础模型,这里我们设置成为一点五,要跟我们的大模型一样,然后增强 负面,这里我们可以选择为一,然后就已经足够了。然后我们再去跑一下这四张图,我先把这里的图片给他断开,我们看一下这四张图,它的出图效果有何不同。 好,我们对比一下这张图,那么这个是第一张,那么质量高低其实是一眼可以看出来的,除了这个手臂为什么有点崩?因为我们用的是一点五的模型,这个手臂有一点的崩坏是不可避免的。 ok, 然后我们看第二张。 好,这个可比性可以看到吧,质量相当高,对吧?第三张,这个 我们看下第四张,是不是,是不是感觉质量提升的不止一个层次?所以说我们的负面提示词其实是非常的重要的, 大宇老师不填是因为大宇老师是纯懒,但是呢,我建议学习康普 ui 的 小伙伴都要学会去填写负面提示词,如果你不想填的话,你就把这个节点给他下一下来,然后连到这里,然后这里另外需要插一嘴的是,我们的 plus 模型是不需要填写负面提示词的啊,为什么?因为 plus 模型它是内置的,负面提示词还在在他的大模型里面。 好,那么我们本节课的内容就这么多,认为大宇老师的课比较有用的小伙伴可以一键三连一下,我们下期再见,拜拜 方式都给大家讲完了,并且上节课我还给大家推荐了一个非常好用的节点,就是我们的自动负面提示词节点,那么本堂课呢,我将带大家正式踏入我们 comforyou 的 大门,即工作流的搭建。那么本节课要搭建的工作流就是我们基础的 电商产品工作流,本节课会用到的工作流以及我们的整合包资源,我都打包好放在我们的置顶评论区了,有需要的小伙伴记得去领取。我们话不多说,直接开始我们的课程。 那么我们要去搭建这么一个基础商品工作流,我们需要做什么样的准备呢?那么大宇老师觉得我们搭任何的工作流,首先我们都要有搭建这个工作流的一个思路,那么我们的基础工作流的思路应该是什么呢?我们可以去想象一下,假如甲方给到你一个白底的产品图,我们该如何把这个 白底的产品图放到一个场景里面呢?那么我们需要知道的是,我们的任何的图片都是属于二维世界的,而我们人是属于三维世界的,那么二维世界的图片它其实就是一个平面图吗?对吧? 那么我们要把一个产品放到一个场景当中,其实就是把这个产品的背景给他进行一个替换,他是不是就等于是放到一个场景当中啊?只不过那里面的透视我们需要在二维世界里面把它表达出三维世界的意思, 那么我们的这一个想法成立之后,我们去搭建这个工作楼就很简单了,我们想要把一个白底图放到一个场景,就是把一个白底图的白底把它换成一个有背景的一个背景,并且这个背景可以是客厅,可以是沙漠,可以是森林,任何的都可以,只不过它的透视需要对, 那么在 ai 里面呢?这个透视它是会帮我们自动处理的,不需要我们人为的太过多的去干预。那么说到这里你肯定就知道了,我们这一个基础的商品工作流,它其实就是一种局部重绘的方式,对吧?那么我们就确定了这应该是一种局部重绘的方式。所以我们第一步 来搭建这个工作流的时候,我们先要把我们这一个纹身图的这个工作流给他改成局部重绘的工作流。那么我们到底该选择哪种局部重绘的工作流呢?我们上节课有讲到两种局部重绘的工作流,一种是偏向于图身图的,而另外一种是偏向于纹身图的, 那么如果是偏向于我们的商品工作流,那么大宇老师可能会需要他的背景的自由度更大一点,所以我这里会用到我们的 ve 内部编码器,那么有了 ve 内部编码器之后呢,我们肯定就需要一张图像了,对吧?所以我们要加载一张图像进来,然后这张图像就是我们的产品图。 好,我们把产品图上传之后,不要忘记把遮罩给他连接过去,然后再把 linter 也给他连接过去。 但是这里我们可能需要看一下我们的这个图像,他是七九零乘幺三三四的,对吧?如果你这里选择的模型是叉 l 模型的话,那么这一个分辨率当然是可以的,但是如果说我们想要用一点五的模型去进行它的背景重绘的话,那么我们最好就加多一个节点,叫做 限制图像区域这么一个节点,然后再加一个图像按系数缩放节点, 那么这两个节点呢?通常是可以组成一个节点组的。比如说我们把图像先传给我们的图像按 c u 缩放,然后再把它传给限制图像区域,最后呢再从限制图像区域这里 怎么样?给他拉出来这条线,给他连到我们的 v a e 内部编码器里面,那么这两个节点的作用是什么?第一个我图像按 c u 缩放,我可以把它先放大八倍,对吧?那么放大了八倍之后,是不是七九零要乘以八了,那么这样图像就变得非常的大, 那为什么这里要设置成为八呢?是因为我们这个图像有可能上传的太小了,如果是一百乘一百的,那对 ai 来说其实它就太小了,还不知道要在这里面怎么样进行作画,对吧?但是我们这样图像其实太大了,但是我同样把它放大了八倍,为什么?是因为我不想再以后再去设置这个八,这个数值我就不需要再设置了,那么我以后要设置呢,应该是限制图像区域这么一个, 如果我把它最大高度改成七六八,最大宽度也改成七六八,那么在这里给他放大八倍之后,他遇到我们这个限制图像区域这么一个节点,他就会把最长的这个边啊,把它限制到七六八,然后最短的这个边给他等比的进行缩放, 那么我这一个宽高他就会变成七六八乘以多少啊?这个我不知道,他是按照比例去进行缩放缩放的, 然后我们这个图像处理好之后呢,然后这个遮罩我们就需要去处理了。那么理论上来说,我们是不是需要点击这一个图像,然后右键 在遮罩编辑系统打开,然后把它的背景全部涂为黑色,因为我们要对它的背景进行局部重绘吗?我们需要把它放到场景当中,对吧?但是这里呢,大宇老师就不用这种方式了,因为我们上节课有看到,如果通过我们手动去涂抹,其实他并不是太过于精细化。当然我们也可以进到 ps 里面 生成一个遮罩,然后再上传也是可以的,但是这种方法太繁琐了,所以我们需要另外另外一个节点叫做 sigma anything。 然后这个节点呢,我们该怎么样去把它弄出来?那么第一我们先要点开我们的 manager, 然后点击节点管理,然后搜索我们的 sigma anything, 然后找到它,我们选择这一个 sigma anything 这个 v two 的 也是可以的,但是我们一般先下载这一个,然后你把它下载下来,重启你的 com 浏览器就可以了。但是这里需要注意的是, 你重洗完 comforion 的 时候,如果你第一次用 sigma anything 这么一个节点,它会等的比较久,因为它会自动的去下载一个模型,但是这里你不要忘了,一定要连接好电脑里面的 vpn 才可以, ok, 然后 sigma anything 我 们该怎么样把它弄出来呢?我们下载完之后,在空白的地方,我们点击右键,然后有添加节点,我们往下拉, 找到 s 开头的,然后这里又有个 sigma anything, 看到没有?我们把它点击出来,我们先把这个光点的 sum 与异分隔这么一个节点给它弄出来,弄出来之后在光点的模型这里拖出来一条线,给它放掉, 它就可以加载光腚的模型,然后上模型呢?我们也可以直接去搜索,但是这里不建议直接拖出来,因为拖出来的话,它出来就上加载器这么一个加载器,它不是我们光腚的上语音分割这一个节点所需要的。我们可以像刚刚一样,右键空白处,然后添加节点,找到我们的 sigma anything, 然后选择我们的上模型加载器看到没有?当然如果你不想这么操作的话,你也可以在空白处双击,然后直接搜上模型,加载器也是可以的, ok, 也是一样的东西。 然后这个模型加载器里面呢?你看它可以选择模型,我们一般选择二点五六 g b 就 可以,因为这一个模型它是最强的模型了,现在我们一般用最强的就好。然后这个光腚的模型呢,它就有两个,我们,呃,一般来说选择六九四这么一个就可以够用了啊,然后把这个上给他连接上去,连接上去之后呢,这一个 节点组它就被激活,然后这个节点组的作用是什么?我们可以看到它可以连接我们的图像,对不对?那么这一个图像其实对应的就是我们加载图像这里面的图像了,但是加载图像这里,我们通过按记录缩放以及限制图像区域给他进行了一定的限制,所以最后的图像点应该是从这里拿出来,然后我们把它怎么样连接到这里, 然后这里可以输入提示词,可以看到吧?我们可以直接输入标题,也就是主体的意思,然后我们可以看一下它这个图片。 好,可以看到这个图片的白色背景是不是变黑了?为什么?因为他直接把我的图片给我抠出来了啊?在 comfyui 里面,他抠完的图片不会显示那种透明层,他是显示成为黑色的, 所以说他会把那图片抠出来,所以他把你的背景抠干净之后,我们是不是就可以直接怎么样把这个东西变成遮罩?因为他还可以输出一个遮罩点,所以我们也可以预览遮罩,看一下。 好这一个遮罩预览节点,然后我们可以把这个遮罩给他连接下来,连接下来之后我们进行一下执行,可以看到他直接把我们的主体这一部分变成了我们的遮罩。在 comforion 里面,白色代表了要重绘的区域,看到没有?但是我们现在要重绘的是哪?是重绘背景,对吧?所以我们需要怎么样?我们需要一个遮罩反转, 把它反转过来,好,我们再把它连过去,然后再把遮罩预览复制过来,我们看下的遮罩效果,哎,现在是不是遮罩就变成背景了?那么这个遮罩就是我们所需要的遮罩,我们直接把这个遮罩上传给我们的 ve 内部编码器,那么我们就不需要手动去进行涂抹了,然后这个图像呢?我们应该给的是哪个图像? 那么大宇老师是建议这里我们给的是光 dandy 上羽翼分割这么一个把背景去除的这么一个图像,为什么呢?因为你想一下,我们现在给的是白底图,对吧?如果我们给的是一张场景图呢?我们要抠出场景图的一个一个物品的时候, 我们抠出来之后,如果我们直接把这个图片通过这里上传给我们的 v e 内五编码器,那么他这里内部他是不是得要识别住我们的整张图片好像不太行,我们把它抠干净之后再上传就比较好了,然后这里的工作流就搭建的差不多,这样子他就可以对我们的背景重绘,我们可以先去试一下。那么这里呢,我肯定用到我们的 麦局的 v 七模型,也就是我们的一点五模型,然后我们简单填写一下提示词,那么提示词这里填写呢?我们要用到另外一个节点, 叫做这个 a l e、 k 节点,那么看过大宇老师的课外课都知道这是一个翻译节点,对吧?我们可以直接把这个 a l e、 k 节点怎么样?给他弄出来这个文本,然后翻译高级,然后把这个文本点给他连接下去, 点击下去之后呢,我们改一下里面的一些参数,比如说这个服务我们可能要选择第二个,谷歌的这个服务可能需要钱,好吧,我们选择第二个,然后从什么到什么,肯定是从我们的中文到英文了,对吧?你可以直接在上面打个 c, 然后找到 chinese simple, 也就是我们的简体中文,那么他就会自动给你翻译了,然后我们简单对我们的场景进行一下填写,比如说 客厅背景,然后我们可以简单尝试一下,看一下他最后的一个出炉效果 好,我们可以看到,对吧?这一个是生成的客厅背景,只不过他的透视是错的。为什么是错的?因为我们并没有固定住他的格局,如果我们有一个格局给他固定住,他可能就会放在一个比较好的那么一个地方,或者说我们通过提示词进行填写,比如说产品放在 客厅中啊,瓶子吧这里打好,然后我们再试一遍,好好,现在是放进去了,对吧?好像是放到了地上,但是呢,呃,他这个透视也是不太对的,对不对?那么我们如何解决这个透视呢?就要用到我们上节课说的 control 了, control 旧版高级,然后把 control 模型拿出来,只不过这个模型呢,我们可能需要进行一定的改变,这里的模型我会使用到深度模型,但是我们选择一点五的深度模型, 然后把这个深度模型选择出来呢?我们是不是还需要另外一个节点叫做玉处理器,那么就要用到我们的深度玉处理器了,把它选择出来,然后这个图像我们上节课应该说到是上传什么,是不是应该上传我们的白底图的原图,但是这里因为我们有抠干净了,所以我们直接把这个 mc 的 这张抠过来的图给他上传到我们的玉处理器里面去, 然后上传到域处理器。之后呢,再把这一个给到我们的 control 内应用高级,然后把正负面条件都连接一下,好,然后把 v a e 也连接过来,这个不要忘记了,然后我们可以预览一下最后这张图像, 我们可以先执行一下这个节点,看一下最后的处理效果,嗯,处理效果是不是不错?好,我们现在这张图像已经得到了,那么这个工作流也就打印到这里,然后我们可以试跑一下,看一下他还会不会出错。 好,我们可以看到是不是效果好了不止一点,对吧?正好说它这些透视什么都是对了,只不过这个背景可能它并没有很多花里胡哨的东西, 但是呢,这里为什么背景看着这个质量还是比较差?是因为我的负面提示词没有填,所以这里可能就需要用到我们昨天的负面提示词那么一个节点,然后负面提示的节点大宇老师再在这里带大家去安装一遍,比如说点开 manager, 然后节点管理, 然后打入 bottom 啊,找到这个 one button prom, 我 们把它下载下来,选择这个第一个就可以了。好,然后等它安装好之后,我们点击重启,确定,我们等待一会,等它重启完毕,我们就可以去进行使用了。 好的,我们重启完这个 comforion 之后呢,我们点击空白处,然后搜索自动负面提示词,他就有了,然后把这个连接过去,连接到我们的负面条件,然后记得改一下里面的参数,把 sd 叉 l 改成我们的一点五,然后把增强负面调成一,好,我们再试一遍。 好,我们看一下它的效果是出来了,对吧?这个效果是不是好了很多?感觉好了非常的多,对吧?那么这个就是我们的整套工作流了,其实这个工作流是非常的简单的,只不过是对前面讲的局部重绘的一个综合的一个应用,所以 同学们一定要记住,我们去搭建一个工作流的时候,肯定是从我们的三个基础的工作流去进行搭建的。好,那么本节课就讲到这里,觉得大学老师讲的课有用的同学不要忘记一箭三连,我们下期再见,拜。拜拜。

一分钟把枯燥的开发手册变成由 ai 绘制的科普漫画。每画一张图,每写一行代码,我用 n 八 n 搭建了这个自动化工厂, ai 自动写剧本,自动化分镜,自动写网页代码。很多人问怎么做到的?秘密就在这儿。我用 atlas cloud 接管了全流程,改个 base url 就 能用它写剧本,换个节点又能用它并发画图, 一个 apikey 就 能调用三百多个顶尖模型。看这个病发速度,一套漫画一分钟搞定,且完全无内容审查,创意拉满。想要这个能自动化漫画的 n 八 n 工作流吗?已经打包好了。

本期来讲 ltx 二大模型的新玩法,你只需要在 load audio 节点上传雨蝶歌曲的 mp 三文件,再上传自己的美照。然后呢,输入提示词,我写的大致意思是一个女生在泳池边深情唱歌, 炙热的阳光从头顶直射镜头运镜,先拉远,再慢推镜头到脸部和嘴巴特写,点击运行,等待两分钟,你就能得到这么一段音乐 mv 视频了。 当然,你也可以不上传视频的手震画面, 直接去写提示词,这里写的是一只可爱的人形兔子歌手在深情演唱流行歌曲,舞台上五颜六色的追光灯扫来扫去,镜头先是全景环绕整个舞台,再慢推镜头到兔子的脸部,点击运行,你就能得到这么一段动画的 mv 视频 了。 看起来是不是相当不错?今天来给大家介绍一个 l t x 二大模型的康复 ui 工作流, 你只需要上传歌曲的 mp 三文件,就可以直接生成 mv 音乐视频了。现在呢,我带大家去学习一下这个工作流。首先跟着我打开 runnyhop, 搜索电磁波 studio, 点击工作流。这里有 ltx 二大模型生成音乐 mv 视频的文声视频和图声视频两个工作流。我们先打开文声视频,再点击运行工作流,你就可以跟着我学起来了。 整个工作流看起来是比较清爽的。我们先看常量设置, ys 和 had 是 用来设置生成视频的分辨率, lens 是 用来设置生成视频的总帧数, fps 用来设置视频帧率的, 那么生成视频的时长就很容易得出来了,你只要带入总帧数除以帧率这个公式,就能得到是十秒。 右边是加载模型区,使用有。 net loader 节点加载 ltx 二的 q 四 k m g g u f 量化版。这个模型的好处就是体积相当小, 从而实现你只要拥有八 g 显存的电脑就可以流畅生成视频。其他模型都是 ltx 二标准工作流的老演员了,就不进行赘述了。 最下面是上传歌曲 mp 三的地方,你只需要在 load audio 节点上传你想制作 mv 的 歌曲文件就可以了。我上传的是雨蝶这首歌的翻唱音频, 在这里讲一下专业知识。为什么这个工作流可以自定义音频呢?是因为通过 load audio 节点上传音频文件之后,再经过 ltxv audio v a e in code 节点进行编码,直接输出对应的 audio latent。 也就是说不需要 l t x 二大模型去按照提示词生成声音了。接下来你只需要在上面的 test in code 节点输入提示词就可以了。 在这里呢,再次强调一下, ltx 二对于提示词的要求非常的高,你需要写很详细的提示词才能生成你想要的视频效果,比如你要写好视频主角的外形,所处的环境,镜头的运镜,画面的效果等。 我建议你好好看一下我写的提示词。剩下的部分就是 ltx 二的常规操作了,先是生成 laten, 再进行第一次彩样,之后呢进行二次彩样放大,最后呢进行视频解码,就能生成你想要的音乐 mv 视频了。 图声 mv 音乐视频唯一不同的地方就是在这里加了一个上传手真画面的节点, 你需要在 log in miss 节点上传视频首帧画面在这里呢,你可以自由发挥,上传你的自拍照也不是不行,其他地方跟刚才讲的纹身视频一模一样。然后呢,在 text in code 节点好好写一下提示词,点击运行,等待两分钟就能生成一段美美的 音乐 mv 视频了。 就是,看到这里还等什么,赶紧跟着视频学起来吧!如果你觉得本期视频对你有所帮助,请关注、点赞、收藏,三连走一波!这里是电磁炉 studio, 我 们下期视频见!

哈喽,大家好,我是你们的 ai 小 兵哥,今天我们来使用一张照片生成人物的 lol 数据机,从图片到标注 一个工作流搞定,小白也能轻松上手,后面会告诉大家工作流使用地址,一定要看到。最后, 首先跟大家讲两个核心点,第一, lol 数据集就是训练专属 lol 的 素材,素材图片的数量不用太多,一般二十到五十张就可以了,但是图片的质量要高,关键是人物一致,风格统一。并且数据集里面要有对应素材的标签, 标签的文件名和图片的文件名一样,文件类型是 t s t, 里面记录着图片上面的描述信息。第二,我们今天使用的主角是千万一妹记 id 二五幺幺模型, 他是千万团队发布的最新的图片编辑模型,我们在之前的视频中已经介绍过他具有非常好的一致性,并且对镜头语言也能理解。本期视频我们就来使用他帮我们生成人物在不同角度下的图片素材。 接着就是核心的实操环节,我们先在这里上传一张人物的照片,上传之后点运行看一下工作流深层的结果, 只需要一会结果就出来了。这里是深层的人物在不同的角度和不同景,别的素材有侧脸的,有正脸的,还有俯拍的,还有低头的动作,还有半身照和全身照。下面是人物打标的结果,前面增加了触发词, 后面是这张图片的描述,所有的结果通过工作有自动进行的保存。我们可以打开文件管理,点输出目录,在 model 十里面找到这个触发时的文件夹。 model 零一图片素材和标签文件全部都自动准备好了, 我们只需要返回上一个目录,选择这个文件夹,点击下载,选择这一款压缩格式。 接下来进入工作流讲解环节,我们来看一下工作流是怎么工作的。工作流使用的核心模型是纤维 emoji id 二五幺幺模型, 首先加载 id 二五幺幺的主模型,接着添加一个加速洛拉,这里使用的是 lightning 四步加速洛拉。可立普使用二点五 v l 模型, v a e 使用纤维 image v a e 上传的图像通过缩放节点自动压缩到一百万像素大小, 将这张图像的尺寸传递给空内存的 k 采集器,生成出来的图像统一都是这个九三二乘以幺幺二五的分辨率。 这一项提示词就是我们为这个数据集准备的三十组不同的提示词。 k 采集器就是根据这些不同的提示词对我们的初设照片进行图片编辑。接着进入 k 采集器自动生成图像,生成的浅空间图像通过 v a e 解码出来,这里就是我们生成的结果。 下面我们要对这些图像进行自动打标,并且将图像和标签文件自动保存下来。第二个环节使用到的核心节点是 joy 开不起的自动打标节点,他能接入一组图像素材,自动给这组图像进行打标, 分批输出这组图像的打标结果。打标的结果和触发齿进行合并,我们可以在这里自定义 luna 的 触发齿,这个触发齿会添加在打标结果的前端, 上面是模型存放的文件夹路径。如果我们是在本地电脑使用,需要将这个路径改成 windows 的 文件夹路径。接着在文件夹里面添加以触发时命名的新文件夹, 将图像和对应的达标结果保存在这个文件夹里。这样就通过这一套工作流完成了我们的素材收集和自动打标的工作,大大提高我们制作洛拉的效率。进入我准备的洛拉训练器,将深层的洛拉数据集上传上来,使用这套数据集就可以制作这个人物的专属洛拉了。 从最 m 器模型加载器的节点这里拖出来,搜索洛拉。添加一个洛拉加载器,加入我们制作好的人物专属洛拉。将 k 传感器复制一份,脱下来,将模型接入 k 传感器,修改分辨率, 添加一个种子树节点,使用相同的种子来生成。结果已经出来了,下面是没有使用洛拉生成的结果,上面是使用这个专属洛拉生成的结果,接着我们来使用一组提示词来生成。 结果出来了,我们来看一下生成的图片,全部都是幺零八零乘以幺九二零的高清图片, 每一张图片都是同一个人物。好的工作流讲解到这里结束,视频所对应的工作流我已经上传到我的仙宫云云端镜像,快来制作属于你自己的专属女神吧! 觉得本期内容对大家有帮助的记得帮我点个赞,关注我,带你体验最新的 ai 效果,谢谢大家!

彗星三 i atlus 已经度过了它最精彩的时刻,目前正在缓慢变暗并逐渐远离。目前位于北天球的路报座附近,正在向玉夫座方向缓慢移动。与地球距离约二点五亿公里,约一六十七天文单位, 且距离正在逐渐增加。与太阳距离约二点六亿公里。位于北半球中高纬度地区的观测者整夜可见的区域内。此几乎位于北极星附近,是拱极星,不会落到地平线以下。 最佳观测时间是在午夜后至黎明前,此时他在天空中的位置最高。目前星等约为加十等至加十一等,肉眼绝对不可见,即使使用小型双筒望远镜也极难观测到。 现在需要口径至少二十厘米以上的中型天文望远镜,并在非常黑暗的夜空下才能尝试观测到他模糊的光斑。 它的形状主要由其挥发性物质受太阳辐射和太阳风影响决定。三埃 atlass 的 变化符合典型彗星规律。随着逐渐远离太阳,其表面的挥发性物质升华速度减慢,活动性显著降低。 绘法正在收缩并变得更弥散,亮度均匀度下降。绘尾,曾经相对明显的尘埃尾和离子尾已经大大减弱,变得又短又暗淡。它的整体外观正从一个活跃、结构清晰的脏雪球变回一个安静暗淡的天体。 其形态特征需要大口径望远镜和专业摄影才能解析。未来他将继续在北天极附近盘旋移动,未来几个月内都是北半球的拱极目标, 亮度将持续而稳定的下降,其轨道周期非常漫长。在完成这次近日点访问后,他将朝着太阳系外围飞去,最终回到奥尔特云。下一次回归将在数万年甚至更久之后。因此, 对于当代的我们来说,这基本上是一生一次的观测机会。现已进入衰退期,变得暗淡,且需要专业设备观测,在极好的观测环境下挑战它 星图软件的精确定位事关重要。三、 i atelus 彗星现已现目,正逐渐退出公众视野,重返深邃的太空。 他为我们留下了二零二四年夏秋之交的一段美好天文记忆。接下来,天文爱好者们可以将目光转向未来可能出现的其他星会星了。

还在一个个点开网页搜索吗? open ai 啊,刚刚推出的 ai 浏览器 ats, 将切得改变了你的向往方式,这等于在电脑上装了一个随时在线的 ai 大 脑。当在网页阅读时,选中文字,就能立刻让切 gdp 分 析、总结、 补充背景,甚至自动生成评论。浏览器呢,不再只是工具,而是呢,能理解网页的助手。更厉害的是啊,它拥有浏览记忆,能记住你昨天研究的论文或正在写的脚本。 下次打开呀,就能自动去向四路。它真正的灵魂呢,是 a 卷模式。 ai 呢,不再只是回答问题,而是能直接帮你打开网页,筛选数据,替你上网干活。 open ai 棋局啊,无疑是在谷歌的核心地盘插上了自己的旗帜。 未来呀,我们呢,或许不再是聚焦我们的搜索栏,而是直接跟 ai 说,帮我啊,找到我要的世界。这意味着,互联网诞生之初的自主搜索时代已经落幕, ai 新时代,关注乔梨菜!