炸裂千万图像的镜头控制工具重磅升级!这次以三 d 交互性来控制镜头,更加精准可控,重要的是相比之前参数调整来控制,这次还能呈现背部视角,哪怕是二 d 图片也可以,并不需要三 d 模型。 之前很多小伙伴一直关注的部署问题也得到解决了,因为这个工具已经可以集成到 comfy ui 中使用了,目前已在 github 开源。 ai 图像工程又更进一步了,有需要的小伙伴可以爽用起来了!关注茶官 ai, 学习不迷路!
粉丝462获赞2679


电脑上必备的 ai 软件它来了,那就是 comfy ui, 无论生成视频又或者生成图片都不在话下,而且最近又上线了它的最新版本,无论你是高配五十系显卡的大佬,还是三十四十系的家庭用户,都可以畅享生成视频的乐趣。 因为现在的生成加速技术,比如 sage g g、 u f 加速、 laura 等层出不穷,而且不断在更新,大大降低了生成门槛。这里我用四零系的电脑展示一下效果,无论是图声、视频、 视频首尾帧, 又或者是视频高清放大、 视频动作迁移都是完全没有问题的。当然生图功能就更不必说了,最新出的 c m g 模型更是王炸级别了,效果达到以假乱真的地步了。 你要问我这款软件用起来收费吗?或者说分享资料收费吗?我可以肯定的跟你说一句,完全免费!无论是使用软件收费的, 或者是翻你资料还要收费的,都要擦亮双眼。那么这款软件的安装包和模型工作的文件在评论区里面自己去拿就行了。说了这么多它的功能,那么到底要该怎么使用呢? 很多人觉得这个软件用起来难度很大,不知道从哪下载模型和工作流,不用怕,我已经通通为你下载好了,并且预制成一个文件夹了,真正做到了开箱即用。同时我知道现在大家对于这个软件可能不那么熟悉,我翻遍了市面上的很多教程,有几百几千播放的,几万几十万播放的都有, 我可以说里面的教程内容是鱼龙混杂的,对我们的新手小白并不是很友好,因此我特意花费了三个月的时间专心制作了一套面对于新手小白的教程,里面的内容包含了从安装下载 再到使用各种模型出图,生成炫酷的 ai 绘画等等。这些内容可以说是帮助我们新手小白变成 ai 大 神的最快捷径, 大家可以在我后面的教程里面继续深入探索 ai 绘画的无限可能。那么欢迎来到我的 comfort ui 系列课程的第二课。上节课我们讲到了我们纹身图的工作的底层逻辑, 那么这节课呢,我们就即将讲到我们的图身图跟局部重绘。我们上节课有说到我们的纹身图,图身图和局部重绘是共列为我们 comfort ui 工作流里面的 b g 对 吧?那么这节课用到的所有的工作流,还有我们的整合包资源,我都会放在我们的置顶评论区,有需要的小伙伴们直接去领取哦!我们话不多说,直接开始讲解,那么我们先来看一下我们的 图身图工作流。图身图工作流其实也是非常的简单,它跟我们纹身图工作流不一样的地方是它少了一个空闲腾对吧?它多了一个 v a e 编码以及我们的加载图像,当然了,这里还有一个图像按像素缩放,这一个我们待会再讲。那么这个 v a e 编码 这个节点它是什么东西呢?我们上节课有讲到我们大模型在训练的时候是不是注入了非常多人类看得懂的图片,那是人类的语言,那计算机能不能看得懂? 当然是看不懂的,那既然计算机看不懂我们的图片,那么我们的图片就需要经过我们这一个 chip 加载器里面的 ve 去进行怎么样进行编码,对吧?最后传输给我们的 k 长进行使用, 这样子我们的计算机,也就是我们这个 ai 的 流程才能够跑得动,才能够跑出我们想要的图片。那么既然是图深图的工作流,也就是说我们是需要用图片去生成图片的,而不是像我们纹身图工作流一样, 直接是无中生有。那么既然我们是需要用图片生成图片,那我们是不是需要上传一张图片?所以我们需要一个新的节点,叫做加载图像节点。但是我们上传这张图片之后呢,你会发现这个图片它是什么?什么图片?是不是我们人类看得懂的语言这个图片,那么我们也同样需要对这张图片进行 一个编码,把人类看得懂的语言变成计算机所看得懂的语言。所以我们就会问了,我们为什么不能直接用 pip 加载器里面的这一个 v a e? 这就要讲到我们去训练这个模型的时候,这张图片它不一定存在于我们这个大模型里面,就是训练的时候,那么我们在不一定的情况下,我们就需要保证它在接下来的工作流的过程中呢,是能被编码到的,所以我们需要加载一个 ve 编码进来, 我们直接把图片,我们可以先把这个图像按像素缩放给它删掉,我们可以直接把图片给到我们的 v a e 编码这么一个节点,然后给到它之后呢,你会发现它编码完的信息是通过 lunton 点传给我们的 k 传感器的,那么我们上节课纹身图的时候,我们的空 lunton 是 不是传到这个 lunton 点,那么现在变成了 v a e 编码的这个 lunton 传到了 k 彩虹器这里面,那么我们上节课有说到我们的空 lincoln 相当于一张白色画布,对不对?那么我们进行作画的时候,是不是需要一张白色画布进行使用?那么我们图深图也是一样的,我们也需要一张画布,但是这张画布不再是空白画布,而是我们这张上传的图像,它把我们上传的图像当成了一张画布去使用, 所以这个 lincoln 点上传到 k 彩虹器,那么我们就可以知道我们上传的这张图像的大小跟我们的画布大小应该是一致的,对不对? 那么还有一点我们需要注意的是,那既然是用图像生成图像,那么我们这一个上传的图像它是不是具有一定的参考性?那么待会我们进行图生图的时候, 我们要达到的目的应该是我们生成的图像跟我们的原图具有一定的相似度,但是又跟原图有不一样的地方,所以我们这个降噪我们能不能调到一不行?为什么不行?因为我们上节课纹身图的时候,我们用的是空人腾完全的白色画布, 我们的降噪需要为一,对吧?如果降噪不为一的话,他会有降噪不完全的一个效果,这是对于空画布来说的,但是现在是我们的图身图,对吧?现在 是我们的图身图,那么画布里面已经有了内容了,我们需不需要再把降噪调为一?是不需要的,如果我们把降噪调为一的话,那么他就会把我们上传的这张图像当做一张白色画布来使用,只不过这张白色画布的尺寸是跟我们上传的图像是一样的。 那么如果我们把降噪调到零点五,也就是说我们待会让他画画的时候,不要完全去改变我们画面的一个内容,也就是说你要有百分之五十的参考到我这个画面,所以这个降噪我们就不能调到一,然后这里的降噪也会变成我们所说的重绘幅度, 也就是说你这里的降噪的指数越低,那么它跟我们原图的样子越不像最后的出图效果。 那么知道了里面的一些逻辑之后,我们就可以尝试的去跑一下这个工作流,比如说我自己的模型换成动漫的一个模型,但是呢,我这个上传的人物是一个真人,那么他会发生什么效果呢?我提示词只输入一个女孩子提示词,然后去跑一下这工作流。 five minutes later, 好, 我们发现刚刚我们去进行跑图的时候,它的速度非常的慢,这是为什么?是因为我们上传的图像它的大小具有两千乘以两千的分辨率,那么也就是说呢,我们这个画布大小它是两千乘两千的一个宽高比, 那么两千乘以两千呢,也就是差不多达到我们的二 k 图片了,它的大小是非常的大的,对于我们 ai 这个工作来说呢,它的负荷也需要非常的大,那么我的本电脑用的是三零六零的显卡,所以说对我的本电脑显卡的负担是比较大的,所以它跑的是比较慢的,那么我有什么方法可以解决这个问题呢? 就是我们刚刚说的像素按系数缩放那么一个节点,我们可以先把图像 给他连过来,连到这个节点上,然后我们再把这一个输出的图像连到我们的 v a 编码,然后这里有个像素数量,我们可以把它调成零点二五,也就是说我们的两千乘以两千,经过这个节点的时候,要再乘以零点二五,那就会变成多少,大家可以自己去思考一下。 然后我们把它降到零点二五的大小。之后呢,我们再来跑一下,看一下它的速度。 好,现在的速度是不是非常的快了?好,我们可以看到最后跑出来的图像呢,跟我们的原图是非常相似的,只不过他的画风改变了,对吧?为什么他的画风改变了?因为画风现在是由我们的大模型去掌控的,但是我们上传了一张图像,对他进行图深图,最后的结果就是他会在参考我们原图的基础上, 就去配合这个大模型的画风进行一个深图,就得到了我们一个风格转会的效果。我们可以继续尝试调节一下我们的降噪,比如说我们把降噪调到零点八,看一下效果, 有没有发现这一个图片跟我们原图就变得不那么相像了,但是构图什么的都还是比较一致的,是因为我们的降噪调高了,那么他需要重绘的部分也就越多,那么我们再把它调到零点三, 好,调到零点三的时候是不是更加的贴近我们的原图,现在我们可以把它调到零点一, 好,有没有发现基本上就跟我们这个原图比较相似啊,只不过还带着大模型的一些风格在里面,也就是偏向于动漫的那一种质感,对吧? 那么我们的图生图就是这么的简单。当然了,讲完了图生图,我们需要讲一个局部重绘,那么局部重绘的工作流我们该怎么去搭建呢?其实局部重绘也是要让我们上传一张图像,然后在这张图像的基础上进行部分的修改,因为我们的图生图跟局部重绘来对比的话,图生图是不是对整张图片的风格进行修改? 但是我们需要用到一个新的节点,叫做设置 unfold 照波遮罩,我们需要对我们这一张图片的局部进行修改,那么我们就需要让 ai 知道我们这个局部到底是在什么地方,比如说他的眼睛,或者说他的头发部分,对吧?所以我们需要设置 unfold 照波遮罩这么一个节点,去输入遮罩部分,这个遮罩部分也就是我们加载图像这里有的遮罩部分,我们可以给它连进来, 连进来之后呢,这里的 v a e 编码我们不能直接上传给 k 档期,我们应该先把这个编码完的 lincoln 给到我们这个设置 lincoln 照波遮罩这里。为什么? 因为我们这个 lincoln 编码对我们这整张图像进行编码完之后,他有我们整张图像的信息,我们把整张图像的信息给到我们的设置 lincoln 照波遮罩之后,然后跟我们的遮罩进行匹配,两两重合之下,他就知道需要重绘的部分应该是哪里,然后最后我们再把 lincoln 上传, 就达到我们局部重绘的一个效果。然后呢我们需要对这个遮罩进行一定的处理,我们怎么样处理出来这个遮罩呢?我们左键点击选中这个加载图像这么一个节点,然后右键右键之后在遮罩编辑器中打开,可以看到吧,选择选择一下,我们把他的头发简单的进行一下涂抹 好,涂抹完之后呢,我们简单在提示词这里写一下,比如说我想让他头发变成红色的,我就打红色头发这么一个提示词给他,然后点击生成就可以。 我们可以看到效果是不是非常的不明显,为什么?因为我们刚刚的降噪这里还是零点一,那么他会急剧的去参考我这个原图,基本上不发生变化,如果我把它调零点五,我们看下效果 好红色的部分是不是已经出来了?只不过我们这个模型用的是什么模型?用的是我们一点五的模型的动漫模型,对吧?所以他有一点点这种动漫质感很正常,如果你想让他变得更红一点,我们就可以再往上调调零点八, 好,可以看到现在效果已经变得非常的不错了,对吧?只不过我们看一下这个边边的地方,他可能融合的不是很好,为什么呢?是因为我们这个遮罩部分啊,涂的有点太过于潦草了,其实你可以涂的更加的精细一点,可能效果会更好一点,或者说你降一下这个降噪的数量,比如说把降到零点七, 好,这样子就更贴近原图了,对吧?跟我们的原图融合的更好,那么这个就是我们的局部重绘,那么这节课呢?不要忘记一剪三剪哦,我们下节课再见。

今天和大家一起学习 comfyui 的 操作方法。 comfyui 是 一款免费开源的节点式 ai 绘画视频生成工具,核心逻辑像搭积木,全程不用写代码,靠拖拽连线就能精准控制 ai 生成内容的工具。好了,这就是 comfyui 的 基本操作界面, 这些就是 comfyui 的 基本工作流。我们先来认识一下 comfyui 的 操作菜单, 版本不同,菜单样式可能也不同,但功能都是一样的。左边这里 comfui 的 图标就是 comfui 的 基本菜单,有新建、打开、保存等功能,与我们经常使用的 word 类似,就不再多说。 资产菜单就是我们文生图、文生视频等生成的文件现在是空白的,是因为我们还没有生成任何文件。节点就是我们在工作流当中需要用到的各个功能模块。 某版里边是 comui 集成的工作流文件,包含文声图文声视频、图声视频等。现在我们回到 comui 的 基本工作流,这里先教大家如何添加我们的工作流节点,在画布界面的空白处点击鼠标右键 选择添加节点,在这里找到我们第一步要添加的模型,加载节点,这样一个节点就添加好了。 第二种方法是选择左侧菜单的节点选项, 在这里也可以找到我们要添加的节点,然后鼠标左键按住拖拽的画布上即可。 直接点击我们要添加的节点也是可以的。 第三种方法是双击画布的空白处,在这里我们也可以进行添加节点的操作,添加节点时支持模糊搜索,也就是说我们只需要输入节点名开头的字符即可, 这样我们的基本工作留的节点就都添加完毕了。 回到坑翻 u i 的 工作流上,我们可以看见有不同颜色的线相互连接, 这里我们将第一个节点的模型输出连接到 k 采集器的模型输入,在连接上的时候,这条线会自动吸附, 而如果连线错误,没有连接到对应的输入输出类型的节点上,连线是不会有反应的,并且对应的节点都是灰色。第二步,我们将 clip 提示词节点连接上, 这里我们有两个 clip 文本提示编码的节点,为什么要有两个?我们看后边的 k 彩样器节点有两个对应的节点,这里也就是我们必须要知道的正向提示词和负向提示词。 我们在这里把两个文本编码节点改成正向提示词和负向提示词,方便我们后期输入。然后我们将正向提示词和负向提示词的输出节点分别连接到彩样器的正向条件和负向条件,这样提示词节点就连接完毕了。 然后我们继续将彩样器的 latent 图像输入连接到下边的 latent 输出,然后将彩样器的 latent 输出连接到 v a e 解码的 latent 输入。再将 v a e 解码的图像输出连接到保存图像节点的图像输入。 最后将模型加载器的 v a e 输出连接到 v a e 解码的 v a e 输入。这样一个基本的工作流我们就制作完毕了。怎么样,是不是很简单?然后我们回到上边的基本工作流上,点击一下右上角的运行, 这里我们只需要等待工作流运行完毕即可,这样我们就生成了第一张 comfyey 的 纹身图。图片怎么样?是不是很简单?快回去试一下吧!

大家好,我是老许,今天呢给大家推荐一款工具呃,可能很多小伙伴都知道啊,上半年嗯,开源了一款 comforion 的 智能助手 comforion compile, 这个工具呢,当时我也用了一下,说实话效果一般, 但是呢,今天给大家推荐的是 runninghub 和 comfyi compilot 一 起联合开发的一款,就是在这个 runninghub 平台使用的一个呃,智能工具, 就是对这个工具进行了一下改进吧,然后呢, 你像他对这个工作流的搜索和应用 啊,这些呢,效果都挺好的啊,对于一些想要学习和研究康复外工作流的小伙伴呢,这个还是很推荐大家呃,使用一下的,我前天呢也在内测阶段测试了一下效果啊,感觉还是挺不错的。 然后呢,今天这期视频呢,就给大家演示一下这个工具的一些强大功能。呃,首先我们 进入这个创作页面啊,有工作流页面进来之后呢,这边有一个 c c 的 一个标志,就是这个 comforloud, 然后这里有几个大圆模型可以使用啊,有 g p 五,也有咱们拿的二点五。首先我们来演示一下这个工作流的使用吧。呃,我改了一下这个贴纸啊,本来是让他给我一个工作流,然后让他给我推荐几个工作流 啊,我在对话框输入给我推荐几个真人转卡通效果的工作流。然后呢,他就给我推荐了三款工作流啊,这里有演示效果, 然后还有工作流的一些特点吧。然后这个是借助 openpos, 这个是 lora 加 ctrl net 是 吧,还有真人转手办效果, 然后呢,点击这个按钮就可以进入这个工作流。呃,我们所有参数都不动的情况下啊,我们来试一试,看看效果。 这边这图片我就不换了。上传图片吗?是吧?本地直接找一个图片上传就好了,然后我们点击运行, 嗯,这样就运行结束了,运行时长,嗯,一分四十八秒。然后这就是效果,这个是原图, 这个是生成的效果。嗯,感觉还是挺不错的,我任何参数都没有改啊,直接直接点击运行就得出了这个结果。然后大家可以在这里研究一下这个他的一些呃,工作流思路。 呃,这边可以下载导出工作流,就导出了本地,这是第一个功能,就是工作流的一个搜索和推荐吧。然后我们再来试一试这个模型的搜索和使用。给我一个真人转手办的模型,然后我们在这里需要选择它是, 嗯,基于哪个基础模型,比如我们就用这个 plus 一 吧点一下,然后他就到了对话框,然后发送,然后他就给推荐了两款。 呃,这个 low 档模型都是基于 plus 一 代五版本,然后点击这个链接呢,就可以进入这个模型的一个页面,这里有处罚词,还有模型类型,就是模型的一些相关介绍吧,一些基础信息, 哎。 lara, 然后是基于 flax 一 带,我这边有触发死手办,然后 我们再来试一下,就最常用的一个功能啊,就是一些插件的讲解和推荐,比如说给我推荐一个勾出人像的节点,嗯,然后这边给推荐了这几款 有专门用于抠图的插件,点击这个添加呢,就可以加入到这个页面里, 我们点击几个看一下啊。呃,这几个全部都是抠出人像的一个常用节点,这里可以选择,是吧?皮肤,左眼右眼, 这可以根据自己的需求选择啊,这效果还挺好的,需要什么插件的时候可以这样搜索。 然后呢,他这边有一些插件的一些相关介绍啊,都是干什么用的?还有比如说我们点击这个插件, 这边会有三个选项啊,官方,这个是官方使用指南,这个是参数,我等待一下看一下它的效果,这个没有找到。嗯,这个插件搜索这个功能呢? 当然这是第三方的插件太多了啊,他的官方核心插件是没有问题的。第三方插件呢,可能一些常用的插件,这边的参数解释各方面都比较好用。但是,呃,一些不成见的啊,他可能就是数据库里面没有, 我们可以截图保存,然后从这里发送图片让他解释,这个就是通过 ai 自己的能力来分析了, 但是前两个功能是挺好用的。至于第三个这个插件相关的功能呢,嗯,大家可以自己去试一下吧,这个太慢了啊。这个插件相关的功能, 嗯,说实话有有待优化吧,有空大家可以去试一下。嗯,这期视频呢就给大家,主要是给大家介绍这么一个工具啊,觉得还挺好用的,不管是工作流给你搜索推荐,还是模型的一些搜索推荐, 包括这相关功能的插件,是吧,他也能给你找出来,找的很全面。但是这个插件的相关功能,嗯, 稍微有点优化,但这个不影响啊,前三个功能已经非常实用,然后这边有一个,这个使用文登吧,算是大家可以了解一下。嗯,当然这个 目前来说的话,呃,我推荐给大家,就是说演示这前三个功能,不管是找插件、找模型还是找工作流, 嗯,这个就可以提高,就是很好的帮助大家,不管是提高工作效率还是进行一些学习和模型的了解,都是挺好的。 好了,本期视频就到这里,然后大家可以在这个 running hub 可以 进行一下尝试啊,这个功能呢,最近两天应该就会放出来,然后大家可以去使用体验一下啊。好了,我们下期再见,别忘了点赞关注呦!


hello, 大家好,上个视频介绍了 comfy ui 的 基础操作及快捷键,这个视频我们一起来搭建基础纹身图和图生图工作流。在搭建工作流之前,我们先来简单了解一下 ai 生图原理。 ai 生图核心在于 从噪声中逐步构造出符合文本描述的图像。那么什么是噪声?噪声是一堆随机的像素。想象一下,你有一张清晰的图片,你不断向它添加随机噪声,最终它变成了一堆完全随机的像素点,这个过程叫前向扩散,也就形成了扩散模型。 咱们常说的图片大模型, ai 生图就是学习如何逆转这个过程,从一堆纯噪声开始,一步步猜测并去掉噪声,最终还原出一张清晰的符合描述的图片,这个过程叫反向扩散或去噪。在刊非 ui 生图过程中,有个核心节点 k 彩样器,它就像整个工作流的领导,制定去造路线图,它可以调用大模型,结合文本条件计算更新下一步,最终生成图像。那么我们先把 k 彩样器调用出来,可以看 k 彩样器左侧有几个输入连接点, 分别是模型、正面条件、后面条件和 latent。 模型自然是大模型,想要调用需要模型加载器,从模型连接出来,找到 checkpoint 加载器, 然后可以在加载器里调用符合风格的大模型,再回到 k 彩样器下面一个是正面条件, 文声图,自然是文本输入,那么咱们从正面条件连接出了,找到 k 文本编码器。为什么是编码器?咱们输入的文字电脑是不认识的,所以需要把文字编码转换成电脑能识别的语义理解, 在这个文本框里就可以输入咱们想要的图片信息。再回到可以采样器下面一个是负面条件,同样是文本输入,从负面条件连接出来,再次找到可以可文本编码器,这里输入的是不想让图片出现的信息, 这里要注意一下,这个可以盆本编码器目前只能识别英文,英文不好的话可以在线翻译一下,当然也有翻译节点,这个后面会再给大家讲解。今天只搭建最基础的纹身图工作流两个可以盆本编码器调用后可以看到右侧输出直接连接 k 采集器了,但左侧还有可以不输入连接点, 这里是连接 k 文本大模型,可以看到 checkpoint 加载器里面有个 k 输出连接点,把它们连接上即可。节点离右侧输出可以连接多个节点,但左侧输入只能连接一个节点。再回到 k 采集器,可以看到还有一个 latent 输入连接点,这个 latent 是 什么?咱们上面讲到 ai 生图,核心在于 从噪声中逐步去掉噪声,最终还原出一张清晰的符合描述的图片。这个 latent 也叫前空间,就是提供原始噪声图片,也可以理解成为这个图片提供一个画布,让 ai 在 这个画布上按照我们的要求来绘制图片。 咱们从 latent 连接出来,找到空 latent 节点,这里可以设置画布大小和张数,提供几张画布, ai 就 生成几张图。再回到 k 采集器,咱们可以看到左侧输入节点已经全部连接完成。再来看一下右侧输出也有个 latent, 咱们这个降噪生成图片的过程是在前面提供的空 latent, 也就是前空间里完成的,这里面是电脑认识的图片信息, 我们想要把它转变成像素信息,这个时候就需要一个解码器,那么从 latent 连接出来找到 va e 解码器节点,它相相当于 ai 和人类的翻译官。同样,我们看到 va e 解码器左侧还有个 va e 节点,它也是需要连接 checkpoint 加载器里的 va e 大 模型。 va e 解码器节点右侧输出就是图像节点了,连接出来后可以选择预览图像或者保存图像,这样整个基础纹身图工作流就搭建完成了, 我们来测试一下,正面提示词我们写上现代别墅客厅沙发、白色地毯,洁白空间猫。反面提示词先不写前空间画布大小给个一千零二十四乘一千零二十四, 如果电脑配置较低,可以默认五百一十二乘五百一十二的就行。点击运行可以看一下,这样一张符合文本描述的图像就生成了,右击可以单独打开图像,比较满意可以再次右击保存图像。 我们再来整理一下这个工作流,左侧模型加载可以文本空 at 可以 理解为条件输入,中间可以采样器理解为控制计算。右侧 v a e 解码和预览图像可以理解为图像输出,以后再复杂的工作流也都是这几个模块组合, 无非就是在条件输入处多加一些控制节点。了解完文生图,咱们思考一下图生图该怎么搭建,图片该以什么形式当做输入条件提供给电脑, 我们一起再来看一下纹身图,工作流可以采样器后面 laten 输出,经过 va 一 解码就能看到图片,那么咱们提供的画布空 laten 右侧也有个 laten 输出,同理是不是也可以解码出来,看看这个画布长啥样?我们一起测试一下。连接 va 一 解码, 连接阅览图像,连接 v a 一 点击生成,生成后可以看到是一张无信息的图片,那么咱们是不是可以逆向思维提供一张有信息的图片, 经过 v a 一 编码,给 k 彩样器提供一张有信息的画布,我们测试一下。左键双击调用加载图像节点, 找一张别墅客厅效果图粘贴进来,右侧图像连接出来,找到 ve 编码器节点,左侧 ve 连接 checkpoint 加载器 ve 模型,右侧 laten 连接 k 采样器,把这个有信息的画布提供给 k 采样器,调整一下 k 采样器降噪参数,具体各节点参数信息后面会单独讲解, 点点关注不迷路,提示词不便再来运行一下, 我们把输入的图片移到输出的图片旁边,对比一下,最终的图片就是结合咱们提供的图片和提示词内容。 现代别墅客厅沙发,白色地毯,洁白空间,猫到此恭喜你成功搭建出了基础图生图工作流,厉害!以上就是康菲瑞基础纹身图和图生图工作流搭建,关注我下个视频,我们一起来详细了解基础工作流中的各节点参数设置。

哈喽,大家好,前两天给大家讲解了目前最厉害的生图模型 z e m g 的 使用方法,嗯,想必大家也已经尝试过了, 然后可能会发现到这个模型的一些限制,第一个就是它的生图尺寸不能超过两千,就是两千乘两千,第二个是它生成的图片里面有一些细节,嗯,没有那么的清晰吧, 那今天给大家讲解一下该怎么用 c 的 vr two 这个模型来对生成图片进行一个高清放大。这个是我之前跑的一张图, 就它的原原本的图片大小是五三七乘六七六,其实很小,然后也比较不是那么清晰,然后我经过 c 的 vr 去,然后可以放大,放大到四千四三二零乘以五四三二, 这样一个尺寸就相当于是已经到八 k 的 清晰度了,这是一个对比,就这样放大的来看的话,就细节就很明显的让他进行了一个提升。 好,那今天给大家来讲解一下该怎么使用这个 c to r two。 首先呢要使用 c to r two 这个模型的话,我们需要用到几个核心节点,这几个节点都是通过这个插件, 就 c to r two, 然后 video upscale 安装这个插件之后就可以使用,然后它的地址的话,我到时候也会附到评论区里面, 然后它还涉及到,嗯, c d v i c d v i two 的 放大模型, 主要是有两个模型,一个是放大的一个模型,然后还有一个是它的 ve, 它现在分成的是两个模型,一个是三 b 的, 还有一个七 b 的, 到时候这个地址我也会附到评论区 cdo r two, 他 对设备的要求其实没有那么高,特别是在这个 vr, 那 个 现在是二点五的版本,二点五的版本之后,他加上了一些那种快处理的能力,就使就使得你的使用门槛会降低很多。这边三 b 的 话,八 g 的 显存应该都可以跑, 然后七 b 的 十二 g 也是可以跑的,如果说你觉得跑的有点慢,或者说跑不动的话,你也可以用这里面量化模型。 我十二 g 的 话,这三 b 的 时候可以跑的,然后七 b 的 话我还没有试他原版的,我用了一个 q 五的再试,然后发现也没什么问题。现在给大家讲解一下工作流是怎么搭建的。 这个工作流里面最核心的一个节点就是就这个这个节点,把这个拿进来之后就可以看见它其实就只有三个输入参数, 一个是图片,那这个就不用讲了。然后第二个是 it, 这个也是它们插件里面自带的一个节点,然后第三个 v i e 也是它自带的。当咱们下好了这个模型之后, 可以直接放到 model 文件夹,然后可以新建一个 c 六幺二这样一个文件夹,把 vae 和它的模型都放到里面来就可以了, 它这个节点可以识别到。为了方便大家下载,我也会把模型放到这个酷狗的,嗯, 往上面去,嗯,我应该只会把这几个吧,就是我现在这边自己用到的这个放上去就 v i e, 然后三 b 的 还有七 b 的 q 五,然后如果其他自己大家需要的话,可以自己去这边去下载, 然后参数这一块上面的这这个就不用怎么调整了,就就记得选择你自己下好的那个模型,如果你选的不是你下好的话,他会后台再继续重新下单, 但是由于这个模型会比较大吗?会下的稍微慢一点,如果网络有问题可能会失败。然后 v a e 这个节点的话, 这边他就增加了快处理,如果你内存比较大,不需要快处理,或者说你放大的倍数就只是到什么幺零八零乘以多少的话,那你也你可以不开,就可以这样关掉,这样都可以关掉。但是如果说你要放大的比较大,比如说嗯死赔什么的, 那建议把它打开,然后你内存它可以减少你的显存的消耗,然后这里面参数就不用再进行调整了。这个核心节点里面有几个需要需要注意的, 这个就是你需要放大的尺寸,就是你的目标尺寸多少,然后它是按照你最嗯短边的那个来, 比如说你是,比如说你是六百乘以八百,那么就相当于把六百的扩大到四四三,就是扩大到这个来,然后八百的他就会按照等比例同同样扩大。 下面这个参数是指他最大最大能够支持的那个分辨率,最好是限制一下,比如说你要是一个特别长的,然后但特别窄的图,这样限制之后,他就不会让他这样跑,就他的长边就不会超过这个。 这一块是你生成图片的数量,因为它其实是一对,可以支持对视频放大,所以咱们只是用用图片的话就直接选选择一就可以。 下面这些参数其实都没什么需要调整的,然后说如果咱们放大之后发现有一定的色差,可以尝试一下,这里调整一下,选择不同的试试。 然后为了对比嘛,因为我们之前也有讲过一些其他的放大方式,嗯,以前 sd 一 点五或者说 sd 叉 l 那 个时代我用的比较多的就是 sd upscale 这样一种放大方式,我也试了一下,用用 gmail 这样一个模型来接入到这个里面进行一个放大, 然后效果呢?嗯,有一定的效果,但是跟上面的 cdvr 是 完全没办法比的,所以这边也就不用再给大家重新介绍这一套这一套方法, 而且它的跑起来的速度会比上面要慢。嗯,然后给大家讲解一下你们使用的一些注意的点吧。 嗯,第一个就是正常情况下,咱们把它放大到两千或者说幺零八零 p 的 话, 咱们其实选择那个三三 b 的 三 b 的 模型就够了,就这个三点几 g 的 速度会比较快,然后六这两个你可以随便选一个都可以。 然后如果说你要把它放大到四 k, 就 比如说二幺二幺六零,二二六零就是四 k 了嘛,然后或者说四三二零的话就是八 k, 那 就不那那建议就不要用那个三 b 的 了,就尽量用用七 b 的, 它效果会更好。 然后还有一个注意点,就是如果你的原图片特别小,比如说就三百乘以四百,两百乘以三百这种, 那咱们就不要用七 b 的。 咱们处理方式就是你可以先用一个三 b 的 模型,把它放大到就是幺零八零,大家可以自己去再尝试一下。就是因为你用三 b 的 模型,把 把一个比较嗯小尺寸的图片放大到幺零八零,他的效果会比你用七 b 的 啊,这个小尺寸的图片,直接放大到什么两 k 四 k 啥的,效果会更好,这可能是他模型的里面一些限制还是怎么来的, 所以大家如果要把小模型进行放大的高清,我推荐的就是你先用三 b 的 模型放大到幺零八零,然后再把这个输出的图片保存,再做个输入,再重新把它再用膝盖改成七 b 的 模型, 然后再把它放大到八 k 或者说四 k 这样,然后整个的运行时间的话,我放到的八 k 会比较慢,就是幺零八零,然后放到八 k 这这个速度。 但是如果只是八 k 以下的,就比如说四 k 或者说二 k, 这个速度都在一分钟以内就可以完成,看一下速度五十秒左右,这就是一个对比,这个就是原图,然后这是放到幺零八零的, 当然跟我刚才放大的八 k 还是有一定差距,但是效果已经比较清晰了,然后你再以这张图作为一个输入,再把它放大到八 k 就 可以了。嗯,还有些图片的话,虽然尺寸是比较大的, 但是画面很糊,就像这一张图,它已经到两二四二五乘以幺六三二了,但图片很糊。 对于这种图片的话,咱们的处理技巧就是就是你先接一个这点,嗯,把它的最长边限制到八百以内, 这样的话你就可以充分发挥这个 cdvr 这个模型的能力,让它变得更糊一点它它的发挥空间会更大一些。然后大家可以看一下这个具体的对比情况,就原图会很糊吗?但是你通过这个 cdvr 之后就特别清晰了,就很真实,而且 目前在放大这一块的话, cdvr2 应该是效果最好的。然后还有一个 flash vsr 那 个,嗯,看那个时候其他博主的介绍, 嗯,感觉它的效果还有些细节,可能没有它没有 cdvr2 好, 所以这边就先暂时不介绍了。那今天的分享就到这,感谢大家收看。