comfui 本地部署到底选什么显卡最合适?不同显卡之间区别有多大?跑起工作流来速度能差多少呢?今天我们就用同一工作流实测七款热门显卡,每块卡跑三次,取最短耗时。 结合大概价位,看看谁才是性价比之王,谁又是速度怪兽? ready go 三零八零九十六点二八秒三零九零六十二点三五秒四零八零 s 四十七点零八秒四零九零 d 三十七点六七秒 四零九零三十二点五六秒 a 一 百二十六点八三秒五零九零十八点九七秒。
粉丝37获赞257

今天想跟大家分享一下本地部署康复 u i 的 电脑配置。先说显卡类型,要分三个类,英美达显卡、 a 卡和集成显卡。 能上新的显卡的话就上新的显卡,不能的话也可以用四零系、三零系、一零系、二零系也能使用,但是这里没有标上。如果有条件的话,显卡的类型要选择 a 卡, a 卡他们有加速功能,他就会比 a 卡升图会慢,这不推荐集成显卡。 显存容量选择多大合适?入门级别都六到八 g 就 刚好可以升个图片,录个视频就不行, 最好推荐十二 g 到十六 g, 你 能升图片,你能升视频。像现在的大模型基本上是二十个 g 以上,但是他会出量化版,所以十二 g 到十六 g 完全可以跑量化版的模型,这两个专业级的什么模型都能跑。 看一下内存的选择,看第一个入门级别,四 g b 在 康复 u i 完全不够用,会严重卡顿的, 八 gb 可以 勉强跑一下图勉强够用,十六 gb 还行,但是如果你要处理视频的话可能比较麻烦,他会爆显存, 他爆显存原因他可能就是你内存不足,他才会显示爆显存,三十二 gb 就 可以跑图,跑视频都完全够用,就没有压力。六十四和一百二十,这是属于专业版了。 安装 comui 运行的硬盘,我们最好选择固态硬盘,因为 comui 在 运行的时候,它会把数据先调用到硬盘,然后再调用到内存,再再用到显卡, 它是来回调用的,所以说你硬盘不是固态的话,它调用时间会很慢。固态硬盘最少保留五百 g, 因为你安装 comui 本身软件,那肯定会用到二十个 g 的, 然后大模型的下载一百个 g 到两百个 g, 如果在运行康复 u i 显示报显存,那么得在固态硬盘这里分出一百个 g 设置虚拟内存,所以固态硬盘最少保留五百个 g。

还在为 amd 显卡不能使用 comui 而发愁吗?现在不用了,因为我们的 comui 已经支持 amd 显卡用户使用了,就在最近我们的 comui 官方进行了更新,在安装选项新增了 amd 显卡,现在我们的 amd 显卡也能畅通无阻的使用了, 那么具体该怎么安装呢?首先我们要来到这个网站,就是 confui 的 这个网站,这里我全程为大家演示一下,我们输入 confui, 然后点击确认来到这个界面,然后点击这个网站, 点进去之后呢它就会跳转出来这个页面,然后我们稍微等待一会,它就会变成这样的界面,可以看到在下面明确的显示要求 需要英伟达或者是 amd 的 显卡。然后呢我们再点击这个下载的图标点击下载,我这里也给大家提供了软件的安装包,已经大量的模型工作流都是大家必备的, 那么大家要是直接搜索打开 comfyui 显示的是这个页面,它上面不是说没有 md 显卡选项吗?那么其实你只需要将我们的浏览器设置里面设置为英文打开就可以了,这个地方也挺抽象的, 所以大家可以自己去尝试一下,然后下载好之后,然后呢你就会得到一个这样的软件,我们直接打开进行安装。 这里面呢我们挑选一下自己比较空的硬盘,因为到时候我们的模型包括一些数据什么的是非常庞大的,我们挑一个比较空的硬盘里面存放, 然后点击安装,已经完成了这个向导,我们点击完成,然后运行,然后这里面你可以看到,哎,我右上角明明是中文,但是它显示的是英文,所以这里有个小 bug, 我 们先改一下, 改成任意的一个语言,然后再切换为中文,然后点击开始可以看到这里面是英伟达,然后 amd 以及 cpu 模式,然后他推荐我们使用英伟达的显卡,然后我们只需要点击这个 amd 显卡,然后再点击一下这个位置, 切换一下他的 comui 文件,进行一个切换,然后这里面我们可以勾上, 然后就可以点击安装,那么他就会配置我们的拍放环境,然后进行安装。加载完之后呢就可以打开我们的界面了,这里面大家可能会遇到一些网络问题,然后导致打不开,大家可以选择调一下自己的网络,但其实他是会从国内的镜像网站进行下载依赖的, 你可以看到这里面其实是打开了一个提示窗口的,那么它就在配置我们的环境了,那么这样子就搞定了,我们如何使用 amd 显卡来下载使用 comfiui, 那 么这期视频就到这里了。


是 a i t z, 去年是阿凯空游还在一月十五号更新的一个 flex 二 klein 的 模型,一点是它的身图或者是便利图像的能力 很快。第二点是它的一个对你的显卡要求很低,三零九零或者是四零七零都可以。这个型号它一共两个版本,一个是九 b 的, 一个是四 b 的, 那究竟有没有他说的是那么好呢?今天阿凯带大家来简单的体验一下。那首先的话,先说第一个问题,就是就如果你想使用最新版本的 client 的 话,是需要把你的 qq id 更新到最新版本, qq id 它自己的,把它一个官方仓库迁移了,就导致现在有个 bug, 就是 你需要按照我的步骤打你的 qq id 文件夹隐藏项目,选择这个 get 文件夹, 然后找到这个文件,然后用记事本打开,然后把这个网址换成这个网址就可以了,可以看到我把这网址换了之后能直接更新到 呃,一月十七号的最新版本。至于 k n 的 模型,它,呃深度效果是如何的呢?我们先看一下官方的一个指南啊。首先是它有个四 g 版本,它有工作流,是这个点击右键纯属为就可以直接下载这个工作流, 然后这有他几个模型啊?四 b 的 模型,呃,以及一个九 b 的 工作流也是一样的,那我是按照按照官方的流程把这个东西下载下来。男模特,左边是 z 音乐局,右边是最新版本的 kant, 四 b 版本的真牛版,第一眼看上去感觉还行啊,但是 在做女士的时候就出现一个问题,就是头发毛躁没法解决,就是 z 音乐局,就是 z 音乐局,可以看到 可以看他头发这个纹理非常的清晰啊。那可以的,问题在于这头发非常毛躁啊,毛边非常多。然后不光是四 b 版本,就四 b, 他 是个比较小的模型,我也用过他最好的就是九 b。 九 b 的 针灸版也是。还是有这个问题,头发毛躁,中文题词跟英文题词甚至会有区别,特别是这个多出一个手就很奇怪,有一条 ai 味。头发毛躁以外还有个问题就是对中文字体不支持,可以用中文直接生成海报,但是它没法识别标题字是什么。

ai 生图免费, ai 生成视频同样免费,这就是二零二六商业化最好的 ai 声卡的工具。 apple id 七中文版和那些满是付费套路的网站不同,这个版本是本地安装,在自己电脑上,不用联网,更不用魔法上网,所有运行均在本地,不用积分,不用排队,也没有按次按月的计费套路最低支持 幺零六零显卡,并且原声中文自带两百六十多款常用配件。生成图片点一下就好,生成视频也是点一下的事,安 装也只需三步,一、下载二、解压三、双击打开,现在开始教学。首先我们在浏览器里搜索 comfey 官网,点击黄色的下载按钮,随后便可来到这个界面。注意这边一共有两个版本,分别是 windows 版本,还有苹果版本,那我这边就用 windows 来做个示范,点击下载 windows 版, 载好之后我们可以看到这个界面,那么这一个白色的咨询框意思是,如果你电脑没有 git 的 话,我们需要手动安装。如果大家之前安装过 git, 咱们就点击 skip 跳过即可。那我这边先来演示一下, 如果电脑没有 git 该如何安装,那当然是点击第一个选项,打开 git 的 下载页面。随后我们可以看到,在下载的下方一共有三个选项,分别是苹果、 windows 以及 linux。 如果是苹果用户,那么就点击 选项,随后再按照该页面的指示进行下载即可。对于 windows 用户,我们可以点击该选项,随后再点击这里即可完成 get 的 下载。在 get 部署完毕后,回到刚才的 comf y 界面,点击开始使用,那么这里又出现了一个选项,分别是自动安装与手动安装,如果大家用的是 n 卡,也就是 英伟达显卡,那么选择自动安装,也就是该选项即可。如果说大家是 a 卡或者其他类型显卡,则是点击手动安装, ok, 那 么因为 up 主是 n 卡,所以说选择该选项,接着点击下一个。接下来我们来到了安装路径选项, 我们尽量不要按在 c 盘,那么我这边选择一个 e 盘,接着点击下一步,这一步也很重要,如果说大家之前安装过康复以外,我们可以在这选择以往安装的路径,随后完成大模型以及 节点的迁移。如果说之前从未使用过康复 e y, 那 也没关系,直接点击下一步,这里一般情况下我们均保持默认,点击安装即可。 紧接着康复 e y 官方包就会自动的帮我们布置,那么经过二三十分钟的下载过程,我们便来到了这个界面,它就是康复 e y 官方版的默认界面。这边呢准备了非常多的工作流,我们可以把它们理解为版,那总共大概有几十甚至上百种,基本覆盖了市面上主流的案例 以及大模型,同时还有 ai 视频甚至 ai 音乐相关工作流。那么有的小伙伴可能会说,为什么我的界面是英文的,我们可以在左下角的设置 这个小齿轮按钮内找到区域设置。这里有个语言选项啊,展开来里面我们可以看到有英文、中文、日本语、韩语、法语等等等等, 选择我们想要的即可。 ok, 那 么我们先回到默认的工作区域,这一块和我们以往使用的康复以外基本没区别,如果说对于运行加载栏位置过下的话,我们可以拖动该栏目,随后来到最上边松开鼠标, 那么他将被我们固定在左上角这个熟悉的位置。接下来我将带领大家一步一步去了解如何使用康复 u i。 首先一起来了解一下工作区都有哪些部分,那么我们可以在左上角这里点开工作流,随后我们可以点击一下新建, 那么我们可以看到这里啊变成了两个,大家可以理解为咱们刚才新建的是项目。 ok, 回到刚才的工作流,我们还可以点击浏览模板,在这里又回到了之前向大家展示的默认模板界面,点击图像生成就是这个紫色的 小瓶子。那么在我们第一次加载该工作流的时候,可能会出现这个报错,大家遇到了千万别慌,并且也没必要慌,它的意思是在我们运行的时候啊,缺少了以下模型, 我们只需要点击这个蓝色的下载按钮即可,又或者压根不用管。为什么这么说,我们先点击拷差,随后啊来到去控制加载器,在这里我们将选择接下来会用到的大模型。刚才的报错意思就是指这一个模块缺少了模型,如果说我们有其他模型 放置在这个节点中,那么刚才的报错同样也能够解决。这边听不懂,没关系,我们慢慢来。刚才我是不是提到了个概念 叫做节点,那么这一个我们可以称为节点,这一个也是节点,这一个也是这一个,这一个这一个他们都是节点,而节点与节点之间可以看到 是通过线进行连接,有黄的线,蓝的线,粉的线,还有红的线,当然还有其他的各式各样。那么这些节点呢,就是通过刚才所谓的线连接成了一整个,我们称为 工作流。至于如何让这工作流跑起来,我们仅需点击这个蓝色的运行按钮即可,咱们一起来试试。现在我们可以发现出现了这个报错,而这个报错也是非常多新手小白会遇到的, 他的意思其实是和刚刚所见的报错完全一致,大家记清楚如何解决之后,可以举一反三,自行解决接下来可能会遇到的类似问题。那么我们可以看到,首先在工作流中有一个节点爆红了,这个节点他是不是 在被红色的框框给框起来,这个标志代表着工作流在这个位置遇到了阻碍,进行不下去了。那好,我们重新看一下刚才报错的英文都代表了什么?点击运行可以看到,首先呢,这边交代了 jumper loader simple, 意思是在这个 jumper 简易加载器中出现了报错,那这个简易加载器也就是刚才我们所说的该节点嘛?好,继续往后看, value not in least, 意思是在属性中缺少了某些值,那么这个值是什么呢?这个值啊,就是这个什么 v 一 杠五,吧 啦吧啦,它是一个大模型的名字,那好,该如何解决?方法很简单,一就是像刚才我所说的,点击之前出现的蓝色按钮。第二,我们可以主动的把大模型给 也放置在这个文件夹内。至于大模型如何获取,小伙伴们可以评论私信,稍后我发你。又或者我们可以在 libipai 这种 ai 网站上自行下载,比如这边我刚刚把一个大模型 放到这个路径后,刷新一下该界面,这边的话我们可以选择不再显示此消息,因为它是一款默认模型,效果其实很差劲。接着关闭来到这个控制加载器, 点击一下我们就可以看到刚才放进来的模型,这边我们就可以选择。那好,现在解决了大模型的问题,再次点击运行,来看一下此时啊,咱们的工作流能不能跑起来。 ok, 那 么这张图像就是我们用康府 yi 生成的第一张图像,别看它非常的简陋,甚至是混乱,但它只是个开始, 后续我们会一步一步的精进,逐渐学习更为强大,更有效率,更有深度的模型以及工作流,还有商业案例。 同时刚才我们所加载的这整套工作流,它有个名字叫做纹身图,也就是文字生成图片。那好, 纹身图,纹身图,这个文字从哪来?咱们来看到这里有两个文本编码器,咱们先简略的带大家理解一下,下一期我再进一步的详细讲讲纹身图具体参数以及背后的逻辑来看到这上边的文本编码器, 它的条件,这根线连到了哪?是不是连到了正面条件,那么我们就称这个文本框为正面提示词,文本框,也就是我们想要什么就在这边 输入什么,比如说此时我们生成一个女孩, one girl, 点击运行,哎,可以看到最终图像立马变成了一个女生的形象。那好,上边的文本编码器我们理解了,咱们来看一下下边的, 下边的,顺着条件输出往后看,连到了一个叫做负面条件的输入中,那么这一个文本编码器我们就称为负向提示词文本框,我们将在这边输入负面条件,又或者被称为反面条件。那这个负面条件的意思和正面条件相反,我们不需要什么,就在这边输入什么。咱 们来举个例子,比如说啊,现在我在正面提示词输入一座花园 one garden, 点击运行,可以看到图中有许多的花朵,有蓝的,粉的, 死的,我们可以再跑一次是吧?花园中怎么能少得了花朵呢?但是如果说我们就不想要花朵行不行?可以我们在负面提示词这边输入 flower, 也就是花朵,点击运行,此时我们就可以看到最终生成了图像,有关花朵的比重好像大大减少了, 现在可以多跑几张,明显变少了吧,这张也是。那么小伙伴们是不是已经理解了正负面提示词的具体意思?不理解没关系,我们下节课再讲。那好,如果说啊,我们想保存咱们刚才编辑的工作流,怎么操作?回到刚才左上角的工作流,随后点击保存,给他按个名字,比如说 文胸图确认。接下来我们就可以在这个文件夹样式的按钮内看到刚才或者说之前所保存的所有工作流。那么我们该如何使用他人的工作流呢?比如说某天啊,我在网上看到一个大佬开发的,比如说模特换装,人物写真,高清修复, 老照片还原,像这些工作流我们该如何直接套用?同样的很简单,我们仅需把工作流的文件拖过来,在这个工作区域内松开鼠标,那别人的工作流就会呈现在咱们的电脑上。至于这边出现的报错,意思是 所有的这一系列节点呢?咱们电脑没有需要安装,那如何安装?当然就是点击这一个安装所有趋势节点怎么操作?大家跟着我来。第一种方法可以点击这个 open manager, 接着就可以来到这个界面,然后我们就可以在这个缺失选项卡内安装本套工作流中我们不具备的节点。又或者我们可以直接先回到这个工作区域,然后在上方看到没有有一个 manager 按钮,点击一下,接着再点击这个按钮安装缺失节点,同样的也是可以 刚才所见的模块一样来补充咱们的节点库。注意啊,这一个和刚才所见的其实功能是完全一致的,只是展示的界面不同而已。 ok, 那 比如说啊,我们先回到刚才的纹身图工作流,这套工作流的保存方法咱是知道了,那他如何导出呢?如何在其他电脑上也能使用呢?来 我们这边也是点击工作流,随后点击导出,注意不是下面的导出 a p i, 是 这一个导出,点击一下,再点击确认,最终我们就可以得到一个像这样的 追悼文件。好的,咱们再来讲最后一点,当我们想加载节点的时候,只需要双击界面,随后再输入节点的名字即可,比如说加载图像直接点击,那么这一个节点就会出现在咱 我们的工作区域中。至于如何删除,我们可以直接点击这个红色的垃圾桶按钮,我们也可以点击键盘上的 delete 键两种方法。那么有的小伙伴可能会说,为什么我的界面是英文的,我们可以在左下角的设置 这个小齿轮按钮内找到区域设置。这里有个语言选项啊,展开来里面我们可以看到有英文、中文、日本语、韩语、法语, 选择我们想要的即可。 ok, 那 本节课设计的知识也是比较多,咱们就先到这里吧。下节课我们再详细的聊一聊纹身图到底是如何使用的。前面的课程讲了 comfy ui 的 安装与纹身图工作流,今天咱们重点拆解图生图基础工作流,手把手教你搞定,哪怕是刚接触 comfy ui 的 小白 也能跟着搭建起来。好的,回到我们的工作流当中。其实图生图和文生图的核心逻辑是一致的,一个是通过文字描述进行生图,一个是通过图片参考进行创作,前者更加适用于去进行创意构思, 而图声图更加适合对自己喜欢的图片进行二次创作。我们首先来到基础纹身图的页面,首先我们需要一个加载图像的节点,双击空白处搜索加载图像节点,这个节点是负责将图片上传至工作流当中,那么接下来我们需要把节点连接至 k 彩样器中,但这里有个问题, 如果直接将节点拖到彩样器中是没有反应的,所以我们首先需要将 klenent 先删除掉。这里的图片分辨率是可以直接用我们上传的图像分辨率的, 除此之外,我们还需要一个 v a e 编码作为图像与彩样器的转接口,之所以这样,是因为原图是像素格式, ai 是 看不懂的,得转成在前空间的图像。把节点都放置出来后,我们就可以进行节点连接了。点加载图像的图像输出 与 v a e 编码器的图像相连接,再把 v a e 编码器的 latent 输出连 k 彩样器的 latent 输入。同时记得把 checkpoint 加载器的 v a e 输出连到 v a e 编码器的 v a e 输入,这样 ai 才能用模型的 v a e 来解析原图 节点之间相连接之后,那么图生图工作流的搭建就完成了。我们先上传一张图试试看效果提示词可以都删掉,用来做效果演示。 点击运行,点开生成好的图片,我们看到它与原图几乎没有什么关联,基本没有任何相似的地方,所以这里我们就需要去调整彩样器中的降噪,也就是重绘幅度。这里我大致说一下不同参数对图像的影响程度, 比如降噪零点五到零点六,保留原图大部分细节,只微调风格。降噪零点七到零点八改变更明显,同时保留原图构图, 降噪一点零,相当于完全重绘,只参考原图的大致风格。当然具体适合的参数还是需要根据模型或不同工作流来观察的,我们还是选择一个常用的 checkpoint 模型,那么这里我将降噪调整为零点五。尝试一下,我们会发现除了一些细节,基本与原图的相似度还是非常高的, 我们再试试零点七的参数。稍等一下,我们会发现这次生成的图改变会非常的明显,但是它仍旧为我们保留了其风格和构图,当然大家也可以去多尝试一下其他不同参数生成的图片。那么今天对 confui 的 图生图教程就结束了, 喜欢本视频的小伙伴们可以三连支持一下,而且好,这一课我们一起学习细节超轻修复咱们先看这两张图片,他们有什么不同啊?主体形象是不是一样,但是仔细看就可以发现,他们的清晰度,他们的纹理,他们的细节完全不在一个档次。 那么这究竟是如何实现的呢?咱们就打开康复以外,先来到默认工作流,比如说我们只用默认词汇生一张图片看看,那么不出所料,我们会得到一张瑕疵较多,细节严重缺失的图片,那么我们该如何对它进行升级改进呢? 那么为了让接下来图片更为统一,我们得把种子值给固定一下,接着我们的宽高也稍微设置一下吧,比方说宽度七百六十八,高度我们就设置为 幺零二四。那么关键词我们替换成一把插在石头上的键吧。那么在输入主体内容之前,先要输入质量词。 注意,我们一般在书写正面提示词的时候,要遵循质量词汇主体加氛围词汇这一个书写结构。那么我们打开翻译软件,输入杰作,高质量极致的细节, 高清晰度就是输我们的主体。一把苏格兰长剑插在直头上,方圆 背景常见,散发着魔法的光芒。异世界,奇幻世界风格、真实质感。而我们后面输入的奇幻世界风格以及真实质感就属于氛围词汇。 咱们把刚才的这一些给翻译一下,然后再复制到正面提示词,那至于负面提示词,我们还是用 easy negative 选择该选项,点击生成试试看。很明显这不是我们想要的,怎么把 p 字大小设置为十, 来筛选一下,比如说这张图片吧,可以看到生成了一把非常酷炫的长剑,咱们乍一看感觉它还不错,但仔细一看可以发现它非常多纹理细节都有缺失。 而我们该如何提升这一把剑的整体质量呢?那画面看起来更为华丽,过程非常简单,我们在 ve 解码的图 图像输出拖出来,按住 shift 键,随后就可以弹出一个搜索框,我们在这个搜索框内搜索缩放图像,看到该节点缩放图像 比例,点击一下就可以看到它自动的连接在了 ve 解码的图像输出。接下来我们把这个节点的系数设置为一点五,相当于待会啊,我们希望出图的像素是 原图的一点五倍。随后我们要复制一个 k 采暖器,这边我们先摁 ctrl c, 先把它复制一下,然后再点击空白处,摁 ctrl shift 加 v, 此时我们就可以看到 成功粘贴了一个带连线的 k 太阳器节点,那这就是 ctrl shift 加 v 的 意思,带连线的粘贴可以省下我们非常多的,咱们就不需要一个一个的去连接了嘛。那接下来我们把这个 layton 给断开,然后豁出一个 v a e 编码器, 大家可以想想看我们这个编码器的图像输入连哪?答案就是刚才的图像按系数缩放的图像输出了,因为我们希望的是把这一张图像作为参考图片传入到 k 采集器里, 但是又不完全是他,因为我们还进行了按系数缩放嘛,他的像素会扩大一点五倍,意味着他有着更多的空间去填补 细节纹理。具体是怎么回事,我们待会就知道。咱们把 ve 解码的 ve 输入连接在就是 point 接收器上,随后我们在 k 采集器的降噪设置为 零点五,然后把内存拖出一个 ve 解码器。同样的 ve 输入啊,我们也是连在 point 接收器上,最后添加一个预览图像节点,点击执行。那么此时我们就可以看到咱们第一次 高清修复的图片就这么出来了。放大对比一下,不难看出,我们经过一次放大,图片细节多了非常多,比方说剑柄,剑阁还有剑刃,新增了一些贵族纹理,当然还有剑柄的末端,相比于原来也是新增了一些纹理。 除此之外,石头也变得更有质感了,大家也可以看到,那这就是高清放大的优势所在。基本上,如果我们想生成高质量图片, 优质的图片这一个步骤是必不可少的。如果我们只是想上来玩玩,那只用前面的这一个基础纹身图和图生图模块就得了,那很明显我们不满足于此。我知道啊,有些小伙伴可能会说, up 主啊, 如果我觉得这张图片他还是不够精细怎么办?别急,咱们还有二次放的哈。没错,我们还能让这张图片变得更加精细。但是在此之前,我们回看刚才的工作流,可以发现,节点是不是越来越多了呀?为了让我们工作流看起来更为简洁, 我们在空白处右键一下,这里有一个添加组,点击就出现了一个蓝色的框框,我们可以给这个组命名,比方说基础生图, 那命名完之后我们先把它放在这里,右下角有一个小小的三角形,点击一下拖动,那这样我们就可以把咱们想编组的内容 放进来,方便我们在节点越来越多的时候区分各模块的主要功能。比如说像我这个组名字叫做基础生图,那么里面放着的内容我希望当然就是与我们最基础第一次生图有关的内容。 同时我们可以看到只要我们拖动这个蓝色的框框,那么框框内的所有内容都会跟着一起拖动。又或者我们可以右键蓝色框框这边可以直接停用该组的所有节点,或者直接忽略该组所有节点,当然我们也可以起用组内的所有节点, 这就是组的一个主要功能。同样的,我们为后边这一个一次放大流程也新增个组别,摁右键点击添加组,咱们就命名为一次放大。 ok, 在 我们整理完之后,我们就来添加二次放大节点, 我们双击空白处搜索 automate s d upscale, 那 么它被翻译为 s d 放大,不过啊,有时候如果我们直接搜索 s d 放大,可能会搜不到,所以我建议大家还是输入 automate s d upscale。 咱们在这我们可以看到也是有非常多的参数以及输入,咱一个一个慢慢连。首先图像必然就是连接在刚才的 v e 解码图像输出上,那模型呢?我们应该连接在最开始的 point 模型输出, 我们可以看到这个线是不是要连非常长啊,怎么办?有没有办法可以简化这一根长长的线? 还真有,比方说我现在把这根线在空白位置松开鼠标,可以看到这边有叫复位节,点击一下,它就是一个小小的转换器,它是个中转站, 它存在的目的也非常简单,就是为了让我们的工作流更为整洁,那么我们可以把这个节点当做模型输出的代理人,接下来我们把它的色输出连接在 sd 放大即可。 同样咱们放大看看 s d 放大还需要正负面条件,我们也是把 clip 编码器的正负面条件都拖出来,添加一个 reroute 中转转换减点,再把它们两个都拖过来,这样一来我们连接是不是稍微方便了一些? 至于这个 v a e, 我 们也是同样嘛,直接拖出来添加 reroute, 然后再连接到 s d 放大上,那最后这有个放大模型需要添加, 我们拖出来添加一个放大模型加载器,选择默认选项即可。之后我们可以把这个运行后操作设置为固定,其他参数均保持不变。新增一个预览图像节点,我们就可以点击执行了。 经过一分钟,我们得到了二次放大图像,那此时我们再把它和一次放大图像做个对比,咱一起来看看。首先是二次放大图像,放大之后基本没有较模糊的色块, 比如说像这个煎饼的细节非常的丰富写实,而我们再看一下一次放大图片,那稍微往近看就可以看到还是较为模糊的,与我们的二次放大有一段距离。 当然如果说我们为了省时间一次放大的图片其实很多时候都够用了,如果说我们为了是得到最棒的图片,那二次放大很明显会比一次放大要提升百分之十五到百分之三十左右。那有小伙伴可能会说,啊,不如啊, 有没有三次放大?嘿,还真有,我们可以在二次放大的 sd 放大图像输出后边拖出来,摁住 shift 键搜索使用模型放大图, 看到该节点,那这个节点非常简单,只有两个输入以及一个输出,我们在放大模型拖出来添加一个放大模型加载器,同样的使用默认选项即可。 然后我们在图像输出拖出来添加一个预览图像节点。那么我为了更直观的对比一下最终图像和我们的第一张基础生图 两者的巨大差距,我打算添加一个图像对比节点,双击界面搜索 compare 看到该节点 image compare, 随后把三次放大的图像输出连接在图像 a 选项,那这个图像 b 我 们就连接在最开始的基础生图图像输出,先添加一个转接点吧,然后再把转接点拖过来,连接在图像 b 上, 这么一来,点击直行即可。经过一分钟不到,三次放大也是成功跑出来了,注意三次放大的运行时间往往会比这个 s d 放大要短一半左右。咱们先把这个最终的图像对比 放大一些,方便大家观看,那么我们可以看到这个是基础生图的原始图像,接着我们再慢慢的向左滑,就可以看到变成了三次放大的 最终图。这个细节的添加不是一星半点的,我相信有部分小伙伴最开始啊看到这张原始图片已经觉得非常不错了,但是此时再把它 和三次放大进行对比,那简直是天差地别。接着我们再仔细端详一下这三次放大图片,我们可以试着放大一下,接下来大家不难发现,无论我们放的多大,图片的纹理都是非常的清晰, 我们仿佛感觉到这把剑上的金丝以及铁锈,还有这些石头上的纹理都被刻画了出来。那这就是我们三次放大的最终结果, 成功的把一把稀有品质宝剑变成了史诗品质。好的以上就是关于本期的全部内容了,在本期内容中,我们一共学习了三次放大,一般情况下我们只需要用到一次放大即可, 当我们对最终图片质量有要求的时候,才需要用到二次放大乃至三次放大。而这三次放大最终图像大小也是非常夸张的,足足有一百六十五 m b。 接着我们来看一下它的像素,那么宽高分别是九千二百一十六乘以 一万二千二百八十八,大多数场合都用不到这个尺寸的图片。好,那么以上是关于本期的全部内容了,那咱们就下期再见,拜拜!哈喽,大家好,欢迎来到新一期的 comfy ui 系列教程,今天我们的视频内容专门来讲讲 lora 模型, 不管是刚接触 ai 生图的新手,还是想提升效率的同学,肯定都想问 lora 模型怎么装?该放哪个文件夹,到底怎么用?又能帮我们解决什么问题? 别着急,今天咱们从头到尾讲明白。首先我们先搞定最基础的 lora 模型怎么安装?放哪里?首先打开启动界面后,找到根目录选项,点进去,再选 models, 然后点 loris, 将你下载好的 lora 模型文件粘贴进去,安装就完成了。是不是超简单? 不过有个小问题,刚装完的 lora 模型,在打开的 comfio 中, lora 加载器里往往没有找到,这是因为 lora 第一次上传上去以后需要重新启动。 重新启动以后,接下来就是核心 laura 模型怎么用?三步就能搞定。第一步,添加模型。在 comfy ui 空白面板双击 搜索,找到 laura 加载器或者 laura 加载器,仅模型鼠标单击一下,它就会自动添加到工作面板中。然后将 laura 加载器的模型节点放在 checkpoint 加载器的模型和 k 彩样器之间,并将模型节点串联起来。第二步,别漏了触发词。 很多 lower 模型都有原作者设定的触发词,只有加上触发词,模型的效果才能完全发挥出来。触发词一般在模型的说明里复制过来,粘到提示词里就行,千万别忘了。第三步,调整权重。 权重代表 lower 模型对生图画面的影响程度,权重越大影响越明显,但不是越大越好哦。大部分模型作者都会给推荐权重值,根据推荐的权重值就好, 如果不知道推荐值,那设置在零点七左右基本不会出错,新手可以先从这个数值试起。最后我们要了解一下 lora 模型到底有什么用呢? 这里我给大家看几个效果图就明白了。比如画面效果控制类的 lora 上面是加了皮肤质感 lora 的 图,皮肤的肌理感一下子就出来了,比单纯用提示词描述真实太多。 再比如画风修改类的,像这里我用了一个 q 版的 laura, 不 用它的话就可能很难还原某些画风,用了之后明显能感受到人物变卡通动漫风格了。当然还有角色特征类的,比如可以在一些模型网站上找一些动漫角色的 laura, 一 键就能还原动漫的角色特征,能够快速得到一张二创图。 好的,今天我们把 low 二模型的安装使用和核心作用都讲了一遍,希望能够对屏幕前的小伙伴有一定的帮助。那么这节视频呢,我们开始来介绍我们六种视频生成方式的第一个,纹身视频。那么纹身视频呢,在我们日常使用当中并不多,但是呢也值得尝试一下。 那么这款工作流是我认为最实用最方便的一款纹身视频工作流。那么首先,为什么说这个是最实用的纹身视频工作流呢?因为这个工作流非常的简洁, 没有什么多余的节点,所以说他容易上手。其次呢,他对于我们的显存要求非常低,即便是我们那些硬件没有那么好的同学们,也可以来进行一个深层来感受一下纹身视频的快乐。整体就是这些节点, 其实这个节点跟我们的最基本的纹身图非常的相似,这个主要因为我们使用的是微英问模型, 简单来说,他将我们的模型颗粒维 e, 甚至包括我们的加速方式,就是我们平时经常使用的加速 lora 也集成到这个模型里面了,这样子就省去了很多多余的步骤,我们可以直接只使用这一个模型呢来进行生成,就是一个证明意思, 我们来看一下具体一个使用体验,我输入了一个现代女性在博物馆拿手机拍照,得到了一个这样的结果,整体的效果还是不错的。至于他为什么是一个外国人,是因为我们默认是生成外国人,当然你可以自己在提示词里面书写, 比如说亚洲人,中国人这样子。我们来具体看一下工作流中有哪些需要我们注意到的地方。首先呢就是我们使用的模型,我们选择的是 t 二 v, 也就是纹身视频模型, rap 代表我们使用的是加速模式, a i o 指的就是 y n y 模型,后面的是它的版本型号。我们来到了提示词部分,副项,提示词不需要填写什么,我们主要是在正向提示词当中填写我们想要让画面出现的内容, 就到了我们的一个视频生成尺寸,这里面大家可以自己来设置,其中注意啊,我们的长度指的就是我们的视频生成时长, 我们还要结合后面的这个帧率来进行一个考虑。将这些节点连接好之后呢,我们直接在 k 采集器当中呢连接上这些条件,然后输出我们的 latent, 然后通过我们的解码器,最后生成我们的视频,其中注意帧率,这里面建议是十八或者二十四,因为这样子至少能够保证视频是一个流畅的感觉。至于视频时长则是我们的八十一,除以一十八,因为帧率指的就是一秒钟有多少张图片的意思吗? 那么最后就会生成这样的结果,那么我这边生成呢,总共花了一百四十七秒,也就是两分来钟, 速度还是非常快的,那么也推荐大家呢去使用这款工作流,像这个视频里面所需要的一些模型内容,我都已经在网盘里面整理好,你打开进去之后呢,会发现有我们的工作流,包括我们的模型, 一个是我们的正常模型,然后另外一个则是我们的 n s f w 模型,那么根据大家的需求来就是这个视觉模型,按照我上面的提示, 然后放进去即可,那么这个视频就到这里了,我们下个视频见。哈喽,大家好,那么今天这节课我们继续来学习徒生视频, 那么这种生成视频的方式呢,也是目前最常见最实用的,那么 out 主这里也给大家带来了一种我目前最推荐的一种生成方式,一个是因为它的生成速快,其次就是节点简单易与操作, 尤其对于我们新手入门的小伙伴们来说,更是如虎添翼。那么话不多说,我们来看一看这个工作流到底是怎么样的。那么像这里面我们导入进去了一张图片,是一个女生在他的房间里面, 我们提供一段提示词,为让画面中的女人站起来,那么整体来说运镜动作是非常流畅的,没有明显的卡顿,动作的幅度也是比较大的,个人认为这样的效果已经是比较好的。那么我们来看一下这个是怎么来运行的吧,这里我们把生成的视频关掉, 然后看一下工作流。首先在模型上的选择,我们要选择我们的 one i two v 模型,也就是图深视频, 这个是我们的微化模型,和上一个视频当中提到的纹身视频是同一类型的模型,当然他也有我们的 n s、 f w 模型,那么可供大家选择。 这是两个提示词,负面提示词和正向提示词,我们只需要在正向提示词当中输入我们想要画面呈现出来的内容,然后在下方的加载图像,这里面上传。我们想要生成视频的图像, 那么他会通过一个图像缩放节点呢进行缩放,因为有时候我们的图像尺寸非常大,你拿这样的一个图像来生成视频,很明显是不可取的,那需要非常好的电脑,我们在这个地方呢设置一下他的深沉尺寸, 这个节点指的就是缩放长度,那么他是将我们的最短边缩放到四八零,也可以看到我们的最短边是不是就是四八零 就这个位置,那么他缩放好之后呢,会将这个图像输入到我们的图像到视频当中,在这个位置我们要注意了,这地方长度指的就是我们生成视频的一个时长, 拿这个八十一和后面的这个帧率,他有一个除的关系,又生成了我们一定时长的视频,和我们之前的纹身视频呢 差不差。因为我们的炸模型自带加速嘛,所以我们的 c、 f、 g 值,包括部署什么都是已经设置好,那么这些参数你可以不用动,就按照我设置的来就可以了, 那么生成的效果也是很不错的。大家拿到这款工作流之后呢,也可以自己去试一试,这个工作流和模型呢都放在这个网盘里面了,大家自己去拿即可,像这地方有模型,我们需要把这个模型放到这个文件夹里面,以及这个都给大家标注好了, 那么大家自己放置就可以了,这个是没有什么难度,那么这节视频就到这里了,我们下个视频欢迎来到我们的 comfy 视频生成系列课程。哈喽大家好,那么今天我们要继续来学习的这一款工作流呢,是我们的一个 one 视频首尾帧的工作流, 同时他也是我们六种视频生成方式中的第三种。那么我们进入到这个工作流界面呢?我刚才已经跑过一遍图了,我们输入一个手帧图,一个尾帧图 就可以看到生成的结果,那么这样的一个变装效果,个人认为他的一个人物动态以及姿势都是比较生动的, 他的服装以及细节保持的都是很不错的。那么具体我们要如何来进行使用呢?首先我们会看到有很多这样的节点,那么不要慌, 我会非常详细的为大家讲解每一块都有什么样的功能。那么我们首先来看一下他使用的哪一些模型,模型适配我们的低配置用户, 然后再添加一个加速罗拉,能够更加有效的提升我们的视频生成速度,通过我们的一个视频输入以及 c 加速, 能够实现一个进一步提速的效果。最终呢将这两个高低噪生的模型条件输入到我们的传感器当中, 就要注意到我们需要输入一下我们的参照器的正负相条件,这时候就需要上传我们首尾帧的一个图像,通过一个图像缩放节点来进行一个输出,那么这个图像缩放节点呢?主要就是为了避免我们的图像过大,导致爆显存的现象出现, 那么就会导致我们的工作流无法生成。我们将首尾帧的图像进行一个输入, 那么这个时候就可以看到我们的一个彩样器,是不是模型正负相的一个条件都有,同时由于我们在这个位置 输入了我们刚才缩放后的图像宽度,那么我们的视频生成尺寸也有,最后通过我们的彩样器这一部分实现了我们图像的深沉,然后我们再添加一个补帧和图像放大节点, 那么主要就是为了进一步提升我们画面的一个质量。那么有的小伙伴这时候就要问了,那么我们如何来找到这些模型呢?你只需要打开我分享给你的链接之后呢,你就可以看到这些内容, 比如说我们的插件,我们的 copy, 包括我们的放大模型 lara 和我们的望模型,以及整体的一个工作流文件, 那么你想要哪个就用哪个,非常的方便具体使用你就看上面的这个简介吗?像这个忘二点二模型放到我们的 diffusion models 文件夹里面就可以了, 具体呢,整体的一个工作流就是这样使用的,大家可以自己去动手试一试,尝试一下。那么我们这节视频就到这里了, 对你有帮助的话不妨关注或者点个赞支持一下我们下个视频见,欢迎来到我们的 kufui 视频生成系列课程,哈喽大家好,那么这一节课呢,我们继续来学习我们的 kufui 视频生成,那么这一节是我们的第五节 视频高清放大,那么为什么需要视频高清放大呢?我们不能够一次性生成高清视频吗?答案是不能的,因为那样子对于我们的设备性能要求非常的高,所以我们就采取了一种折中的办法, 我们先生成低分辨率的视频,再对我们的低分辨率视频呢进行一个高清放大,这样子就能够非常有效的缓解我们生成视频的压力。 那么今天带来的这款工作流呢,也是目前最新的 cvr 视频修复工作流,效果是非常的给力,使用方式也非常的简单,我们上传这个视频之后,通过这一系列的节点就能够得到一个更高清的视频了, 那么这个是我们的原视频,再对比一下我们生成好的新视频,可以看到画质有明显的提高,我们来看一下该如何继续的使用。在这个选择视频上传里面上传我们想要高清放大的视频,这里面有一些参数,我们可以自己设置。首先强制帧率, 那么我们对于视频高清放大的原理其实就是对于图像进行放大,因为每一帧是由非常多张图片构成的, 那么像这里我们强制帧率为十六,那么这个意思就是说,即便我们原来的那个视频,他一帧有四五十张图片,但是这样子我们强制帧率之后呢,那么我们依旧只会修复十六张, 就相当于减少了我们的工作量。至于下面的这些内容呢,我们暂时是不用管的,我们来看到我们的缩放图像, 为什么我们要进行缩放图像呢?有时候我们可能这个视频他的分辨率很高,但是并不清晰,他只是单纯的分辨率高,所以说我们这个时候就要对他进行一个缩小再放大,才能够增加更多的细节。 我们通过这个比例缩放之后呢,就来到了我们的一个放大模型加载,这里面我们一般来说设备比较差的呢,就选择这个三 b f p 八的就可以了,你的性能比较好的话,我们可以选择 f p 十六,或者直接选择七 b 的 一个模型, 那么根据大家的设备进行一个选择,我们加载完这个 d 的 模型之后呢就来加载这个 ve 模型,那么这里面我们只有一个可供选择,所以这个不是我们的重点,重点我们要看这里面在视频放大器这里面有一个最大分辨率为一九二零, 那么这个的意思就是说我们生成好的视频,他的最长边就是一九二零,那么也可以看到我们最后生成的一个效果,是不是一九二零。通过这样的方式呢?我们进行一个输出途中呢,我们也加载了一个清理 gpu 的 一个节点,然后我们进行输出,最后能够得到结果, 那么这样子我们的一个视频高清放大就生成好了,效果也是非常的给力的,因为我们会将原本模糊不清的视频呢升成为高清视频。那么具体这款工作流需要的哪些模型呢?我这里也给大家整理好了,像这里面有我们的一个工作流,包括我们的模型, 同时也包括我们的一个插件,都为大家提供好了,那么大家自己下载好安装就能够用了,对你有帮助的话不妨点赞加关注,支持一下我们下个视频,欢迎来到我们的 comfy 视频生成系列课程。哈喽大家好,那么这一节课就是我们六种 ai 视频生成方式中的第六种, 那么就是我们的视频换脸该如何进行使用。我们首先依旧来看到我们的整个工作流界面非常的简单,那么这个就是我们导入进来的原视频,我们先看一下效果,我们再看一下他换了一下安妮海瑟薇之后的脸,我们来看一下它的一个效 果,可以看到效果非常的真实,人物面部表情一致性非常的好,那么这一种效果 就是通过我们的这个工作流来进行生成的,那么这一款工作流有几个特点,那么就是它的一个节点非常的少,说明我们的工作流运行的并不复杂,同时需要的显存要求也比较低,那么对于我们设备不好的同学们可以说是非常的有利的。那么具体这几个节点做什么作用呢?我们来看一下。 首先是一个加载视频的一个节点,主要就是为了上传我们的一个原始视频图像,我们通过上传完这个图像之后呢,就会来到这个 reactor 换脸节点,这里面同时加载一张我们需要替换的一个人物面部表情比较清晰的图像,把它连进来, 同时我们注意到这个节点里面有很多参数要调整,让我们来看一下有哪几个值得我们注意的,那么这里面这几款模型呢,经过实测下来,还是这几款效果最为不错,这个面部修复模糊,你开的越高呢,人物的磨皮就会越好,开的越低呢, 人物的那个面部就有点坑坑洼洼的感觉,这个权重呢指的就是替换后人物的相似度,过高或者是过低呢,都不好, 保持一个中间值即可。像这里面有检测性别,包括一些面部锁影的,如果是单人是不需要考虑的, 如果是多人的话,像这里面目标面部锁指的就是假如说这里面有两个人一左一右,那么左边这个人呢,他的锁影就是零,右边这个就是一,那么我们就是零对零一对一的关系。那么通过这个节点把我们的脸部图像替换之后呢,可以加入一个插针节点, 能够让我们的视频画面更加的流畅。那么这个时候就有小伙伴要问了说,那为什么我们不直接生成帧数比较高的一个视频呢? 因为那样子会提高我们的运行要求,所以我们一般会先生成一个低帧率的视频,然后再通过插帧的手段让它变成一个高帧率的视频。那么整体呢,这款工作流就是这样子进行的,效果 非常强,但是它的节点很简单,那么这款工作流所需要的模型文件呢,也给大家准备好了,就放在我们的这个网盘文件里面,像这里面我们依次将里面的这些文件啊,按照我的提示要求放好,那么你就可以流畅的进行使用了,那么这节视频就到这里了,我们下一节视频再。

我真的不推荐设计师去学 cfui, 刚我本来都要睡了,然后刷到一条视频说,呃,我觉得大家最后一定都要去学 cfui, 还有个什么软件? 呃,首先, cfui 它非常的吃电脑配置,我之前为了去学 cfui, 我 配了一个五零八零的显卡,结果 打开 comui 的 界面,一堆的节点和连线,根本不知道从哪下手,还没开始学就已经头晕了。其次,我们就只是一个普通的设计师罢了,没必要把自己搞得像一个写代码的程序员一样,没必要,太复杂了,真的没必要。 嗯,我们完全可以把市面上的这些 ai 工具组合起来打呀, mj 洛瓦特纳多 banana, 把它组合起来用啊,不用非要 就这一个工具去来想着完成我们的工作,运用 ai 思维来辅助我们设计,最主要的是我们底层的设计逻辑不要被一个渲染工具给绑架了。