适合你本机运行的一种,最快生普的一个。呃,工作没有那两个。那两种第一种是最快的。呃,很多人没有显卡,只有 cpu 运行的话就很实用, cpu 运行也只要六秒,而且生成出来的指纹都非常高,目前最快的就这两种方式。 我这边用的是段老鹰在线镜像,直接使用就可以了,这样子运行,我现在用的就是这个镜像。 呃,在这大家可以直接点开即开即用,然后填写提示是生成你要的图片就可以了,或者下载工作没有,如果喜欢本地安装的话,那你就可以点开我这个。呃,笔记里边最快神图所有的一些设置啊, 什么都有,工作没有都有在这,毕竟里边。然后我简单介绍一下怎么使用或者他的简单的工作功能,这个就随便一个模型, sd 一点五或者叉 l 都行,但是对应的你就要修改你这个 sd 一点五或者叉 l 的模板,这个很重要,因为没有他的。 然后西安摩西啊,还有这个设置也很重要,参考这个设置吧,最快的一个要求最低的一个步数就可以。 当然我这用的是这个在线的四零九零线嘎,它是一秒,如果普通电脑一般是没有秒。这个是 m c m 的一个 设置方式,下面是字节跳动开发的一个 hiper s d。 呃,用的就是它这个 hiper s d 的你,你可以盈利。结尾也是跟上面 l c m 一样,它有一个 s b 一点五版本跟叉 l 版本,这个要对应这个模型,如果模型选的是叉 l, 那这个对应的就选择叉 l, 它是八步神图,速度是一样快,但是效果我觉得比这个还好。 其他链接盘是一样,只是这边改成八步,这个不是 m c m, 就是改成我这个设置就可以了, 它生成速度就超快, 这个效果是更完美一点。 这个就普通的一个 mcm 的深涂效果,一般一般用来做是社会涂用的。如果想要更好的效果,方式很简单,就是把步数提高一点。那上面也是一样, 大家可以直接在线使用我的金项,直接使用即可。我觉得学习这些链接方式没什么意义,太简单了,你自己在实验过程自己就学会了, 如果不会的话把我教程再看几遍就会了。
粉丝2407获赞6734

昨晚内存卡到了,今天试一下。 现在的内存卡啊,都是这种原封的,只能从这打开,不像原来那种在这上面一扣就能拿下来, 撕开以后里面有一个这个,这是什么训练号吧?然后这个内存卡的这个包装从这块打开, 这片静海海域不久前覆盖上了一个丝口, 撕开它才能拿出来,撕开以后就合不上了。这个小卡 是放在机器底部,底部这有个插卡槽,这样就是放进去了。

今天我打开我的 stability, 画了四张图。什么?只用了四秒?有没有搞错?我可不是用了什么高端的 a 一百显卡,这只是一张普普通通的三零七零用的相应电脑。要知道平时画图再快也要二十多秒一张的。于是我不信邪,继续画,还是四秒,而且分辨率可是七六八乘七六八,图像质量一点都不差。真的有点惊讶,这到底是什么模仿? 大家好,这里是 ai 炼金术。今天介绍的技术全称是 lantern consists models, 简称就是 lcm。 中文叫啥我也不知道,但是它的特点就是光速出土。他改进了现有的技术,让原本需要很多步骤和时间的图像生成过程变得更快。 简单来说就是用更少的时间和步骤能生成更清晰高质量的图形。让大家快来做文字描述和图像的转换速度。有了这个技术,网友做出了很多有意思的应用。在 hanging face 上有一个实时简笔画的图形。进入这个网址 hanging face five ai。 然后我们在这里输入提示词。比如说这里是一个棕羽树,在一个海边。于是我们首先画一棵树,哎,通过一条线他就画了。 然后我们再画一棵树,他就画了两棵树,我们再画第三棵树。不错不错,三棵树都画好了,我们再画一个这个,再画一些这个宫女树的树叶给长出来。我们这里可以看见,每次做图时间都低于两百毫秒,这个速度可是非常快的。 把 advance 超频打开,把 c 的调整一下,然后把 stress 也调整一下。这个时候我们可以看见,当我们在下面调整的时候,上面的图像在不停的变化,真正做到了实时出图。还有网友把这个软件接到了摄像头上,然后真人站在那里,通过提示词来实时的输出动画。 这是另外一个演示。我们可以看见在左边的简笔画或者一些图案。在右边的出图是如此之快。不停的调整,不停的出图,你得到的反馈那是无与伦比的快。 这个模型安装起来也很容易。首先打开你们的 safety 飞行 web ui, 然后点击扩展插件,然后点击从网址安装。把网址复制在这里,然后点击安装。如果你之前没有安装过的,这里就应该提示安装成功了。我的电脑之前安装过,所以只出现了一个错。回到已安装,然后重启并应用用户界面。 卸完之后,我们会发现这里出来了一个 l c m 的碳。点开 l c m, 你就可以在这里输入提示词。在下面他提供了一些演示的提示词,我们可以随便点一个,点击运行。 第一次运行需要比较长的时间来下载模型。下载完之后之后,出图就变得非常快了,我们可以让他多生成几次,基本上都在几秒之内。点开高级选项,建议把图像的长宽高变成七六八乘七六八,因为他的模型就是按照以七六八乘七六八作为最优化的输出来设计的。 点开之后,可以继续进行图像的生成。改变一下种子,可以继续进行图像的生成。可以看见出来的图那是非常的快,而且图像质量怎么说呢,虽然不算得上完美,但也的确说的过去。好。感谢你的观看,这就是今天的分享,我们下期再见。

今天为大家分享三个可以为 sd 生成图片提速的 lower 文件,这三个文件一个是针对 sdv 一点五大模型的,一个是针对 ssd 大模型的,还有一个是针对 sdxl 大模型的。这三个 lower 文件的使用需要。 sd 的采样方法中有一个 lcm 的采样方法, 如果你的 sd 没有这个 lcm 的采样方法,有两个方式可以解决,一是打开这个文件夹,把这里边的两个补丁文件的文件夹复制到 sd 的根目录进行粘贴替换。我重点推荐的是第二种方法,在 sd 的启动器中,把 sd 的版本升级至 fp 八先行版, 在高级选项的环境维护中把 formers 升级至零点二二,这样 s d 重启之后就有 l c m 这种采样方法了。另外拓展一个知识点,在 s d 的设置面板中找到并单机采样方, 方法参数选项卡。在这么多的采样方法中,常用的可以保留,不常用的则可以打勾隐藏掉它,以免在前台工作面板中浪费空间。但且记这个 lcm 一定要保留,不要勾选了。接下来再说这三个 lower 文件的保存位置。 复制这三个 laura 文件,打开 sd 的扩展文件夹,找到并打开 networks 文件夹,再打开里边的 models 文件夹,把刚复制的三个 laura 文件粘贴进来。这里边存放的 laura 文件,我称它们为工具 laura。 在模型文件夹中的 lore 或人物或风景或产品是可以有封面图片的,但工具 lore 则使用的是它的功能,是不需要有封面的,所以我把它们分开管理使用。我们再说出图参数设置迭代步数参数设置范围在四到六默认,我给它设置为五。 采样方法, lcm 一定要勾选高分辨率修复的放大算法,选四 excel tresharp 这是一种把图片分块放大,最终在合并出图的算法。 sd 默认是没有这种放大算法的,它应该保存在 models 文件夹下的 excergen 文件夹中。我把它也上传到云盘,与 lcm laura 文件放在一起, 重新回到 sd 的工作界面,提示词的引导系数参数设置范围一至二默认,我就让它为一。接下来再说 networks 选项卡,这里勾选启用,并在三个 lcm laura 模型中选择与大模型对应的那一个 laura 权重默认就是唯一的,不用动它。 以上设置可以固定下来,作为常用出图设置,单击生成就可以快速出图。如果 lower 模型选的与大模型不匹配,生成的图片是没法看的,只需挑选出与之匹配的那一个来 使用即可。就这几步简单的设置你都记住了吗?如果需要这三个 lower 文件及四 exotra sharp 放大算法的就点赞关注或评论六六六,然后私信我领取吧!

这期主要讲一下新出来的 lcm 模型,我使用的是 sd 一点五的麦菊显示模型,大概用了三秒钟的时间就生成了十张图,生成的图像质量都还不错,也没有出现图像崩坏的效果,终端中显示整个生成的时间就是三秒, 这在之前是不可能想象的事情。那么 l c m 是什么?它提升图像生成速度的原理是什么?我们又应该怎么样使用呢? l c m 的全称是翻译过来是潜在一致性模型,是由清华大学交叉信息研究院的研究者们构建, 他们通过创新性的方法使用 lcm, 只需要四到八步的推力就能生成高分辨率的图像,而不像之前需要二十五到五十步,所以大约只需要一秒 中就可以运行 sd sl 模型,而在麦克电脑上生成的速度相比之前快了十倍。这个数据在后面官方还有专门列出来的一个表格。 那么刚刚提到的创新信息方法是什么呢?在这里他们也概述了一下 lcm laura 的核心思想就是仅训练少量的石佩奇,而不是完整的模型。我的理解是 sd 一点五或者 sdxl 模型,通过 lcm laura 的过程 只蒸馏出了针对 lcm 采样器最有效的信息被保留下来,所以在使用 lcm 采样器,只需要很低的步数就可以生成不错的图像, 从而提升了生成速度。那么通过 l c m nora 真牛之后生成的图像质量是否会差了一些?来到质量 量比较这里可以看到,使用的步数越多,图片的细节也就越出色。但是在第三步的时候,其实图片的整体效果已经非常不错了,而如果使用原来的 sdxl 模型,想要生成整体效果优秀的图片大概需要二十步, 而二十部之前的图片几乎都不能使用。所以根据官方的说法就是使用 lcm 生成图像,相同的图像质量,但是速度快了很多。 为了让你好理解究竟快乐多少,官方还放出了在各个不同的硬件平台上使用 s d x l lora, l c m 四部生成的图片时间和 s d l 使用二十五部生成图片的时间。其中我觉得最出色的就是在 mac 系统上使用 m 一 max 芯片,生成的时间分 别是六点五秒和六十四秒,速度相比之前快了接近十倍,所以使用 s t x l 的门槛又又降低了。 当前我们主要能够使用的 lcm laura 的型号主要有三种,分别是 lcm laura sd xl、 lcm laura sd 一点五和 lcm laura ssd。 完毕 前面两个 lora 都很好理解,就是对应 s d s l 模型和 s d 一点五模型使用,而这里的 s s d e b 模型又是什么?可以简单介绍一下。具体的 s s d e b 模型我们放在下一期详细介绍。 s s d e b 模型是一种经验的 s d x l 模型,比原始的 s d s l 模型小百分之五十,速度快百分之六十,所以再搭配上 l c m lore, 就是快上加快 快。现在我们可以在 confi ui 上体验 l c m 的完整流程。不过在使用之前,你需要打开你的 manager, 在商店中 搜索 lcm, 下载这个 lcm simper, 然后还是在 manager 中点击 update all, 将你的 confiel i 更新为最新的版本,然后再重启 confiel i 即可。我已经搭建好了工作流,这个工作流是不是非常的熟悉?没错, 其实就是使用最基础的纹身图。工作流增加了一个 lora 加载器。不过有一点不一样, 之前使用 laura 加载器需要将 clip 节点连接到文本面码器上,而使用 l c, m laura 的时候则不需要,只需要将 laura 节点连接到采样器上即可。如果你使用的是 s d 一点五的模型, l c, m laura 就对应选择 c 一点五的工作流,就是这么简单。然后就是采样器上的参数调节。根据 l c, m 的原理,首先你需要将采样器修改成 l, c, m。 调度器的选择可以根据你自己的喜好。我这边测试下来, d d i m uniform 和 s g m uniform 的效果比较不错。然后降低 c f g 和步数,一般 c, f g 在一到二之间,步数可以在四到八之间都能获得还不错的效果。 点击生成一下,可以看到生成的效果和速度都是非常不错的。生成一张图应该不到一秒的样子, 切换到 s, d, s l 模型这边也相应地切换到 l c m laura。 s d s l。 尝试一下效果。 生成的速度还是很快,大概是两到三秒一张图,但是效果没有那么清晰了。多尝试几张都是同样的效果。或许是提示词的原因,也有可能是步数太少的原因。 我将步数调整到八,我们再尝试生成一下。生成的图片明显变得更加清晰了。 如果你想要搭配其他的 lorra, 需要复制一个 lorra 加载器,将它们串联起来,在提示词中添加触发词,就可以获得 lorra 的效果。最后还有一个 model 生 playing described 模块,这个模块建议在串联 lora 的时候一起使用,以防有的 lora 不产生效果。 然后我再串联一个墨星的 lora, 这个 lora 的风格化比较强,这样就能很容易地看出 lora 在工作流中产生的效果。点击生成一下, 可以看到深沉的图像,有着明显的水墨风格。接下来再尝试一下能不能结合 ctrl lat 使用。 我迅速串联了一下 ctrl lat 工作流,这里我使用软边缘的 ctrl lat 模型,点击生成一下,可以看到生成的图片成功 通了。也有可能是服装被 ctrl lat 识别,所以生成的图像并没有汉服的特征,所以我稍微降低了 ctrl lat 强度,删掉了汉服的 laura, 增强了墨芯的强度。主要就是看 lcm laura 是否能和 ctrl lat 结合使用,再生成一张效果和预期的差不多。 看来 sd 一点五的模型结合 lcm laura 能够适应 laura 和 controlled。 最后再添加一个 sd upscale 的模块,让图像细节增加尺寸,放大一下试试。 在这里同样可以把采样器调整到和前面的采样器相同的参数。 试试放大图像的流程是不是也会变快。点击生成 可以感受到放大图片的流程也同样变快了,而且放大之后同样添加了细节,那么结合 animate def 生成动画同样也是可以的。这个之后我会单独出一期视频, 现在虽然在外比外上还没有 lcm 的采样器,但是我也尝试了一下能不能用 lcm laura 结合现在已有的采样器达到提升生成速度的效果。 我对所有的彩阳器进行了测试, sd 一点五的模型使用的还是麦菊写实, cfg 步数使用的是一点五,分别生成了步数为二到八的图像测试效果。 cfg 步数使用一点五,其中有不少彩阳器, 且都能生成还不错的图像,其中有八个采样器可以在四步内生成完整的图像,大家可以参考这张图来进行采样器的选择。 sdxl 模型进行测试是使用的是原版模型, 生成的效果就比较惨不忍睹了,几乎没有一个采样器能够完成完整的图像,唯一能够生成图像的也就是 ola a 了,但是这样的图像质量应该也不能使用了,或许需要等到 w b o i 对应更新 l c m 采样器之后,生成的图像质量才会有很好的改善。 最后 l c m laura 可以到官方的 hocking face 上进行下载,如果嫌麻烦的话, b 站的小伙伴可以在视频简介中获得我整理好的模型包,其他平台的小伙伴可以加入我的粉丝群获取模型包。最后总结一下, l c lcm laura 在 confiya 上使用能够获得比较不错的加速图像生成的功能,并且 lcm laura sd 一点五支持与 controlled、 sd、 upscale 等等结合使用。 这就是本期的全部内容了。如果这期视频对你有帮助,请大家一定记得帮我一键三连,我是设计师,学 ai, 我们下期再见!

三、 d max 接入 sd 白膜,实时渲染出效果图,这里用到的是 ctrl ircm 模型,下面是具体工作流部署,我们进入 ctrl i, 然后加载一个默认工作流, 我们先输入一个常用的负向提示词,正向提示词的话,如果我们英语不好的朋友,我们可以给他来一个中文输入的,当然这个需要安装一个 black 节点, 然后在文本这里有一个文本翻译,我们把正向提示词输入改成转换为文本输入,然后我们就可以把中文直接输入进来,可以把这个拉起,为了方便大家查看,我们可以把正向提示词改成绿色,然后把正向提示词改成红色,我们可以给中文输入位置,再给他加一个英文输入的预览文本, 让我们可以看一下翻译的对不对,让我们可以拉小一点,颜色也感觉一下。紧接着接入窗口捕捉的这个也需要安装节点,我这边已经安装好了, 搜索一下就是这个。第二个 s c r b e n s a j a r e 这些需要安装到的一些插件,我都会放在我们的粉丝群工具包里,大家有需要的可以去下载。然后我们给他接一个 ctrl max, 控制深度的一个 选择来这个第三个,然后直接把银位置跟银位置连起,这边接一个用的 ctrl 的一个加减器,这边接一个 ctrled 的运动,然后把他们连起好,这样的话需要接到正常,然后给大家从正正向转一下,转接回正线啊,这边可以往后移一移,按住 ctrl 框,按住 shift 可以批量移动 好,然后我们把旁边那个预处理器给他接过来,我们这边选择深度图的大模型,对图像,这里也可以给他接一个预览,预览一下我们截屏的图,然后这边预览一个,处理完那两个朋友都可以,然后把这图像已经截图,最后一步把这个输出的话也改成就是预览那个 输出,大家可以搜一下,安装完这样插件之后可以搜一下,打 f l o, 搜出来这个 low c vd, 这个不知道这个什么意思,放在咱们连接起 我们一个可以捕获网页,然后实质相应的工作流就好了,不行不行,这里我们还得接一个 lcm 工作流的老软,老软加在一起,然后这边改成 lcm 的模型,这样我们的速度才能平起来,他才能加我的模型,把他们连接起来,对应位置连接起来,然后模型直接从安耐塔这一接到这, 这边就可以捕获我们的窗口了,因为我们现在打开的是一个三斤半的窗口,然后我们在这边点第一项捕获这个窗口, 然后点下边第二项,可以框选我们要共同的一个区域,大家这个三 d 窗口尽量调节成跟我们最终生图的尺寸一致的,比如我们现在生成的是 五幺二乘七六八的图,我们就把它尺寸改成这里的图,图尺寸给它改成宽度七六八,高度五幺二,然后把负向提示则输入我们常用的付款负向提示,我们就可以按我们的这个界面打我们,你是室内的空间,你就打室内,我来个界面风格的客厅,直接打中门就可以, 室内风格的客厅,然后输入沙发,沙发、茶几、落地灯,然后绿植 来个控制质量,比如高质量结束 好,然后我们把我们的家具全部显示出来,全部提到隐藏在三 d 里边,把家具全部显示出来,接着他对列让他开始生成,大家可以看到他的一个一个生成技能,这边会实时显示 截屏的状态,绿色的是他的一个生成镜子,大家可以看咱们的控制栏,这边可以看到实时的一个生成镜子,这边是他生成完的效果,大家可以看到已经出来了。如果我们想实时向下摄影的话怎么办呢?我们直接点击栏入,就让他一直跑实时生成, 他会随着我们的调整,然后不断生成,我们可以把这个窗口给他画中画提取出来,这样我们就可以上边调整,然后下边生成。 当然我们很重要的一步就是我们这里的步数一定要调成 lcm 适用的步数,他只需要四到八步,这样他的速度是能够发挥出来。比如我们这里给他个六步,然后 cf 对直一到二就行,我们来个一点二,采用方式的话,这个优乐跟 lcm 都可以,我们选择还是选择他最适配的 lcm, 然后降噪的话可以给他一个零点六,让他更贴合我们的, 现在他生成的图就会好很多了。然后我们切换一下大 模型,比如我们现在是动漫的模型吗?我们想要写实的,可以给他切换一个写实的模型,如果这里你不知道怎么看的话,你可以给他加载一个可以直接预览我们大模型效果的一个加载器,我们来这个,我们在帖子这个加载器,这个加载器这里可以直接看到我们每个模型,只要你有预览图,大家都能看到,也能看出来你的模型是什么风格。 我们这边选择一个结石的,然后给它替换一下接口,再给它替换 他现在变成写实风格了,只要你点开下边这个实时渲染,我们上边调整他,下边就跟着我们的调整步骤来渲染。我们把这个茶几的位置移一下,把上面这些摆件太细的东西,他可能渲染不到,我们给他隐藏, 然后调整一下这个茶几的位置,绿植有点影响我们的画面,我们把绿植删掉,下边这里可以实时控制他的停止器,然后上面这个位置可以直接预览,预览他捕捉的一个状态。我们这个位置可以给他加一个挂画,让他我们墙上画点画画, 让他继续。比如说你东西足够多的话,你可以在上面添加或者是减少,来个反向操作,我把它减少一些。你可以把茶几删掉,然后把图打开,把这个沙发侧面的兜给他, 那就会生成一个正常的沙发,对吧?他现在变成一个正常的沙发,然后我们也可以移动他的一个抱枕的位置,把这个三人位的沙发抱枕给他移到边上,大家看他下面,他就是会实时把那个抱枕移到扶手旁边,然后他的形体是会发生变化的,如果你想让他形体变化小,你可以在这个位置给他调低一点, 想让整体变化大一点,你可以给他调大一点。 然后我们可以比如把单人位隐藏了,把台灯也隐藏, 然后一直隐藏,一直到最后剩下一个白色的房子,大家可以反向操作。然后你可以在一个白房子的基础上给他添加各种东西进来,让他进行一个实时渲染。

大家好,我是薯片 ai。 最近由清华大学交叉信息科学研究院发布的一款新的采样方法 lcm 模型受到广泛关注,其特点是能够以较少的步骤推理出完整的图片。原本的采样器需要至少二十步才能生成完整的图片, 而 l c m 则是追求一步完成推理,仅用四到八步就能完成图片的生成。 l c m 包含一个采样器和两个 lora 模型。 把秋叶启动器更新到最新版本后,就可以在采样器中看到 lcm 模型了。由于 lcm 采样器必须在这两个大模型下使用,仅限这两种大模型,肯定不适用, 所以官方又训练了 l c m。 low r a 模型可以搭配所有的 s d 一点五和 s d x l 来使用。使用的时候 lorer b 加根据大模 型选择 s d 一点五的还是 s d x l 的,然后采样器可以选择 l c m 的。当然你也可以选择其他采样器。但不管你选择哪种采样器,迭代步数要在四到八, 一般五效果不错,图片数量可以多选几张, c f g 要在一到二以内,一般设置一点五。不过 l c m 的效果不够其他采样其精细, 有点以速度换质量的感觉。不过我们可以用 l c m 快速跑出还可以的图,然后加 c d, 用其他采样器再跑精细点。我是薯片 ai, 关注我,分享更多 ai 内容!

大概在很久之前呢,我使用的是一台显卡为二零六零的笔记本在做绘图,算的非常的慢,随着技术的迭代,现在在康复野外当中呢,我们使用 char 模型,只需要四秒钟就可以出一张图, 那么这个地方与以往相比呢,实际上已经是天壤之别,所以在这个视频当中呢,我干了什么呢?我打了一个 coveryy 的压缩包,这个压缩包里面呢包含了一些我觉得非常好的加速模型,基本上出一张图对于二零六零的笔记本来说呢,是不会超过八秒钟的, 那么我在朋友的机子上测过了,对于这个四 g 的显存呢,也可以用的很好啊,我认为的最低的这个显存的知识呢,应当是四 g。 这个地方呢有三种加速技术,从时间先后顺序来看的话,是先是 lcm, 再是 lighting, 到最近的这个嗨 sd 都属于加速模型,并且到了 hyper sd 这个地方所打的旗号就是又快又好,着重是对叉眼模型进行测试啊,因为叉眼模型比一点五模型更需要性能的支持, 在我装备的 lightning 模型以及四部的 hyper s d 的 laura 模型的情况之下,可以做到步数为四 c f g 为一,四秒钟就可以生成一张一零二四乘一零二四的图片, 那确实就是四秒,那如果我不装备这个 lora 模型也是可以出图,此时的话我的步数就要削高一些,要到达六 c f g 可能还要偏高一些,不然感觉的话颜色过于的不那么艳丽,这样的话也是可以的。下面的话我来演示一下,如果你 取得的模型呢,不是加速模型,怎么透过这个串年 lower 使他加速的为我们去生成图片?那我们先进入啊,利不利北 ai 筛选一下,选择大模型, 选择 char 模型,然后我选择这个兔森老师的这个模型,然后点击下载 hello word, 这个模型是有加速版本的,你可以直接点击,然后去下载它。我这个地方呢,是想演示有一些模型,它并没有加速模型,怎么透过串联劳软来进行加速的生图下载完了,放到模型文件夹下的 checkpoint 文件夹下, 简单演示一下。我们装载这个非加速的大模型,选择一个四步的 lightning 模型,点击生成。这个地方呢,我们装备刚刚下载的大模 型,以及一个四步的 lightning 模型。提出一个疑问,能不能加入刚刚出的这个 hypersd 模型呢?就是说我们这个地方串联两个加速模型,我觉得是没有问题的,直接就串联一下,如果你不知道的话,就试一下, 再次对列,步数还可以再低一点,那么我认为的话,仍旧属于一个我可以接受的范围。当然你也可以去尝试更高的步数,八步,或者说你只串联其中的一个 lora 都是可以的。如果你不想要某一个点,右键 忽略的话,就会把这个点给跳过去,不再去应用它。除了模型之外,我还做了什么?我把所有的 ctrl net 的预处理器呢都进行了一遍测试,这样的话也许能够在一定程度上避免掉 一些的网络问题。为什么这个视频要做这样的事情呢?因为我了解到不是所有的人都会装备一张强劲的显卡,很可能他只是想点一下这个提示词对列去生成一张纯粹的美女图片而已,也没有理由去对这个技术啊做一些更为深入的理解。 所以呢,利用在这个地方,最后还是一样,关注公众号 aiksk 就可以获取到该整合包了。为什么每一次都需要这样的中介呢?理由无非就是限流不允许我放链接。

太炸裂了,清华大学这个新模型让我惊呆了,只需要四到六步的迭代步数,就可以出以前需要二十迭代步数的图。这里也讲了,只需要极少的迭代步数就可以生成高质量的图, 迭代步数减少几倍后,意味着生成的速度相比以前也会提升几倍。下面这些图就是用四步的迭代步数完成的,这已经相当于以前二十步去出图的质量了。 你们可以看一下我用 com p e y 出五百一十二乘七百六十八尺寸的深层速度,全程没有任何加速,迭代步数是五步, 出图的质量也非常不错。你盯住这个绿色的进度调侃,是不是你还没反应过来,一张五百一十二乘七六八的图片就已经生成在你眼前了?然后再用高清修复,放大一点五倍,看一下放大高清后的总生成速度,这时候图片尺寸来到了 七六八乘一千一百五十二,相比以前速度直接提升几倍。可以看一下终端显示的生成速度,日字加上高清修复,总生成时间是一点五二秒。再看一下之前没用高清修复,单独生成五百一十二乘七百六十八尺寸的生成时间,零点四四秒左右就生成了一张图片,速度简直不要太快。 在 y b u y 里面也是可以用这个模型的。我们也看看生成的速度,零点五秒就生成了一张同样是五百一十二乘七六八的图片,相比起来,还是康比 u y 生成的速度更快, 相同的参数,相同的提示词,相同的模型,也是 confi ui 出图的质量更高,这是我经过大量测试的结果。 ok, 接下来我就教大家怎么设置可以让你出图速度提升几倍。这几个 lolo 模型就是这次必须用到的模型,分为 s d 点五和 s d 叉 l 使用的专属 lol 模型。把它们下载好后,打开 你的 yby 个目录,找到名字叫猫豆子的文件夹,点进去再找到名字叫 yoy 的文件夹,放在这个文件夹里面就可以了,就是正常放你自己捞捞模型的地方。因为这次要用到一些新的采样方法,所以你的 yby 版本必须更新到最新,最好还是更新一下吧, 目前最新版本是幺点六点幺,点击右上角的一键更新即可。打开 yby 以后,我提前把提示词写好了,我们先用以前的方法,二十的迭代步数正常去做图,采样方法也保持默认 尺寸改为五百一十二乘七六八,然后直接点击生成,测一下生成需要的时间,第一次生成因为要加载模型可能会慢一些,这下面的参数可以看到,生成这张图片所用的时间二点六秒再生成一次,看看这次不加载模型了,应该会快一些。 ok, 这次用十一点九秒记一下。然后 我们在提示时你添加刚刚下载的新 lob。 第一个就是写着一点五的,就是用于一点五模型的专属 low。 写着 sd 叉 l 的就是用于 sd 叉 l 模型的专属 lober。 我现在用的是一点五的模型, 所以选择一点五的老板,接着把叠带步数改成五,也就是降低到以前的四倍。采用方法可以选择,这个我测试了,效果好一些。 还有一个非常重要的是,官方建议提示使引导系数在一到二之间大于二,效果反而会很差。我大量测试过, ok, 直接点击生成就好了。 第一次依然会慢一些,因为我们添加了捞了模型进去,需要加载。这次的生成速度是二点四秒,我们再生成一次,可以看到这个进度条跑的非常快,最终耗时零点七秒,而且图片的质量我怎么感觉比刚刚二十步还要好一点,再生成一次,看看速度会不会更快。这次耗时 零点六秒,比刚刚的零点七秒还要快了零点一秒。接下来再测试一下 comfi ui, 出图质量会更好。来到 comfi ui 的页面,这是一个简单的纹身图工作流。首先我们肯定是要添加一个使用 lola 的节点,很简单,就是从大模型拉出一个连接 lola 加载器的线, 然后把线条都依次串联一下就好了。再选择一下我们新下载的 lola 模型,一点五的模型就选择一点五的 lola。 然后到采样器设置一下参数,看 y b y 设置是一样的,叠带步数改成五,然后提示词引导系数改成一点五。采样方法记得也改成专属的 xem 采样方法 只送我。提前设置好了五百一十二乘七六八,现在就可以去点击生成了。因为刚接入了 lola, 所以会加载模型,第一次生成会慢一些。我们这次生成的时间是一点六八秒,我们再点击生成一次, 这次明显快不少,看一下生成的时间,我的妈呀,这次生成只用了零点五一秒,这个速度生成这样的质量真的不错吧,再生成看一下这个进度条我都来不及看。这次生成的速度是零点五八秒,大概就是一张图在零点五秒左右, 可以看到图片的质量相比 y b y 更好一些。我们再把批次改成六张,测试一次出六张图片需要多少时间? ok, 完成了,我们看一下是不是一次生成了六张。再看一下这六张图片总共耗时多少秒? 一次生成六张,总共耗时二点四一秒,平均每张耗时零点四秒。再测试一下,打开高清修复,生成一张大图需要多久?把屏蔽的节点打开,直接点击生成就可以了啊?为什么高清修复后的图 图片还没之前的小图质量好呢?因为加了拉拉结点,第二个采样器的模型线应该连接拉拉结点才对。再重新点击生成看一下, 这样就对了。高清修复后的图片明显细节更多了。再看一下总共用时多久?这个时间不对,用了三点零一秒,应该是第二个采样器也会加载一下模型,重新点击生成看看这次速度。生成快多了, 高清修复也没什么毛病,总共耗时仅仅一点五八秒,就完成了一张尺寸一千两百左右的大图,可以多点几次生成,测试一下稳定速度在多少秒。 这次是一点五秒,比刚刚还快,基本上就是稳定在一点五秒左右。目前这个 lola 是可以搭配任何 lola 模型使用的,也可以用在图声图, ctrl 呢也可以用,应该也可以用在 element 的插件中,做动画的 速度至少提升几倍,你们赶快去用起来吧。所有的捞捞模型我都整理在粉丝群了,自作不易,你们的支持是我更新最大的动力,等待 l c m 采样器在 y b u i 中更新,就可以和 com b u i 一样使用出图了,关注我,让你在 a i 的学习上少走弯路。

最近 sd 有了相当大的突破,已经半只脚迈进了秒出图的时代。这得益于两个新出的模型,一个是 lcm laura, 一个是 sd 叉 l tumble。 简单说一下原理,在我们出图过程中,有个参数叫迭代步数, 每一步都代表了 ai 绘画的一张过程图,这个数字越大,图片完成度越高,耗时也越长。通常我们会设置二十到三十,再高就基本没什么变化了。但是用这两个模型就可以直接把步数减少到个位数, 耗时也会大幅降低。有一家兔孙的作者就结合了 s d 叉 l tempo 和 l c m, 训练出了一个新的大模型, 交叠带六步。效果是这样的,但其他模型只跑六步是这样的。如果你想使用其他大模型,可以只使用 lcmlcm, 全称叫做潜在一致性模型。一致性的意思就是可以适配任何大模型。这是个通用加速器,我们把它 放在劳尔文件夹里,使用的时候点一下就行。同时要把 cf 降到二,采用方法必须要选欧拉 a, 最后把迭代步数降到八,这样就可以秒速出图了。但是这样也有个问题, cfg 过低会导致 ai 放飞自我,那我们写很多提示词就没什么意义了。 所以这里还需要一个插件叫 dynamic share holding, 你可以把它理解成一个替身,代替上面的 c f g 降低数值。由 有了这个插件后,就可以把上面的 cfg 调回七,然后把这个模拟提示词相关性调成一。下面的高级选项, cfg scheduler 调成 halfk sonya 最小值调成一,这样就可以保证提示词有效果了。快是真的快,但是我之所以说是半只脚迈进秒速出图, 除了操作麻烦以外,我发现他无法复现我之前做过的图,尤其是当有多个 lower 配合的时候,效果非常糟糕,不过倒是大幅度降低了门槛,可以帮助很多小显卡用户体验 sd。 想深入研究依然需要高性能显卡相关模型和插件。已经放入粉丝群,关注我,带你吃透 sd。

嗯,清华大学的这个 lcm 真是太厉害了,提升 sd 出图速度至少十倍以上哈。你看我这个,呃,这块都是这个,一分钟左右出图, 一分钟左右出头。我这个电脑配置就是一个普通的电脑,然后没有独立显卡,就是一个十六 g 内存。