粉丝624获赞5768

dc 零四 out 新的升级固件来了!首先打开 bioso 中国官方网站,找到技术支持,点开固件更新,选择 dc 零四 out 固件,点击下载。下载完对应的升级固件后,先对这个 zip 文件进行解压,得到一个文件夹教程 此次的升级固件包以及固件升级程序,双击点开这个 o d t s b download 幺点二点六 ex 应用程序,点击右上角 languages, 选择 simple fat chinese, 切换为中文界面。接下来点击载入,选中对应的固件包。接下来把 d c 零四又接入电脑,在设备这一栏选择为零六六一配零八八三,确认无误后点击下载即可, 随后出现下载结束即为升级成功。重新插拔您的 d c 零四 out 二后,进入菜单总览,找到版本号,显示版本为幺点五四点三零,即为本次升级成功。

大家好,刚接到电话说有一台电脑 cd 二零零七装不上去,说 windows 系统出错。嗯,那我们过去看一下吧。 以下是我的处理方案,首先,这四个文件是我提前从 window 时的光盘镜像提取出来的,操作如下,先把文件考到吸盘跟目录, 然后复制此命令,打开命令提示服务, 输入命令回车即可完成。最后,如果对您有帮助,请点赞关注,谢谢!

带驱动的系统安装 u 盘大家有没有用过?在安装系统的同时,像显卡、声卡、网卡、主板这些驱动都会自动帮我们安装好, 即使在没有网络的情况下也是可以正常安装。咱们这边用的也都是大品牌高速 usb 三点二协议的 u 盘,十几分钟就可以把系统安装好, 支持重复安装重复使用,里面内置了几十个系统,全都是纯净版的,每一个系统都是深度定制优化,安装完就可以直接使用。另外呢,还给大家提供了众多常用软件、办公软件和工具类软件,基本上把 u 盘塞的满满当当的,大家可以看一下有没有自己需要的, 当然有的小伙伴会担心收到货以后觉得不好用怎么办,这个大家可以完全给我们退回来。

你电脑是 win 十一系统吗?那赶紧看看是不是也被偷偷安装了这个微软的 ai 助手一开机就在疯狂占用内存,时不时再来个弹窗,总是强制推广自己旗下的产品,也太恶心了吧。不知道没用过的赶紧给它卸载掉, 直接点击开始菜单,接着输入三六五找到这个程序,然后直接右键选择它卸载,耐心等待卸载完成就行了。又学到新知识了吧?

在 open core 横行的二零二六年,可能很多人还不会怎么去电脑安装,要么就是根本不懂,要么就是被一大堆英文配置难住了。现在有了 coco, 让这一切都变得更加的简单。 我们可以先来到 coco 官网了解, coco 是 阿里云通易团队推出的个人智能助理,支持本地与云端双模式部署。现在我们直接进入主题,教你如何本地化部署 coco。 按照官方推荐,我们选择一键安装, 这里会出现不同系统的安装模式,具体根据你常用的系统选择对应命令。视频中我们以 windows 作为演示。首先我们打开 cmd 运行窗口, 把 coco 安装命令粘贴到窗口中,这时候可能会出现运行报错的提示。不用怕,我这里给大家准备了一个备用的安装命令地址,重新输入备用命令,回车进行安装。 看到 coco 已经安装成功了,复制这个命令到 c m d 窗口中,回车, 点击高级,找到下方的环境变量进去,找到 p a t h, 双击打开,点击右上角新建,把这个复制进去,最后点击确定。 接着就到 coco 出使画了,跟着文档命令走就行, 直接回车回车,然后就可以看到出使画成功了。 最后我们就可以启动 call 炮了,复制这条命令,这里启动时间可能会有点久,稍等片刻,当你看到一百二十七点零点零点一的时候,就说明服务已经可以访问了, 这时候我们在浏览器打开这个地址, 看到这个界面的时候,就说明你的 call 炮已经安装成功了。如果默认语言显示的是英文的话,就在页面右上角自己选择中文,接下来我们开始跟 call 炮对话, 啊,不好,我们要先配置大模型的访问权限,这里我们进来后会看到系统已经默认选择了第一个,直接点设置进去,这里会出现一个 api 密钥, 我们打开这个地址去注册获取一个,找到访问控制,另一排就是我们需要的密钥。复制后回来 call 页面粘贴进去,点击测试连接,如果弹出绿色框说明连接正常,然后再回去聊天页面跟 call 愉快的对话。 要命啊,这里又忘了一个设置,记得把刚才设置的提供商勾上,模型呢,随便选一个, 这样我们就可以看到正常输出了。但是这里呢,也只是最简单的 ai 对 话而已, 要注意这里的对话是需要消耗 token 的。 我们差个题外话,可能有很多小朋友还不知道 token 是 什么意思,只要你有用过四 g 五 g 网络,你用过数据流量,你把 token 理解为 ai 数据流量是不是就很容易理解了? 而且这个流量在接下来又用到的的 agent 实力中消耗很快。 为了应对 token 的 消耗问题,我们其实可以搭建一个本地大模型,让 call 炮直接对话我们的本地模型进行服务。这里我们使用欧拉玛来部署本地大模型。进入欧拉玛官网,点击右上角的 download 下载系统程序 安装成功后就可以看到阿欧玛的功能页面了,现在我们去找下我们需要的大模型。回到欧拉玛官网,选择 models, 搜索 p w n 三点五, 不要安装带有 cloud 的 标志,那个是在线模型,需要 token 的, 我们可以找一个体量小一点,适合本地电脑安装的模型,因为正常家用的电脑配置都不会太高。这里有一个支持零点八 b、 二 b、 四 b 的 模型,可以点进去 复制安装命令到 c、 m、 d 窗口中,记得加上你选择的具体模型。所谓的零点八 b 或者二 b, 其中的 e b 表示十亿个模型参数,所以越大的参数量对电脑的性能要求越高, 安装可能要一段时间。本地演示直接跳过, 当看到三 day message 的 界面时候,就说明本地大模型已经安装成功了,你就可以跟欧拉玛进行对话。 接下来回到 call 炮中,找到模型配置去,我们开始配置本地模型,找到 alma 选项, 因为本地尤拉玛不需要密钥,所以我们随便输入一个一二三四,点击保存后会弹出一个报错,让我们安装什么 s d、 k, 太麻烦了,难道就没有更简单的方法?我们找到右侧有一个添加提供商按钮, 这里我们随便命名一个,例如 my model, 然后在默认 base 二中输入,这个妙呢,还是输入一二三四就行。最后点击创建, 找到 my model, 点击模型按钮,把刚刚下载的模型名加上去,最后测试下连接, 最后记得选中刚刚设置的模型保存,然后回到聊天页面, 这里就开始考验你的本地电脑性能了,如果本地电脑配置不好的,不要随意尝试,直接用在线模型就行,花钱买 token 就 可以了。 看来本地模型输出没什么问题,就是速度还是有点慢,为了演示速度之后我们会全程采用线上模型消耗 token 模式。 接下来就进入二零二六年最流行的 skill 介绍,什么是 skill? skill 其实也就是我们常用的技能,这里可以看到 coco 默认已经存在一些技能了, 我们可以来问一下,看下 coco 知不知道它都具有哪些技能, 看来他还是知道的,但是实际应用中可能这些默认的技能不能满足我们的日常需求,这时候我们就可以新建一些自定义的技能了。这里我就来教大家如何创建属于自己的 skill。 比如你现在是一位宝妈,每天为了孩子吃什么而感到焦虑,让 coco 每天推荐一个菜系,并且教你怎么做这道菜,是不是就很方便了? 这里我就简单写一个菜谱的技能,我们可以给技能命名为 cook, 内容呢参考左边我已经写好的。注意,我们在最后有一个输出要求复制进来,技能中的 name 表示当前的技能名称跟刚才命名的 name 一 致就可以。 description 表示当前技能的简介,说明这个技能是干嘛的。 name 和 description 上下有三个短横杠包围起来,这种是固定格式,是给抠炮识别用的,要遵守。点击保存,然后启动我们新增的 cook 技能。 这时候我们打开 coco 运行的 c m、 d 窗口,按下 c t r l 加 c 按钮,当看到终止处理操作吗?这时候继续按一次 c t r l 加 c, 停止当前的 coco 服务,然后输入 coco app 命令启动 coco 服务。 当看到一百二十七点零点零点一的时候,刷新刚才的 coco 网页, 这时候我们继续去问他,你有什么技能? 从输出的内容中我们就可以看到刚才添加的 cook 技能了,现在我们就让 coco 来实现这个技能, 可以看到 coco 识别到了我们的 cook 技能,并且在最后成功输出我们的要求, 灰狼大厨并且带上了祝福。所谓技能其实就是给不同需求的人都可以根据自己的需求创建一个工具,不同的人会有不同的需求, 比如销售,可以创建一份根据客户生成客户喜好的技能,比如牛马,可以创建一份工作日报生成的技能, 比如保险,可以创建一份根据不同职业生成一份合适的保险技能。当然技能完全可以不用自己去写,把你的需求发给豆包,豆包就能帮你直接生成了,加上 call 炮要求的 name 和 description 头部就可以了。 最后我们进入频道的配置教程,我们这里以飞书作为教程演示案例,我们首先要打开飞书的开发者官网, 进入开发者后台,可以看到一个创建企业自建应用的按钮,点它,然后输入应用名称和描述 call pro, 接着全程跟着教程走。 接下来就可以打开飞书应用,无论是电脑应用还是手机应用,都可以直接用飞书跟 coco 进行对话。 到这里我们已经完成了全部教程了。

windows 驱动出故障,别急,三步快速修复。第一步,按 win 加 x, 打开设备管理器,找到带黄色感叹号的设备。 第二步,右键点击它,选择更新驱动程序,让系统自动搜索最新驱动。 第三步,如果更新后更糟点,属性驱动回滚恢复到上一版本。三步搞定驱动故障重启就生效。收藏备用,关注我,学更多!

怎么样把网速设到最快?非常简单,首先我们按 win 加二, win 加二调出运行框,我们输入小写的 g p e, d, i t 点, m s, c 点确定时候会出来这样一个本地组策略编辑器,我们选到左边的 windows 设置,点开 这个时候右边会出来一个基于策略的 k o s, 我 们鼠标右击选择高级 k o s 设置, 这个时候会弹弹出这样的一个程序框,我们把这个指定入站 tcp 吞吐量 gps 给他点上,选中之后我们选择他会默认是第三个级别三,然后我们点确定,这个时候你的网速就会变快了。

三月七号, u i 新版整合包重磅更新,妥妥的新手小白福音,全全中文界面,完全不需要懂英文。更惊喜的是,这次整合包直接内置了两百三十个 a m 版,全是大佬们都认可的实用功能,安装也是三步搞定, 下载二解压三双击打开,一键升图,一键升视频,一键做音乐,一键建模,所有操作都是点一下就能实现,特别省心。模板数量太多,我就不挨个介绍想要的小伙伴,七七八直接带走去玩。接下来开始软件教学。大家所熟知的 web ui 和 comf ui 其实都是属于 stupefaction, 而 web ui 主要是基于数据库开发的浏览器界面, comui 则是使用图形节点、流程图设计而用于稳定扩散的用户界面。这边我们将 comui 和 web ui 的 优缺点列出来,方便大家做个对比。首先我们来看 web ui 这块,它的优点是简单易学,并且操作较为基础与简易, 而它的缺点是不利于长期管理。那么这是什么意思呢?当你在深度学习完 web ui 的 高阶内容后,你会意识到如果使用的是 comui, 那 么将节省两到三倍甚至更多的时间。其次,在插件过多时, web ui 会显得非常的臃肿以及操作费时。那么接下来我们看一下 comui。 这边我们可以看到 kufui 对 配置的要求较低,这同时也意味着降低了 ai 绘画的门槛,方便更多的小伙伴加入进来。那么它的优点其实是节点更异于管理,有较强的自主性,我们可以根据个人需求来组装属于自己的工作流, 并且在未来, kufui 将逐渐与 webui 在 应用层面拉开距离,比如前段时间的 s d 三或者国产最新的颗粒大模型, 都是第一时间在 kufui 里可搭建工作流并使用的。而对于 webui, 这些最新的模型与插件往往得过一阵子才能时装,甚至直接不时装。 所以使用 kufui 也意味着你能够更早地使用到最新的模型与插件。而 kufui 的 缺点是初期不好上手,但 我相信在你学完了本套课程后,一定能够完全掌握康复语言的基础操作。除此之外,过去我们知道有许多软件,比如 blender、 达芬奇、 ue 等等都是使用节点式工作流, 因为它们有极强的自主性与可模块化,许多头部公司的顶级团队使用的都是节点式软件。那么康复语言除了上述优点之外,我们在使用时还可以非常方便的套用他人分享的工作流,即刻便可实现相同的效果, 节省了非常多的节点部署思路的思考时间,以及从单个节点构建成工作流的部署时间。好的,那么接下来介绍一下课程概览。本套课程共分为两个部分,一到六节为基础部分,其中包含了康复以外的配置要求以及如何安装与部署 面导览与原理,介绍文声图以及提示词的语法,之后还会聊聊 ai g c 的 相关网站以及模型下载,最后还有图声图以及高清修复的过程。那么从第七节课到第十三节课属于进阶部分,先后会讲解 control 内及其诸多预处理器的使用方法 以及使用场景,之后还会教大家 ipad 及其强大功能的应用,随后我们还会学习最基础的 ai 视频生成原理,而在最后我们将结合前面所学的全部知识, 一起来做一个 ai 视频换脸转会。那么你还在等什么?赶紧点开下一期视频,开始你的学习之旅吧!那么在本节课中,我们将介绍 cf ui 的 配置要求以及安装与部署的过程。那么首先是电脑配置以及系统环境的介绍。首先是显卡方面, 最低要求是拥有四 g 级以上显存的英伟达显卡,如果显存不足,可能会影响到绘图过程的流畅度。接下来是 cpu, 关于 cpu 要求不高,英特尔十代 i 三以上就可以使用,但推荐使用性能更强的,如英特尔十三代 i 五幺三六零零 kf, 以获得更好的性能。 接下来是内存,内存至少需要十六 gb, 推荐三十二 gb 以上,以确保可以加载和运行较大的模型。最后是硬盘,关于硬盘呢,至少需要两百 g 的 空余空间,推荐使用大容量的固态硬盘,因为 ai 绘图过程中会下载和生成大量的模型以及图像数据。那么接下来我们详细介绍一下 u i 的 下载以及部署方式。我们先安装资源包里面附带的启动器运行依赖,接着打开解压之后的 u i 文件夹,在文件夹内找到 a 会式启动器,随后点击一键启动即可。首次启动时可能会安装一些必要的环境依赖。 稍等片刻后,我们便来到了 cf ui 的 主界面。接下来介绍第二种安装方法,官网资源包的安装,当然关于官网的资源包我们也可以在评论区内获取。我们解压完资源包后,在文件夹内找到这个项目, 双击运行,等待片刻后,我们便可以来到最原汁原味的 cf ui 界面了。这个版本的 cf ui 是 没有装任何非官网的插件的。 此外, comfuse 完全离线工作,对 gpu 的 要求相对较低,但是也有 cpu 模式,不过在 cpu 模式下绘图速度较为缓慢。如果小伙伴们之前有使用过 webui 或其他类型的 stutter fusion ai 绘图应用, 那么可以通过修改 cfui 的 配置文件来实现在不同的 ai 绘图应用间共享大模型以及 loa 等等,以此减少对硬盘内存的占用。那么接下来我就向大家演示一下如何将我们的 cfui 大 模型以及 loa 的 加载路径修改成 webui 的。 如果小伙伴们没有玩过 webui, 那 么这一段可以直接跳过。好的,那么我们打开 cfui, 接着我们找到这个文件 extra model path 和 aml 点 example。 接着我们找到这一项 base path。 我们要做的是把 bash 后面的这一串改成我们 web ui 文件夹的路径。比方说我们打开了 web ui 的 文件夹后,我们可以单机上面的这个栏目,随后 ctrl c 复制。接着我们回到刚才的记事本内,将我们刚刚复制的路径粘贴到此处,随后我们保存并关闭记事本。接下来的一步很重要, 我们需要将 example 以及这个点给删除,也就是将我们的文件名后缀改成点 y a m l, 随后点击确定即可。那么接下来我们打开 comui 来确认一下。 好的,我们这边看一下 checkpoint 加载器里面的大模型,点开后我们可以看到多了,非常多啊,那么这就证明我们成功把模型路径合并到了 web ui 内。好的,那么在本节课中我们将一起了解 comfui 的 主界面以及各种参数到底代表了什么。 最后我们将学习 stable fusion 生成图片的根本原理。好的,我们打开了企鹅大佬的会事启动器后,点击一键启动, 经过一段时间的等待后,我们便来到了 comfyui 的 主界面。那么我们在面对 comfyui 这个完全陌生的软件时,我们要做的就是初步了解每一个模块的大体含义,那么接下来我带着大家过一遍。首先是操作方式,我们可以通过鼠标的滚轮来控制画面的缩放, 按住鼠标左键,我们可以拖动我们的仕图。点击鼠标右键,我们可以看到有非常多的栏目,这边我们可以试着点击新建节点,随后我们可以看到有非常多的节点可以供我们选择。好的,那么之后我们再来说一下快捷键,生成图片的快捷键是 ctrl 加 enter 框选节点的快捷键是按住 ctrl 加鼠标的左键。移动框选目标的快捷键是按住 shift 加鼠标的左键。 这边我们在框选完后,如果不按住 shift 直接进行拖动的话,我们可以看到此时只有单一节点进行了移动,剩下的快捷键我都放在这了,小伙伴们可以暂停观看。 好的,那么接下来我带着大家一起来解读一下这个默认工作流。首先在这边我们可以看到有个叫 check point 加载器的东西,这个节点的主要作用是加载扩散模型, 也就是我们常说的大模型。此外,该节点还提供适当的 v、 i、 e 以及 clip 模型,具体它们是什么,我们带回讲。我们顺着去控制加载器的节点连线,可以看到这里有两个 clip 文本编码器,在这里我们可以看到它们的输入都是 clip, 和它们的输出都是条件。那么究竟什么是 clip 模型呢? clip 全称为 contrast language image port training, 是 由 open ai 公司在二零二一年发布的一款多肽与训练神经网络模型。 clip 模型的作用是理解我们输入文字的意思,比如我们输入 one go 生成的是一个女孩,而不是太阳, 这就是 clip 的 作用。接着我们顺着 clip 文本编码器的条件输出看过来,连接到了 k 采集器上。这边我们可以看到 k 采集器一共有两个关于条件的输入,一个是正面条件,另一个是负面条件。那么这代表着连接着正面条件的文本编码器内的提示词为正面条件提示词, 也就是我们常说的正向提示词。同理,下面的则为负面条件提示词,也就是我们常说的负面提示词。好的,我们把目光重新回到 case 函数器内,我们可以看到除了正面条件以及负面条件外,还有两个输入,分别是模型以及 latent。 那 么模型则是连接着刚才的 checkpoint 加载器, 也就是我们的大模型。那么这个 latent 究竟是什么意思呢? latent 通常是指前空间,可以理解为 static fusion 内部流程中的图像格式,如果将图像作为输入,则需要通过 v a e 编码将其转化为 latent。 数据 在最后输出时,也需要通过 ve 解码将其转化为像素空间,也就是我们最终看到的图像。这边我们可以看到 k 太阳器的 laten 连接着一个叫做空 laten 的 节点,这个节点内共有三个参数, 分别是宽度、高度以及 p 四大小。宽度和高度决定了我们最终生成图像的尺寸,而 p 四大小则代表着每生成一次将出多少张图。比如说我们将 p 四大小改为三,高度改成七百六十八。 最后我们按 ctrl 加 enter 进行生成。好的这边我们可以看到一次性生成了三张图像,也就是我们 p 四数目的图像。接下来我们继续看 k 太阳系的其他参数。 首先是随机种,随机种的值我们一般称为种子值,每张图都有专属于它的种子值,我们也可以理解为种子值,就是图片的 id 号码。接下来是运行后操作,点开后我们可以看到拥有四个选项,分别是固定、增加、减少以及随机。 如果选择固定,则在你生成完后,总次值会保持不变,方便你进行其他的调整与操作。那么接下来就是裁量步数,裁量步数越多,计算机的运算时间越长。在大多数的情况下,我们的裁量步数保持二十到三十步即可。接下来是 c f 居值,该值的意思是提示词引导系数。 c f 居值越高,则代表着生成图像与提示词之间的联系越紧密。 c f 居值越低,则代表着提示词对生成结果的影响越小,不过过高或过低的 c f 居值都会给图片带来不好的影响, 所以我们一般保持适中的 c f g 值即可。接下来是采暖器和调度器,我们可以理解它们为图像的生成方式,如果我们将其他参数比作是食材, 那么它们则是烹饪方式。不同的烹饪方法当然会带来不一样的结果。比如我们点开采暖器后,可以看到有非常多的选项,这里我们目前最好的一般是选择这个 d 片加加二 a m 或者 d 片加加二 a m s d e, 这两个都是挺不错的。接下来点开调度器,我们也是可以看到有非常多的选项,这里我们一般选择的是 carrots。 最后我们可以看到还有个降噪参数,由于该参数是跟图生图有关的,我们以后再说。接下来我们看一下右边有个叫做 v i e 解码的东西,那么我们可以看到这边有两个输入,分别是 laten 以及 v i e。 至于 laten 刚才我们已经解释过了,也就是前空间图像。那么 v i e 究竟是什么呢? v i e 全称变分字编码器 variation auto encode 的 缩写,它是一种深度学习模型,主要用于无监督学习任务,特别是在生成模型领域。 eve 结合了神经网络和概率图模型的特点,而它在康复以外的作用是将我们的前空间图像编码成像素空间图像,或是将像素空间图像编码成前空间图像。除此之外,我们还可以双击屏幕上的空白处,随后就可以搜索节点,比如说搜索加载图像, 或者我们也可以双击搜索预览图像,这边再多说一嘴 ve 解码之后的图像节点,我们也可以直接连接到预览图像上, 比如说我们现在把这个保存图像节点给删去,如果这么操作的话,那么我们生成的图像不会被保存,接着我们再生成一次。 这边还要注意的一点是,在我们搜索节点的时候,我们也可以输入英文,比如说加载图像的话,那么就是 load image, 那 么我们可以看到这两个节点是完全相同的。接着我们再来说一下,比如说当我们输入英文的时候,同样 上的也是 load image, 但是这个时候我们加了一个空格,好,我们可以看到这里面并没有出现加载图像的节点,那么这也意味着在我们搜索节点的时候,我们要注意区分节点的名称是否有空格好,比如说我们需要搜索加载图像节点,那么我们删去 load image 之间的空格之后,我们可以看到,哎, 是不是加载头像节点就出现了?好的,那么以上就是关于默认工作流的全部解释,接下来我们来看下界面还有其他哪些模块。首先我们点击左上角,这里有个文件夹, 点开后我们可以看到我们的工作流都保存在这,这边可以点击新建,那么我们就新建了一个新的工作流,当然我们也可以点击这个 import, 也就是输入我们的工作流,或者说是输入我们的文件夹。 最后我们点击 models, 我 们可以在这里找到并且下载相关的模型。接着我们来看一下右边的栏目,首先是该栏目的左上角,我们按住后可以进行拖动, 然后是这个齿轮标志,点开后我们便来到了 ctrl y 的 设置界面,在这里我们可以设置语言,点开后我们可以看到有中文,繁体中文、英语以及日语、韩语等等。我们往上翻可以看到有其他的功能,比如图像面板顺序,图像面板的位置等等等等。 我们往下看,这有个文本补全,这个 enable 我 们一定要勾选上,这代表着它的起用。文本补全的意思就是在我们输入提示词的时候,会有这些英文短语的提示, 我们往下看有个添加提示词对联,这个是生成的意思。接下来我们可以看到有个保存的选项,点击该按钮我们便可以保存当前的工作流以及加载,那么就是加载工作流,同样的意思。接着是重刷新,比如说我们下载一个新的大模型之后,那么我们点击重刷新便可使用。接下来还有个重点就是管理器, 这是 com 浏览器里面最重要的节点,点开后我们可以看到有非常多的功能,比如说这边有数据库以及频道方式,渲染方法,表情等等等等。这边渲染方法我们一般选择的是这个 eight two rgb, 然后表情这一栏我们一般选择的是名称, 也就是标签名称选择了之后,我们可以看到节点的右上方一般会出现一个小狐狸按钮,而小狐狸按钮则代表的是它是官方节点,比如说我们加载一个新节点, 那么我们可以看到该节点是属于 animate develop 节点组的。接着我们回到管理器这六个 custom node manager, 点开后,我们可以看到有非常多的节点,在这里我们可以查找以及安装我们想要的任意一个节点。在今后的学习过程中,我们会频繁使用到这一个模块。 接着我们看到 model manager, 在 这里我们可以安装我们想要的任意一个模型。注意模型不是节点,他们是分开来的。至于该模块,我们今后也会频繁的用到。好的,在介绍完 comf 以外的主界面以及各种参数后,我们来了解一下 steve fusion 的 内在运行原理,这可以方便我们理解并掌握进一步的学习内容。 在我们输入完体数词之后,文本编码器的 clip 模型会将体数词转化为特征向量,然后再由 v a e 编码器将这些特征向量 传输到前空间内,这些特征向量在前空间内不断地降噪。最后再由 v a e 解码器将这些经过降噪之后的特征向量解码成由一个个像素所组成的图片。好的,那么本节课我们将一起学习纹身图的相关知识 及提述词的语法。在第三节课的结尾,我们一起学习了 step diffusion 克服 ui 的 基础工作原理。那么现在我将结合默认的纹身图工作流来讲解其中的工作流程。首先第一步,在我们输入完正负项的提示词后,文本编码器内的克里普模型会将我们的提示词转化为特征向量输送到 k 彩样器内。 那么这边有个疑问,就是文本编码器的克里普模型从哪来呢?我们顺着这个节点往下看,可以看到它来自于 jpeg 加载器, 而这个加载器主要是加载各种各样的大模型,也就是说文本编码器内的克利普模型是属于各个大模型的内置克利普模型,而不同的大模型之间克利普模型也可能会有所差异。那么接着我们可以看到这个控制加载器的输出有个 ve, 那 么也就是说它提供了 ve 模型,我们看看连到哪 哦,连到了 ve 解码这里,而 ve 解码的作用就是将 k 采集器内经过了降噪之后的前空间图像解码成像素空间的图像,也就是我们肉眼可以看到的图像。这边我们可以做个实验,先将种子值固定,最后断开 ve 的 连接, 然后我们生成,我们可以看到这边是直接报错了,而这个报错的意思是缺少了 ve 的 输入,那么接下来我们重新将 ve 模型给连上,随后开始生成。这边再提一嘴,生成的快捷键是 ctrl 加 enter, 非常的实用,请牢记。 如果说你想调节生成图片的尺寸,那么我们可以在空内存这里,比如说我们将高度调成七百六十八,注意这个数值一定是八的倍数,宽度也一样。至于 p 四的话,则是控制单次生成的图片数量,比如说我们设置成二,好的,我们按 ctrl 加 enter 开始生成。 图片生成后,我们是不是可以看到它的比例已经成功变成了竖屏的比例,并且它一次生成了两张图像。好,接下来我们一起学习提述词的相关语法。首先我们来聊聊书写规范, 不论是正向提示词或者是副向提示词,我们在书写的时候一定是英文以及英文的标点符号,不然系统可能会识别错误。比如我们输入 one girl garden, 还有 yellow dress, 黄色的裙子,这边再提一嘴,生成的快捷键是 ctrl 加 enter。 好 的,我们得到了一个穿着黄色裙子在花园中漫步女孩的图片。那如果说我们用中文来输入,结果会是什么样呢?一个女孩,花园以及黄色的裙子, 我们这边可以看到,不能说是毫无关联吧啊,他们至少图片中都有女孩,但是黄色的裙子以及花园很明显没有在图片中出现。接下来我们来讲一讲题,数字的权重。 在这之前,首先我们要理解什么是权重。对于权重概念模糊的小伙伴,我们可以理解,权重就是比重 分量,那么一个提示词的权重越高,它的分量就越高,它的比重就越高,它在整体中的地位就越高。比如现在一个提示词的权重是一点二,而另一个提示词的权重是零点九,那么当然是一点二的提示词会占更大的比重。那么接下来我们做个演示, 比方说我们输入 one girl garden, one girl 的 权重是一点二,而 garden 的 权重是零点八,那么画面会更侧重于 one girl 的 展现。那如果说我们 one girl 的 比重是零点八,而 garden 的 比重是一点二,那么画面会更注重于描述花园是怎么怎么样的。 好的,接下来我们来讲一讲我们该怎么去控制提数字的权重。首先是中括号,中括号代表着零点九倍的权重,也就是说给提示词加上中括号后,提示词的比中会变小,会降低它的重要性。 那接下来是小括号,小括号代表着一点一倍的权重,比如我们给一个提示词加上小括号后,那么该提示词 在画面中的比重就会增高。最后是大括号,大括号代表着一点零五倍的权重,算是一种微调。当我们给某个提示词添加两个中括号时,那么就相当于为这个提示词加上了零点九乘以零点九倍的权重,零点九乘以零点九是零点八一,那么就相当于给这个提示词加上了零点八一倍的权重。 那么同样的,当我们给个体数词加上两个小括号时,那么就等于一点一乘以一点一倍的权重,那也就是一点二一,相当于我们给这个体式词加上了一点二一倍的权重,大括号也同理。那么有的同学可能会问,关于这个权重的变化有没有什么快捷键呢?哎,这个还真有。比如我们将光标移动到某一体式词上时, 打个比方说 garden 摁住 ctrl 加上键,那么就是给他加权重,我们可以看到他的权重在不断的增加,那么 ctrl 加下键,那么就是减少他的权重,是不是很方便呢? 不过我们要补充的一点是,关于权重,我们要多低都行,但是不可过高,因为过高的话,图片就会过,你和 那句话说,图片就会变形,会失真。接下来我们来讲短句和长句,我相信不少小伙伴都有这么一个疑问,为什么我写提示词的时候,一定是一个一个词这样去拼写,而不是用一句话去描述我们想要生成的内容呢?那么这边我可以很明确的回答你,其实两种都行,但是就目前而言, 用一个一个的词组去生成,效果会更加的准确,更能表达出我们提示词所含的意思。另外一点,使用一个一个的词的时候,也方便我们进行权重的调整,比如刚才我们有提到,将光标放在某一体字词上,然后按住 ctrl 加上或下就可以调整该提示词的权重。那么如果说是一句话的话,你想调整某一体字词, 那么可能就得手动去输括号进行相关的权重调整。当然现在全世界的 a i g c 从业者也在不断地去研究该怎么样让自然语言,也就是我们的长句能达到媲美短句的效果。 接下来我们来讲一讲提示词的整体长度。这边要注意,比如我们在输入正向提示词的时候,并不是说越多就越好多可能会让你的表现更加糟糕,那么我们最好把提示词控制在什么数量之内会效果最佳呢?经过众多 a i g c 玩家的经验以及研究表明, 提示词控制在七十五个之内是效果最精准的,超过了七十五个提示词的话,可能会对提示词的识别不精准,整体的表现会降低。正向提示词如此反向提示词也是一样的,记住最好不要超过七十五个。 接下来我们来讲一讲骑手势。那么什么是骑手势呢?在 stebiefune 各个大模型训练的过程中,会加入许多的比 如四 k、 八 k 或者 masterpiece 各种各样高质量的图形去训练。那么当我们在输入提示词的时候,比方说输入四 k masterpiece, 那 么就可以使我们生成的图像更加的精美。反向提示词的话,那么就相反,比如我们输入模糊,就 是文不想要模糊嘛,那么相当于也是会让图片变得更加的清晰。或者说我们在反向提示词内输入文字 text, 那 么在画面中就会减少文字的出现。这边我们可以来看一下这几组的对比,差异还是很明显的, 接下来我们来讲讲提述词的顺序。或许有小伙伴会有疑问,一个提示词在整体的前部或者是在整体的后部会有什么影响吗?答案是会有影响,在一组提示词中,越靠前的提示词权重会有所增加。那么在我们书写提示词的时候,我们尽量按如下格式进行书写。 首先是书写那些可以提升画质的,或者说可以改变画风的一些词汇,比如 masterpiece, high quality, high detail, 类似这些词汇。第二步是描述我们画面的主体,比如我们可以说 one girl, blue dress, 一个女孩,蓝色的裙子。 那么第三步就是描写环境,场景,灯光或者说构图,比如我们可以说啊 garden 背景嘛, garden 或者说是 white background, 白色的背景,或者说是 soft light, 柔和的灯光,类似于这些。那么最后我们可以在正向提示词的结尾添上我们想要加的 laura, 关于 laura 和各种模型的下载,我上期视频也有介绍,感兴趣的小伙伴可以回去观看。接下来我们来讲一讲提示词污染。那首先我们要知道 什么是提示词污染,我们可以看一下这一组图片,未经处理时,在多个提示词同时书写的情况下,各个提示词的意思可能会相互渗透。那么为了避免这种情况,我们可以用 brick 来隔开提示词,尤其是防止 颜色污染之后我们来聊聊提示词融合。比如我们写 one girl, cat 这部分,我们可以看到生成了一张猫在女孩身上的图片。好的,现在我们在 one girl 和 cat 之间添加上 end。 注意这里的 end 必须是大写,全部大写。这边我们可以看到生成了一张猫娘的图片,这个 end 的 作用就是将两个提示词融合在一起。同样的,下划线也有和 end 类似的作用,也是将两个提示词结合在一块。 除此之外,可一组提示词用中括号括起来,中间再用竖线隔开,也有类似于融合的效果。那么这个的原理是,第一步画前面的关键词,第二步画后面的关键词,第三步又在画前面的关键词,以此类推。最后我们来讲一下控制生成的时间段,比方说现在的叠代步数是二十步, 在这过程中,我想让前百分之三十生成森林,后面百分之七十生成一个女孩。那么我们可以试着这么书写大括号, forest 在 接上冒号, one girl 在 接上冒号,零点三,最后以大括号结尾。那么这一长串 代表着是在百分之三十的时候结束画, forest 开始画 one girl。 那 么如果说我们把零点三改成零点七, 那么意思就是前百分之七十画 forrest, 后面百分之三十画 one girl。 那 么本期视频我将分享几个非常实用的 a i g c 网站以及大模型的下载还有使用方式?那么在本期视频开始之前, 我们先了解一下大模型以及 laura 的 存放路径。首先是大模型,我们一般放在 comui 文件夹里的 models 文件夹内的 checkpoint 里。接着是 laura, 我 们一般放在 comui 文件夹内的 models 文件夹中的 laura 的 内。有些小伙伴可能不知道什么是 laura, 那 么我们可以简单地理解为 laura 就是 非常精简的小模型, 它一般搭配着大模型使用,从而让我们的生成结果更具风格化或是质量提升。首先是 liblib ai, liblib 目前是国内最有权威并且规模最大的 ai g c 网站之一,该网站包含了模型下载、作品灵感 在线生图,还有训练 laura 以及诸多功能。我们一起来看看模型广场,这里有诸多模块,动漫、游戏、插画、二次元幻想、手绘风、工艺风 等等等等,在这里都能找到你想要的相关模型。当你工作或生活中没有灵感的时候,我们可以来到这里看看大家上传的图片。如果有你喜欢的图片的右下角有生成信息,我们可以复制相关参数到 stable future 里面自行生成。第二个网站是 nova ai 点 dv, 该网站侧重于辅助功能,比如这个法术解析,我们可以把已下载好的 stable future 图片拖到这里来, 那么它就会进行相关分析,最后汇总成一个参数表格,当然我们可以复制这份参数表格到 stupefaction 里面,在这里有相关详细的使用介绍,我们看看侧边栏,这边有各式各样的标签供您挑选,我们可以利用这些标签去组成我们想要的关键词,然后复制到 web ui 里面进行生成。 此外,该网站还链接了 a i g c 的 社区,比如之前在内部,内部上看到的画作分享模块这边也有,并且这边还对各种各样的图片进行了分类, 总体来说还是挺不错的。好的下一个网站是 poem, 在 这里我们可以很直观的看到每一个提示词所带来的效果。当然提示词标签也是多种多样, 我们可以看到人物的各种特征,这边几乎都有包含,如果你想添加某个提示词,那么直接点击就行, 随后会在右侧的侧边栏显示有点像购物软件的购物车一样。等我们选择完所有心仪的提示词后,直接点击复制便可粘贴到 web ui 里进行图片生成。除了人物外,我们还可以看到这边有诸多板块,服饰风格、各种构图、质感环境 以及一些质量参数等等。接下来是国外网站,首先是 civai, 在 这个网站内汇集了来自世界各地创作者所训练出的模型,同样的也汇集了来自世界各地 ai g c 玩家所分享的图片。比如我们喜欢某一张图片, 我们可以点进去看它的详细参数,比如它使用了什么模型,什么 laura 等等。当然还有关键词我们都是可以复制并直接进入到我们的 web ui 内进行粘贴附线的。 除了图片外,这边还有大家所分享的 ai 视频。总的来说, swift ai 是 一个非常非常全面并且有着海洋信息的网站,基本上市面上的所有模型以及 logo 在 这边都能找到。接着我们来看看下一个网站 huginface, 想必这个网站许多人应该都听说过, 许多最新的模型 ror 等都是在这边开源发布的,比如我们搜索 stable, diffusion 三模型,这边我们可以看到网页包含了模型生成的视例图以及模型的原理,还有模型的代码等等信息,并且只要你登录了之后便可以下载该文件。最后要介绍的网站是 gitap, 这是目前全世界最大的开源代码网站,在这里我们可以找到海量的信息,其中就包括 aigc, 各个大模型或者是各种插件最新信息 及下载方式。比如我们搜索 stabbt fusion, 在 这里我们可以看到有关于 stabbt fusion 开源的所有信息,不论是运作方式还是本地部署,亦或是它开源的代码,我们都可以从这里得知。最后是模型推荐,我们知道现在市面上已经有着成百上千各种各样的模型, 那么这边 up 主帮大家整理了一下,选出了几个我认为较为好用的大模型。首先是 jinsha 以及麦吉系列,它们的共同点就是生图质量较高,并且生图的类型范围非常广泛。 最后是 pionix, 这是一个二次元大模型,在有关动漫的图像生成上,它的表现非常卓越。 然后是建筑类的大模型, architecture real mix, 这个模型包含了建筑相关的一切领域,包括楼体创意、现搞转会、室内设计等等等等,它都能胜任。 好,我们回到 comf 以外,现在我们将用同一组提示词以及其他参数仅仅变化我们的大模型来看一下生成的结果有什么差异。首先我们选择的是真实感的大模型,好,我们可以看到生成出来的图片非常的写实。接着我们换一个二次元系的大模型, 好,我们可以看到现在图片完全变成了动漫风格,那么这就是大模型的威力。接下来我介绍一下 lower 的 使用方式, 我们鼠标左键按住模型输出,拖出来之后,我们可以看到这边有一个 lower 加载器。好的,选择了之后,我们可以看到 lower 加载器分别有模型以及克里普的输入与输出,那么这边我们先将他的克里普给连上, 接着我们再将 lower 加载器的模型输出连接到 k 太阳器这里,然后再将这个 clip 连接到文本编码器。那么我们稍微整理一下工作流, 那么现在我们先设置一个 lower, 我 们其他参数同样保持不变。比如说我们来一个这个梦中花境吧,我们提示词也是没有任何变化,随后我们开始生成, 我们可以看到明明我们的提示词没有任何关于花的词汇,但是我们的结果图却出现了非常多的花, 那么这也正是因为我们的 laura 起到了作用,不同的 laura 有 不同的效果,小伙伴们可以自己去尝试。那么本期课程我们将一起学习图中图的相关知识以及高清修复。那么在介绍图中图的工作流之前,我们先来讲讲什么是图中图。在我们使用图中图功能时, 我们一般使用一张图片与一组关键词共同作为输入生成的图像将收到这两个输入的共同调节作用,比如使用下面这张初级草图以及一段指令作为输入图生成功能会将其转化成一张完成度较高的图片。首先第一步, 我们输入的图片会由 v i e 编码器编码呈前空间图片并传入到前空间内。第二步,裁剪器会向其添加噪音,通过设置降噪幅度可以控制究竟要添加多少噪音到原始输入的图像中,如果降噪幅度为零,则不会有任何噪音添加进我们的前空间图像。如果降噪幅度为一, 那么我们输入的图像会因为噪声过大而起不到任何参考作用。第三步,采集器内的噪声预测器将上一步处理后的前空间图像与文字指令作为输入传输到 unit 网络,并预测出应减去的前空间噪声张量。接下来前空间噪声张量将会从前空间图层图像中减去,并得到前空间新的图像。并且第三步的全流程会出 重复特定的次数,而这个特定的次数就是采阳步数,比如说二十次,而这整个过程都是在采阳期内完成的。接下来到了第四步, ve 解码器会将降噪完成后的挺空间图像解码成像素空间的图像,那么也就是图生成图的最终图像。接下来我们回到 comfui 中,我们先加载一个默认工作流,随后将 comlater 给删去。 接着我们点击 later 拖出来选择 v i e 编码,那么我们就成功加载了 v i e 编码器。接着我们将 v i e 编码器的 v i e 输入连接到 checkpoint 加载器的 v i e 输出上,随后我们将图像节点给拖出来,选择加载图像 load image, 那 么这边我们上传我们需要的参考图像,这边我上传的是一个尖发小萝莉,那么接下来我们可以输入 one girl golden here, 然后再输入一个 lake, 也就是湖水作为背景,我们看一下啊,他穿的衣服是蓝色的,那我们可以说 blue dress, 接着我们可以看到他的衣服有一点点湿,那么我们可以加入 drench, 湿透的意思,还有白丝袜副像提示词,这里我们一般输入的是模糊,也就是 blur 以及低质量 low quality, 还有文字,也就是我们不希望它出现文字。现在我们回到采暖器这里, 我们可以看到这边有个降噪,我们将该值修改成零点七,而对于降噪值,零点三到零点五之间属于安全的重绘幅度区间,而零点五到零点七则赋予了 ai 更多的想象与发挥的空间,那么低于零点三或者高于零点七,图像都有可能会发生扭曲变形。好,那么这边我们先将该值设置成零点七,生成张图片试一下。 这边我们可以看到这两张图片的背景以及这个墓栈道还有人物的部分特征都是比较相似的,但是我们可以看到他们的年龄确实不太符合。那么接下来在关键词的前方加入一些质量提示词, 在我们优化完关键词之后,我们再次生成,看效果如何。这边图片已经生成出来了,但是感觉还是不太相像,我们要做的就是将降噪幅度改成零点四五,之后我们重新生成一次,看一下效果如何? 效果是不是好了非常多呢?如果你觉得图片不太满意,那么我们可以多生成几张,直到得到你满意的图片为止。 那么接下来我们讲一下什么是高清修复,比如说我们现在生成的这张图片,我们非常满意,那么我们怎么增加它的分辨率以及图片的细节呢?好,那么我们这边回到 k 采集器,我们先将种子值选择的是固定模式,最后稍微整理一下工作流 双击界面的空白处,输入 upscale, 然后我们选择 later 按系数缩放,我们将该节点的 later 输入连接到 k 渲染器的 later 输出上。 好,随后我们按住 alt 键,点击 k 渲染器拖出来,那么我们就复制了一份相同的 k 渲染器,那么我们将这个 later 按系数缩放的 later 输出节点连接到我们新建的 k 渲染器的 later 输入中。 最后我们将文本编码器的条件输出分别连到 k 测遥器的正面条件以及负面条件上,模型也是一样,我们回到 check point 加载器,将模型连接到我们新建的 k 测遥器上。 好,随后我们回到新建的 k 测遥器中,我们将步数设置成二十五, c f 居址我们设置成七。好,接下来我们点击这里选择这个 d p n p p 二 m 调度器,这里我们选择的是 t r s。 接下来我们新建一个 v e 解码器, 随后我们将 v e 解码器的 v e 输入连接到 swap 的 v e 输出上。接着我们新建一个预览图像节点,随后开始生成。 我们可以看到这张图其实非常的不自然,那么我们该怎么去解决呢?我们回到我们新建的 k 采集器这边,我们将运行后的操作改成随机,并且将降噪幅度改成零点五五,随后再次生成。 好,我们对比一下前后两张图片,我们可以看到脸还是变化比较大的,那么我们可以适当的降低降噪幅度,比如说我们改成零点五一再生成一次看看。 好,现在我们可以看到生成的结果,五官是和原图非常相近的,我们再来对比一下图片的细节,放大之后我们可以看到右边,也就是我们新生成的经过高清处理后的图片细节要比原图多很多,比如说水面上的气泡以及这些发丝都是非常的清晰的。 我们这边可以对比一下原图头发这一块一放大就变成一块马赛克了,而我们新生成的图片还是比较清晰的好,那么有的小伙伴可能会说,哎,这还不够清晰,那怎么办?别着急,我们还有高清修复的方法,那么接下来我们将进行第二重高清修复,我们搜索 sd upscale, 也就是这个 sd 放大,那么接下来我们将这些节点一个一个的连上,首先是图像,我们连接的是这个 v e 解码之后的图像输出,接着模型我们还是老样子, 连接的是 checkpoint 的 模型输出,那么这边我推荐一个小技巧,我们将模型拖出来之后选择转接点,我们可以看到这边有一个小小的节点,那么这个节点的意思也就是代替了这个模型的输出,我们将 s d 放大的模型输入跟这个模型输出相连 好,现在我们可以看到它其实也相当于跟我们的 checkpoint 连接在了一起。接下来是正互相条件,我们也用同样的方法拖出来选择转接点。 好,接下来我们连接 ve 模型,我们也是用同样的方法选择转接点,拖出来连接 ve。 这边我们选择放大模型加载器节点,接下来点击这里我们选择该选项,这个放大模型是我试用下来效果最好的。最后我们加载一个预览图像节点,接着稍微整理一下工作流, 好的,整理完工作流之后变得整洁了一些,我们开始生成图片,已经生成出来了,我们可以放在一起对比一下效果。 这张图的分辨率已经达到了二 k, 非常的清晰,我们可以看到细节都还是不错的。然后我们再来看一下第一次放大的图片,放大之后还是有点糊啊,对吧,不过清晰度也还是可以得到保障, 再来对比一下这个哦,确实特别的清晰。随后我们再来看一下第一张图片的清晰,随后我们再来看一下第一张马赛克了,对吧,差异还是非常大的 好,那么有的小伙伴可能会说觉得这张图清晰度还不够,哎,那怎么办?别着急,我们还有最后一重放大,那么加上了这最后一重放大之后,也就构成了所谓的三重放大。这边我们搜索 upscale, 接着选择这个图像,通过模型放大,这个节点非常简单,只有两个输入以及一个输出, 然后图像的话就连接到 sd。 放大之后放大模型,这边我们同样选择的是该模型,随后我们将图像拖出来,选择预览图像。好,我们可以看到最终生成图像已经出炉了,我们来欣赏一下它的效果到底有多么的炸裂。 这是一张四 k 的 图像,清晰度非常的夸张,发丝都看得见,完全没有那种模糊马赛克的感觉,湖水也是很真实。 我们再来看一下对比,第一张,那放大了之后全是马赛克对吧? 没法比啊,这个确实没法比,那么这就是本节课所介绍的图生图以及三重放大的效果。首先这是我们的原图,然后这是我们图生图之后转汇成真人的图片。接着这是第一重放大,第二重放大,最后这是第三重放大。那么本节课我们就一起来学习 cf ui 里面最最最重要的 controlnet。 说到 cosplay 的 起源,就不得不提到他的作者张吕敏,他是二零二一年本科毕业,目前正在斯坦福读博的一位中国人。那么他所提出的是一个 新的神经网络概念,也就是通过额外的输入来控制域训练的大模型,比如 stabil fusion, 其本质就是端对端的训练。那么现在已经有了各种各样非常优秀的 cosplay, 比如 kenny, lan, on soft edge, dips, open pose, tile 等等等等。那么在正式内容开始之前,我已经帮各位小伙伴把所有可能需要用到的 content 模型全部打包好了,需要的小伙伴可以在评论区内领取。那么这边我们先打开 comforion 的 文件夹,随后打开 models, 接着打开 content 文件夹,随后将我分享给大家的压缩包解压到该文件夹内。 好在我们解压完后,可以看到这边一共有十多个 control layer 与处理模型,那么本期视频就先来介绍能够还原参考图大部分细节的 candy 以及 soft h, 还有能够为现稿上色并在动漫图像领域大放异彩的 line on。 我 们先加载一个默认工作流,点击这里,最后点击默认。 如果现在你还未部署好预处理模型的话,我们也可以点击这里 manager, 随后点击 model manager。 接着我们搜索 controlnet, 随后我们便可以看到这边有非常多的预处理模型可供我们下载,我们只需要下载主要的那几种即可,也就是 kenny dips 以及刚才说的其他。那么接下来呢,我们先讲讲 kenny 是 如何使用的。 我们双击屏幕搜索 kenny, 好 的,我们找到这个 kenny, 我 们整理一下工作流,腾出位置出来。接着我们再搜索 control net, 选择这个 apply control net advanced。 那 么我们先稍微连接一下这些条件, 最后我们再添加加载图像节点 load image。 接下来我们把加载图像的输出节点与 kenny 的 输入连接,随后再把 kenny 的 图像输出与 controlnet 的 图像输入连接。那么接下来呢,我们在 controlnet 的 这个 controlnet 输入模块这边我们加载一个 load controlnet model, 这边直接有啊,我们点击即可。 接下来我们 ctrl 内的模型,我们选择的是这个 kenny。 随后我们这边也可以拖出一个预览图像节点,那么待会工作留在运行的时候,我们就可以看到这个 kenny 处理图像之后的样子究竟是什么?接下来我们稍微编辑一下提示词,大模型这边可以根据自己的需求,这边我选择的是真实系的大模型。 好的,接下来我们来到空位腾这里,我们将它的尺寸改成高度为七六八,宽度也是五幺二,也就是和我们的参考图一样,随后开始生成这个,我们可以看到 ken 预处理后的图像已经出来了,我们对比一下它的原图, 我们可以看到大部分的细节他都用细线勾勒了出来。我们再来对比一下原图和最终生成的图像,我们可以看到最终生成的图像还有非常多的细节,比如说他们的服装,我们甚至可以注意到 前后两张图的蝴蝶结的形状都是完全一致的。那么我们再来看下 kenny 这边, kenny 处理之后的图像,蝴蝶结这边正是因为 kenny 把这个形状给勾勒了出来,那么才能做到前后的形状保持一致,那么其他的比如说发型以及姿势也是同样的道理。接下来我们来讲一下 kenny 的 域值,比如说我们把地域值给调成零点二吧,我们可以看到 图像的细节增加了,那么接下来我们再把这个低域值给调成零点五。现在我们可以看到预处理之后的图像线条变少了很多,那么也相当于给 ai 更多的自由发挥空间。我们再来看看高域值,比如说我们把高域值从零点八改成零点九五吧, 看一下会有什么样的变化,细节又变少了,对吧?接着我们再把高域值从零点九五调成零点五吧, 图片的细节又变多了,不过我们要注意的一点是高域值不能低于低域值,比如说把高域值调成零点四,那么现在低域值是零点五,高域值是零点四的话,看一下会有什么样的结果,直接报错了,那么接下来我们可以再把低域值调整成零点一, 图像又能跑起来了,那么我们可以看到在低域值为零点一,高域值为零点四的时候,域处理之后的图像是与原图极度相似的,再看下此时的生成结果, 我们可以看到生成的结果图与原图非常的相近,无论是背后的湖水还是这个木栈道,以及身上的各个细节都是非常相似的,但是我们可以发现头发的颜色对吧?是不同的,以及它的瞳孔 其实是有点变形的,那么这是因为什么呢?我们可以看到因为我们的域值很低,导致图片有着过多的线条细节,那么这也会限制 ai 的 发挥,从而产生一些过拟合的情况。出人话就是 域值不能太低,太低的话图像会变形,我们得把域值控制在一个合适的区间,那么我们一般的话,我们可以把低域值设置成零点二, 高域值我们一般取个合理的数值零点八,随后我们看一下生成的结果,此时的图像与原来相似度其实降低了好,但是图中不自然的地方变少了,那么这也是我们需要进行一个权衡的地方。接下来我们来讲一下第二个 ctrl 内域处理模型 soft h, 这边我们先把 candy 节点给删去,随后双击屏幕搜索 soft h, 我 们选择这个 h e d 开头的 h e d soft h lines。 那 么接下来我们将图像的输入与加载图像的输出连接,同样的我们的输出和 control 链连接, 这边我们可以把输出再和一个预览图像节点连接,也是方便我们进行一个预处理之后的图像预览。接下来我们把 ctrl 键在器这里的模型选择成 soft h 选择这个,那么接下来我们开始生成即可。 好的图像已经出来了,我们先来看一下这个预处理之后的图像,我们可以看到它和 kenny 不 同的是,它的大致轮廓并没有描绘过度的细节, 那么这也可以让 ai 发挥更多的想象空间以及减少图像变形的可能性,所以一般情况下 soft edge 的 效果会优于 kenny。 比如说我们看一下这一张生成之后的图片,这张图的各种细节以及它们的构图,还有人物的姿势都是非常的与原图贴近的,并且最关键的一点是这张图变形的地方其实非常的少, 这点要比 kenny 强很多。好,那么接下来我带着大家一起用 soft edge 来进行一个人物转会。那么首先我们来看一下该怎么操作吧, 我们可以看到这张图生成之后的发色以及衣服的颜色,还有这个栈道的颜色背后的一些细节都是与原图还是有挺多出入的。那么这边我们先加入一些关键词,金色的头发吧, golden hair, 还有蓝色的眼睛,淡蓝色的裙子,以及背景是湖水,那么就加个 lake, 我 们先跑一次看下效果如何,到时候有什么问题的话,我们再进行关键词添加即可。哎,我们看到效果好很多, 但是这个衣服跟原先是有很大差异的,半透明的感觉吗?我们的衣服非常的干,那么我们可以加入一些关键词,比如说湿透的白色的丝袜,我们再上升一次,看一下效果如何。 我们可以看到他的眼睛颜色过深了,那么我们可以把这个 blue eyes 改成淡蓝色。上升一次,我们可以看到效果好了很多,但是这个眼睛还是不够的淡,我们调成一点一的权重吧, 以及他的衣服不够的湿透啊,我们也是要把这个 change, 也就是湿透的这个权重给调高,调成个一点一五吧,我们再进行生成。 我觉得图中的人物的脸过于成熟了,我那么可以加个关键词,萝莉以及 cute。 我 们可以看到身上的衣服还是不够湿,那么我们就把这个 change 的 权重给升高到一点二吧。 好的,这边我们可以看到这张人物已经出现了一些过礼盒的情况,这个眼珠是吧有点变形,以及头发上的这些水珠。很明显这个 sketch 不是 我们想要的单词,因为这个 kitty 布模型并没有理解我们想要的 sketch 是 让衣服湿透的意思,他是直接让人物湿透,我们把 sketch 给删去,那么我们直接输入半透明的裙子。 好的,最后我们得到了一张这样的图像,不知道你觉得效果如何呢?这边要提一嘴的是,我们之所以可以把二次元图片转换成真实系,是因为我们用了真实系的大模型,那么同样的,我们也可以把一张真实系的图片用二次元风格的大模型进行转会。 好的,那么接下来我们来讲一下能够进行线稿转会的 line on, 这边我们可以看到有非常多的选项, standard line on, 标准的 line on 模型以及 realistic line on, 真实系的 line on 处理,还有个是 anime line on, 对 吧?动漫类的线稿处理,那么我们要进行线稿转会,线稿上色的话,我们就选择这个 anime line on。 好 的,我们先输入一张线稿图吧。最后我们来到加载器这里,我们把这个模型选择成 line on, 这边有两个选项,一个是 line on, 一个是 line on anime, 那 么因为我们要进行的是动漫线稿转会,所以选择的是 line on anime。 接下来我们边写一下正向提示词,比如说我们想要这个女生有金色的头发,那么就可以写 golden hair, 然后来个绿色的眼睛吧。衣服的话我们就来一个白色吧。 好的,图像已经生成出来了,我们来对比一下前后的效果。这张图像再对比一下原图,确实是完美的进行了上色,比如说我们的 golden hair, 金色的头发,对吧? 效果都是非常好的。那么以上就是进行现稿转会的具体流程了,当然我们也可以换张图片再次进行生成,这边我选择的是一个高马尾的齐刘海漂亮女生。 关键词这边我们可以来一个红色的头发吧,感觉更有动感一些,眼睛的话来一个黄铜,服装的话来一个黑色吧。好的,我们进行生成, 这边我们可以看到效果是非常好的,只不过它的背景有点缺点,对吧?比如说我们想要来个森林的背景,那就 forest background 效果出来了,你觉得怎么样呢?这视频的结尾,我们把 kenny soft h 以及 line on 来做个对比,从中我们可以很直观的了解到每一个预处理器模型之间的差异,以及最终的效果到底如何。 好的,继续来学习主要的 control 键预处理器。那么首先我们来学习的是 open pulse, open pulse 即姿态控制,主要作用是可以控制人物的姿势,甚至是表情。那么接下来我们双击屏幕搜索 open pulse。 好 的,现在我们可以看到加载了一个 open pulse 姿态预处理器。接着我们在双击屏幕搜索 d w pulse effector, 对, 就是这个选项。 这两个节点呢,其实都是 open pose 的 预处理器,那么它们之间有什么区别呢? dw open pose 呢?综合性强,生存的骨骼图包括了面部、身体姿态以及手部骨骼。而原始的 open pose 又分成了五个大类,分别是只包含了大致骨骼的,以及包含大致骨骼和面部的。 还有只有面部的,或者是包含全身以及面部的。还有全身但不包含面部的。 但是我们仔细看可以发现 open pose 相比 d w open pose 生成的结果不够准确,比如图中 open pose 预处理后的手部以及小腿骨骼丢失。所以说一般情况下 d w open pose 是 要优于 open pose 的。 这边我们先把这个节点给删去,留下的是 dw 姿态域处理器,接着我们把 k 采暖器及后面的节点往后拖腾出空间,然后再搜索 controlnet advance, 对, 就是这个 apply controlnet advance, 高级的 controlnet 应用。好的,这边的话我们先把一些节点给连上, 接着我们把 dw open pose 的 图像输出连接到这个 control 上,接着我们再加载 control 的 预处理器模型,这边我们选择该选项, low control mode, 选择 open pose。 然后这边的话我们先来一个加载图像节点 好了,这边我们上传的图片是一个金发小女孩,然后我们接下来开始写一下正向提示词,一个男孩在花园中 garden。 好 的,那么接下来我们开始生成。 这边我们可以看到这个姿态处理图像已经出来了,是吧?和我们的原图可以说是完全一致,他连手指的骨骼以及脸部的表情都给你刻画出来了。好的,接下来我们看一下最后的结果图如何。 这边我们可以看到这小男孩的姿势可以说跟小女孩完全一致,连这个腿部的姿势都是一样的,然后手臂撑着一个东西,他们的眼神以及这个头的偏向都是和原图完全一致的。 或者说我们再生成一张图片看一下。好的,我们可以看到小男孩的姿态还是和原图是完全一致的。这边的话我们还有个好玩的一点是,我们可以搜索 post note 姿态节点,那么有了该节点后,我们就可以自定义人物的动作,比如说我们想让他摆一个这样的姿势, 我们可以看到这张图的尺寸应该是五幺二乘五幺二的,那么我们接下来直接把这张图的姿态节点与 ctrl n 的 图像连接,然后我们就先把这个呃 dw openpos 给放在一边,摁 ctrl 加 b, 先将它们给忽略,然后我们调节一下这个 laten 的 比例,调整成五幺二乘五幺二, 随后再次生成。我们现在可以看到生成的图像和这个姿态完全一致,或者说我们再来一个这样吧。 好的,那么以上就是关于 openpos 的 介绍,那么接下来我们来讲下一个预处理器 dips。 首先我们要明白什么是 dips。 dips 预处理器处理的是空间关系, 和刚刚所讲的 openpos 有 点相似,都是绑定参考图某些特征的空间关系的预处理器及模型。有时候我们用 controlnet soft edge 无法准确地将参考图的空间关系表达清楚, 那么这时我们就可以用上 dips 深度域处理器了。我们先加载我们的 dips 相关节点,这边搜索 dips, 然后看到这个 z o e dips anything, 选择该选项,然后我们上传一个教堂的图片。好的,我们稍微连接一下节点,然后再把刚才的这个 openpos 给删去。这边我们可以看到这有个选项是环境可以选择室内或者室外。那么由于我们教堂是室内的,所以我们选择 indoor。 接下来我们在这个 control 内的加载器这里选择 dips 模型,然后我们调整一下图片的尺寸,我们可以看到这张图应该是高度为五幺二,宽度是七六八,然后编辑一下相关的提示词, 这边我们可以输入一些质量词,先,比如说 masterpiece, 然后再输入我们的主体,比如说我们想要这教堂是紫色的,那么我们可以写 violet color。 好 的,我们可以看到生成的图像与原图的空间关系可以说是完全一致的。 这边有一个预处理之后的图像,我们可以来仔细看看,越黑的地方则代表着深度越深,而越明亮的地方则代表着距离镜头越近。那么我们可以看到生成图像的深度关系与预处理之后的图像可以说是保持一致。如果说想增加一些细节的话,我们可以加一些关键词。好的, 我们可以看到这张图的深度关系依旧与原图是保持一致的。比如说我们再换一张参考图吧,我们来一个这个尖发小萝莉 图像已经生成出来了,我们来看一下这个效果。不要看这张图的这个细节怎么样,我们主要看的是空间关系,因为我们毕竟是一个针对于空间关系的预处理器吗?现在看一下预处理图像,哎,我们可以看到 把人物肢体细节的空间关系都给表现出来了,比如说这个他的腿的根部这边,对吧?我们可以看到阴影比较重, 证明他的身体是向前倾的,以及背后的背景与人物的距离都用黑与白进行了清晰的刻画。然后我们生成的图片也是根据这张图进行的一个 效果的。生成空间关系还是非常不错的,但毕竟 dips 类似于辅助类的预处理器模型,所以说单独使用的话效果可能是比较差。那么接下来我来介绍一下一些常用的 control net 连招,也就是将各个 control net 串联起来的意思。对于建筑类的重绘,为了确保前后大体的一致性,我们一般用 soft h 加 dips。 在 这套公式中, soft h 的 作用是控制线条的分布,而 dips 是 确保空间关系与参考图一致。而对于人物, 我们一般使用 soft edge 加 open post 加 dip 加 ipad adapter, 那 么在本公式中, soft edge 的 作用还是确保线条和参考图的分布一致,而 open post 的 作用是绑定人物骨骼, dip 的 作用是确保空间关系与参考图一致,而这里 ipad adapter 的 作用是实现面部特征的迁移或者是风格的一致性。 好的,我们回到康复阅读的界面,那么接下来我来讲解一下什么是泰尔域处理器。首先我们来加载一个全新的默认工作流吧,这边我们搜索 t i l e 选择该选项, 那么我们先把基础节点给忽略,单独来看一下泰尔域处理器到底是何方神圣。我们先来一个加载图像节点,这边的图像的话,我们还是用刚才的金发小萝莉吧,然后我们再来一个渲染图像节点,现在开始生成, 哎,我们可以看到预处理之后的图像变模糊了,那么这就得说到胎油预处理器的原理了。胎油预处理器其实就相当于分块进行重裁样,比如说我把这张图分成了四部分,然后根据每一个部分进行图生图的生成,最后面再把这些给拼在一起,最终以达成增加细节的效果。而我们一般在使用胎油预处理器的同时, 我们一般也会伴随着高清修复。然后我们再来仔细看一下这个太阳能滤处理器,这边有迭代步数以及分辨率,我们可以试着把迭代步数设置为六。接着我们再上升一次,我们可以看到图像变得非常的模糊,那么证明迭代步数越高,我们处理之后的图像也就会越模糊,那么我们最终经过传感器所生成的图像也会有着更多的变化, 这边我们保持一个合适的值即可,比如说四或者二之间都可以。而这边我想到最后的生成结果与原图尽可能的相似,所以我把叠代布数设置成二。好的,我们来到工作流,我们先稍微整理一下, 接着搜索 ctrl n, 选择这个 apply ctrl n advance, 然后加载我们的 ctrl n 的 模型。这边我们选择的是 tile t i l e。 接着我们再来编写一下提示词,先输入其手势,然后 one girl, lake blue dress。 好 的,封面提示词。这里的话我们就来一个 easy negative 大 模型,这里我选择的是真实系大模型。然后我们来到 colleton 这里 我们将宽度设置成幺零二四,高度的话设置成幺五三六,也就是七六八的两倍。好的,这边我们可以开始生成,图片已经生成出来了,我们来对比一下前后的效果。我们可以看到图片多了非常非常多的细节, 无论是腿部以及这些水的波纹,还有发丝等等等等。好的,我们再换张图片试一下,比如说我们来一个这个死亡骑士吧,看的非常帅,我们稍微编辑下关键词。 好的,图片生成出来之后,我们来对比一下效果。我们可以看到这张图也是多了非常多的细节,比如说舰上的火焰以及这个深邃的岩浆,不过好像没有源头那么好看,怎么回事? 好的,这就是胎油预处理器,一个可以让 cosplay 的 细节与 mate, jony 相提并论的预处理器。可以说我们在网上看到的那些精美的图片,如果说它是 sd 生成的,那么基本上都有胎油的身影好。

如果你的电脑用的是这个 windows 十一系统,那么你的电脑就会被强制按转 windows ai 就是 这个 microsoft 三点五刻薄特,只要你的电脑硬件不只是这个 ai, 它就会造成你的电脑 很卡,甚至死机发热,最主要它还是收费的,我们平时根本用不上,所以我们一定要卸载它。点击开始 点击这个设置,点击应用,点击已经安装的应用,找到那个 microsoft 三点五可拍的程序,点击这后面这三个点,点击卸载,一定要卸载完了还没用,它会捆绑在你的文本文档和那个 a g 浏览器里面,我们还要进主策略里面进行一下设置才可以。按键盘上面的 win 加 r 二,输入 g p e d r t 点 m s c 点确定,打开本地策略和主编辑器, 点击这个管理模板,点击 windows 主键,点击这个 windows ai, 点击这个移除 microsoft 兼容双击,打开它默认是未配置,我们点击已启动,然后点击应用,点击确定,再重启电脑就可以了。

分享电脑问题第十九期,按键盘上的大小写键,桌面出现开不起的图标,之前出过一期按大小写键出现大小写 a、 b、 c 的 解决方法,我们先按之前的方法试一下。首先文件在这里输入 nova 哈克斯,双击打开,点击设置这里看到 o、 s、 d 图标是关闭的,现在按键盘上的大小写键依然出现开不起的图标,这种方法是不行的。接下来点赞、关注、收藏,我们一起来解决这个问题。首先打开任务管理器,在 这里输入有 tele, 可以 看到后台有一个进程,我们右键单机打开文件所在位置,打开之后是斗战的控制台的一个应用程序, 现在我们把这个应用程序彻底的删掉,按下 shift 加 delete 键,在删除这个应用程序之前,回到任务管理器,将这个进程结束掉。结束之后呢,关掉。回到斗战的控制台的应用程序这里按下 shift 加 delete 键, 永久删除式,点击继续可以看到这里无法删除。再继续打开任务管理器,继续输入 utl t, 再结束一次任务结束之后继续删掉,删掉之后呢,全部都关掉。我们再来按一下大小写键,可以看到这里就没有 caps 的 图标了,这个问题就解决完毕。我是大锤,如果你有任何的电脑问题,都可以在评论区找我,或者找我一对一解答,找我的方式也很简单,请看我的第一条置顶视频,再见!