粉丝18获赞71


大家好,今天阿福主给大家分享两个肚盘不限速的方法,一个是通过官方提速,一个是通过神秘的解析站点获取高速链接提速,个人感觉不错,仅分享使用。话不多说,现在开始。首先我们来看看直接下载的速度, 我的待宽是五百兆左右,可以看到这个速度不是太理想,差不多六 g 的 文件得需要一个小时以上,这个速度估计睡醒了都没下好。我们先来使用第一个方法,先把下载任务删除, 然后点击这个位置,再点击设置,找到传输设置,找到这个功能,然后打开。 接下来我们再去下载文件试试, 可以看到这个速度快了很多,这样子就不会只有 kb 单位的速度了,但是注意的是,这个功能会把你的电脑当做下载节点使用,导致你的上传宽带流量激增, 很可能会被运营商限速,有利有弊,不使用的时候建议关闭。接下来分享另一个方法,这个方法我们需要使用到一个免费下载工具,算是元老级的软件了,大家可以放心, 按照我的步骤来就可以了,这里我已经安装好了,界面大概是这样子的,没有任何的广告,非常干净。接下来教大家如何安装, 直接使用必应搜索关键字,注意不要搞错了,不然下载到盗版的流氓软件不要找我, 输入完成后就点击回车,第一个搜索结果就是如果搜索结果和我的不一样,一定要确认跳转的网址是否和我的一样,直接点击进行跳转 没有问题。加载成功,然后点击这个 download, 然后可以看到有几个不同的平台, 这里我是 windows, 然后点击下载按键下载软件安装包,后面下载好后直接安装就可以了,因为我这里已经安装好了,就不再重复安装了,自已安装好后就直接启动软件的界面就是这样子的, 然后我们点击这个位置,再点击进阶设置, 找到端口,设置这个位置,确认一下端口是否为一万六千八百,确认没有问题后就保存设置,然后最小化软件。 然后我们再回到对应搜索,搜索关键字, 回车搜索可以看到第一个就是了,如果搜不到可以删除一些关键字, 可以看到也是第一个搜索结果。直接点击跳转,弹出这个直接勾选,然后点击同意并继续。 现在我们可以看到这里有好几个项目,选择需要进入的项目,这里也是一样,弹出这个直接勾选,然后点击同意并继续, 没什么问题,成功进入到了项目页面。废话不多说,直接开始。先回到软件里面创建一个分享链接, 注意这个要选择不限制,不然无法获取文件列表, 然后复制分享链接,如果是别人的分享链接也是可以用的。好了,现在我们把刚刚复制的链接粘贴进来, 然后随机点击一个空白位置,会自动识别,如果没有自动识别,就手动输入一下密码,然后输入解析密码,如果没有可以点击这里获取, up 主已经测试过,是没有问题的,不需要付费,我这里已经获取好了,就直接输入了,然后获取文件列表, 获取成功后,网页往下滑,可以看到我们刚刚分享出来的文件了,直接点击解析,解析成功了没有问题。一样的网页往下滑,可以看到我们刚刚解析的文件了, 我们先检查一下基本发送配置, 可以看到这里的端口也是一万六千八百,和软件上面的端口一致就没有问题, 可以点击测试一下看看。 ok, 没有问题,然后点击保存, 然后找到对应的文件,点击发送按键,没有问题,发送成功。然后切换到软件界面,点击这个位置, 可以看到我们刚刚发送过来的文件了,下载器会创建缓存文件,所以需要等待一下,特别是大文件可能会出现软件夹死,多等待一下就可以了。 现在速度成功上来了,效果还是非常的不错,宽带直接拉满了。网上其实有很多这种类型的,但是基本好像不久就观战了, 目前这个是比较久的,大家珍惜使用。好了。分享就到这里了,后期有好玩的再分享给大家,有问题大家可以评论区留言,拜拜。

ai 平权的时代来了,当巨头还在云端秀肌肉时,一个搅局者已经杀到了你的电脑上。他叫康夫 u i, 他 最大的杀手也是不吃性能,在消费级显卡上即可高效运行,最低一千零六十六显卡即可运行,不仅开源,而且完全免费。这意味着 ai 视频的生成不再需要花高价去云端调用大厂的算力了,真正实现了人人可, 而且他绝对专业。这个工具的出现直接把美工、后期画师、设计师的门槛给干碎了,不挑年龄,纯外行都可以轻松学会。关键是这个工具完全免费,每个人都可以轻松落地自己的创意,想偷懒还可以无脑抄作业。为方便大家学习 视频附带的学习资料,我已经给大家打包好放在网盘了,敲六六六,尝尝咸淡。大家所熟知的 web ui 和 comfui 其实都是属于 stability fusion web ui, 主要是基于数据库开发的浏览器界面, kufui 则是使用图形节点、流程图设计,而用于稳定扩散的用户界面。这边我们将 kufui 和 web ui 的 优缺点列出来,方便大家做个对比。首先我们来看 web ui 这块,它的优点是简单易学,并且操作较为基础与简易, 而它的缺点是不利于长期管理。那么这是什么意思呢?当你在深度学习完 web ui 的 高阶内容后,你会意识到,如果使用的是 comui, 那 么将节省两到三倍甚至更多的时间。其次,在插件过多时, web ui 会显得非常的臃肿以及操作费时。那么接下来我们看一下 comui。 这边我们可以看到 kufui 对 配置的要求较低,这同时也意味着降低了 ai 绘画的门槛,方便更多的小伙伴加入进来。那么它的优点其实是节点更异于管理,有较强的自主性,我们可以根据个人需求来组装属于自己的工作流, 并且在未来, kufui 将逐渐与 webui 在 应用层面拉开距离,比如前段时间的 s d 三或者国产最新的颗粒大模型, 都是第一时间在 kufui 里可搭建工作流并使用的。而对于 webui 这些最新的模型与插件,往往得过一阵子才能时装,甚至直接不时装。 所以使用 kufui 也意味着你能够更早地使用到最新的模型与插件。而 kufui 的 缺点是初期不好上手,但 我相信在你学完了本套课程后,一定能够完全掌握康复语言的基础操作。除此之外,过去我们知道有许多软件,比如 blender、 达芬奇、 ue 等等都是使用节点式工作流, 因为他们有极强的自主性与可模块化,许多头部公司的顶级团队使用的都是节点式软件。那么康复语言除了上述优点之外,我们在使用时还可以非常方便的套用他人分享的工作流,即刻便可实现相同的效果, 节省了非常多的节点部署思路的思考时间,以及从单个节点构建成工作流的部署时间。好的,那么接下来介绍一下课程概览。本套课程共分为两个部分,一到六节为基础部分,其中包含了 comfuly 的 配置要求以及如何安装与部署、 界面导览与原理介绍、文声图以及提示词的语法,之后还会聊聊 a i g c 的 相关网站以及模型下载,最后还有图声图以及高清修复的过程。那么从第七节课到第十三节课属于进阶部分,先后会讲解 control 内及其诸多预处理器的使用方法以 及使用场景,之后还会教大家 ipad 及其强大功能的应用。随后我们还会学习最基础的 ai 视频生成原理,而在最后我们将结合前面所学的全部知识,一起来做一个 ai 视频换脸转会。 hello 各位小伙伴,大家好,欢迎来到 kufui 系列教程的第二节课。那么在本节课中,我们将介绍 kufui 的 配置要求以及安装与部署的过程。那么首先是电脑配置以及系统环境的介绍。首先是显卡方面, 最低要求是拥有四 g 级以上显存的英伟达显卡,如果显存不足,可能会影响到绘图过程的流畅度。接下来是 cpu, 关于 cpu 要求不高,英特尔十代 i 三以上就可以使用,但推荐使用性能更强的,如英特尔十三代 i 五幺三六零零 kf, 以获得更好的性能。 接下来是内存,内存至少需要十六 gb, 推荐三十二 gb 以上,以确保可以加载和运行较大的模型。 最后是硬盘,关于硬盘呢,至少需要两百 g 的 空余空间,推荐使用大容量的固态硬盘,因为 ai 绘图过程中会下载和生成大量的模型以及图像数据。那么接下来我们详细介绍一下 cf ui 的 下载以及部署方式。我们先安装资源包里面附带的启动器运行依赖, 接着打开解压之后的 cf ui 文件夹,在文件夹内找到 a 会式启动器,随后点击一键启动即可,首次启动时可能会安装一些必要的环境。依赖, 稍等片刻后,我们便来到了 cf ui 的 主界面。接下来介绍第二种安装方法,官网资源包的安装。当然关于官网的资源包,我们也可以在评论区内获取。我们解压完资源包后,在文件夹内找到这个项目, 双击运行,等待片刻后,我们便可以来到最原汁原味的 cf ui 界面了。这个版本的 cf ui 是 没有装任何非官网的插件的。 此外, cf ui 完全离线工作,对 gpu 的 要求相对较低,但是也有 cpu 模式,不过在 cpu 模式下 绘图速度较为缓慢。如果小伙伴们之前有使用过 web ui 或其他类型的 stupefuge ai 绘图应用,那么可以通过修改 comui 的 配置文件来实现在不同的 ai 绘图应用间共享大模型以及 loa 等等,以此减少对硬盘内存的占用。那么接下来我将向大家演示一下 如何将我们的 comui 大 模型以及 loa 的 加载路径修改成 web ui 的。 如果小伙伴们没有玩过 web ui, 那 么这一段可以直接跳过。好的,那么我们打开 comui, 接着我们找到这个文件 extra model path y a m l 点 example, 接着我们用记事本打开。好的,那么打开之后我们找到这一项 base path, 我 们要做的是把 base path 后面的这一串改成我们 web ui 文件夹的路径。比方说我们打开了 web ui 的 文件夹后,我们可以单机上面的这个栏目, 随后 ctrl c 复制。接着我们回到刚才的记事本内,将我们刚刚复制的路径粘贴到此处,随后我们保存并关闭记事本。接下来的一步很重要,我们需要将 example 以及这个点给删除,也就是将我们的文件名后缀改成点 y a m l, 随后点击确定即可。那么接下来我们打开 ctrl u r 来确认一下。 好的,我们这边看一下区块链加载器里面的大模型,点开后我们可以看到多了,非常多啊,那么这就证明我们成功把模型路径合并到了 web ui 内。好的,那么以上就是关于本期的全部内容了,如果你觉得对你有帮助的话,那不妨给个三连加关注吧。 欢迎来到 cf ui 系列教程的第三节,那么在本节课中,我们将一起了解 cf ui 的 主界面以及各种参数到底代表了什么。最后我们将学习 stability fusion 生成图片的根本原理。好的,我们打开了秋月大佬的会式启动器后,点击一键启动, 经过一段时间的等待后,我们便来到了 comfyui 的 主界面。那么我们在面对 comfyui 这个完全陌生的软件时,我们要做的就是初步了解每一个模块的大体含义,那么接下来我带着大家过一遍。首先是操作方式,我们可以通过鼠标的滚轮来控制画面的缩放, 按住鼠标左键,我们可以拖动我们的仕途。点击鼠标右键,我们可以看到有非常多的栏目,这边我们可以试着点击新建节点,随后我们可以看到有非常多的节点可以供我们选择。好的,那么之后我们再来说一下快捷键,生成图片的快捷键是 ctrl 加 enter, 框选节点的快捷键是按住 ctrl 加鼠标的左键。移动框选目标的快捷键是按住 shift 加鼠标的左键。 这边我们在框选完后,如果不按住 shift 直接进行拖动的话,我们可以看到此时只有单一节点进行了移动,剩下的快捷键我都放在这了,小伙伴们可以暂停观看。 好的,那么接下来我带着大家一起来解读一下这个默认工作流。首先在这边我们可以看到有个叫 checkpoint 加载器的东西,这个节点的主要作用是加载扩散模型,也就是我们常说的大模型。 此外该节点还提供适当的 ve 以及 clip 模型,具体它们是什么我们带回讲。我们顺着 checkpoint 加载器的节点连线,可以看到这里有两个 clip 文本编码器,在这里我们可以看到它们的输入都是 clip, 而它们的输出都是条件。那么究竟什么是 clip 模型呢? clip 全称为 contrasted language image pre training, 是 由 open ai 公司在二零二一年发布的一款多模态与训练神经网络模型。 clip 模型的作用是理解我们输入文字的意思,比如我们输入 one go 生成的是一个女孩,而不是太阳, 这就是 clip 的 作用。接着我们顺着 clip 文本编码器的条件输出看过来,连接到了 k 采阳器上,这边我们可以看到 k 采阳器一共有两个关于条件的输入,一个是正面条件,另一个是负面条件。那么这代表着连接着正面条件的文本编码器内的提示词为正面条件提示词, 也就是我们常说的负面提示词。好的,我们把目光重新回到 k 采阳器内, 我们可以看到除了正面条件以及负面条件外,还有两个输入,分别是模型以及 latent, 那 么模型则是连接着刚才的 checkpoint 加载器,也就是我们的大模型。那么这个 latent 究竟是什么意思呢? latent 通常是指前空间,可以理解为 static fusion 内部流程中的图像格式。如果将图像作为输入,则需要通过 v i e 编码将其转化为 latent 数据 在最后输出时,也需要通过 ve 解码将其转化为像素空间,也就是我们最终看到的图像。这边我们可以看到 k 太阳器的 laten 连接着一个叫做空 laten 的 节点,这个节点内共有三个参数, 分别是宽度、高度以及 p 四大小。宽度和高度决定了我们最终生成图像的尺寸,而 p 四大小则代表着每生成一次将出多少张图。比如说我们将 p 四大小改为三,高度改成七百六十八。 最后我们按 ctrl 加 enter 进行生成。好的,这边我们可以看到一次性生成了三张图像,也就是我们 p 四数目的图像。接下来我们继续看 k 太阳器的其他参数。 首先是随机种,随机种的值我们一般称为种子值,每张图都有专属于它的种子值,我们也可以理解为种子值,就是图片的 id 号码。接下来是运行后操作,点开后我们可以看到一共有四个选项,分别是固定、增加、减少、 随机。如果选择固定,则在你生成完后,种子值会保持不变,方便你进行其他的调整与操作。那么接下来就是采样步数,采样步数越多,计算机的运算时间越长。在大多数的情况下,我们的采样步数保持二十到三十步即可。接下来是 c f 居值,该值的意思是提示词引导系数, cf 聚值越高,则代表着生成图像与提示词之间的联系越紧密。 cf 聚值越低,则代表着提示词对生成结果的影响越小。不过过高或过低的 cf 聚值都会给图片带来不好的影响, 所以我们一般保持适中的 cf 聚值即可。接下来是采暖器和调度器,我们可以理解它们为图像的生成方式,如果我们将其他参数比作是食材, 那么它们则是烹饪方式。不同的烹饪方法当然会带来不一样的结果。比如我们点开采暖器后,可以看到有非常多的选项,这里我们目前最好的一般是选择这个 d p n 加加二 a m 或者 d p n 加加二 a m s d e, 这两个都是挺不错的。接下来点开调度器,我们也是可以看到有非常多的选项,这里我们一般选择的是 carrots。 最后我们可以看到还有个降噪参数,由于该参数是跟图生图有关的,我们以后再说。 接下来我们看一下右边有个叫做 v i e 解码的东西,那么我们可以看到这边有两个输入,分别是 laten 以及 v i e。 至于 laten, 刚才我们已经解释过了,也就是前空间图像。那么 v i e 究竟是什么呢? v i e 全称变分字编码器, variation auto encode 的 缩写,它是一种深度学习模型,主要用于无监督学习任务,特别是在生成模型领域。 ve 结合了神经网络和概率图模型的特点,而他在康复以外的作用是将我们的前空间图像编码成像素空间图像,或是将像素空间图像编码成前空间图像。除此之外,我们还可以双击屏幕上的空白处,最后就可以搜索节点,比如说搜索加载图像, 或者我们也可以双击搜索预览图像。这边再多说一嘴, v e 解码之后的图像节点,我们也可以直接连接到预览图像上, 比如说我们现在把这个保存图像节点给删去,如果这么操作的话,那么我们生成的图像不会被保存,接着我们再生成一次。 这边还要注意的一点是,在我们搜索节点的时候,我们也可以输入英文,比如说加载图像的话,那么就是 load image, 那 么我们可以看到这两个节点是完全相同的。接着我们再来说一下,比如说当我们输入英文的时候, 同样的也是 load image, 但是这个时候我们加了一个空格。好,我们可以看到这里面并没有出现加载图像的节点,那么这也意味着在我们搜索节点的时候,我们要注意区分节点的名称是否有空格好,比如说我们需要搜索加载图像节点, 那么我们删去 load image 之间的空格之后,我们可以看到,哎,是不是加载图像节点就出现了? 好的,那么以上就是关于默认工作流的全部解释,接下来我们来看下界面还有其他哪些模块。首先我们点击左上角,这里有个文件夹, 点开后我们可以看到我们的工作流都保存在这,这边可以点击新建,那么我们就新建了一个新的工作流,当然我们也可以点击这个 import, 也就是输入我们的工作流,或者说是输入我们的文件夹。 最后我们点击 models, 我 们可以在这里找到并且下载相关的模型。接着我们来看一下右边的栏目,首先是该栏目的左上角,我们按住后可以进行拖动, 然后是这个齿轮标志,点开后我们便来到了康复以外的设置界面,在这里我们可以设置语言,点开后我们可以看到有中文,繁体中文,英语以及日语、韩语等等,我们往上翻可以看到有其他的功能,比如图像面板顺序,图像面板的位置等等等等。 我们往下看,这有个文本补全,这个 enable 我 们一定要勾选上,这代表着它的起用。文本补全的意思就是在我们输入提示词的时候,会有这些英文短语的提示, 我们往下看有个添加提示词队列,这个是生成的意思。接下来我们可以看到有个保存的选项,点击该按钮我们便可以保存当前的工作流以及加载,那么就是加载工作流,同样的意思。 接着是重刷新,比如说我们下载一个新的大模型之后,那么我们点击重刷新便可使用。接下来还有个重点就是管理器,这个是 com 浏览器里面最重要的节点,点开后我们可以看到有非常多的功能, 比如说这边有数据库以及频道方式,预览方法,表情等等等等。这边预览方法我们一般选择的是这个 later to rgb, 然后表情这一栏我们一般选择的是名称, 也就是标签名称。选择了之后,我们可以看到节点的右上方一般会出现一个小狐狸按钮,而小狐狸按钮则代表的是它是官方节点。比如说我们加载一个新节点, 那么我们可以看到该节点是属于 animate develop 节点组的。接着我们回到管理器这六个 custom node manager, 点开后我们可以看到有非常多的节点,在这里我们可以查找以及安装我们想要的任意一个节点。在今后的学习过程中,我们会频繁使用到这一个模块。 接着我们看到 model manager, 在 这里我们可以安装我们想要的任意一个模型,注意模型不是节点,它们是分开来的。至于该模块,我们今后也会频繁的用到。好的,在介绍完 comf 以外的主界面以及各种参数后,我们来了解一下 stefi fusion 的 内在运行原理, 就可以方便我们理解并掌握进一步的学习内容。在我们输入完体式词之后,文本编码器的 click 模型会将体式词转化为特征向量, 然后再由 v a e 编码器将这些特征向量传输到前空间内,这些特征向量在前空间内不断地降噪,最后再由 v a e 解码器将这些经过降噪之后的特征向量解码成由一个个像素所组成的图片。好的,那么以上就是本期的全部内容了, 哈喽大家好,欢迎来到 comu 系列教程的第四节课,那么本节课我们将一起学习纹身图的相关知识 以及体式词的语法。在第三节课的结尾,我们一起学习了 step diffusion 康复 ui 的 基础工作原理,那么现在我将结合默认的纹身图工作流来讲解其中的工作流程。 首先第一步,在我们输入完正负相的提示词后,文本编码器内的 key 模型会将我们的提示词转化为特征向量输送到 k 彩样器内。那么这边有个疑问,就是文本编码器的 key 模型从哪来呢?我们顺着这个节点往下看,可以看到它来自于 jump point 加载器, 而这个加载器主要是加载各种各样的大模型,也就是说文本编码器内的克里普模型是属于各个大模型的内置克里普模型,而不同的大模型之间克里普模型也可能会有所差异。那么接着我们可以看到这个朋友加载器的输出有个 v a e, 那么也就是说他提供了 ve 模型,我们看看连到哪哦,连到了 ve 解码这里,而 ve 解码的作用就是将 k 采集器内经过了降噪之后的前空间图像解码成像素空间的图像,也就是我们肉眼可以看到的图像。这边我们可以做个实验,先将种子值固定,最后断开 ve 的 连接, 然后我们生成,我们可以看到这边是直接报错了,而这个报错的意思是缺少了 ve 的 输入,那么接下来我们重新将 ve 模型给连上,随后开始生成。这边再提一嘴,生成的快捷键是 ctrl 加 enter, 非常的实用,请牢记。 如果说你想调节生成图片的尺寸,那么我们可以在空内存这里,比如说我们将高度调成七百六十八,注意这个数值一定是八的倍数,宽度也一样。 至于 p 次的话,则是控制单次生成的图片数量。比如说我们设置成二。好的,我们摁 ctrl 加 enter 开始生成。 图片生成后,我们是不是可以看到它的比例已经成功变成了竖屏的比例,并且它一次生成了两张图像?好,接下来我们一起学习题序词的相关语法。首先我们来聊聊书写规范, 不论是正向题序词或者是副向题序词,我们在书写的时候一定是英文以及英文的标点符号,不然系统可能会识别错误。比如我们输入 one girl garden 还有 yellow dress 黄色的裙子,这边再提一嘴,生成的快捷键是 ctrl 加 enter。 好 的,我们得到了一个穿着黄色裙子在花园中漫步女孩的图片。那如果说我们用中文来输入,结果会是什么样呢?一个女孩花园以及黄色的裙子, 我们这边可以看到,不能说是毫无关联吧啊,他们至少图片中都有女孩,但是黄色的裙子以及花园很明显没有在图片中复现。接下来我们来讲一讲题序词的权重。 在这之前,首先我们要理解什么是权重。对于权重概念模糊的小伙伴,我们可以理解,权重就是比重 分量,那么一个提示词的权重越高,他的分量就越高,他的比重就越高,他在整体中的地位就越高。比如现在一个提示词的权重是一点二,而另一个提示词的权重是零点九,那么当然是一点二的提示词会占更大的比重,那么接下来我们做个演示, 比方说我们输入 one girl garden, one girl 的 权重是一点二,而 garden 的 权重是零点八,那么画面会更侧重于 one girl 的 展现。那如果说我们 one girl 的 比重是零点八,而 garden 的 比重是一点二,那么画面会更注重于描述花园是怎么怎么样的。 好的,接下来我们来讲一讲我们该怎么去控制提数字的权重。首先是中括号,中括号代表着零点九倍的权重,也就是说给提示词加上中括号后,提示词的比重会变小,会降低它的重要性。 那接下来是小括号,小括号代表着一点一倍的权重,比如我们给一个提示词加上小括号后,那么该提示词在画面中的比重 就会增高。最后是大括号,大括号代表着一点零五倍的权重,算是一种微调。当我们给某个提示词添加两个中括号时,那么就相当于为这个提示词加上了零点九乘以零点九倍的权重,零点九乘以零点九是零点八一, 那么就相当于给这个体式词加上了零点八一倍的权重。那么同样的,当我们给个体式词加上两个小括号时,那么就等于一点一乘以一点一倍的权重,那也就是一点二一,相当于我们给这个体式词加上了一点二一倍的权重, 括号也同理。那么有的同学可能会问,关于这个权重的变化有没有什么快捷键呢?哎,这个还真有。比如我们将光标移动到某一题是此上时,打个比方说 garden 摁住 ctrl 加上键,那么就是给它加权重,我们可以看到它的权重在不断的增加, 那么 ctrl 加下键,那么就是减少它的权重,是不是很方便呢?不过我们要补充的一点是,关于权重我们要多低都行,但是不可过高,因为过高的话图片就会过你和, 换句话说,图片就会变形,会失真。接下来我们来讲短句和长句,我相信不少小伙伴都有这么一个疑问,为什么我写提示词的时候一定是一个一个词这样去拼写, 不是用一句话去描述我们想要生成的内容呢?那么这边我可以很明确的回答你,其实两种都行,但是就目前而言, 用一个一个的词组去生成,效果会更加的准确,更能表达出我们提示词包含的意思。另外一点,使用一个一个的词的时候,也方便我们进行权重的调整,比如刚才我们有提到,将光标放在某一体字词上, 然后摁住 ctrl 加上或下就可以调整该提示词的权重。那么如果说是一句话的话,你想调整某一提示词, 那么可能就得手动去输括号,进行相关的权重调整。当然现在全世界的 a i g c 从业者也在不断的去研究该怎么样让自然语言,也就是我们的长句能达到媲美短句的效果。接下来我们来讲一讲提示词的整体长度, 要注意,比如我们在输入正向提示词的时候,并不是说越多就越好,多可能会让你的表现更加糟糕,那么我们最好把提示词控制在什么数量之内会效果最佳呢?经过众多 a i g c 玩家的经验以及研究表明,提示词控制在七十五个之内 是效果最精准的,超过了七十五个提示词的话,可能会对提示词的识别不精准,整体的表现会降低。正向提示词如此反向提示词也是一样的,记住最好不要超过七十五个。 接下来我们来讲一讲骑手势,那么什么是骑手势呢?在 stebiefune 各个大模型训练的过程中,会加入许多的 如四 k, 八 k 或者 masterpiece 各种各样高质量的图形去训练。那么当我们在输入提示词的时候,比方说输入四 k masterpiece, 那 么就可以使我们生成的图像更加的精美。反向提示词的话,那么就相反,比如我们输入模糊就 是文不想要模糊嘛,那么相当于也是会让图片变得更加的清晰。或者说我们在反向提示词内输入文字 text, 那 么在画面中就会减少文字的出现。这边我们可以来看一下这几组的对比,差异还是很明显的, 接下来我们来讲讲提述词的顺序。或许有小伙伴会有疑问,一个提示词在整体的前部或者是在整体的后部会有什么影响吗?答案是会有影响,在一组提示词中,越靠前的提示词权重会有所增加。那么在我们书写提示词的时候,我们尽量按如下格式进行书写, 首先是书写那些可以提升画质的,或者说可以改变画风的一些词汇,比如 masterpiece, high quality, high detail, 类似这些词汇。第二步是描述我们画面的主体,比如我们可以说 one girl, blue dress, 一个女孩,蓝色的裙子。 那么第三步就是描写环境,场景,灯光或者构图。比如我们可以说啊 garden 背景嘛, garden 或者说是 white background, 白色的背景,或者说是 soft light 柔和的灯光类似于这些。那么最后我们可以在正向题词的结尾添上我们想要加的 laura, 关于 laura 和各种模型的下载,我上期视频也有介绍,感兴趣的小伙伴可以回去观看。 接下来我们来讲一讲提示词污染。那首先我们要知道什么是提示词污染。我们可以看一下这一组图片,未经处理时,在多个提示词同时书写的情况下,各个提示词的意思可能会相互渗透。那么为了避免这种情况,我们可以用 break 来隔开提示词, 尤其是防止颜色污染。之后我们来聊一聊题序词融合。比如我们写 one girl, cat 这边我们可以看到生成了一张猫在女孩身上的图片。好的,现在我们在 one girl 和 cat 之间添加上 end, 注意这里的 end 必须是大写,全部大写。这边我们可以看到生成了一张猫娘的图片。这个 end 的 作用就是将两个提示词融合在一起。同样的,下划线也有和 end 类似的作用,也是将两个提示词结合在一块。 除此之外,隔一组提示词用中括号括起来,中间再用竖线隔开,也有类似与融合的效果。那么这个的原理是,第一步画前面的关键词,第二步画后面的关键词,第三步又在画前面的关键词,以此类推。最后我们来讲一下控制生成的时间段, 比方说现在的叠带步数是二十步,在这过程中我想让前百分之三十生成森林,后面百分之七十生成一个女孩。那么我们可以试着这么书写,大括号, forest 在 街上冒号 one girl, 在 街上冒号零点三,最后以大括号结尾,那么这一长串 代表着是在百分之三十的时候结束画 forest, 开始画 one girl。 那 么如果说我们把零点三改成零点七,那么意思就是前百分之七十画 forest, 后面百分之三十画 one girl。 好 的,那么以上就是本期的所有内容了。 hello, 大家好,欢迎来到 cf ui 系列教程的第五节课,那么本期视频我将分享几个非常实用的 a i g c 网站以及大模型的下载还有使用方式。那么在本期视频开始之前, 我们先了解一下大模型以及 laura 的 存放路径。首先是大模型,我们一般放在 cf ui 文件夹里的 models 文件夹内的 laura, 文件夹中的 laura 内 有些小伙伴可能不知道什么是 laura, 那 么我们可以简单的理解为 laura 就是 非常精简的小模型,它一般搭配着大模型使用,从而让我们的生成结果更具风格化或是质量提升。 首先是利物利物 a i 利物利物目前是国内最有权威并且规模最大的 a i g c 网站之一,该网站包含了模型下载,作品灵感 在线生图,还有训练 laura 以及诸多功能。我们一起来看看模型广场,这里有诸多模块,动漫、游戏,插画,二次元幻想、手绘风,工艺风等等等等, 在这里都能找到你想要的相关模型。当你工作或生活中没有灵感的时候,我们可以来到这里看看大家上传的图片,如果有你喜欢的图片的右下角有生成信息,我们可以复制相关参数到 stable future 里面自行生成。第二个网站是 nova ai 点 de v, 该网站侧重于辅助功能,比如这个法术解析,我们可以把已下载好的 stable future 图片拖到这里来, 那么它就会进行相关分析,最后汇总成一个参数表格,当然我们可以复制这份参数表格到 stability fusion 里面,在这里有相关详细的使用介绍,我们看看侧边栏,这边有各式各样的标签供您挑选, 我们可以利用这些标签去组成我们想要的关键词,然后复制到 web ui 里面进行生成。此外,该网站还链接了 a i g c 的 社区,比如之前在 liblib 上看到的画作分享模块,这边也有,并且这边还对各种各样的图片进行了分类, 总体来说还是挺不错的。好的下一个网站是 poem, 在 这里我们可以很直观的看到每一个提示词所带来的效果。当然提示词标签也是多种多样, 我们可以看到人物的各种特征,这边几乎都有包含,如果你想添加某个提示词,那么直接点击就行, 随后会在右侧的侧边栏显示有点像购物软件的购物车一样。等我们选择完所有信息的提示词后,直接点击复制便可粘贴到 web ui 里进行图片生成。除了人物外,我们还可以看到这边有诸多板块,服饰风格、各种构图、质感环境 以及一些质量参数等等。接下来是国外网站,首先是 civate ai, 在 这个网站内汇集了来自世界各地创作者所训练出的模型, 同样的也汇集了来自世界各地 ai g c 玩家所分享的图片。比如我们喜欢某一张图片,我们可以点进去看它的详细参数,比如它使用了什么模型,什么 laura 等等,当然还有关键词我们都是可以复制并直接进入到我们的 web ui 内进行粘贴复现的。 除了图片外,这边还有大家所分享的 ai 视频。总的来说, cvitai 是 一个非常非常全面并且有着海洋信息的网站,基本上市面上的所有模型以及 laura 在 这边都能找到。 接着我们来看看下一个网站 huginface, 想必这个网站许多人应该都听说过,许多最新的模型 laura 等都是在这边开源发布的。 比如我们搜索 stable fusion 三模型,这边我们可以看到网页包含了模型生成的视例图以及模型的原理,还有模型的代码等等信息,并且只要你登录了之后便可以下载该文件。最后要介绍的网站是 gitap, 这是目前全世界最大的开源代码网站,在这里我们可以找到海量的信息,其中就包括 aigc, 各个大模型或者是各种插件最新信息 以及下载方式。比如我们搜索 stable fusion, 在 这里我们可以看到有关于 stable fusion 开源的所有信息,不论是运作方式还是本地部署,亦或是它开源的代码,我们都可以从这里得知。最后是模型推荐,我们知道现在市面上已经有着成百上千各种各样的模型, 那么这边 up 主帮大家整理了一下,选出了几个我认为较为好用的大模型。首先是 dreamstriper 以及麦吉系列,它们的共同点就是生图质量较高,并且生图的类型范围非常广泛。 最后是 prime mix, 这是一个二次元大模型,在有关动漫的图像生成上,它的表现非常卓越。 然后是建筑类的大模型, architecture realmix, 这个模型包含了建筑相关的一切领域,包括楼体创意,现搞转会、室内设计等等等等,它都能胜任。 好,我们回到康复以外,现在我们将用同一组提示词以及其他参数仅仅变化我们的大模型,来看一下生成的结果有什么差异。首先我们选择的是真实感的大模型。好,我们可以看到生成出来的图片非常的写实。接着我们换一个二次元系的大模型, 好,我们可以看到现在图片完全变成了动漫风格,那么这就是大模型的威力。接下来我介绍一下 lowra 的 使用方式, 我们鼠标左键按住模型输出,拖出来之后,我们可以看到这边有一个 lora 加载器。好的,选择了之后,我们可以看到 lora 加载器分别有模型以及 clip 的 输入与输出,那么这边我们先将它的 clip 给连上, 接着我们再将 lora 加载器的模型输出连接到 k 太阳器这里,然后再将这个 clip 连接到文本编码器。那么我们稍微整理一下工作流, 那么现在我们先设置一个 lora, 我 们其他参数同样保持不变,比如说我们来一个这个梦中花境吧,我们提示词也是没有任何变化。随后我们开始生成, 我们可以看到明明我们的提示词没有任何关于花的词汇,但是我们的结果图却出现了非常多的花,那么这也正是因为我们的 laura 起到了作用,不同的 laura 有 不同的效果,小伙伴们可以自己去尝试。好,那么本期的视频到此结束。 哈喽大家好,欢迎来到康复 u i 系列教程的第六节课,那么本期课程我们将一起学习图生图的相关知识以及高清修复。那么在介绍图生图的工作流之前,我们先来讲讲什么是图生图。在我们使用图生图功能时, 我们一般使用一张图片与一组关键词共同作为输入生成的图像将收到这两个输入的共同调节作用。比如使用下面这张初级草图以及一段指令作为输入,图生图功能会将其转化成一张完成度较高的图片。首先,第一步, 我们输入的图片会由 v i e 编码器编码从前空间图片并传入到前空间内。第二步,传感器会向其添加噪声,通过设置降噪幅度可以控制究竟要添加多少噪声到原始输 入的图像中。如果降噪幅度为零,则不会有任何噪声添加进我们的前空间图像。如果降噪幅度为一,那么我们输入的图像会因为噪声过大而起不到任何参考作用。第三步, 采集器内的噪声预测器将上一步处理后的前空间图像与文字指令作为输入传输到 unit 网络,并预测出应减去的前空间噪声张量。接下来,前空间噪声张量将会从前空间图层图像中减去并得到前空间新的图像,并且第三步的全流程会重复特定的次数,而这个特定的次数就是采样步数, 比如说二十次,而这整个过程都是在采集器内完成的。接下来到了第四步, ve 解码器会将降噪完成后的挺空间图像解码成像素空间的图像,那么也就是图生成图的最终图像。接下来我们回到 comfui 中,我们先加载一个默认工作流,随后将 comlater 给删去。 接着我们点击 later 拖出来,选择 v i e 编码,那么我们就成功加载了 v i e 编码器。接着我们将 v i e 编码器的 v i e 输入连接到 checkpoint 加载器的 v i e 输出上,随后我们将图像节点给拖出来,选择加载图像 load image, 那么这边我们上传我们需要的参考图像。这边我上传的是一个金发小萝莉,那么接下来我们要边写一下提示词。这边我们可以输入 one girl golden here, 然后再输入一个 lake, 也就是湖水作为背景。我们看一下啊,他穿的衣服是蓝色的,那我们可以说 blue dress。 接着我们可以看到它的衣服有一点点湿,那么我们可以加入 drench, 湿透的意思,还有白丝袜副象题是词,这里我们一般输入的是模糊,也就是 blur 以及低质量 low quality, 还有文字,也就是我们不希望它出现文字。现在我们回到采暖器这里, 我们可以看到这边有个降噪,我们将该值修改成零点七,而对于降噪值,零点三到零点五之间属于安全的重绘幅度区间,而零点五到零点七则赋予了 ai 更多的想象与发挥的空间,那么低于零点三或者高于零点七, 图像都有可能会发生扭曲变形。好,那么这边我们先将该值设置成零点七,生成张图片试一下。 这边我们可以看到这两张图片的背景以及这个墓栈道还有人物的部分特征都是比较相似的,但是我们可以看到他们的年龄确实不太符合。那么接下来在关键词的前方加入一些质量提示词, 在我们优化完关键词之后,我们再次生成,看下效果如何。这边图片已经生成出来了,但是感觉还是不太相像,我们要做的就是将降噪幅度改成零点四五,之后我们重新生成一次,看一下效果如何, 效果是不是好了非常多呢?如果你觉得图片不太满意,那么我们可以多生成几张,直到得到你满意的图片为止。 那么接下来我们讲一下什么是高清修复,比如说我们现在生成的这张图片我们非常满意,那么我们怎么增加它的分辨率以及图片的细节呢?好,那么我们这边回到 k 层扬尘器,我们先将种子值选择的是固定模式,随后稍微整理一下工作流, 双击界面的空白处,输入 upscale, 然后我们将该节点的 layton 输入连接到 k 层扬尘器的 layton 输出上。 好,随后我们按住 alt 键,点击 k 传感器拖出来,那么我们就复制了一份相同的 k 传感器,那么我们将这个 laten 按系数缩放的 laten 输出节点连接到我们新建的 k 传感器的 laten 输入中。 最后我们将文本编码器的条件输出分别连到 k 传感器的正面条件以及负面条件上,模型也是一样,我们回到 check point 加载器,将模型连接到我们新建的 k 传感器上。 好,随后我们回到新建的 get 检测器中,我们将步数设置成二十五, c f 居值我们设置成七。好,接下来我们点击这里选择这个 d p m p p 二 m 调度器,这里我们选择的是 carrots。 接下来我们新建一个 ve 解码器, 随后我们将 ve 解码器的 ve 输入连接到 shift point 的 ve 输出上,接着我们新建一个预览图像节点,随后开始生成, 我们可以看到这张图其实非常的不自然,那么我们该怎么去解决呢?我们回到我们新建的 k 传感器这边,我们将运行后的操作改成随机,并且将降噪幅度改成零点五五,随后再次生成。 好,我们对比一下前后两张图片,我们可以看到脸还是变化比较大的,那么我们可以适当的降低降噪幅度,比如说我们改成零点五一再生成一次看看。 好,现在我们可以看到生成的结果,五官是和原图非常相近的,我们再来对比一下图片的细节,放大之后我们可以看到右边,也就是我们新生成的经过高清处理后的图片细节要比原图多很多,比如说水面上的气泡以及这些发丝都是非常的清晰的, 我们这边可以对比一下原图,头发这一块一放大就变成一块马赛克了,而我们新生成的图片还是比较清晰的好,那么有的小伙伴可能会说,哎,这还不够清晰,那怎么办?别着急,我们还有高清修复的方法,那么接下来我们将进行第二重高清修复,我们搜索 sd upscale, 也就是这个 s d 放大,那么接下来我们将这些节点一个一个的连上。首先是图像,我们连接的是这个 ve 解码之后的图像输出,接着模型我们还是老样子, 连接的是 checkpoint 的 模型输出,那么这边我推荐一个小技巧,我们将模型拖出来之后选择转节点,我们可以看到这边有一个小小的节点,那么这个节点的意思也就是代替了这个模型的输出,我们将 s d 放大的模型输入,跟这个模型输出相连。 好,现在我们可以看到它其实也相当于跟我们的 joy 连接在了一起。接下来是正负相条件,我们也用同样的方法拖出来,选择转接点。 好,接下来我们连接 ve 模型,我们也是用同样的方法选择转接点,拖出来 连接 v i e, 这边我们选择放大模型加载器节点,接下来点击这里我们选择该选项,这个放大模型是我试用下来效果最好的。最后我们加载一个预览图像节点,接着稍微整理一下工作流,好的,整理完工作流之后变得整洁了一些,我们开始生成 图片已经生成出来了,我们可以放在一起对比一下效果,这张图的分辨率已经达到了二 k, 非常的清晰,我们可以看到细节都还是不错的。然后我们再来看一下第一次放大的图片,放大之后还是有点糊啊,对吧, 不过清晰度也还是可以得到保障,再来对比一下这个哦,确实特别的清晰。 随后我们再来看一下第一张图片的清晰度,这个放大之后就是一团马赛克了,对吧?差异还是非常大的 好,那么有的小伙伴可能会说,觉得这张图清晰度还不够,哎,那怎么办?别着急,我们还有最后一重放大,那么加上了这最后一重放大之后,也就构成了所谓的三重放大。这边我们搜索 upscale, 接着选择这个图像,通过模型放大,这个节点非常简单,只有两个输入以及一个输出, 然后图像的话就连接到 sd 放大之后放大模型,这边我们同样选择的是该模型, 随后我们将图像拖出来,选择预览图像。好,我们可以看到最终生成图像已经出炉了,我们来欣赏一下它的效果到底有多么的炸裂。这是一张四 k 的 图像,清晰度非常的夸张, 发丝都看得见,完全没有那种模糊马赛克的感觉,湖水也是很真实。 我们再来看一下对比第一张,那放大了之后全身马赛克对吧? 没法比啊,这个确实没法比,那么这就是本节课所介绍的图生图以及三重放大的效果。首先这是我们图生图之后转绘成真人的图片,接着这是第一重放大, 第二重放大,最后这是第三重放大。好,那么本期的视频到此结束,如果你觉得对你有帮助的话,那不妨给个三连加关注吧。哈喽,大家好,欢迎来到本期的康复 ui 学习频道,那么本节课我们就一起来学习康复 ui 里面最最最重要的 control net 说到 computernet 的 起源,就不得不提到他的作者张吕敏,他是二零二一年本科毕业,目前正在斯坦福读博的一位中国人。那么他所提出的是一个新的神经网络概念,也就是通过额外的输入来控制域训练的大模型,比如 stabilisation, 其本质就是端对端的训练。那么现在已经有了各种各样非常优秀的 computernet, 比如 kenny, lan on, soft edge, dips, open pose, tile 等等等等。那么在正式内容开始之前,我已经帮各位小伙伴把所有可能需要用到的 content 模型全部打包好了,需要的小伙伴可以在评论区内领取。那么这边我们先打开 comforlater 的 文件夹,随后打开 models, 接着打开 content 文件夹, 随后将我分享给大家的压缩包解压到该文件夹内。好在我们解压完后,可以看到这边一共有十多个 control 内的预处理模型。那么本期视频就先来介绍能够还原参考图大部分细节的 cany 以及 soft h, 还有能够为线稿上色并在动漫图像领域大放异彩的 line on。 我 们先加载一个默认工作流,点击这里, 最后点击默认。如果现在你还未部署好预处理模型的话,我们也可以点击这里 manager, 随后点击 model manager, 接着我们搜索 controlnet。 随后我们便可以看到这边有非常多的预处理模型可供我们下载, 我们只需要下载主要的那几种即可,也就是 kenny, dips 以及刚才说的其他。那么接下来呢,我们先讲讲 kenny 是 如何使用的,我们双击屏幕搜索 kenny, 好 的,我们找到这个 kenny, 我们整理一下工作流,腾出位置出来。接着我们再搜索 controlnet, 选择这个 apply controlnet advance。 那 么我们先稍微连接一下这些条件, 随后我们再添加加载图像节点 load image。 接下来我们把加载图像的输出节点与 kenny 的 输入连接,随后再把 kenny 的 图像输出连接。那么接下来呢?我们在 controlnet 的 这个 controlnet 输入模块这边 我们加载一个 load control net model, 这边直接有啊,我们点击即可。接下来我们 control net 的 模型,我们选择的是这个 kenny, 随后我们这边也可以拖出一个预览图像节点,那么待会工作流在运行的时候,我们就可以看到这个 kenny 处理图像之后的样子究竟是什么?接下来我们稍微编辑一下提示词, 模型这边可以根据自己的需求,这边我选择的是真实系的大模型。好的,接下来我们来到 comrade 这里,我们将它的尺寸改成高度为七六八,宽度也是五幺二,也就是和我们的参考图一样,随后开始生成。这边我们可以看到 kenny 预处理后的图像已经出来了,我们对比一下它的原图, 我们可以看到大部分的细节他都用细线勾勒了出来。我们再来对比一下原图和最终生成的图像,我们可以看到最终生成的图像的姿势以及发型,还有非常多的细节,比如说他们的服装,我们甚至可以注意到 前后两张图的蝴蝶结的形状都是完全一致的。那么我们再来看下 kenny 这边 kenny 处理之后的图像蝴蝶结这边正是因为 kenny 把这个形状给勾勒了出来,那么才能做到前后的形状保持一致,那么其他的比如说发型一致 也是同样的道理。接下来我们来讲一下看你的域值,比如说我们把域值给调成零点二吧,我们可以看到图像的细节增加了,那么接下来我们再把这个域值给调成零点五。 现在我们可以看到域处理之后的图像线条变少了很多,那么也相当于给 ai 更多的自由发挥空间。我们再来看看高域值,比如说我们把高域值从零点八改成零点九五吧, 看一下会有什么样的变化,细节又变少了,对吧?接着我们再把高裕值从零点九五调成零点五吧, 图片的细节又变多了。不过我们要注意的一点是,高裕值不能低于低裕值,比如说把高裕值调成零点四,那么现在低裕值是零点五,高裕值是零点四的话,看一下会有什么样的结果,直接报错了。那么接下来我们可以再把低裕值调整成零点一, 图像又能跑起来了。那么我们可以看到在低域值为零点一,高域值为零点四的时候,域处理之后的图像是与原图极度相似的,再看下此时的生成结果, 我们可以看到生成的结果图与原图非常的相近,无论是背后的湖水,还是这个木栈道,以及身上的各个细节都是非常相似的,但是我们可以发现头发的颜色对吧?是不同的,以及他的瞳孔 其实是有点变形的,那么这是因为什么呢?我们可以看到,因为我们的域值很低,导致图片有着过多的线条细节,那么这也会限制 ai 的 发挥,从而产生一些过几何的情况。说人话就是 域值不能太低,太低的话图像会变形,我们得把域值控制在一个合适的区间,那么我们一般的话,我们可以把域值设置成零点二, 高域值我们一般取个合理的数值零点八。随后我们看一下生成的结果,此时的图像与原来相似度其实降低了好,但是图中不自然的地方变少了,那么这也是我们需要进行一个权衡的地方。接下来我们来讲一下第二个 ctrl 内域处理模型 soft h 这边我们先把 candy 节点给删去,随后双击屏幕搜索 soft edge, 我 们选择这个 h e d 开头的 h e d soft edge lines。 那 么接下来我们将图像的输入与加载图像的输出连接,同样的我们的输出和 control 链连接 这边我们可以把输出再和一个预览图像节点连接,也是方便我们进行一个预处理之后的图像预览。接下来我们把 ctrl 键在器这里的模型选择成 soft h, 选择这个,那么接下来我们开始生成即可。 好的图像已经出来了,我们先来看一下这个预处理之后的图像,我们可以看到它和 kenny 不 同的是,它的大致轮廓并没有描绘过度的细节, 那么这也可以让 ai 发挥更多的想象空间,以及减少图像变形的可能性,所以一般情况下 soft edge 的 效果会优于 kenny。 比如说我们看一下这一张生成之后的图片,这张图的各种细节以及它们的构图,还有人物的姿势都是非常的与原图贴近的,并且最关键的一点是这张图变形的地方其实非常的少, 这点要比 kenny 强很多。好,那么接下来我带着大家一起用 soft edge 来进行一个人物转会,那么首先我们来看一下该怎么操作吧, 我们可以看到这张图生成之后的发色以及衣服的颜色,还有这个栈道的颜色背后的一些细节都是与原图还是有挺多出入的。那么这边我们先加入一些关键词,金色的头发吧, golden here, 还有蓝色的眼睛,淡蓝色的裙子,以及背景是湖水,那么就加个 lake, 我 们先跑一次看效果如何,到时候有什么问题的话,我们再进行关键词添加即可。哎,我们看到效果好很多, 但是这个衣服跟原先是有很大差异的,半透明的感觉嘛,我们的衣服非常的干,那么我们可以加入一些关键词,比如说湿透的白色的丝袜,我们再送上一次看一下效果如何, 我们可以看到他的眼睛颜色过深了,那么我们可以把这个 blue eyes 改成淡蓝色赠送一次, 我们可以看到效果好了很多,但是这个眼睛还是不够的淡,我们调成一点一的权重吧,以及他的衣服不够的湿透啊,我们也是要把这个卷曲也就是湿透的这个权重给调高,调成个一点一五吧,我们再进行生成。 我觉得图中的人物的脸过于成熟了,我那么可以加个关键词,萝莉以及 cute, 我 们可以看到身上的权重给升高到一点二吧。 好的,这边我们可以看到这张人物已经出现了一些过礼盒的情况,这个眼珠是吧有点变形,以及头发上的这些水珠。 很明显这个 sketch 不是 我们想要的单词,因为这个 kitty 模型并没有理解我们想要的 sketch 是 让衣服湿透的意思,它是直接让人物湿透,我们把 sketch 给删去,那么我们直接输入半透明的裙子。 好的,最后我们得到了一张这样的图像,不知道你觉得效果如何呢?这边要提一嘴的是,我们之所以可以把二次元图片转换成真实系,是因为我们用了真实系的大模型,那么同样的,我们也可以把一张真实系的图片用二次元风格的大模型进行转换。 好的,那么接下来我们来讲一下能够进行现稿转会的 line on。 这边我们先把这个 soft edge 的 预处理器给关闭,随后输入 line on。 这边我们可以看到有非常多的选项, standard line on, 标准的 line on 模型以及 realistic line on, 真实系的 line on 处理。还有个是 anime line on, 对 吧?动漫类的线稿处理,那么我们要进行现稿转会,现稿上色的话,我们就选择这个 anime line on。 好的,我们先输入一张现稿图吧。最后我们来到加载器这里,我们把这个模型选择成 line on。 这边有两个选项,一个是 line on, 一个是 line on anime, 那 么因为我们要进行的是动漫线稿转会,所以选择的是 line on anime。 接下来我们边写一下正向提示词,比如说我们想要这个女生有金色的头发,那么就可以写 golden here, 然后来个绿色的眼睛吧,衣服的话我们就来一个白色吧。 好的,图像已经生成出来了,我们来对比一下前后的效果。最终图像再对比一下原图确实是完美的进行了上色,比如说我们的 golden hair, 金色的头发,对吧?实现了, 以及 green eyes 也是实现了,以及 white gloss, 对 吧?效果都是非常好的。那么以上就是进行现稿转会的具体流程了,当然我们也可以换张图片再次进行生成。这边我选择的是一个高马尾的齐刘海漂亮女生。 关键词,这边我们可以来一个红色的头发吧,感觉更有动感一些。眼睛的话来一个黄铜,服装的话来一个黑色吧。好的,我们进行生成, 这边我们可以看到效果是非常好的,只不过他的背景有点缺点,对吧?比如说我们想要来个森林的背景,那就 orange background 效果出来了,你觉得怎么样呢?这视频的结尾我们把 kenny soft h 以及 line on 来做个对比,从中我们可以很直观的了解到每一个预处理器模型之间的差异,以及最终的效果到底如何。 好的,那么以上就是关于本期的全部内容了,那么下节课我们继续讲解 comscape 的 其他几个主要的预处理器,我们不见不散。 哈喽,大家好,欢迎来到本期的康复娱乐学习频道,那么本节课我们接着上节课的内容,继续来学习主要的 control 的 预处理器。那么首先我们来学习的是 open pose, open pose 即姿态控制,主要作用是可以控制人物的姿势,甚至是表情。那么接下来我们双击屏幕搜索 open pose。 好 的,现在我们可以看到加载了一个 open pose 姿态预处理器,接着我们在双击屏幕搜索 d w pose, 对, 就是这个选项。 这两个节点呢,其实都是 open pose 的 预处理器,那么它们之间有什么区别呢? dw open pose 呢?综合性强,生成的骨骼图包括了面部、身体姿态以及手部骨骼。而原始的 open pose 又分成了五个大类,分别是只包含了大致骨骼的,以及 包含大致骨骼和面部的。还有只有面部的,或者是包含全身以及面部的, 还有全身但不包含面部的。但是我们仔细看可以发现 open pose 相比 dw open pose 生成的结果不够准确,比如图中 open pose 预处理后的手部以及小腿骨骼丢失。所以说一般情况下 dw open pose 是 要优于 open pose 的。 这边我们先把这个节点给删去,留下的是 dw 姿态预处理器,接着我们把 k 采集器 其后面的节点往后拖腾出空间,然后再搜索 controlnet advance, 对, 就是这个 apply controlnet advance, 高级的 controlnet 应用。好的,这边的话我们先把一些节点给连上, 接着我们把 dw openpos 的 图像输出连接到这个 controlnet 上,接着我们再加载 controlnet 的 预处理器模型,这边我们选择该选项, low controlnet model 选择 open pose。 然后这边的话我们先来一个加载图像节点。好了,这边我们上传的图片是一个金发小女孩,然后我们接下来开始写一下正向提示词,一个男孩在花园中 garden。 好 的,那么接下来我们开始生成。 这边我们可以看到这个姿态处理图像已经出来了,是吧?和我们的原图可以说是完全一致,他连手指的骨骼以及脸部的表情都给你刻画出来了。好的,接下来我们看一下最后的结果图如何。 这边我们可以看到这个小男孩的姿势可以说跟小女孩完全一致,连这个腿部的姿势都是一样的,然后手臂撑着一个东西,他们的眼神以及这个头的偏向都是和原图完全一致的, 或者说我们再生成一张图片看一下。好的,我们可以看到小男孩的姿态还是和原图是完全一致的。这边的话,我们还有个好玩的一点是,我们可以搜索 post node 姿态节点,那么有了该节点后,我们就可以自定义人物的动作,比如说我们想让他摆一个这样的姿势, 我们可以看到这张图的尺寸应该是五幺二乘五幺二的,那么我们接下来直接把这张图的姿态节点与 ctrl n 的 图像连接。然后我们就先把这个呃 dw openpos 给放在一边,摁 ctrl 加 b, 先将它们给忽略, 然后我们调节一下这个 laten 的 比例,调整成五幺二乘五幺二,随后再次生成。我们现在可以看到生成的图像和这个姿态完全一致,或者说我们再来一个这样吧。 好的,那么以上就是关于 openpos 的 介绍,那么接下来我们来讲下一个预处理器 tips。 首先我们要明白什么是 tips。 tips, 预处理器处理的是空间关系, 和刚刚所讲的 open pose 有 点相似,都是绑定参考图某些特征的空间关系的域处理器及模型。有时候我们用 controlnet soft edge 无法准确地将参考图的空间关系表达清楚, 那么这时我们就可以用上 dips 深度域处理器了。我们先加载我们的 dips 相关节点,这边搜索 dips, 然后看到这个 z o e dips anything, 选择该选项。然后我们上传一个教堂的图片。好的,我们稍微连接一下节点,然后再把刚才的这个 openpos 给删去。这边我们可以看到这有个选项是环境,可以选择室内或者室外。那么由于我们教堂是室内的,所以我们选择 indoor。 接下来我们在这个 ctrl 键的加载器这里选择 dv 模型,然后我们调整一下图片的尺寸,我们可以看到这张图应该是高度为五幺二,宽度是七六八,然后编辑一下相关的提示词。 这边我们可以输入一些质量词,先,比如说 masterpiece, 然后再输入我们的主体,比如说我们想要做教堂是紫色的,那么我们可以写 violet color。 好 的,我们可以看到生成的图像与原图的空间关系可以说是完全一致的。 这边有一个预处理之后的图像,我们可以来仔细看看。越黑的地方则代表着深度越深,而越明亮的地方则代表着距离镜头越近。那么我们可以看到生成图像的深度关系与预处理之后的图像可以说是保持一致。如果说想增加一些细节的话,我们可以加一些关键词。 好的,我们可以看到这张图的深度关系依旧与原图是保持一致的。比如说我们再换一张参考图吧,我们来一个这个金发小萝莉。好的,图像已经生成出来了,我们来看一下这个效果,不要看这张图的这个细节怎么样,我们主要看的是空间关系, 因为我们毕竟是一个针对于空间关系的预处理器吧。现在看一下预处理图像,哎,我们可以看到把人物肢体细节的空间关系都给表现出来了,比如说这个他的腿的根部这边,对吧? 我们可以看到阴影比较重,证明他的身体是向前倾的,以及背后的背景与人物的距离都用黑与白进行了清晰的刻画,然后我们生成的图片也是 根据这张图进行的一个效果的生成。空间关系还是非常不错的,但毕竟 deep 类似于辅助类的预处理器模型,所以说单独使用的话效果可能是比较差。那么接下来我来介绍一下一些常用的 ctrl n 键,也就是将各个 ctrl n 键串联起来的意思。 对于建筑类的重绘,为了确保前后大体的一致性,我们一般用 soft edge 加 dips。 在 这套公式中, soft edge 的 作用是控制线条的分布,而 dips 是 确保空间关系与参考图一致。而对于人物, 我们一般使用 soft edge 加 open pose 加 dips 加 ip adapter。 那 么在本公式中, soft edge 的 作用还是确保线条和参考图的分布一致,而 open pose 的 作用是绑定人物骨骼。 ps 的 作用是确保空间关系与参考图一致,而这里 ipad adapter 的 作用是实现面部特征的迁移,或者是风格的一致性。 好的,我们回到康复 u r 的 界面,那么接下来我来讲解一下什么是 t l 与处理器。首先我们来加载一个全新的默认工作流吧,这边我们搜索 t i l e, 选择该选项, 那么我们先把基础节点给忽略,单独来看一下胎儿育处理器到底是何方神圣。我们先来一个加载图像节点,这样的图像的话,我们还是用刚才的剪发小萝莉吧,然后我们再来一个渲染图像节点,现在开始生成, 哎,我们可以看到预处理之后的图像变模糊了,那么这就得说到胎儿预处理器的原理了。胎儿预处理器其实就相当于分块进行重裁样,比如说我把这张图分成了四部分,然后根据每一个部分进行图生图的生成,最后面再把这些给拼在一起,最终以达成增加细节的效果。 而我们一般在使用胎儿预处理器的同时,我们一般也会伴随着高清修复。然后我们再来仔细看一下这个胎儿预处理器,这边有迭代步数以及分辨率, 我们可以试着把叠带步数设置为六,接着我们再生成一次,我们可以看到图像变得非常的模糊,那么证明叠带步数越高,我们处理之后的图像也就会越模糊,那么我们最终经过采集器所生成的图像也会有着更多的变化。这边我们保持一个合适的值即可,比如说四或者二之间都可以, 而这边我想到最后的生成结果与原图尽可能的相似,所以我把叠加布书设置成二。好的,我们来到工作流,我们先稍微整理一下,接着搜索 ctrl n, 选择这个 apply ctrl n advance, 然后加载我们的 ctrl n 的 模型,这边我们选择的是 t i l e。 接着我们再来编写一下提示词,先输入其手势, 然后 one girl lake blue dress。 好 的,封面题是在这里的话,我们就来一个 easy negative 大 模型。这里我选择的是真实系大模型。然后我们来到 colletton 这里,我们将宽度设置成幺零二四,高度的话设置成 幺五三六,也就是七六八的两倍。好的,这边我们可以开始生成图片,已经生成出来了,我们来对比一下前后的效果。我们可以看到图片多了非常非常多的细节, 无论是腿部以及这些水的波纹,还有发丝等等等等。好的,我们再换张图片试一下。比如说我们来一个这个死亡骑士吧,看的非常帅,我们稍微编辑下关键词。 好的,图片生成出来之后,我们来对比一下效果。我们可以看到这张图也是多了非常多的细节,比如说剑上的火焰,以及这个剩下的岩浆, 不过好像没有原图那么好看是怎么回事?好的,这就是 tio 预处理器,一个可以让 comfort you are 的 细节与 midori 相提并论的预处理器。可以说我们在网上看到的那些精美的图片,如果说它是 s d 生成的,那么基本上都有 tio 的 身影。 好,那么本期的视频到此结束,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜!哈喽,大家好,欢迎来到本期的康复 ui 学习频道,那么这节课我们一起来学习 ipad adapter。 ipad adapter 的 由来可以追溯到二零二三年,当时一位叫 motion 的 用户在 get up 上首次提出了这个概念。 ipaditor 的 核心思想是利用预训练的图像生成模型,如 steve diffusion, 通过特定的算法对图像进行编辑和修改。现如今 ipaditor 主要有三个作用,首先是人脸替换, ipaditor 可以 精准地识别参考图的面部特征,并沿用该特征到结果图上。第二是材质迁移, ipaditor 除了识别面部特征之外,还可以识别参考图的材质,并沿用到结果图上。第三是风格迁移, ipaditor 在 前两种作用的基础之上,还可以对参考图的风格进行识别,并且迁移到我们的结果图上。那么接下来我们一起看看 ipaditor 具体是如 如何使用的吧。 ipad adapter 在 web ui 中是属于 computer 里的,但是呢,它在 comfy ui 里有着自己一套完整的节点。首先我们打开 comfy ui 的 界面后,我们点击这个 manager, 最后点击模型管理,然后再搜索 ipadder, 那 么我们就可以看到这边有非常多的模型,不过要记住有这个 dedicated, 也就是气用后缀的,我们千万不要下载,不然在你使用的过程中会报错。那么这边我们主要下载的是这个模型, face id plus v two 以及 face id plus v two s d 叉 l 这两个就可以,那至于其他的,比如说 ipadder s d 一 点五这一类的,可下可不下,毕竟是老版本嘛。 然后我们在滑到下面,看到后面这些 o n x 后缀的文件,这些一共有一二三四五五个, 这五个我们都是需要下载的。然后我们看到这边这边还有 ipad 的 laura, 这个 laura 也是可以帮我们提升图像生成的效果的。然后这边一共有两个,一个是 face id 一 点五的 laura, 一个是 face id plus v two s 一 点五的 laura。 这两个我们都可以下载。当然如果说你用的是 sd 叉 l 的 模型,那我们也可以下载 sd 叉 l 的 相关 laura。 好的,接下来我们搜一个叫做 clip vision, 现在我们可以看到这边一共有五个模型。这边的话我们这两个模型是一定要下载的 b 七九 k 后缀的,以及这个 b 幺六零 k 后缀的。当然如果说你在使用 kufu ui manager 下载 ipad 过程中出现任何问题的话,我们也可以打开 hackin face 直接进行下载。在进入到 hackin face 之后,我们搜索 ipad, 来到这个界面之后,我们点击文件以及版本, 能看到这边有非常多的模型,然后我们需要下载的是这四个即可,他们是 face id plus v 2 是 最新版本。接下来我们把这两个后缀式 bin 的 文件放置在这个路径内, 然后再把这两个 laura 放置在这个路径内。接下来我们点击这个模型的作者,然后在 models 这边找到 ipad, 接着我们点击文件及版本,打开 models 后,我们把这个文件下载到刚才的路径内。 接着我们打开 sd 叉 l models, 同样的把这个文件下载到相同路径下。那么以上就是 ipad adapter 的 安装以及部署过程。 好的,我们回到 copy ui 界面,我们先加载一个默认工作流。这边我先要向大家推荐一个非常好用的节点,叫做 easy use, 看到我的这个文本框了没有,以及这些节点它们现在其实是半透明状,我们可以清晰地看到后面的节点连线到底是通往哪儿的,这个非常有用,比如说我们把这 v e 结码放在 k 三二七后面,我们还是可以看得到里面的节点,这样就不会出现一些节点我们找不着的情况。好的,接下来我向大家介绍怎么下载 easy use, 还是一样,我们点击 manager, 然后点击节点管理,搜索 easy use, 然后下载该节点即可。除此之外, easy use 还有个很棒的功能,就是这个组别管理器也可以叫管理组,这个小模块是什么功能呢?比如说现在我们创建两个组, 我们把其中各组的名字命名为 group one, 另外一个的话我们就命名为 group two, 然后现在我们可以看到关联组这边,哎出现了两个,一个是 group one, 一个是 group two, 那 么我们这边比如说点击一下该按钮, 我们可以看到 group one 的 所有节点都被忽略了,当然我们也可以再次点击,那么就是奇用,我们也可以用同样的方法去控制 group two, 比如说,哎,点击一下这个是吧 group two 整个都变成了奇用,当然我们也可以再次开启这功能呢,还是非常实用的。那么这就是 easy use 的 一些相关应用。 然后我们再说下 easy use 该如何去改变我们这些节点的外观,我们打开设置,看到这边有一个叫做 color palette, 然后我们在调色板这边选择这个 opem, 也就是黑曜石 custom, 然后我们的节点就会变成了这种半透明状,当然我们也可以选择 opem dark, 那么我们可以发现,哎背景就变成了黑色,这个根据自己的个人需求而定,我的话还是比较喜欢灰色背景。好的,那么接下来我们来讲一下 ipad pro 的 具体使用方式。这边我们先加载一个默认工作流,然后我们双击界面搜索 ipad pro, 然后我们稍微整理下工作流,为它腾出位置。这边我们可以看到 ipad adapter 一 共有四个输入以及一个输出,我们可以看到有模型, ipad adapter 图像,还有关注层遮罩。我们先把模型与我们的 checkpoint 加在一起连接, 然后再把模型输出与 k 采集器连接,接着我们在 ipad 输入这里加载一个 ipad model loader, 也就是模型加载器。这里的话我们就先选择这个 sd 一 点五的,至于上面的这个 face id plus v2, 我 们待会讲该如何使用。 好的,我们先选择这个 sd 一 点五的。之后我们把图像这边也拖出来,连接一个加载图像节点 load image。 然后我们可以看到还有最后个选项,关注层遮罩。这个我们其实可连可不连,反正他们也不会报错。如果说连的话,那比如说我把这个图像在遮罩编辑器中打开,然后我们把他的脸给涂上遮罩, 接着再把这个加载图像的遮罩输出与 ipad 的 这个关注层遮罩连接。意思就是说我们的 ipad 将侧重于我们遮罩涂抹的部分进行相关的分析, 从而来影响我们最终生成图像的效果。当然如果说我们取消连接并且删除遮罩的话,意思就是说我们 ipad adapter 分 析的是整张图像的相关细节,比如说它的发色,脸部以及穿着。然后我们这边先编辑下提示词, one girl garden, 然后负面提示词的话,我们选择 easy negative v two。 然后我们可以看到这个空位,这边我们来一个 primix 哎,一个二次元系的大模型。然后我们回到这个 ipad adapter 的 应用, 我们可以看到这边一共有四个参数,分别是权重以及开始还有结束。最后是权重类型,那么开始以及结束这个我们就不用多说了,意思就是 ipad adapter 介入的时机以及结束应用的时机,那么权重的话,我们也可以理解为 ipad adapter 的 音响强度。 最后是权重类型,我们点开后可以看到一共有 standard, 也就是标准,还有个 poem is more important, 更注重于关键词。最后一个是 style transfer 风格迁移。然后这边的话我们先来个 standard 吧,也就是标准。 接着我们回到 k 采光器这里,我们把步数设置成二十五步, c f 居直改为七。采光器的话用的是这个 d p m 加加二 m。 调度器的话选的是 caras。 这个采暖器以及调度器可以说是一个非常完美的组合, d p n 加加二 e n 以及配套 carras 效果还是非常棒的。然后我们就先试着生成一张图片,看一下效果如何, 它的意思是说 ipad 迭个模型加载有问题,请使用最新的这个 ipad 迭个的模型加载器。 ok, 那 么我们在双击界面,然后再次搜索 ipad 迭个 unifier, 这是一个最新的 ipad 加载器,而 我们可以看到这个老加载器,它只有一个 ipadder 的 输出,而这个最新的加载器一共有两个,分别是模型以及 ipadder, 我 在这里向大家展示出来的目的就是为了让大家记得都要用这个新的模型加载器, 记住啊,是有两个输入与输出的,而不是用这个老的,不然它就会像刚才一样报错。好的,我们现在在进行连接,模型与这个 ipadder 应用相连,然后再把这个模型输入与 point 连接, 最后的话, ipad 的 输出我们也是跟 ipad 应用连接,然后这边的话我们选择的是这个标准,现在我们再次进行生成,好的图像已经生成出来了, 我们可以看到这张图像还是挺还原原图的一些特征的,比如说他们这个身上的服饰,对吧?但是现在有个问题哎,大家可能没有发现,这边我再生成一次给大家看一下, 不知道你现在发现了没有,我们生成的图像整体颜色偏暗,那么这个是怎么回事呢?我们可以看到 v e 解码,这边的 v e 的 输入是直接连接到车碰的,而有时候车碰大模型的 v e 其实并不太适合,那么这个时候我们就要单独加载一个 v e, 比如说这边我们先添加个节点 load v e, 然后我们选择一个 anime v e 吧,也就是动漫系的 v e, 接着看下效果如何。 哎,是不是画面瞬间变得明亮起来,我们可以多上上几张看一下效果,那种昏暗的感觉已经没了,还是非常不错的。好的,那么以上就是关于本期的全部内容了,我们下节课接着来讲 ipad 的 其他应用,我们不见不散。 哈喽,大家好,欢迎来到本期的康复 u i 学习频道,那么我们接着上节课的内容,继续来讲一讲 ipad 的 其他应用。 参考头像换成真人,比如这边我用的是赫敏作为参考头像,大模型我们也用的是真实系大模型。这边我们来一个慢极 realistic 吧,然后 ve 的 话,这个时候我们选用的是这个八四零零零零,然后再是生成,我们可以看到这个结果与原图还是比较相似的,我们可以多生成几张对比一下, 是吧,效果还是不错的。并且的话这边我们可以发现图片的比例与原图不一定要相符,比如说我们可以把 laten 的 尺寸设置成宽度五幺二,然后高度的话我们可以来个七 u 八,这很明显与原图的尺寸是不符的, 我们可以看到,哎,图片依然起效了, ok, 然后我们再来看一下 ipadder 的 其他应用,我们先加载一个新的节点,叫做 ipadder face id, 就是 该选项, 我们可以对比一下它跟这个原始的 ipad adapter 的 区别。我们可以看到这个新的结眼一共有非常多的输入,有模型, ipad adapter, 正面图像、背面图像、关注乘车照,还有 clip 视觉以及 inside face, 这个 clip 视觉也就是 collaboration, 刚才我们已经下载过该模型了,那么接下来我们就把这个基础的 ipadter 给删去,然后再连接一下,比如说这边我们连接到这个路由器上,然后模型的话也是连接到路由器。正面图像的话,这边我们要连接一个新的接点,叫做 print image for collaboration, 然后我们稍微进行连接, 接着我们再加载一个新的接点叫做 ipadter noise, 它翻译成中文就是 ipadter 叫声。 接着我们把 ipad printer noise 的 输出与这个负面图像连接,我们可以把这个负面图像理解为负面提示词的感觉,比如说我们给 ipad 核心节点传入一张非常糟糕的图像,有着非常多的噪波以及模糊,分辨率很低, 那么它的意思和负面提示词也差不多,也就是我们不想要这些因素。然后我们类型这边选择内容重组,也就是 shuffle 模糊,我们设置为十 ok。 接下来我们回到 ipad face id, 关注乘车照,我们可以直接不用管它。 clip 视觉这里我们加载一个新的节点,叫做 load collaboration, 这边我们选择的模型是这个 b 七九 k 后缀的,最后我们看到这个 inside face, 我 们拖出来连接一个新的节点,叫做 ipad adapter inside face loader。 下面的话我们模型选择这个 antelope v 二,然后我们重新回到 ipad adapter 加载器这里, 我们把这个模型选择成 plus face, 也就是肖像。接着我们把这个清除组缩放改成最后个选项,然后我们把第一个权重改成一点二,第二个 face id v 二的权重我们改成二, 然后看到下面有个权重类型,点开了后有非常多的选项,比如说缓入缓出,缓入即缓出,还有风格迁移,强风格迁移等等等等。这边的话我们就先选择一个星星,接下来我们回到开采暖器这里,我们加载一个 roo 加载器,然后进行连接 pro 加载器的 clip 与这个转换连接,然后我们选择的 laura 是 刚才下载的 plus v 二 s 一 点五模型,强度的话我们改成零点五,然后我们稍微整理一下工作流, ok, 这样好看了很多。接下来我们开始生成,看效果如何,我们可以看到这比刚才更像我们的参考图,也就是赫敏了,我们可以多生成几张看一下平均效果, 我们可以看到效果还是非常不错的。这边我们可以试着再换一张人脸图像,比如说泰勒斯威福特,我们可以看到人脸还是比较相近的。接下来我们讲一下 ipad 其他应用风格迁移,或者说是材质迁移。这边呢,我们需要准备两张图像,一张是我们的材质图, ok, 然后我准备的就是这个黄蓝水晶。另外一张图像啊,比如这边我选择的是一张玫瑰,好的,我们把玫瑰放到下面来,接下来我们要加载一些 content 来完成我们的这个玫瑰线条的绑定,比如说我们搜索 line on, 选择这个 standard, line on 的 图像输出连接到 controlnet advance, 就是 该选项 apply controlnet advance。 好 的,接下来我们加载 controlnet 模型, load controlnet model, 然后我们选择的是 line on, 选择第一个,然后我们连接一下这个 controlnet 的 正面条件以及负面条件。 接着我们再回到 ipadder 部分,我们看到这个 ipadder 加载器,这个预设的话我们选用的是标准即可。然后来到 lower 加载器,这里我们选择忽略,因为我们并不是进行人脸替换,我们可以看到整个工作流看起来一堆节点,十分复杂, 但其实我们只分了三个模块,一个是基础的默认生图模块,一个是 ipadder, 一个是 controlnet, 这边我们做些分组来让整个工作流看起来简洁明了一些。 ok, 现在我们分了三个组,一个是基础的模块,比如说我们正向提示词以及副向提示词,还有大模型的加载。而第二个组呢就是 ipad adapter。 第三个组就是 controlnet, 这边我们可以编辑一下组,比如说修改它的名字,我们点击该选项编辑组, 随后点击标题,这边的话我们输,比如说 ipa 吧 ipadter。 当然我们也可以修改该组别的颜色,然后我们来到下面这个组,同样的也是修改名字,那么下一步就是修改我们的关键词,然后还要注意的一点是红绿灯这里我们需要把尺寸设置成与我们的这个参考图像相同, 注意是我们的需要被替换材质的参考图像,而不是我们的材质参考图。接下来就是生成,我们可以看到这个玫瑰成功变成了黄蓝水晶状,当然我们可以多生成几张,对比下效果, 是不是效果还不错吧。除此之外,我们也可以使用其他功能,比如说这边的话,我们可以把这个权重类型设置成 style transfer。 哎,我们是不是可以看到这张图片又变成了另外一种风格,此时玫瑰花的花朵以及它的叶子已经不再是水晶风格,而是替换成了与材质图相似的颜色,比如说我们再生成几张看一下, 是吧,还挺有意思的,这边可以根据自己的需要来进行相关的调整。看腻了黄蓝水晶,我们设置成其他的材质图试一下,我们可以看到图像效果还是非常不错的,很有风格。当然,如果说我们想要我们生成结果,根据风格化,我们也可以在大模型上做一些改动,比如我们来一个 二点五 d 的 大模型,我们对比一下它和原图,借用 ipad adapter 以及 ctrl 键,是不是让我们平平无奇的一朵玫瑰花变成了多姿多彩的星空玫瑰呢?好的,那么这就是本期的全部内容了,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! hello, 大家好,欢迎来到本期的 cf ui 学习频道,那么这节课我们一起来学习最基础的 ai 视频生成。好的,打开我们的 cf ui。 首先我们要介绍的是一个必备节点叫做 video helper, 我 们打开节点管理,搜索 video helper。 好 的,就是这个 video helper。 安装完后,我们回到默认工作流,那么该节点有什么作用呢?我们简单介绍一下。点击旁边的这个小字典,然后我们搜索 video helper, 我 们可以看得到这边有非常多的节点,其中最主要的是这个 video combine 以及 load video。 这个 load video 是 我们上传视频的一个小节点,还挺有用的,而这个 video combine 呢,我们可以理解为视频浏览器。好的,我们主要运用的就是这两个节点,我们先删除。 接下来在正式进入今天的主要内容之前,我们先来科普一下什么是视频。视频这一概念最早可以追溯到十九世纪末,当时托马斯爱迪生和威廉肯尼迪、老李迪克森发明了活动电影摄影机, 自此开启了动态影像的时代,最早的电影有一系列静态照片快速连续放映而成,使观众产生连续运动的错觉。如今随着智能手机的普及和 ai 技术的发展,视频制作变得更加便捷和智能, 从短视频到直播,从虚拟现实到 ai 生成内容,视频的形式和应用不断创新,已经成为我们日常生活中不可或缺的一部分。回到我们的默认工作流这边我们先加载一个加载图像节点,然后我们加载 input 节点, 选择这个 impenew 处理器。好的,我们现在把它们拖到下面来,然后与图像相连。这边我们把光标移动到图片上,右键在遮罩编辑器中打开,然后我们给它的键涂上蒙版, 随后点击 safe to know 保存。接着我们连接一下遮罩节点,随后我们加载一个 control net, 选择该选项 apply control net advanced。 接着就是加载我们的 control net 模型,这边的话选择的是 impant, 然后连接一下正面条件以及负面条件。 接下来我们搜索 in paint v a e, 选择该选项 v a e in code for in painting。 我 们可以看到它不同于以往的 v a e, 是 它一共有三个输入图像, v a e 以及遮罩。对,多了一个遮罩。这边的话我们先连接一下,把图像连接到 in paint 预处理输出 v a e 的 话,我们连接到 checkpoint 加载器。 遮罩的话我们连接到加载图像节点。接下来我们看到这里,我们把这个遮罩延展设置成三十,然后再把 laten 和 k 太阳器连接。最后我们设置一下关键词,这边我们想让它的键比如说冒出火光,那么我们可以说 flame 火以及 dark power 暗黑力量负面提示词的话,我们就用 easy negative 大 模型,这里我们可以选用一个二点五 d 的 大模型, 然后我们把 c f 居值设置成六采阳器,我们选择 d p n 加加二 m 调度器的话就是 chaos, 然后我们开始生成,哎,我们可以看到整张图只有它的键发生了变化,比如我们多生成几张, 我们可以看到它的键的纹路在不断发生变化。那么接下来呢?我们要进行一个操作,就是加载一个节点,叫做 image list to h, 对, 就是该节点,把该节点连接到 v e 解码之后,然后我们再加载一个新的节点,就是刚才 video helper 的 video combine。 好的,接下来我们在这个 v a e 内部编码器的后面新增个节点,叫做 repeat later batch, 复制 later p 四,将它与 k 太阳器连接,随后我们将这个次数改为四。接下来我们开始生成,我们可以看到,哎,这张图是不是它变成了一张动图? 那么这张图的原理也很简单,我们可以看到保存图像这边一共有四张图片生成了,并且每张图片因为收到 input 的 控制,只有键这部分收到了变化,再加上我们复制 layer 的 p 四以及随机种的作用,每张图键的火焰 都是不同的。那么最后我们用 image list to batch 将这四张图变成了一个小小的图像 p 四后,传到最后面的合并为视频,我们就可以看到这个非常简易的 ai 视频。当然我们也可以调整这边的帧率,比如说我们用常规帧率吧三十, 然后我们将这个复制 laten p 四,这边我们将这个 laten 的 次数改成三十,这边我们可以把这个采用步数给降低一点十五吧,然后 cf 居值我们改为四点五。接下来我们开始生成 这张图的帧率提高了很多,并且我们可以看到相当于我们一次性生成了三十张图片,然后由于我们帧率是三十的原因,那么我们每一秒都会进行这三十张图片的轮换,当然我们也可以换一张图片,这边我们加载一张这个双十一的文字图像,然后我们在遮照编辑器中打开, 比如说我们给这些数字添加上遮照,记住我们编写一下关键词。 好的,接下来我们把这个帧率给调成十六吧,然后开始生成。 好的,我们可以看到,那么这个非常简易的 ai 视频就这么出炉了,但是我们能发现它有非常多的屏闪,并且图像与图像之间的过渡非常的不自然。那么具体该如何解决这些问题呢?我们下节课再说,那么以上就是关于本节课的全部内容了,如果你 觉得对你有帮助的话,不妨给个三连加关注吧,我们下期再见,拜拜! 哈喽,各位小伙伴大家好,今天我们要学习的是如何让照片动起来,换言之就是通过我们输入的图片生成一段 ai 视频,那么本期需要用到的节点叫做 mimic motion, 在 我们打开它的官网后,我们可以看到他们展示的案例视频, 而要想得到这样的 ai 视频,我们仅需在工作流中输入我们的参考图片以及参考动作视频即可。我们往下滑可以看到官网给出的更多参考案例,总体来说效果还是非常不错的。仔细看我们可以发现人物的嘴型甚至都是和参考视频一致的。 那么接下来我们打开 get up 搜索 mimic motion, 这里我们点击 mimic motion weapon。 接下来我们点击这个按钮, 随后卸载它的压缩包并解压到 copyur 的 custom 文件夹内。随后我们开始安装必要模型。由于各个模型的查找以及部署过程非常复杂,这里我帮各位小伙伴把所有的必要模型都给打包好了,需要的可以在评论区内领取。 这里我们打开打包好的网盘资源后,可以看到一共有四个文件夹以及一个说明文档。那么首先我们需要将这个 dwpos 文件夹下载放置到该路径内,随后我们将 face store models 下载放置到该路径内。 接着我们再将 mimic motion 文件夹下载放置到这个路径内。最后我们将 stable video diffusion 的 文件夹放置到此路径内。 按照上述过程操作完成后,我们就可以在 comui 里面使用 mimic motion 节点了。那么现在我带着大家从零开始搭建我们的 mimic motion 工作流。这里我们先把所有的默认节点给删除,我们先把所有和 mimic motion 有 关的节点给拖出来。 好的,回到我们的工作流,我们先将这些组件进行简单的连接。 好的,那么接下来我们先来熟悉一下 mimic motion 采氧器的相关参数。首先是采氧步骤以及 c f g 最小值,还有 c f g 最大值,这些我们保持默认即可。往下看是种子值以及生成后的控制方式,注意这里我们选择的是这个 phase 固定。 接下来是 fps, 也就是帧率,该数值越高,画面也就越流畅,当然预算的时间也会更长。接下来是超声强度以及上下文的影响长度,注意这里,比如我们的上下文关联长度是十六,则代表着每一帧会受到前后十六帧的影响。 往下看是 context overlap, 也就是上下文的重叠度,这里我们保持默认值即可。接下来是人物参考动作骨骼对生成视频的影响强度,这里我们也是保持一默认值即可。如果该值太低的话,那么我们生成的动作就会与原视频不符, 并且有可能会发生肢体变形等情况。最后是动作骨骼开始以及结束的影响时机。最后一项是参考图像对生成的视频的影响强度,这里也是保持默认值即可。好的,那么接下来我们先上传我们的参考图像以及参考视频, 前面有提到过,这里我们加载视频的节点叫做 video helper, 需要的小伙伴可以在 manager 内自行下载。好的,接下来我们在加载图像后连接一个 image resize, 该节点可以控制图像的尺寸以及比例。随后将该节点的图像输出连接到这个 riff image, 也就是参考图像的意思。接着我们再将视频加载器的 image 输出与 pause image 连接。随后我们添加一个 video combine, 我们可以用该节点来预览动作骨骼视频。接着我们复制一份 video combined 节点到解码器的后面,用于生成视频预览。这里我们要改一些参数,首先是帧率,我们将该值改成三十, 随后我们将文件名改成 mimic motion, 左斜杠命。接着我们把格式改成 video h 二六四 m b 四。好的,接下来我们回到这里,我们将这个 video combine 的 文件名字改成 mimic pose, 帧率改成三十,以及格式我们也是改成 video h 二六四。好的,接下来我们可以看到它们报错了啊,必须拥有相同的解析度, 那么他们的意思是图像的尺寸得相同。好的,我们可以把这个 image resize 给复制一份放到下面来,最后与视频加载节点连接, 随后便可以开始生成好的视频出炉了,我们来看看效果。 对比后我们可以发现人物的五官,服装以及体态特征还是和参考图非常相似的,除此之外,人物的动作也和参考视频完全一致,并且视频无闪烁,流畅度非常的高。好的,那么以上就是本期的全部内容了,如果你觉得对你有帮助的话,那不妨给个私信加关注吧,我们下期再见,拜拜! hello, 大家好,本期视频我们将结合前面所学的内容,用 mimicmotion 来做一个 ai 视频风格转会。最后我们再结合 ipadder 看看效果如何吧。那么首先我们先打开 comfyui, 接下来我们先拖动节点,腾出位置 搜索 load image, 这边我们加载我们需要的参考图像,然后再搜索 image resize, 随后调整相关参数。接着我们把 later 拖出来,接上 ve 编码, 随后将 ve 编码的输入和 image resize 的 图像输出连接。随后我们用 anything everywhere 来加载我们的 ve 模型,将我们的 ve 发送到局。 然后就是选择我们的大模型。我们开始编辑我们的提示词,这里我们的提示词要尽量和参考图像保持一致。 然后将采样步数修改成二十五, c f, g 值设置成七。采样器我们选择 d, p, n 加加二 m。 调度方式我们选择 chaos。 接着我们再将 d, n, o, s 降噪的数值改成零点五。这里我们先稍微整理一些工作流,方便后续的工作流加入进来的时候不会过于杂乱。 好的图像已经成功生成了。接着我们在塞巴儿侧边栏里面搜索 mimic motion, 随后将所有相关的节点拖出来。 当然我们也可以用常规的方法搜索并加载这些 mimic motion 的 节点,只不过那样子比较繁琐费时。好的,那么接下来我们将这些 mimic motion 的 组件连接。 随后我们搜索 load video。 这边我们用到的节点是 video helper, 如果还没有的小伙伴可以去自定义节点安装里下载。 接着我们将 image resize 复制一份过来。这么做的目的是为了让我们的参考视频与参考图像规范化,不然有时候会有 resolution 相关报错。 接着我们加载 video combine 用于预览视频,这里我们将帧数改成三十,视频格式我们设置成 h 二六四。 随后将文件名称改为 mimic pose。 然后我们再复制一份 video combine 用于预览最终效果视频。这里我们将文件名改成 mimic motion。 左斜杠 mean。 好 的结果已经出来了,对比原视频,我们可以看到人物的外观以及动作是非常贴合的,并且我们在原视频的基础上进行了动画化的处理。 那么接下来我更换一下参考视频与参考图像,当然提示此部分我们也需要进行修改。这边我替换完参考人物图像以及参考视频之后,我们先来对其进行一个分组整理, 同样的这边也进行分组整理好,那么这边的话我们先起用主控制器,然后把 mimic motion 给忽略。这个主控制器呢是来自于 easy use 节点的。 之后我们再搜索 ipad adapter advance。 好 的,那么接下来的话,我们加载 ipad adapter 的 模型, 然后 ipad adapter 的 模型输入,我们连接到 jackpoint 加载器。接着我们再搜索 load image, 然后再搜索 preimage for collaboration, 接着我们再搜索 ipad printer noise, 然后将类型选择的是内容重组,模糊值设置成十,然后再加载 calibration 模型。 这里的话记得我们选择的是这个 b 七九 k 后缀的,然后再把这个权重设置成一点二。 好的,接下来的话,我们在 ipad 加载器这里设置成标准,将 ipad 的 模型输出连接到 k 太阳器内, 随后我们设置一个真实系的大模型,这里我选择的是麦吉的 realistic 真实系列。我们这边来编辑一下文本。好的,接下来我们开始生成。效果还行,但是我们可以生成多几次筛选出最佳的效果。 我们可以看到这个人物感觉比例有点奇怪,是吧?那么这边的话,我们可以用到 open pose 来绑定他的人物骨骼。首先呢,这边我们先给 ipad 先先建个群组吧,以防他会混淆。 然后我们改变一下它组别的颜色,这个图像生成模块的话,我们随便换个颜色吧。然后的话我们来加载我们的 controlnet 模块。那么接下来的话,我们将 ipa 的 群组往这边移一点,为待会的 controlnet 模块给腾出位置。 好的,那么这边的话我们先搜索 controlnet, 选择 apply controlnet advance, 然后我们再搜索 dw post estimate。 随后来一个加载 control net 模型节点。 这边的话我们选择的是 open post。 好 的,我们将 dw 自带域处理器的图像输入和我们的参考图像连接。 随后我们按住 alt 键复制一份 control 内的应用,加载器也一样复制一份下来。这边的话,我们加载器的模型选择的是 soft h 搜索节点 soft h 选择这个 h e d soft hines 跟同样的,把 h e d 的 这个图像输入和我们的参考图像连接。好的,那么接下来的话,我们将 ctrl 内的应用给串联在一起,正面条件连正面条件,负面条件连负面条件。 同样的,我们把第一个 ctrl 内的正面条件给连到正面提示词文本框内,负面条件的话就是负面提示词文本框。随后我们将第二个 ctrl 内的正面条件输出连接到 k 传感器上。 然后我们再把第二个也就是这个 soft h 模块的 control 内的强度改成零点五,随后开始生成。我们可以看到现在这个人物的姿态是变得正常了很多,以及他整个身体的比例。这边同样的,我们为了得到更好的效果,可以多生成几张。 好的,我觉得这张还不错。那么接下来的话,我们就开启 mimic motion 模块,随后再次开始生成。 生成完毕后我们可以看到效果还是非常不错的,怎么说也是还原了参考人物的部分特征吧。那么这里我把 mini 个默选转会和参考视频做一个对比,大家认为哪一个效果更好呢?好,那么一生就是关于控服 u i 基础课程的全部内容了,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们后会有期。

我们来画一下二年级期末考试重点第一大板块古诗文,一定会考的是这三首诗,第七课的登鹳雀楼,望庐山瀑布,还有第十八课的敕勒歌。这三首诗除了背诵默写之外呢,一定要知道每一句话的意思。 首先登鹳雀楼,他会考到你哪句写出了夕阳西下,黄河奔流的景象呢?是不是白日依山尽,黄河入海流。哪句告诉我们站得高才能看得远呢? 欲穷千里目,更上一层楼。以及那句写出了瀑布飞流直下呢?是不是飞流直下三千尺,疑是银河落九天。他的作者是李白。 以及哪句写出了天空碧蓝,草原无边无际,牛羊成群呢?天 苍苍,野茫茫,风吹草低现牛羊。除了这三首重点之外呢,其他的也需要你会背诵并且会默写。首先是第十二页的梅花, 第十九页的俗语,三句关于树木的,第二十六页的数九歌,第三十七页的小儿垂钓,还有第五十一页的对联,这个非常重要,经常考到。最常考的就是雾锁山头,山锁雾,天连水尾水连天。 下一个呢就是第六十五页关于读书的三句名言,注意,学海无涯苦作舟的作呢,是作业的作。还有就是第七十九页的关于励志的三句名言,这个非常重要,其中最常考的就是有志者 是靖城,我们要知道靖这个字怎么写,中间是有内一横的,他的意思呢,是最终的意思,只有志向的人坚持不懈做事,最终一定能够取得成功。 下一个九十三页的夜宿山寺,注意危楼,他是高楼的意思,不是很危险的楼哈, 手可摘星辰,说明楼已经高耸入云。还有第一百零五页关于传统美德的三句名言,其中最常考的就是与朋友交言而有信, 还有不以规矩不能成方圆,注意它的出处是哪里。第二大板块,课文,其中呢,有三篇课文是要求背诵的,要求背诵的一定要在纸上真的去默写一遍。第二课的树之歌, 第四课田家四季歌,还有第九课日月潭的第二段到第四段。除了这三篇课文之外,咱们学过的第五单元和第八单元的这六篇课文,一定要知道它告诉我们一个什么样的道理, 上了一个学期了,又都还给我了。第五单元,学过的坐井观天,告诉我什么呀,看待事物不能目光短浅,要全面的看待它,很好。鸟告诉我们,做事情不能得过且过,要用辛勤的劳动去创造美好的生活。 我要的是葫芦,告诉我们事物之间它是有联系的,我们要联系的去看待问题。第八单元的称赞啊,告诉我们要善于发现别人的优点,多去称赞别人。 纸船和风筝告诉我们,当友谊出现问题的时候,最好的就是多一些包容和谅解。 快乐的小河告诉我们,遇到困难的时候呢,要坚强勇敢,和好朋友一起团结互助,才能战胜困难。 第三大板块,仿写和改写句子,这个太重要了,至少会占到五到十分,而且天天写,天天写不出来,有五个句子需要仿写。第十一页用有时候来写句子,咱们可以写 天上的月亮,有时候圆圆的,有时候弯弯的,翻过来用在来写句子。我们可以写小鸟在枝头唱歌,在空中飞翔,在河边喝水,在林间捉虫。 你也可以写你自己啊,我在教室干嘛,在图书馆干嘛,在客厅干嘛,在书房干嘛,都可以的。下一个第四十四页,用像来写比喻句, 如果是考课内的,那你就写那巨石好像顽皮的小狗,静静地望向远方。如果是课外的,那你就可以随意发挥了,比如说云朵好像棉花糖,月亮好像小船,都可以。下一个第四十九页,用有的有的来写句子, 同学们在操场上活动,有跳绳的,跑步的,踢球的,还有跳远的。再下一个第九十二页,把事物当做人来写,咱们课本上给的是勿把大海藏了起来。那我们可以怎么写呢?雨点在空中跳舞, 小花害羞的低下了头,是不都可以啊?下一个重点来了,把感叹句、反问句改为陈述句,这个我不讲,是不是肯定会出错,有几个虫子怕什么?怎么改为陈述句,有几个虫子不用怕, 叶子上的虫子还用治?问号怎么改为陈述句,叶子上的虫子不用治。 接着第五十九页和第一百零三页得地得的用法,这个是不是也天填错?我们总结了一个小的顺口溜,叫做名词前面白勺得美丽的花,蓝蓝的天,动词前面土也得使劲的跨, 轻轻的吹形容词动词后,双人得玩的开心。热的冒汗, 注意这里哈,冒汗呢,是修饰前面的热的,你热到什么程度了呀?热都冒汗了是不是?所以双人多的后面是修饰前面的内容的。另外呢,还有三个语文园地当中的必考点非常重要,一定会考到,我们来串一下。 首先是第二十五页和九十一页都学到的不守查字法,一定会考到。还记得咱们的小口诀吗?确定不少熟笔画 部首目录找页码,简字表中找部首,再数除去部首剩几画,部首下面找汉字,按照页码正文查。接着第三十六页的标点符号, 话没说完,用逗号一句,结束用句号,喜怒哀乐感叹号表示疑问用问号。 最后就是第七十九页的学写留言条格式,一定要真的在纸上去默写一遍,避免考试写错了。标题呢,它是居中的称呼,是顶格加冒号皱纹,你需要另起一行空两格, 右下角需要写上你的姓名以及你写的时间。第四大板块字词,打开咱们一百零八页的识字表,我来读,你来记。有九个必考的多音字,一定要记住,教教书,教课的教,教教师请教的教 默,沉默淹没的默,没,没有,没事的没来。这里有个重点字啊,叫场,这个大家天天错,他很难,一定要注意听哈。当他收门票的时候呢,读三声场,一场球赛一场舞,不收门票呢?就读场, 一场秋雨一场寒,农活无关。就读场,操场、会场和广场 农活有关的就读长打长翻长和长愿。在咱们二年级啊,最常考的两个词就是打长和长愿,注意,他们都读二声长, 只有一个是例外,就是农场的场,虽然他和农活是相关的啊,但他读三声场,这个一定要认真记下一个转,旋转,转圈的转,转换,转身的转, 好喜好,好客的好,好处的好粪水分,分外的分,哎,什么叫分外呢?就是格外的意思,妈妈今天分外高兴,格外高兴。分,分离,分开的分。 盛,盛,满盛饭的盛,拿容器装的意思,盛,盛开,丰盛的盛,花儿都盛开了,妈妈做的很丰盛。是是的, 花儿好像刚刚睡醒似的。读是最后一个朝,朝向,朝着的朝,朝霞朝阳的朝。接着是词语表格当中经常写错的重点词。翻开第一百一十六页,我们来圈一下, 雪白告别,四海为家,丛林春风辛苦,美丽欢快,五光十色好客,坐井观天, 胜利非常,四面八方。接着还有一些藏在课本当中的一撮字词,咱们来迅速的串一遍哈。首先是第四十九页和六十三页的多音字,每个词语都要读准字音,多读几遍。下一个是第三十五页和九十二页的行进字。 九十二页当中这四组最常考,彩带的带和穿戴的,戴以后的以和已经的以, 果园的园和圆心的圆,汽水的汽和气体的气。下一个是十六页场景歌当中的量词,一定要多读几遍,我们来划下重点啊,一条帆船,一方鱼塘,一块稻田, 一从翠竹下一个四字词语和成语,我念到的呢,一定要知道意思,一定要会造句。首先第三十六页跟春天相关的词语,含苞欲放, 百花争艳,花红柳绿,春色满园。下一个第四十一页的山穷水尽,层林叠翠,烟消云散,名山大川。 第四十四页的风景如画,一枝独秀,心旷神怡,远近闻名。还有第四十六页的这六个里面重点的就是名胜古迹, 山清水秀,蒙蒙细雨。还有第六十四页跟言语相关的八个词语,需要知道易俗会造句。第九十二页,跟天气变化相关的八个词语,其中鹅毛大雪、寒风呼啸、微风习习考的非常多。 还有第一百零五页,跟动物相关的九个成语需要知道意思。第五大板块,阅读理解。我们要知道,二年级所有的阅读理解都可以回到原文找答案,能用原文的,一定要用原文当中的原词原句来去回答。 如果文章问你,哎,文章读完了,你有什么想法呀?你明白了什么道理呀?你有什么看法呀?也一定要回到原文当中的开头段或者结尾段去找到答案。最后看图写话,咱们本学期呢,在四七八这三个单元都曾经写过。看图写话 考试呢,虽然不考课本上的,会考一篇课外的,但其实啊,也就两大主题,要么考你在家里发生了什么事,要么考你在学校里面发生了什么事。无论考到什么主题呢,大家都去写。五要素,谁在什么时间, 什么地点,做了什么事,结果怎么样?结尾呢?加一句,抒发自己内心的感情或者感受。 比如说在学校里面进行了大扫除,结尾你就可以说,这次大扫除让我明白了,劳动最光荣就可以。这六大板块如果你都能够做到位,你这次考试一定能上九十五分。