大家都在盯着 ai 点 com 的 成交价,但作为 ai 圈的老兵,我更关注他背后的动作。昨天超级晚广告一出, ai 点 com 终于露出了真面目。他不是要做第二个 chat gpt, 他 是要当你的数字分身。 以前我们用 ai 是 跟它聊天,现在 ai 点 com 玩的是 agent。 简单说,它能直接接管你的各种 app, 不 管是订机票、改日程,还是自动处理复杂的表格,你只要一句话,它就直接在后台帮你操作了。最硬核的是,它引入了加密密钥技术, 很多人担心 ai 代理会泄露隐私,但他把权限锁在了用户自己手里。这种去中心化的思路,解决了 ai 落地最难的信任观。我觉得 ai 的 下半场,拼的不再是模型参数,而是谁能真正解放双手。 ai 点 com 正在把人人都有私人秘书从电影变成现实。我是 ai 螺丝钉,关注我,带你拆解最实用的 ai 干货!
粉丝181获赞407

据英国金融时报七号报道,还有人工智能一词首字母缩写的互联网域名 air com 以七千万美元、约合人民币四点八六亿元的价格被卖出,这也是目前公开报道中引知的最贵互联网域名。

哎,你听说了吗? ai 点 com 这个域名卖了七千万美元,那么贵,这刷新历史记录了吧?对啊,买家是 crypto 点 com 的 创始人 chris marslek, 他 觉得 ai 未来十几年潜力巨大,这算是提前布局了。 他打算用这个域名做什么呢?不会光买着玩吧?说是要做个人 ai 代理服务,用户可以创建专属的 ai, 帮自己处理各种事,比如交易股票、更新约会资料,还能管日程。 这功能听着挺全啊,能跨应用操作吗?可以,这才是厉害的地方,不用自己挨个切换软件, ai 就 能帮你搞定。那这笔交易是不是说明 ai 行业现在特别火,大家都在抢用户入口? 没错,之前 v o i c e 点 com 和三六零点 com 也卖了高价,但这次 ai 点 com 直接把记录拉到七千万,可见 ai 赛道有多热。 那你觉得 ai 点 com 能在这么多 ai 产品里突出重围吗?不好说,但光这个域名就自带流量,加上背后的团队实力,说不定真能做成爆款。

朋友们,你们肯定想不到一个域名值多少钱,就在二零二五年四月,加密货币巨头 crypto 点 com 砸下七千万美金,还是用加密货币全额支付,拿下了全球最贵的域名 ai 点 com。 故事要从二二年十一月说起了,切的 g p t 横空出世之后, ai 一 夜之间成了全球最火的赛道, 所有跟 ai 相关的东西都在涨价,芯片涨,算力涨,这域名现在也在疯狂涨。而在所有的 ai 域名里,最值钱的就是这个 ai 点 com, 简单直接,好记,完美契合了 ai 时代。二一年,这个域名的挂牌价就已经到了一千一百万美金。到了二三年二月, 市场传言 open ai 要买一下 ai 点 com, 但是诡异的是,奥特曼本人从来都没有承认过这笔交易,域名中介公司呢,也是含糊其词。现在回过头来看啊,这大概率是域名持有人玩的 g p d。 让全世界都以为 open ai 买了这个域名, 这种代价而估的手法呀,直接让这个域名的身价蹭蹭蹭往上涨。二三年八月,剧情直接反转, ai 点 com 突然改变了指向, 直接跳转到马斯克的 x a i。 这是个什么操作呢?简单说,虽然马斯克不拥有 ai 点 com 这个域名,但是通过某种协议,让这个域名临时指向了 x a i 的 网站。 这招太狠了,用户只要输入 ai 点 com, 就 会自动跳转到 x a i 流量入口。而且马斯克当时 x a i 刚刚推出 group 聊天机器人, 对标亲爱的 c p t, 拿下 a n 点 com 的 指向权,等于在品牌战上狠狠地扳回了一局。二六年币权最好的男人,比孙雨辰还狠的 chris 下场了。 chris 是 谁呢?加密货币交易所 crib 的 创始人, 砸下七千万美金,直接买断了 ai 点 com 的 所有权,彻底结束了这场域名争夺战。他不仅买了域名, 还发推说,我们要让 ai 点 com 重新定义 ai agent。 为什么他要花这么多钱买域名呢?其实 crypto 点 com 这几年一直在砸钱做品牌,花了八亿美金赞助 nba f 一, 甚至把洛杉矶湖人队的主场改名叫做了 crypto 点 com。 瑀娜这次买域名,他看准的就是 ai 和加密货币的融合,拿下 ai 点 com 就是 在向全世界宣告,我们是 ai 加 crypto 时代的领导者。 最后说一个添加玉茭背后大家都不知道的事情。这个玉茭的卖家叫做 arson ice mel, 一 位来自于马来西亚的科技大佬,这笔交易让他直接入账超过三亿令级,但你绝对想象不到他买下玉茭的成本。 时间回到一九九三年,当时他还在十岁,偷拿了他老妈的信用卡,在网上花了一百美金买下了这个玉茭。 他的母亲当时对这笔扣款感到十分困惑,因为他根本不知道什么是域名,只是在信用卡账单上看到了一笔来路不明的扣费。谁能想到,熊孩子消费的一百美金在三十年后翻了七十万倍。如果你感兴趣这个话题,关注美琪,带你提升数字时代的认知。

很多老师说 ai 太复杂,我不想学。你不是不想学,你是不想再累。 每天改作业两三个小时,统计错误率,登记分数算平均分,再来两个小时,这不是教学,这是搞体力活呢。 如果你拍一张照片,作业或者试卷,那么自动批改,错误率自动生成,班级结构自动出来,那你还会拒绝吗?好了呀,那么推计算也好,成绩不是分数,成绩是数据,数据 就是结构。老师不是裁判啊,老师是决策者, ai 做劳动,我们老师呢,做判断就行了。 ai 我是 ai 官方有三个入口,老师自己体验一下。

班主任三分钟实操视频,那这一学期你最少每天能省两个小时。下面开始操作好,班主任在地址栏里边输入, ai 五四 ai 点 com, 那 你就进入到今校天学新分析的官方网站 成绩分析。班主任点击进入第一个开始成绩录入。先走一遍流程,老师们只需要把语速应的成绩复制粘贴, ctrl 加 v 复制粘贴。第二步,前往成绩查询 哦!很多家长的咨询,所以呢,我们设置了姓名、学号、手机号、验证码,成绩查询只能查到个人成绩。第三步, 发给家长成绩查询链接之前,班主任一定要先分析一下班级的学情分析,比如说成绩分布,二五零到二五九是有多少人?六人, 二三零到二三九是七人。数学平均分是八十五,语文八十三,英语八十四。 其实家长一般不看平均分的,这是成绩分布占百分之几,二五零到二五九占百分之三十, 这是特别关注的排名倒数前十名的这几个人是重点关注的,他影响班级的平均分,影响老师的 kpi, 跟老师的奖金工资有关系。所以老师先看一下仪表盘,然后再把成绩查询分享给家长。整个流程就是这么简单,三分钟搞定。

hi, 我是 ai, 前天我们讲平均分不够,今天我们讲排名,第五名,第十二名,第三十八名。排名一出来,那家长就焦虑了,学生就紧张,老师的压力就上来了。为什么? 因为排名他只告诉你你的位置,他没有告诉你原因。如果一个学生 他从第十五名跌到二十名,那排名告诉你下降了,但没有告诉你是函数没掌握,还是阅读理解失分,还是题目难度有变化。 当分数差被压缩到很小的时候,焦虑就会放大。小学阶段九十八、九十九,一百分之间差距很小, 但排名差距却是很明显。这时候家长们盯的是位置,不是结构。 中学阶段选拔逻辑更明显,因为是名额到校,那排名用于筛选,但是筛选不等于诊断。 当成绩只有排名,没有结构,写解释能力的话,焦虑就必然会产生的,因为位置会变化,但是原因不清楚。 排名解决的是排序问题,教学解决的是修复问题。这是两个逻辑。 如果一个学生排名下降,但是错因在修复,结构在改变,趋势在稳定,那么你该焦虑还是该鼓励呢?排名回答不了这个问题。排名不是错,但它不够。 当成绩具备说明能力、对比能力、导航能力,排名就不会制造焦虑了。焦虑来自分数吗?不是,焦虑来自结构的缺失。 如果你认同,评论区打个五四,明天我们讲, 如果成绩不能诊断,那么它就是一张通知单。 ai, 我是 ai, 看主页上官网。

钓鱼佬的终极进化之路,普通人低成本学 ai 记录二五年,曾有花十五块钱在淘宝买教程,并逛一个月直播间,靠白嫖搭出第一套工作流,并接到第一个商单。 我的首个商单,一套 ai 工作流,让 tim 服装店老板每个月节省六万。 还是上集说的那个老板,他们一个版型的衣服要做十几种印花,不可能每一个花纹都打样,成本太高。所以他们每一件衣服呢,都拍出照片,让美工把印花批到衣服上面。模特身上的衣服有阴影、褶皱、立体感,用 ps 做的话,效率低,速度慢, 招美工每个月就得花十几万。我刚开始用 ai 花纹迁移工作流,将印花直接迁移到模特身上的衣服上,发现花纹位置总是随机乱跑。 外贸退货成本高,花纹位置不对,客户退货几率会变高。当时我对着康复 ui 调了几天几夜的参数也没有搞定,后来改变了思路,才把花纹的位置给完全固定住。现在老板用我的 ai 工作流,只要上传白色的 衣服照片和花纹图, ai 能快速生成几十种不同花纹的衣服照片,阴影、褶皱、立体感,全部搞定,跟真的一模一样。老板直接裁掉一半的美工,成本降了一半,效率反而大大提升。 你们刚刚说那个问题,我试了一下,确实是有这个问题。同样的花纹,同样的模特,然后生成两次,两次是不同的花纹的位置啊,还有花纹的比例大小啊,都是不一样的,我再想办法来解决吧。好吧,我再想办法解决。 关于如何解决这个花纹迁移工作流啊,那个花纹随机乱跑的问题, 我是这样想的,就是先用这个花纹迁移到这个白色白色的底板衣服上面 啊,就是你们拍的这个白色底板衣服,用这个白色底板先迁移好了这个,然后呢做了一个印花定位啊,然后用这张照片啊,用这张照片 在迁移到模特身上啊,你看一下用这个迁移好花纹的白底板衣服的照片,再迁移到这个模特身上,我把它拉过来啊,对比一下。 好,现在看这个,呃,花纹的位置啊,你看领口的位置, 呃,我再放上一点,看领口那个花纹的位置跟下面腰部啊,衣袖啊,这个位置基本上不会跑了,你看一模一样的啊,还有下面的细节,看一下这个裙摆在位置的,你看你看是不是这样就不会乱跑了。

ai 平权的时代来了,当巨头还在云端秀肌肉时,一个搅局者已经杀到了你的电脑上。他叫康夫 u i, 他 最大的杀手也是不吃性能,在消费级显卡上即可高效运行,最低一千零六十六显卡即可运行,不仅开源,而且完全免费。这意味着 ai 视频的生成不再需要花高价去云端调用大厂的算力了,真正实现了人人可, 而且他绝对专业。这个工具的出现直接把美工、后期画师、设计师的门槛给干碎了,不挑年龄,纯外行都可以轻松学会。关键是这个工具完全免费,每个人都可以轻松落地自己的创意,想偷懒还可以无脑抄作业。为方便大家学习 视频附带的学习资料,我已经给大家打包好放在网盘了,敲六六六,尝尝咸淡。大家所熟知的 web ui 和 comfui 其实都是属于 stability fusion web ui, 主要是基于数据库开发的浏览器界面, kufui 则是使用图形节点、流程图设计,而用于稳定扩散的用户界面。这边我们将 kufui 和 web ui 的 优缺点列出来,方便大家做个对比。首先我们来看 web ui 这块,它的优点是简单易学,并且操作较为基础与简易, 而它的缺点是不利于长期管理。那么这是什么意思呢?当你在深度学习完 web ui 的 高阶内容后,你会意识到,如果使用的是 comui, 那 么将节省两到三倍甚至更多的时间。其次,在插件过多时, web ui 会显得非常的臃肿以及操作费时。那么接下来我们看一下 comui。 这边我们可以看到 kufui 对 配置的要求较低,这同时也意味着降低了 ai 绘画的门槛,方便更多的小伙伴加入进来。那么它的优点其实是节点更异于管理,有较强的自主性,我们可以根据个人需求来组装属于自己的工作流, 并且在未来, kufui 将逐渐与 webui 在 应用层面拉开距离,比如前段时间的 s d 三或者国产最新的颗粒大模型, 都是第一时间在 kufui 里可搭建工作流并使用的。而对于 webui 这些最新的模型与插件,往往得过一阵子才能时装,甚至直接不时装。 所以使用 kufui 也意味着你能够更早地使用到最新的模型与插件。而 kufui 的 缺点是初期不好上手,但 我相信在你学完了本套课程后,一定能够完全掌握康复语言的基础操作。除此之外,过去我们知道有许多软件,比如 blender、 达芬奇、 ue 等等都是使用节点式工作流, 因为他们有极强的自主性与可模块化,许多头部公司的顶级团队使用的都是节点式软件。那么康复语言除了上述优点之外,我们在使用时还可以非常方便的套用他人分享的工作流,即刻便可实现相同的效果, 节省了非常多的节点部署思路的思考时间,以及从单个节点构建成工作流的部署时间。好的,那么接下来介绍一下课程概览。本套课程共分为两个部分,一到六节为基础部分,其中包含了 comfuly 的 配置要求以及如何安装与部署、 界面导览与原理介绍、文声图以及提示词的语法,之后还会聊聊 a i g c 的 相关网站以及模型下载,最后还有图声图以及高清修复的过程。那么从第七节课到第十三节课属于进阶部分,先后会讲解 control 内及其诸多预处理器的使用方法以 及使用场景,之后还会教大家 ipad 及其强大功能的应用。随后我们还会学习最基础的 ai 视频生成原理,而在最后我们将结合前面所学的全部知识,一起来做一个 ai 视频换脸转会。 hello 各位小伙伴,大家好,欢迎来到 kufui 系列教程的第二节课。那么在本节课中,我们将介绍 kufui 的 配置要求以及安装与部署的过程。那么首先是电脑配置以及系统环境的介绍。首先是显卡方面, 最低要求是拥有四 g 级以上显存的英伟达显卡,如果显存不足,可能会影响到绘图过程的流畅度。接下来是 cpu, 关于 cpu 要求不高,英特尔十代 i 三以上就可以使用,但推荐使用性能更强的,如英特尔十三代 i 五幺三六零零 kf, 以获得更好的性能。 接下来是内存,内存至少需要十六 gb, 推荐三十二 gb 以上,以确保可以加载和运行较大的模型。 最后是硬盘,关于硬盘呢,至少需要两百 g 的 空余空间,推荐使用大容量的固态硬盘,因为 ai 绘图过程中会下载和生成大量的模型以及图像数据。那么接下来我们详细介绍一下 cf ui 的 下载以及部署方式。我们先安装资源包里面附带的启动器运行依赖, 接着打开解压之后的 cf ui 文件夹,在文件夹内找到 a 会式启动器,随后点击一键启动即可,首次启动时可能会安装一些必要的环境。依赖, 稍等片刻后,我们便来到了 cf ui 的 主界面。接下来介绍第二种安装方法,官网资源包的安装。当然关于官网的资源包,我们也可以在评论区内获取。我们解压完资源包后,在文件夹内找到这个项目, 双击运行,等待片刻后,我们便可以来到最原汁原味的 cf ui 界面了。这个版本的 cf ui 是 没有装任何非官网的插件的。 此外, cf ui 完全离线工作,对 gpu 的 要求相对较低,但是也有 cpu 模式,不过在 cpu 模式下 绘图速度较为缓慢。如果小伙伴们之前有使用过 web ui 或其他类型的 stupefuge ai 绘图应用,那么可以通过修改 comui 的 配置文件来实现在不同的 ai 绘图应用间共享大模型以及 loa 等等,以此减少对硬盘内存的占用。那么接下来我将向大家演示一下 如何将我们的 comui 大 模型以及 loa 的 加载路径修改成 web ui 的。 如果小伙伴们没有玩过 web ui, 那 么这一段可以直接跳过。好的,那么我们打开 comui, 接着我们找到这个文件 extra model path y a m l 点 example, 接着我们用记事本打开。好的,那么打开之后我们找到这一项 base path, 我 们要做的是把 base path 后面的这一串改成我们 web ui 文件夹的路径。比方说我们打开了 web ui 的 文件夹后,我们可以单机上面的这个栏目, 随后 ctrl c 复制。接着我们回到刚才的记事本内,将我们刚刚复制的路径粘贴到此处,随后我们保存并关闭记事本。接下来的一步很重要,我们需要将 example 以及这个点给删除,也就是将我们的文件名后缀改成点 y a m l, 随后点击确定即可。那么接下来我们打开 ctrl u r 来确认一下。 好的,我们这边看一下区块链加载器里面的大模型,点开后我们可以看到多了,非常多啊,那么这就证明我们成功把模型路径合并到了 web ui 内。好的,那么以上就是关于本期的全部内容了,如果你觉得对你有帮助的话,那不妨给个三连加关注吧。 欢迎来到 cf ui 系列教程的第三节,那么在本节课中,我们将一起了解 cf ui 的 主界面以及各种参数到底代表了什么。最后我们将学习 stability fusion 生成图片的根本原理。好的,我们打开了秋月大佬的会式启动器后,点击一键启动, 经过一段时间的等待后,我们便来到了 comfyui 的 主界面。那么我们在面对 comfyui 这个完全陌生的软件时,我们要做的就是初步了解每一个模块的大体含义,那么接下来我带着大家过一遍。首先是操作方式,我们可以通过鼠标的滚轮来控制画面的缩放, 按住鼠标左键,我们可以拖动我们的仕途。点击鼠标右键,我们可以看到有非常多的栏目,这边我们可以试着点击新建节点,随后我们可以看到有非常多的节点可以供我们选择。好的,那么之后我们再来说一下快捷键,生成图片的快捷键是 ctrl 加 enter, 框选节点的快捷键是按住 ctrl 加鼠标的左键。移动框选目标的快捷键是按住 shift 加鼠标的左键。 这边我们在框选完后,如果不按住 shift 直接进行拖动的话,我们可以看到此时只有单一节点进行了移动,剩下的快捷键我都放在这了,小伙伴们可以暂停观看。 好的,那么接下来我带着大家一起来解读一下这个默认工作流。首先在这边我们可以看到有个叫 checkpoint 加载器的东西,这个节点的主要作用是加载扩散模型,也就是我们常说的大模型。 此外该节点还提供适当的 ve 以及 clip 模型,具体它们是什么我们带回讲。我们顺着 checkpoint 加载器的节点连线,可以看到这里有两个 clip 文本编码器,在这里我们可以看到它们的输入都是 clip, 而它们的输出都是条件。那么究竟什么是 clip 模型呢? clip 全称为 contrasted language image pre training, 是 由 open ai 公司在二零二一年发布的一款多模态与训练神经网络模型。 clip 模型的作用是理解我们输入文字的意思,比如我们输入 one go 生成的是一个女孩,而不是太阳, 这就是 clip 的 作用。接着我们顺着 clip 文本编码器的条件输出看过来,连接到了 k 采阳器上,这边我们可以看到 k 采阳器一共有两个关于条件的输入,一个是正面条件,另一个是负面条件。那么这代表着连接着正面条件的文本编码器内的提示词为正面条件提示词, 也就是我们常说的负面提示词。好的,我们把目光重新回到 k 采阳器内, 我们可以看到除了正面条件以及负面条件外,还有两个输入,分别是模型以及 latent, 那 么模型则是连接着刚才的 checkpoint 加载器,也就是我们的大模型。那么这个 latent 究竟是什么意思呢? latent 通常是指前空间,可以理解为 static fusion 内部流程中的图像格式。如果将图像作为输入,则需要通过 v i e 编码将其转化为 latent 数据 在最后输出时,也需要通过 ve 解码将其转化为像素空间,也就是我们最终看到的图像。这边我们可以看到 k 太阳器的 laten 连接着一个叫做空 laten 的 节点,这个节点内共有三个参数, 分别是宽度、高度以及 p 四大小。宽度和高度决定了我们最终生成图像的尺寸,而 p 四大小则代表着每生成一次将出多少张图。比如说我们将 p 四大小改为三,高度改成七百六十八。 最后我们按 ctrl 加 enter 进行生成。好的,这边我们可以看到一次性生成了三张图像,也就是我们 p 四数目的图像。接下来我们继续看 k 太阳器的其他参数。 首先是随机种,随机种的值我们一般称为种子值,每张图都有专属于它的种子值,我们也可以理解为种子值,就是图片的 id 号码。接下来是运行后操作,点开后我们可以看到一共有四个选项,分别是固定、增加、减少、 随机。如果选择固定,则在你生成完后,种子值会保持不变,方便你进行其他的调整与操作。那么接下来就是采样步数,采样步数越多,计算机的运算时间越长。在大多数的情况下,我们的采样步数保持二十到三十步即可。接下来是 c f 居值,该值的意思是提示词引导系数, cf 聚值越高,则代表着生成图像与提示词之间的联系越紧密。 cf 聚值越低,则代表着提示词对生成结果的影响越小。不过过高或过低的 cf 聚值都会给图片带来不好的影响, 所以我们一般保持适中的 cf 聚值即可。接下来是采暖器和调度器,我们可以理解它们为图像的生成方式,如果我们将其他参数比作是食材, 那么它们则是烹饪方式。不同的烹饪方法当然会带来不一样的结果。比如我们点开采暖器后,可以看到有非常多的选项,这里我们目前最好的一般是选择这个 d p n 加加二 a m 或者 d p n 加加二 a m s d e, 这两个都是挺不错的。接下来点开调度器,我们也是可以看到有非常多的选项,这里我们一般选择的是 carrots。 最后我们可以看到还有个降噪参数,由于该参数是跟图生图有关的,我们以后再说。 接下来我们看一下右边有个叫做 v i e 解码的东西,那么我们可以看到这边有两个输入,分别是 laten 以及 v i e。 至于 laten, 刚才我们已经解释过了,也就是前空间图像。那么 v i e 究竟是什么呢? v i e 全称变分字编码器, variation auto encode 的 缩写,它是一种深度学习模型,主要用于无监督学习任务,特别是在生成模型领域。 ve 结合了神经网络和概率图模型的特点,而他在康复以外的作用是将我们的前空间图像编码成像素空间图像,或是将像素空间图像编码成前空间图像。除此之外,我们还可以双击屏幕上的空白处,最后就可以搜索节点,比如说搜索加载图像, 或者我们也可以双击搜索预览图像。这边再多说一嘴, v e 解码之后的图像节点,我们也可以直接连接到预览图像上, 比如说我们现在把这个保存图像节点给删去,如果这么操作的话,那么我们生成的图像不会被保存,接着我们再生成一次。 这边还要注意的一点是,在我们搜索节点的时候,我们也可以输入英文,比如说加载图像的话,那么就是 load image, 那 么我们可以看到这两个节点是完全相同的。接着我们再来说一下,比如说当我们输入英文的时候, 同样的也是 load image, 但是这个时候我们加了一个空格。好,我们可以看到这里面并没有出现加载图像的节点,那么这也意味着在我们搜索节点的时候,我们要注意区分节点的名称是否有空格好,比如说我们需要搜索加载图像节点, 那么我们删去 load image 之间的空格之后,我们可以看到,哎,是不是加载图像节点就出现了? 好的,那么以上就是关于默认工作流的全部解释,接下来我们来看下界面还有其他哪些模块。首先我们点击左上角,这里有个文件夹, 点开后我们可以看到我们的工作流都保存在这,这边可以点击新建,那么我们就新建了一个新的工作流,当然我们也可以点击这个 import, 也就是输入我们的工作流,或者说是输入我们的文件夹。 最后我们点击 models, 我 们可以在这里找到并且下载相关的模型。接着我们来看一下右边的栏目,首先是该栏目的左上角,我们按住后可以进行拖动, 然后是这个齿轮标志,点开后我们便来到了康复以外的设置界面,在这里我们可以设置语言,点开后我们可以看到有中文,繁体中文,英语以及日语、韩语等等,我们往上翻可以看到有其他的功能,比如图像面板顺序,图像面板的位置等等等等。 我们往下看,这有个文本补全,这个 enable 我 们一定要勾选上,这代表着它的起用。文本补全的意思就是在我们输入提示词的时候,会有这些英文短语的提示, 我们往下看有个添加提示词队列,这个是生成的意思。接下来我们可以看到有个保存的选项,点击该按钮我们便可以保存当前的工作流以及加载,那么就是加载工作流,同样的意思。 接着是重刷新,比如说我们下载一个新的大模型之后,那么我们点击重刷新便可使用。接下来还有个重点就是管理器,这个是 com 浏览器里面最重要的节点,点开后我们可以看到有非常多的功能, 比如说这边有数据库以及频道方式,预览方法,表情等等等等。这边预览方法我们一般选择的是这个 later to rgb, 然后表情这一栏我们一般选择的是名称, 也就是标签名称。选择了之后,我们可以看到节点的右上方一般会出现一个小狐狸按钮,而小狐狸按钮则代表的是它是官方节点。比如说我们加载一个新节点, 那么我们可以看到该节点是属于 animate develop 节点组的。接着我们回到管理器这六个 custom node manager, 点开后我们可以看到有非常多的节点,在这里我们可以查找以及安装我们想要的任意一个节点。在今后的学习过程中,我们会频繁使用到这一个模块。 接着我们看到 model manager, 在 这里我们可以安装我们想要的任意一个模型,注意模型不是节点,它们是分开来的。至于该模块,我们今后也会频繁的用到。好的,在介绍完 comf 以外的主界面以及各种参数后,我们来了解一下 stefi fusion 的 内在运行原理, 就可以方便我们理解并掌握进一步的学习内容。在我们输入完体式词之后,文本编码器的 click 模型会将体式词转化为特征向量, 然后再由 v a e 编码器将这些特征向量传输到前空间内,这些特征向量在前空间内不断地降噪,最后再由 v a e 解码器将这些经过降噪之后的特征向量解码成由一个个像素所组成的图片。好的,那么以上就是本期的全部内容了, 哈喽大家好,欢迎来到 comu 系列教程的第四节课,那么本节课我们将一起学习纹身图的相关知识 以及体式词的语法。在第三节课的结尾,我们一起学习了 step diffusion 康复 ui 的 基础工作原理,那么现在我将结合默认的纹身图工作流来讲解其中的工作流程。 首先第一步,在我们输入完正负相的提示词后,文本编码器内的 key 模型会将我们的提示词转化为特征向量输送到 k 彩样器内。那么这边有个疑问,就是文本编码器的 key 模型从哪来呢?我们顺着这个节点往下看,可以看到它来自于 jump point 加载器, 而这个加载器主要是加载各种各样的大模型,也就是说文本编码器内的克里普模型是属于各个大模型的内置克里普模型,而不同的大模型之间克里普模型也可能会有所差异。那么接着我们可以看到这个朋友加载器的输出有个 v a e, 那么也就是说他提供了 ve 模型,我们看看连到哪哦,连到了 ve 解码这里,而 ve 解码的作用就是将 k 采集器内经过了降噪之后的前空间图像解码成像素空间的图像,也就是我们肉眼可以看到的图像。这边我们可以做个实验,先将种子值固定,最后断开 ve 的 连接, 然后我们生成,我们可以看到这边是直接报错了,而这个报错的意思是缺少了 ve 的 输入,那么接下来我们重新将 ve 模型给连上,随后开始生成。这边再提一嘴,生成的快捷键是 ctrl 加 enter, 非常的实用,请牢记。 如果说你想调节生成图片的尺寸,那么我们可以在空内存这里,比如说我们将高度调成七百六十八,注意这个数值一定是八的倍数,宽度也一样。 至于 p 次的话,则是控制单次生成的图片数量。比如说我们设置成二。好的,我们摁 ctrl 加 enter 开始生成。 图片生成后,我们是不是可以看到它的比例已经成功变成了竖屏的比例,并且它一次生成了两张图像?好,接下来我们一起学习题序词的相关语法。首先我们来聊聊书写规范, 不论是正向题序词或者是副向题序词,我们在书写的时候一定是英文以及英文的标点符号,不然系统可能会识别错误。比如我们输入 one girl garden 还有 yellow dress 黄色的裙子,这边再提一嘴,生成的快捷键是 ctrl 加 enter。 好 的,我们得到了一个穿着黄色裙子在花园中漫步女孩的图片。那如果说我们用中文来输入,结果会是什么样呢?一个女孩花园以及黄色的裙子, 我们这边可以看到,不能说是毫无关联吧啊,他们至少图片中都有女孩,但是黄色的裙子以及花园很明显没有在图片中复现。接下来我们来讲一讲题序词的权重。 在这之前,首先我们要理解什么是权重。对于权重概念模糊的小伙伴,我们可以理解,权重就是比重 分量,那么一个提示词的权重越高,他的分量就越高,他的比重就越高,他在整体中的地位就越高。比如现在一个提示词的权重是一点二,而另一个提示词的权重是零点九,那么当然是一点二的提示词会占更大的比重,那么接下来我们做个演示, 比方说我们输入 one girl garden, one girl 的 权重是一点二,而 garden 的 权重是零点八,那么画面会更侧重于 one girl 的 展现。那如果说我们 one girl 的 比重是零点八,而 garden 的 比重是一点二,那么画面会更注重于描述花园是怎么怎么样的。 好的,接下来我们来讲一讲我们该怎么去控制提数字的权重。首先是中括号,中括号代表着零点九倍的权重,也就是说给提示词加上中括号后,提示词的比重会变小,会降低它的重要性。 那接下来是小括号,小括号代表着一点一倍的权重,比如我们给一个提示词加上小括号后,那么该提示词在画面中的比重 就会增高。最后是大括号,大括号代表着一点零五倍的权重,算是一种微调。当我们给某个提示词添加两个中括号时,那么就相当于为这个提示词加上了零点九乘以零点九倍的权重,零点九乘以零点九是零点八一, 那么就相当于给这个体式词加上了零点八一倍的权重。那么同样的,当我们给个体式词加上两个小括号时,那么就等于一点一乘以一点一倍的权重,那也就是一点二一,相当于我们给这个体式词加上了一点二一倍的权重, 括号也同理。那么有的同学可能会问,关于这个权重的变化有没有什么快捷键呢?哎,这个还真有。比如我们将光标移动到某一题是此上时,打个比方说 garden 摁住 ctrl 加上键,那么就是给它加权重,我们可以看到它的权重在不断的增加, 那么 ctrl 加下键,那么就是减少它的权重,是不是很方便呢?不过我们要补充的一点是,关于权重我们要多低都行,但是不可过高,因为过高的话图片就会过你和, 换句话说,图片就会变形,会失真。接下来我们来讲短句和长句,我相信不少小伙伴都有这么一个疑问,为什么我写提示词的时候一定是一个一个词这样去拼写, 不是用一句话去描述我们想要生成的内容呢?那么这边我可以很明确的回答你,其实两种都行,但是就目前而言, 用一个一个的词组去生成,效果会更加的准确,更能表达出我们提示词包含的意思。另外一点,使用一个一个的词的时候,也方便我们进行权重的调整,比如刚才我们有提到,将光标放在某一体字词上, 然后摁住 ctrl 加上或下就可以调整该提示词的权重。那么如果说是一句话的话,你想调整某一提示词, 那么可能就得手动去输括号,进行相关的权重调整。当然现在全世界的 a i g c 从业者也在不断的去研究该怎么样让自然语言,也就是我们的长句能达到媲美短句的效果。接下来我们来讲一讲提示词的整体长度, 要注意,比如我们在输入正向提示词的时候,并不是说越多就越好,多可能会让你的表现更加糟糕,那么我们最好把提示词控制在什么数量之内会效果最佳呢?经过众多 a i g c 玩家的经验以及研究表明,提示词控制在七十五个之内 是效果最精准的,超过了七十五个提示词的话,可能会对提示词的识别不精准,整体的表现会降低。正向提示词如此反向提示词也是一样的,记住最好不要超过七十五个。 接下来我们来讲一讲骑手势,那么什么是骑手势呢?在 stebiefune 各个大模型训练的过程中,会加入许多的 如四 k, 八 k 或者 masterpiece 各种各样高质量的图形去训练。那么当我们在输入提示词的时候,比方说输入四 k masterpiece, 那 么就可以使我们生成的图像更加的精美。反向提示词的话,那么就相反,比如我们输入模糊就 是文不想要模糊嘛,那么相当于也是会让图片变得更加的清晰。或者说我们在反向提示词内输入文字 text, 那 么在画面中就会减少文字的出现。这边我们可以来看一下这几组的对比,差异还是很明显的, 接下来我们来讲讲提述词的顺序。或许有小伙伴会有疑问,一个提示词在整体的前部或者是在整体的后部会有什么影响吗?答案是会有影响,在一组提示词中,越靠前的提示词权重会有所增加。那么在我们书写提示词的时候,我们尽量按如下格式进行书写, 首先是书写那些可以提升画质的,或者说可以改变画风的一些词汇,比如 masterpiece, high quality, high detail, 类似这些词汇。第二步是描述我们画面的主体,比如我们可以说 one girl, blue dress, 一个女孩,蓝色的裙子。 那么第三步就是描写环境,场景,灯光或者构图。比如我们可以说啊 garden 背景嘛, garden 或者说是 white background, 白色的背景,或者说是 soft light 柔和的灯光类似于这些。那么最后我们可以在正向题词的结尾添上我们想要加的 laura, 关于 laura 和各种模型的下载,我上期视频也有介绍,感兴趣的小伙伴可以回去观看。 接下来我们来讲一讲提示词污染。那首先我们要知道什么是提示词污染。我们可以看一下这一组图片,未经处理时,在多个提示词同时书写的情况下,各个提示词的意思可能会相互渗透。那么为了避免这种情况,我们可以用 break 来隔开提示词, 尤其是防止颜色污染。之后我们来聊一聊题序词融合。比如我们写 one girl, cat 这边我们可以看到生成了一张猫在女孩身上的图片。好的,现在我们在 one girl 和 cat 之间添加上 end, 注意这里的 end 必须是大写,全部大写。这边我们可以看到生成了一张猫娘的图片。这个 end 的 作用就是将两个提示词融合在一起。同样的,下划线也有和 end 类似的作用,也是将两个提示词结合在一块。 除此之外,隔一组提示词用中括号括起来,中间再用竖线隔开,也有类似与融合的效果。那么这个的原理是,第一步画前面的关键词,第二步画后面的关键词,第三步又在画前面的关键词,以此类推。最后我们来讲一下控制生成的时间段, 比方说现在的叠带步数是二十步,在这过程中我想让前百分之三十生成森林,后面百分之七十生成一个女孩。那么我们可以试着这么书写,大括号, forest 在 街上冒号 one girl, 在 街上冒号零点三,最后以大括号结尾,那么这一长串 代表着是在百分之三十的时候结束画 forest, 开始画 one girl。 那 么如果说我们把零点三改成零点七,那么意思就是前百分之七十画 forest, 后面百分之三十画 one girl。 好 的,那么以上就是本期的所有内容了。 hello, 大家好,欢迎来到 cf ui 系列教程的第五节课,那么本期视频我将分享几个非常实用的 a i g c 网站以及大模型的下载还有使用方式。那么在本期视频开始之前, 我们先了解一下大模型以及 laura 的 存放路径。首先是大模型,我们一般放在 cf ui 文件夹里的 models 文件夹内的 laura, 文件夹中的 laura 内 有些小伙伴可能不知道什么是 laura, 那 么我们可以简单的理解为 laura 就是 非常精简的小模型,它一般搭配着大模型使用,从而让我们的生成结果更具风格化或是质量提升。 首先是利物利物 a i 利物利物目前是国内最有权威并且规模最大的 a i g c 网站之一,该网站包含了模型下载,作品灵感 在线生图,还有训练 laura 以及诸多功能。我们一起来看看模型广场,这里有诸多模块,动漫、游戏,插画,二次元幻想、手绘风,工艺风等等等等, 在这里都能找到你想要的相关模型。当你工作或生活中没有灵感的时候,我们可以来到这里看看大家上传的图片,如果有你喜欢的图片的右下角有生成信息,我们可以复制相关参数到 stable future 里面自行生成。第二个网站是 nova ai 点 de v, 该网站侧重于辅助功能,比如这个法术解析,我们可以把已下载好的 stable future 图片拖到这里来, 那么它就会进行相关分析,最后汇总成一个参数表格,当然我们可以复制这份参数表格到 stability fusion 里面,在这里有相关详细的使用介绍,我们看看侧边栏,这边有各式各样的标签供您挑选, 我们可以利用这些标签去组成我们想要的关键词,然后复制到 web ui 里面进行生成。此外,该网站还链接了 a i g c 的 社区,比如之前在 liblib 上看到的画作分享模块,这边也有,并且这边还对各种各样的图片进行了分类, 总体来说还是挺不错的。好的下一个网站是 poem, 在 这里我们可以很直观的看到每一个提示词所带来的效果。当然提示词标签也是多种多样, 我们可以看到人物的各种特征,这边几乎都有包含,如果你想添加某个提示词,那么直接点击就行, 随后会在右侧的侧边栏显示有点像购物软件的购物车一样。等我们选择完所有信息的提示词后,直接点击复制便可粘贴到 web ui 里进行图片生成。除了人物外,我们还可以看到这边有诸多板块,服饰风格、各种构图、质感环境 以及一些质量参数等等。接下来是国外网站,首先是 civate ai, 在 这个网站内汇集了来自世界各地创作者所训练出的模型, 同样的也汇集了来自世界各地 ai g c 玩家所分享的图片。比如我们喜欢某一张图片,我们可以点进去看它的详细参数,比如它使用了什么模型,什么 laura 等等,当然还有关键词我们都是可以复制并直接进入到我们的 web ui 内进行粘贴复现的。 除了图片外,这边还有大家所分享的 ai 视频。总的来说, cvitai 是 一个非常非常全面并且有着海洋信息的网站,基本上市面上的所有模型以及 laura 在 这边都能找到。 接着我们来看看下一个网站 huginface, 想必这个网站许多人应该都听说过,许多最新的模型 laura 等都是在这边开源发布的。 比如我们搜索 stable fusion 三模型,这边我们可以看到网页包含了模型生成的视例图以及模型的原理,还有模型的代码等等信息,并且只要你登录了之后便可以下载该文件。最后要介绍的网站是 gitap, 这是目前全世界最大的开源代码网站,在这里我们可以找到海量的信息,其中就包括 aigc, 各个大模型或者是各种插件最新信息 以及下载方式。比如我们搜索 stable fusion, 在 这里我们可以看到有关于 stable fusion 开源的所有信息,不论是运作方式还是本地部署,亦或是它开源的代码,我们都可以从这里得知。最后是模型推荐,我们知道现在市面上已经有着成百上千各种各样的模型, 那么这边 up 主帮大家整理了一下,选出了几个我认为较为好用的大模型。首先是 dreamstriper 以及麦吉系列,它们的共同点就是生图质量较高,并且生图的类型范围非常广泛。 最后是 prime mix, 这是一个二次元大模型,在有关动漫的图像生成上,它的表现非常卓越。 然后是建筑类的大模型, architecture realmix, 这个模型包含了建筑相关的一切领域,包括楼体创意,现搞转会、室内设计等等等等,它都能胜任。 好,我们回到康复以外,现在我们将用同一组提示词以及其他参数仅仅变化我们的大模型,来看一下生成的结果有什么差异。首先我们选择的是真实感的大模型。好,我们可以看到生成出来的图片非常的写实。接着我们换一个二次元系的大模型, 好,我们可以看到现在图片完全变成了动漫风格,那么这就是大模型的威力。接下来我介绍一下 lowra 的 使用方式, 我们鼠标左键按住模型输出,拖出来之后,我们可以看到这边有一个 lora 加载器。好的,选择了之后,我们可以看到 lora 加载器分别有模型以及 clip 的 输入与输出,那么这边我们先将它的 clip 给连上, 接着我们再将 lora 加载器的模型输出连接到 k 太阳器这里,然后再将这个 clip 连接到文本编码器。那么我们稍微整理一下工作流, 那么现在我们先设置一个 lora, 我 们其他参数同样保持不变,比如说我们来一个这个梦中花境吧,我们提示词也是没有任何变化。随后我们开始生成, 我们可以看到明明我们的提示词没有任何关于花的词汇,但是我们的结果图却出现了非常多的花,那么这也正是因为我们的 laura 起到了作用,不同的 laura 有 不同的效果,小伙伴们可以自己去尝试。好,那么本期的视频到此结束。 哈喽大家好,欢迎来到康复 u i 系列教程的第六节课,那么本期课程我们将一起学习图生图的相关知识以及高清修复。那么在介绍图生图的工作流之前,我们先来讲讲什么是图生图。在我们使用图生图功能时, 我们一般使用一张图片与一组关键词共同作为输入生成的图像将收到这两个输入的共同调节作用。比如使用下面这张初级草图以及一段指令作为输入,图生图功能会将其转化成一张完成度较高的图片。首先,第一步, 我们输入的图片会由 v i e 编码器编码从前空间图片并传入到前空间内。第二步,传感器会向其添加噪声,通过设置降噪幅度可以控制究竟要添加多少噪声到原始输 入的图像中。如果降噪幅度为零,则不会有任何噪声添加进我们的前空间图像。如果降噪幅度为一,那么我们输入的图像会因为噪声过大而起不到任何参考作用。第三步, 采集器内的噪声预测器将上一步处理后的前空间图像与文字指令作为输入传输到 unit 网络,并预测出应减去的前空间噪声张量。接下来,前空间噪声张量将会从前空间图层图像中减去并得到前空间新的图像,并且第三步的全流程会重复特定的次数,而这个特定的次数就是采样步数, 比如说二十次,而这整个过程都是在采集器内完成的。接下来到了第四步, ve 解码器会将降噪完成后的挺空间图像解码成像素空间的图像,那么也就是图生成图的最终图像。接下来我们回到 comfui 中,我们先加载一个默认工作流,随后将 comlater 给删去。 接着我们点击 later 拖出来,选择 v i e 编码,那么我们就成功加载了 v i e 编码器。接着我们将 v i e 编码器的 v i e 输入连接到 checkpoint 加载器的 v i e 输出上,随后我们将图像节点给拖出来,选择加载图像 load image, 那么这边我们上传我们需要的参考图像。这边我上传的是一个金发小萝莉,那么接下来我们要边写一下提示词。这边我们可以输入 one girl golden here, 然后再输入一个 lake, 也就是湖水作为背景。我们看一下啊,他穿的衣服是蓝色的,那我们可以说 blue dress。 接着我们可以看到它的衣服有一点点湿,那么我们可以加入 drench, 湿透的意思,还有白丝袜副象题是词,这里我们一般输入的是模糊,也就是 blur 以及低质量 low quality, 还有文字,也就是我们不希望它出现文字。现在我们回到采暖器这里, 我们可以看到这边有个降噪,我们将该值修改成零点七,而对于降噪值,零点三到零点五之间属于安全的重绘幅度区间,而零点五到零点七则赋予了 ai 更多的想象与发挥的空间,那么低于零点三或者高于零点七, 图像都有可能会发生扭曲变形。好,那么这边我们先将该值设置成零点七,生成张图片试一下。 这边我们可以看到这两张图片的背景以及这个墓栈道还有人物的部分特征都是比较相似的,但是我们可以看到他们的年龄确实不太符合。那么接下来在关键词的前方加入一些质量提示词, 在我们优化完关键词之后,我们再次生成,看下效果如何。这边图片已经生成出来了,但是感觉还是不太相像,我们要做的就是将降噪幅度改成零点四五,之后我们重新生成一次,看一下效果如何, 效果是不是好了非常多呢?如果你觉得图片不太满意,那么我们可以多生成几张,直到得到你满意的图片为止。 那么接下来我们讲一下什么是高清修复,比如说我们现在生成的这张图片我们非常满意,那么我们怎么增加它的分辨率以及图片的细节呢?好,那么我们这边回到 k 层扬尘器,我们先将种子值选择的是固定模式,随后稍微整理一下工作流, 双击界面的空白处,输入 upscale, 然后我们将该节点的 layton 输入连接到 k 层扬尘器的 layton 输出上。 好,随后我们按住 alt 键,点击 k 传感器拖出来,那么我们就复制了一份相同的 k 传感器,那么我们将这个 laten 按系数缩放的 laten 输出节点连接到我们新建的 k 传感器的 laten 输入中。 最后我们将文本编码器的条件输出分别连到 k 传感器的正面条件以及负面条件上,模型也是一样,我们回到 check point 加载器,将模型连接到我们新建的 k 传感器上。 好,随后我们回到新建的 get 检测器中,我们将步数设置成二十五, c f 居值我们设置成七。好,接下来我们点击这里选择这个 d p m p p 二 m 调度器,这里我们选择的是 carrots。 接下来我们新建一个 ve 解码器, 随后我们将 ve 解码器的 ve 输入连接到 shift point 的 ve 输出上,接着我们新建一个预览图像节点,随后开始生成, 我们可以看到这张图其实非常的不自然,那么我们该怎么去解决呢?我们回到我们新建的 k 传感器这边,我们将运行后的操作改成随机,并且将降噪幅度改成零点五五,随后再次生成。 好,我们对比一下前后两张图片,我们可以看到脸还是变化比较大的,那么我们可以适当的降低降噪幅度,比如说我们改成零点五一再生成一次看看。 好,现在我们可以看到生成的结果,五官是和原图非常相近的,我们再来对比一下图片的细节,放大之后我们可以看到右边,也就是我们新生成的经过高清处理后的图片细节要比原图多很多,比如说水面上的气泡以及这些发丝都是非常的清晰的, 我们这边可以对比一下原图,头发这一块一放大就变成一块马赛克了,而我们新生成的图片还是比较清晰的好,那么有的小伙伴可能会说,哎,这还不够清晰,那怎么办?别着急,我们还有高清修复的方法,那么接下来我们将进行第二重高清修复,我们搜索 sd upscale, 也就是这个 s d 放大,那么接下来我们将这些节点一个一个的连上。首先是图像,我们连接的是这个 ve 解码之后的图像输出,接着模型我们还是老样子, 连接的是 checkpoint 的 模型输出,那么这边我推荐一个小技巧,我们将模型拖出来之后选择转节点,我们可以看到这边有一个小小的节点,那么这个节点的意思也就是代替了这个模型的输出,我们将 s d 放大的模型输入,跟这个模型输出相连。 好,现在我们可以看到它其实也相当于跟我们的 joy 连接在了一起。接下来是正负相条件,我们也用同样的方法拖出来,选择转接点。 好,接下来我们连接 ve 模型,我们也是用同样的方法选择转接点,拖出来 连接 v i e, 这边我们选择放大模型加载器节点,接下来点击这里我们选择该选项,这个放大模型是我试用下来效果最好的。最后我们加载一个预览图像节点,接着稍微整理一下工作流,好的,整理完工作流之后变得整洁了一些,我们开始生成 图片已经生成出来了,我们可以放在一起对比一下效果,这张图的分辨率已经达到了二 k, 非常的清晰,我们可以看到细节都还是不错的。然后我们再来看一下第一次放大的图片,放大之后还是有点糊啊,对吧, 不过清晰度也还是可以得到保障,再来对比一下这个哦,确实特别的清晰。 随后我们再来看一下第一张图片的清晰度,这个放大之后就是一团马赛克了,对吧?差异还是非常大的 好,那么有的小伙伴可能会说,觉得这张图清晰度还不够,哎,那怎么办?别着急,我们还有最后一重放大,那么加上了这最后一重放大之后,也就构成了所谓的三重放大。这边我们搜索 upscale, 接着选择这个图像,通过模型放大,这个节点非常简单,只有两个输入以及一个输出, 然后图像的话就连接到 sd 放大之后放大模型,这边我们同样选择的是该模型, 随后我们将图像拖出来,选择预览图像。好,我们可以看到最终生成图像已经出炉了,我们来欣赏一下它的效果到底有多么的炸裂。这是一张四 k 的 图像,清晰度非常的夸张, 发丝都看得见,完全没有那种模糊马赛克的感觉,湖水也是很真实。 我们再来看一下对比第一张,那放大了之后全身马赛克对吧? 没法比啊,这个确实没法比,那么这就是本节课所介绍的图生图以及三重放大的效果。首先这是我们图生图之后转绘成真人的图片,接着这是第一重放大, 第二重放大,最后这是第三重放大。好,那么本期的视频到此结束,如果你觉得对你有帮助的话,那不妨给个三连加关注吧。哈喽,大家好,欢迎来到本期的康复 ui 学习频道,那么本节课我们就一起来学习康复 ui 里面最最最重要的 control net 说到 computernet 的 起源,就不得不提到他的作者张吕敏,他是二零二一年本科毕业,目前正在斯坦福读博的一位中国人。那么他所提出的是一个新的神经网络概念,也就是通过额外的输入来控制域训练的大模型,比如 stabilisation, 其本质就是端对端的训练。那么现在已经有了各种各样非常优秀的 computernet, 比如 kenny, lan on, soft edge, dips, open pose, tile 等等等等。那么在正式内容开始之前,我已经帮各位小伙伴把所有可能需要用到的 content 模型全部打包好了,需要的小伙伴可以在评论区内领取。那么这边我们先打开 comforlater 的 文件夹,随后打开 models, 接着打开 content 文件夹, 随后将我分享给大家的压缩包解压到该文件夹内。好在我们解压完后,可以看到这边一共有十多个 control 内的预处理模型。那么本期视频就先来介绍能够还原参考图大部分细节的 cany 以及 soft h, 还有能够为线稿上色并在动漫图像领域大放异彩的 line on。 我 们先加载一个默认工作流,点击这里, 最后点击默认。如果现在你还未部署好预处理模型的话,我们也可以点击这里 manager, 随后点击 model manager, 接着我们搜索 controlnet。 随后我们便可以看到这边有非常多的预处理模型可供我们下载, 我们只需要下载主要的那几种即可,也就是 kenny, dips 以及刚才说的其他。那么接下来呢,我们先讲讲 kenny 是 如何使用的,我们双击屏幕搜索 kenny, 好 的,我们找到这个 kenny, 我们整理一下工作流,腾出位置出来。接着我们再搜索 controlnet, 选择这个 apply controlnet advance。 那 么我们先稍微连接一下这些条件, 随后我们再添加加载图像节点 load image。 接下来我们把加载图像的输出节点与 kenny 的 输入连接,随后再把 kenny 的 图像输出连接。那么接下来呢?我们在 controlnet 的 这个 controlnet 输入模块这边 我们加载一个 load control net model, 这边直接有啊,我们点击即可。接下来我们 control net 的 模型,我们选择的是这个 kenny, 随后我们这边也可以拖出一个预览图像节点,那么待会工作流在运行的时候,我们就可以看到这个 kenny 处理图像之后的样子究竟是什么?接下来我们稍微编辑一下提示词, 模型这边可以根据自己的需求,这边我选择的是真实系的大模型。好的,接下来我们来到 comrade 这里,我们将它的尺寸改成高度为七六八,宽度也是五幺二,也就是和我们的参考图一样,随后开始生成。这边我们可以看到 kenny 预处理后的图像已经出来了,我们对比一下它的原图, 我们可以看到大部分的细节他都用细线勾勒了出来。我们再来对比一下原图和最终生成的图像,我们可以看到最终生成的图像的姿势以及发型,还有非常多的细节,比如说他们的服装,我们甚至可以注意到 前后两张图的蝴蝶结的形状都是完全一致的。那么我们再来看下 kenny 这边 kenny 处理之后的图像蝴蝶结这边正是因为 kenny 把这个形状给勾勒了出来,那么才能做到前后的形状保持一致,那么其他的比如说发型一致 也是同样的道理。接下来我们来讲一下看你的域值,比如说我们把域值给调成零点二吧,我们可以看到图像的细节增加了,那么接下来我们再把这个域值给调成零点五。 现在我们可以看到域处理之后的图像线条变少了很多,那么也相当于给 ai 更多的自由发挥空间。我们再来看看高域值,比如说我们把高域值从零点八改成零点九五吧, 看一下会有什么样的变化,细节又变少了,对吧?接着我们再把高裕值从零点九五调成零点五吧, 图片的细节又变多了。不过我们要注意的一点是,高裕值不能低于低裕值,比如说把高裕值调成零点四,那么现在低裕值是零点五,高裕值是零点四的话,看一下会有什么样的结果,直接报错了。那么接下来我们可以再把低裕值调整成零点一, 图像又能跑起来了。那么我们可以看到在低域值为零点一,高域值为零点四的时候,域处理之后的图像是与原图极度相似的,再看下此时的生成结果, 我们可以看到生成的结果图与原图非常的相近,无论是背后的湖水,还是这个木栈道,以及身上的各个细节都是非常相似的,但是我们可以发现头发的颜色对吧?是不同的,以及他的瞳孔 其实是有点变形的,那么这是因为什么呢?我们可以看到,因为我们的域值很低,导致图片有着过多的线条细节,那么这也会限制 ai 的 发挥,从而产生一些过几何的情况。说人话就是 域值不能太低,太低的话图像会变形,我们得把域值控制在一个合适的区间,那么我们一般的话,我们可以把域值设置成零点二, 高域值我们一般取个合理的数值零点八。随后我们看一下生成的结果,此时的图像与原来相似度其实降低了好,但是图中不自然的地方变少了,那么这也是我们需要进行一个权衡的地方。接下来我们来讲一下第二个 ctrl 内域处理模型 soft h 这边我们先把 candy 节点给删去,随后双击屏幕搜索 soft edge, 我 们选择这个 h e d 开头的 h e d soft edge lines。 那 么接下来我们将图像的输入与加载图像的输出连接,同样的我们的输出和 control 链连接 这边我们可以把输出再和一个预览图像节点连接,也是方便我们进行一个预处理之后的图像预览。接下来我们把 ctrl 键在器这里的模型选择成 soft h, 选择这个,那么接下来我们开始生成即可。 好的图像已经出来了,我们先来看一下这个预处理之后的图像,我们可以看到它和 kenny 不 同的是,它的大致轮廓并没有描绘过度的细节, 那么这也可以让 ai 发挥更多的想象空间,以及减少图像变形的可能性,所以一般情况下 soft edge 的 效果会优于 kenny。 比如说我们看一下这一张生成之后的图片,这张图的各种细节以及它们的构图,还有人物的姿势都是非常的与原图贴近的,并且最关键的一点是这张图变形的地方其实非常的少, 这点要比 kenny 强很多。好,那么接下来我带着大家一起用 soft edge 来进行一个人物转会,那么首先我们来看一下该怎么操作吧, 我们可以看到这张图生成之后的发色以及衣服的颜色,还有这个栈道的颜色背后的一些细节都是与原图还是有挺多出入的。那么这边我们先加入一些关键词,金色的头发吧, golden here, 还有蓝色的眼睛,淡蓝色的裙子,以及背景是湖水,那么就加个 lake, 我 们先跑一次看效果如何,到时候有什么问题的话,我们再进行关键词添加即可。哎,我们看到效果好很多, 但是这个衣服跟原先是有很大差异的,半透明的感觉嘛,我们的衣服非常的干,那么我们可以加入一些关键词,比如说湿透的白色的丝袜,我们再送上一次看一下效果如何, 我们可以看到他的眼睛颜色过深了,那么我们可以把这个 blue eyes 改成淡蓝色赠送一次, 我们可以看到效果好了很多,但是这个眼睛还是不够的淡,我们调成一点一的权重吧,以及他的衣服不够的湿透啊,我们也是要把这个卷曲也就是湿透的这个权重给调高,调成个一点一五吧,我们再进行生成。 我觉得图中的人物的脸过于成熟了,我那么可以加个关键词,萝莉以及 cute, 我 们可以看到身上的权重给升高到一点二吧。 好的,这边我们可以看到这张人物已经出现了一些过礼盒的情况,这个眼珠是吧有点变形,以及头发上的这些水珠。 很明显这个 sketch 不是 我们想要的单词,因为这个 kitty 模型并没有理解我们想要的 sketch 是 让衣服湿透的意思,它是直接让人物湿透,我们把 sketch 给删去,那么我们直接输入半透明的裙子。 好的,最后我们得到了一张这样的图像,不知道你觉得效果如何呢?这边要提一嘴的是,我们之所以可以把二次元图片转换成真实系,是因为我们用了真实系的大模型,那么同样的,我们也可以把一张真实系的图片用二次元风格的大模型进行转换。 好的,那么接下来我们来讲一下能够进行现稿转会的 line on。 这边我们先把这个 soft edge 的 预处理器给关闭,随后输入 line on。 这边我们可以看到有非常多的选项, standard line on, 标准的 line on 模型以及 realistic line on, 真实系的 line on 处理。还有个是 anime line on, 对 吧?动漫类的线稿处理,那么我们要进行现稿转会,现稿上色的话,我们就选择这个 anime line on。 好的,我们先输入一张现稿图吧。最后我们来到加载器这里,我们把这个模型选择成 line on。 这边有两个选项,一个是 line on, 一个是 line on anime, 那 么因为我们要进行的是动漫线稿转会,所以选择的是 line on anime。 接下来我们边写一下正向提示词,比如说我们想要这个女生有金色的头发,那么就可以写 golden here, 然后来个绿色的眼睛吧,衣服的话我们就来一个白色吧。 好的,图像已经生成出来了,我们来对比一下前后的效果。最终图像再对比一下原图确实是完美的进行了上色,比如说我们的 golden hair, 金色的头发,对吧?实现了, 以及 green eyes 也是实现了,以及 white gloss, 对 吧?效果都是非常好的。那么以上就是进行现稿转会的具体流程了,当然我们也可以换张图片再次进行生成。这边我选择的是一个高马尾的齐刘海漂亮女生。 关键词,这边我们可以来一个红色的头发吧,感觉更有动感一些。眼睛的话来一个黄铜,服装的话来一个黑色吧。好的,我们进行生成, 这边我们可以看到效果是非常好的,只不过他的背景有点缺点,对吧?比如说我们想要来个森林的背景,那就 orange background 效果出来了,你觉得怎么样呢?这视频的结尾我们把 kenny soft h 以及 line on 来做个对比,从中我们可以很直观的了解到每一个预处理器模型之间的差异,以及最终的效果到底如何。 好的,那么以上就是关于本期的全部内容了,那么下节课我们继续讲解 comscape 的 其他几个主要的预处理器,我们不见不散。 哈喽,大家好,欢迎来到本期的康复娱乐学习频道,那么本节课我们接着上节课的内容,继续来学习主要的 control 的 预处理器。那么首先我们来学习的是 open pose, open pose 即姿态控制,主要作用是可以控制人物的姿势,甚至是表情。那么接下来我们双击屏幕搜索 open pose。 好 的,现在我们可以看到加载了一个 open pose 姿态预处理器,接着我们在双击屏幕搜索 d w pose, 对, 就是这个选项。 这两个节点呢,其实都是 open pose 的 预处理器,那么它们之间有什么区别呢? dw open pose 呢?综合性强,生成的骨骼图包括了面部、身体姿态以及手部骨骼。而原始的 open pose 又分成了五个大类,分别是只包含了大致骨骼的,以及 包含大致骨骼和面部的。还有只有面部的,或者是包含全身以及面部的, 还有全身但不包含面部的。但是我们仔细看可以发现 open pose 相比 dw open pose 生成的结果不够准确,比如图中 open pose 预处理后的手部以及小腿骨骼丢失。所以说一般情况下 dw open pose 是 要优于 open pose 的。 这边我们先把这个节点给删去,留下的是 dw 姿态预处理器,接着我们把 k 采集器 其后面的节点往后拖腾出空间,然后再搜索 controlnet advance, 对, 就是这个 apply controlnet advance, 高级的 controlnet 应用。好的,这边的话我们先把一些节点给连上, 接着我们把 dw openpos 的 图像输出连接到这个 controlnet 上,接着我们再加载 controlnet 的 预处理器模型,这边我们选择该选项, low controlnet model 选择 open pose。 然后这边的话我们先来一个加载图像节点。好了,这边我们上传的图片是一个金发小女孩,然后我们接下来开始写一下正向提示词,一个男孩在花园中 garden。 好 的,那么接下来我们开始生成。 这边我们可以看到这个姿态处理图像已经出来了,是吧?和我们的原图可以说是完全一致,他连手指的骨骼以及脸部的表情都给你刻画出来了。好的,接下来我们看一下最后的结果图如何。 这边我们可以看到这个小男孩的姿势可以说跟小女孩完全一致,连这个腿部的姿势都是一样的,然后手臂撑着一个东西,他们的眼神以及这个头的偏向都是和原图完全一致的, 或者说我们再生成一张图片看一下。好的,我们可以看到小男孩的姿态还是和原图是完全一致的。这边的话,我们还有个好玩的一点是,我们可以搜索 post node 姿态节点,那么有了该节点后,我们就可以自定义人物的动作,比如说我们想让他摆一个这样的姿势, 我们可以看到这张图的尺寸应该是五幺二乘五幺二的,那么我们接下来直接把这张图的姿态节点与 ctrl n 的 图像连接。然后我们就先把这个呃 dw openpos 给放在一边,摁 ctrl 加 b, 先将它们给忽略, 然后我们调节一下这个 laten 的 比例,调整成五幺二乘五幺二,随后再次生成。我们现在可以看到生成的图像和这个姿态完全一致,或者说我们再来一个这样吧。 好的,那么以上就是关于 openpos 的 介绍,那么接下来我们来讲下一个预处理器 tips。 首先我们要明白什么是 tips。 tips, 预处理器处理的是空间关系, 和刚刚所讲的 open pose 有 点相似,都是绑定参考图某些特征的空间关系的域处理器及模型。有时候我们用 controlnet soft edge 无法准确地将参考图的空间关系表达清楚, 那么这时我们就可以用上 dips 深度域处理器了。我们先加载我们的 dips 相关节点,这边搜索 dips, 然后看到这个 z o e dips anything, 选择该选项。然后我们上传一个教堂的图片。好的,我们稍微连接一下节点,然后再把刚才的这个 openpos 给删去。这边我们可以看到这有个选项是环境,可以选择室内或者室外。那么由于我们教堂是室内的,所以我们选择 indoor。 接下来我们在这个 ctrl 键的加载器这里选择 dv 模型,然后我们调整一下图片的尺寸,我们可以看到这张图应该是高度为五幺二,宽度是七六八,然后编辑一下相关的提示词。 这边我们可以输入一些质量词,先,比如说 masterpiece, 然后再输入我们的主体,比如说我们想要做教堂是紫色的,那么我们可以写 violet color。 好 的,我们可以看到生成的图像与原图的空间关系可以说是完全一致的。 这边有一个预处理之后的图像,我们可以来仔细看看。越黑的地方则代表着深度越深,而越明亮的地方则代表着距离镜头越近。那么我们可以看到生成图像的深度关系与预处理之后的图像可以说是保持一致。如果说想增加一些细节的话,我们可以加一些关键词。 好的,我们可以看到这张图的深度关系依旧与原图是保持一致的。比如说我们再换一张参考图吧,我们来一个这个金发小萝莉。好的,图像已经生成出来了,我们来看一下这个效果,不要看这张图的这个细节怎么样,我们主要看的是空间关系, 因为我们毕竟是一个针对于空间关系的预处理器吧。现在看一下预处理图像,哎,我们可以看到把人物肢体细节的空间关系都给表现出来了,比如说这个他的腿的根部这边,对吧? 我们可以看到阴影比较重,证明他的身体是向前倾的,以及背后的背景与人物的距离都用黑与白进行了清晰的刻画,然后我们生成的图片也是 根据这张图进行的一个效果的生成。空间关系还是非常不错的,但毕竟 deep 类似于辅助类的预处理器模型,所以说单独使用的话效果可能是比较差。那么接下来我来介绍一下一些常用的 ctrl n 键,也就是将各个 ctrl n 键串联起来的意思。 对于建筑类的重绘,为了确保前后大体的一致性,我们一般用 soft edge 加 dips。 在 这套公式中, soft edge 的 作用是控制线条的分布,而 dips 是 确保空间关系与参考图一致。而对于人物, 我们一般使用 soft edge 加 open pose 加 dips 加 ip adapter。 那 么在本公式中, soft edge 的 作用还是确保线条和参考图的分布一致,而 open pose 的 作用是绑定人物骨骼。 ps 的 作用是确保空间关系与参考图一致,而这里 ipad adapter 的 作用是实现面部特征的迁移,或者是风格的一致性。 好的,我们回到康复 u r 的 界面,那么接下来我来讲解一下什么是 t l 与处理器。首先我们来加载一个全新的默认工作流吧,这边我们搜索 t i l e, 选择该选项, 那么我们先把基础节点给忽略,单独来看一下胎儿育处理器到底是何方神圣。我们先来一个加载图像节点,这样的图像的话,我们还是用刚才的剪发小萝莉吧,然后我们再来一个渲染图像节点,现在开始生成, 哎,我们可以看到预处理之后的图像变模糊了,那么这就得说到胎儿预处理器的原理了。胎儿预处理器其实就相当于分块进行重裁样,比如说我把这张图分成了四部分,然后根据每一个部分进行图生图的生成,最后面再把这些给拼在一起,最终以达成增加细节的效果。 而我们一般在使用胎儿预处理器的同时,我们一般也会伴随着高清修复。然后我们再来仔细看一下这个胎儿预处理器,这边有迭代步数以及分辨率, 我们可以试着把叠带步数设置为六,接着我们再生成一次,我们可以看到图像变得非常的模糊,那么证明叠带步数越高,我们处理之后的图像也就会越模糊,那么我们最终经过采集器所生成的图像也会有着更多的变化。这边我们保持一个合适的值即可,比如说四或者二之间都可以, 而这边我想到最后的生成结果与原图尽可能的相似,所以我把叠加布书设置成二。好的,我们来到工作流,我们先稍微整理一下,接着搜索 ctrl n, 选择这个 apply ctrl n advance, 然后加载我们的 ctrl n 的 模型,这边我们选择的是 t i l e。 接着我们再来编写一下提示词,先输入其手势, 然后 one girl lake blue dress。 好 的,封面题是在这里的话,我们就来一个 easy negative 大 模型。这里我选择的是真实系大模型。然后我们来到 colletton 这里,我们将宽度设置成幺零二四,高度的话设置成 幺五三六,也就是七六八的两倍。好的,这边我们可以开始生成图片,已经生成出来了,我们来对比一下前后的效果。我们可以看到图片多了非常非常多的细节, 无论是腿部以及这些水的波纹,还有发丝等等等等。好的,我们再换张图片试一下。比如说我们来一个这个死亡骑士吧,看的非常帅,我们稍微编辑下关键词。 好的,图片生成出来之后,我们来对比一下效果。我们可以看到这张图也是多了非常多的细节,比如说剑上的火焰,以及这个剩下的岩浆, 不过好像没有原图那么好看是怎么回事?好的,这就是 tio 预处理器,一个可以让 comfort you are 的 细节与 midori 相提并论的预处理器。可以说我们在网上看到的那些精美的图片,如果说它是 s d 生成的,那么基本上都有 tio 的 身影。 好,那么本期的视频到此结束,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜!哈喽,大家好,欢迎来到本期的康复 ui 学习频道,那么这节课我们一起来学习 ipad adapter。 ipad adapter 的 由来可以追溯到二零二三年,当时一位叫 motion 的 用户在 get up 上首次提出了这个概念。 ipaditor 的 核心思想是利用预训练的图像生成模型,如 steve diffusion, 通过特定的算法对图像进行编辑和修改。现如今 ipaditor 主要有三个作用,首先是人脸替换, ipaditor 可以 精准地识别参考图的面部特征,并沿用该特征到结果图上。第二是材质迁移, ipaditor 除了识别面部特征之外,还可以识别参考图的材质,并沿用到结果图上。第三是风格迁移, ipaditor 在 前两种作用的基础之上,还可以对参考图的风格进行识别,并且迁移到我们的结果图上。那么接下来我们一起看看 ipaditor 具体是如 如何使用的吧。 ipad adapter 在 web ui 中是属于 computer 里的,但是呢,它在 comfy ui 里有着自己一套完整的节点。首先我们打开 comfy ui 的 界面后,我们点击这个 manager, 最后点击模型管理,然后再搜索 ipadder, 那 么我们就可以看到这边有非常多的模型,不过要记住有这个 dedicated, 也就是气用后缀的,我们千万不要下载,不然在你使用的过程中会报错。那么这边我们主要下载的是这个模型, face id plus v two 以及 face id plus v two s d 叉 l 这两个就可以,那至于其他的,比如说 ipadder s d 一 点五这一类的,可下可不下,毕竟是老版本嘛。 然后我们在滑到下面,看到后面这些 o n x 后缀的文件,这些一共有一二三四五五个, 这五个我们都是需要下载的。然后我们看到这边这边还有 ipad 的 laura, 这个 laura 也是可以帮我们提升图像生成的效果的。然后这边一共有两个,一个是 face id 一 点五的 laura, 一个是 face id plus v two s 一 点五的 laura。 这两个我们都可以下载。当然如果说你用的是 sd 叉 l 的 模型,那我们也可以下载 sd 叉 l 的 相关 laura。 好的,接下来我们搜一个叫做 clip vision, 现在我们可以看到这边一共有五个模型。这边的话我们这两个模型是一定要下载的 b 七九 k 后缀的,以及这个 b 幺六零 k 后缀的。当然如果说你在使用 kufu ui manager 下载 ipad 过程中出现任何问题的话,我们也可以打开 hackin face 直接进行下载。在进入到 hackin face 之后,我们搜索 ipad, 来到这个界面之后,我们点击文件以及版本, 能看到这边有非常多的模型,然后我们需要下载的是这四个即可,他们是 face id plus v 2 是 最新版本。接下来我们把这两个后缀式 bin 的 文件放置在这个路径内, 然后再把这两个 laura 放置在这个路径内。接下来我们点击这个模型的作者,然后在 models 这边找到 ipad, 接着我们点击文件及版本,打开 models 后,我们把这个文件下载到刚才的路径内。 接着我们打开 sd 叉 l models, 同样的把这个文件下载到相同路径下。那么以上就是 ipad adapter 的 安装以及部署过程。 好的,我们回到 copy ui 界面,我们先加载一个默认工作流。这边我先要向大家推荐一个非常好用的节点,叫做 easy use, 看到我的这个文本框了没有,以及这些节点它们现在其实是半透明状,我们可以清晰地看到后面的节点连线到底是通往哪儿的,这个非常有用,比如说我们把这 v e 结码放在 k 三二七后面,我们还是可以看得到里面的节点,这样就不会出现一些节点我们找不着的情况。好的,接下来我向大家介绍怎么下载 easy use, 还是一样,我们点击 manager, 然后点击节点管理,搜索 easy use, 然后下载该节点即可。除此之外, easy use 还有个很棒的功能,就是这个组别管理器也可以叫管理组,这个小模块是什么功能呢?比如说现在我们创建两个组, 我们把其中各组的名字命名为 group one, 另外一个的话我们就命名为 group two, 然后现在我们可以看到关联组这边,哎出现了两个,一个是 group one, 一个是 group two, 那 么我们这边比如说点击一下该按钮, 我们可以看到 group one 的 所有节点都被忽略了,当然我们也可以再次点击,那么就是奇用,我们也可以用同样的方法去控制 group two, 比如说,哎,点击一下这个是吧 group two 整个都变成了奇用,当然我们也可以再次开启这功能呢,还是非常实用的。那么这就是 easy use 的 一些相关应用。 然后我们再说下 easy use 该如何去改变我们这些节点的外观,我们打开设置,看到这边有一个叫做 color palette, 然后我们在调色板这边选择这个 opem, 也就是黑曜石 custom, 然后我们的节点就会变成了这种半透明状,当然我们也可以选择 opem dark, 那么我们可以发现,哎背景就变成了黑色,这个根据自己的个人需求而定,我的话还是比较喜欢灰色背景。好的,那么接下来我们来讲一下 ipad pro 的 具体使用方式。这边我们先加载一个默认工作流,然后我们双击界面搜索 ipad pro, 然后我们稍微整理下工作流,为它腾出位置。这边我们可以看到 ipad adapter 一 共有四个输入以及一个输出,我们可以看到有模型, ipad adapter 图像,还有关注层遮罩。我们先把模型与我们的 checkpoint 加在一起连接, 然后再把模型输出与 k 采集器连接,接着我们在 ipad 输入这里加载一个 ipad model loader, 也就是模型加载器。这里的话我们就先选择这个 sd 一 点五的,至于上面的这个 face id plus v2, 我 们待会讲该如何使用。 好的,我们先选择这个 sd 一 点五的。之后我们把图像这边也拖出来,连接一个加载图像节点 load image。 然后我们可以看到还有最后个选项,关注层遮罩。这个我们其实可连可不连,反正他们也不会报错。如果说连的话,那比如说我把这个图像在遮罩编辑器中打开,然后我们把他的脸给涂上遮罩, 接着再把这个加载图像的遮罩输出与 ipad 的 这个关注层遮罩连接。意思就是说我们的 ipad 将侧重于我们遮罩涂抹的部分进行相关的分析, 从而来影响我们最终生成图像的效果。当然如果说我们取消连接并且删除遮罩的话,意思就是说我们 ipad adapter 分 析的是整张图像的相关细节,比如说它的发色,脸部以及穿着。然后我们这边先编辑下提示词, one girl garden, 然后负面提示词的话,我们选择 easy negative v two。 然后我们可以看到这个空位,这边我们来一个 primix 哎,一个二次元系的大模型。然后我们回到这个 ipad adapter 的 应用, 我们可以看到这边一共有四个参数,分别是权重以及开始还有结束。最后是权重类型,那么开始以及结束这个我们就不用多说了,意思就是 ipad adapter 介入的时机以及结束应用的时机,那么权重的话,我们也可以理解为 ipad adapter 的 音响强度。 最后是权重类型,我们点开后可以看到一共有 standard, 也就是标准,还有个 poem is more important, 更注重于关键词。最后一个是 style transfer 风格迁移。然后这边的话我们先来个 standard 吧,也就是标准。 接着我们回到 k 采光器这里,我们把步数设置成二十五步, c f 居直改为七。采光器的话用的是这个 d p m 加加二 m。 调度器的话选的是 caras。 这个采暖器以及调度器可以说是一个非常完美的组合, d p n 加加二 e n 以及配套 carras 效果还是非常棒的。然后我们就先试着生成一张图片,看一下效果如何, 它的意思是说 ipad 迭个模型加载有问题,请使用最新的这个 ipad 迭个的模型加载器。 ok, 那 么我们在双击界面,然后再次搜索 ipad 迭个 unifier, 这是一个最新的 ipad 加载器,而 我们可以看到这个老加载器,它只有一个 ipadder 的 输出,而这个最新的加载器一共有两个,分别是模型以及 ipadder, 我 在这里向大家展示出来的目的就是为了让大家记得都要用这个新的模型加载器, 记住啊,是有两个输入与输出的,而不是用这个老的,不然它就会像刚才一样报错。好的,我们现在在进行连接,模型与这个 ipadder 应用相连,然后再把这个模型输入与 point 连接, 最后的话, ipad 的 输出我们也是跟 ipad 应用连接,然后这边的话我们选择的是这个标准,现在我们再次进行生成,好的图像已经生成出来了, 我们可以看到这张图像还是挺还原原图的一些特征的,比如说他们这个身上的服饰,对吧?但是现在有个问题哎,大家可能没有发现,这边我再生成一次给大家看一下, 不知道你现在发现了没有,我们生成的图像整体颜色偏暗,那么这个是怎么回事呢?我们可以看到 v e 解码,这边的 v e 的 输入是直接连接到车碰的,而有时候车碰大模型的 v e 其实并不太适合,那么这个时候我们就要单独加载一个 v e, 比如说这边我们先添加个节点 load v e, 然后我们选择一个 anime v e 吧,也就是动漫系的 v e, 接着看下效果如何。 哎,是不是画面瞬间变得明亮起来,我们可以多上上几张看一下效果,那种昏暗的感觉已经没了,还是非常不错的。好的,那么以上就是关于本期的全部内容了,我们下节课接着来讲 ipad 的 其他应用,我们不见不散。 哈喽,大家好,欢迎来到本期的康复 u i 学习频道,那么我们接着上节课的内容,继续来讲一讲 ipad 的 其他应用。 参考头像换成真人,比如这边我用的是赫敏作为参考头像,大模型我们也用的是真实系大模型。这边我们来一个慢极 realistic 吧,然后 ve 的 话,这个时候我们选用的是这个八四零零零零,然后再是生成,我们可以看到这个结果与原图还是比较相似的,我们可以多生成几张对比一下, 是吧,效果还是不错的。并且的话这边我们可以发现图片的比例与原图不一定要相符,比如说我们可以把 laten 的 尺寸设置成宽度五幺二,然后高度的话我们可以来个七 u 八,这很明显与原图的尺寸是不符的, 我们可以看到,哎,图片依然起效了, ok, 然后我们再来看一下 ipadder 的 其他应用,我们先加载一个新的节点,叫做 ipadder face id, 就是 该选项, 我们可以对比一下它跟这个原始的 ipad adapter 的 区别。我们可以看到这个新的结眼一共有非常多的输入,有模型, ipad adapter, 正面图像、背面图像、关注乘车照,还有 clip 视觉以及 inside face, 这个 clip 视觉也就是 collaboration, 刚才我们已经下载过该模型了,那么接下来我们就把这个基础的 ipadter 给删去,然后再连接一下,比如说这边我们连接到这个路由器上,然后模型的话也是连接到路由器。正面图像的话,这边我们要连接一个新的接点,叫做 print image for collaboration, 然后我们稍微进行连接, 接着我们再加载一个新的接点叫做 ipadter noise, 它翻译成中文就是 ipadter 叫声。 接着我们把 ipad printer noise 的 输出与这个负面图像连接,我们可以把这个负面图像理解为负面提示词的感觉,比如说我们给 ipad 核心节点传入一张非常糟糕的图像,有着非常多的噪波以及模糊,分辨率很低, 那么它的意思和负面提示词也差不多,也就是我们不想要这些因素。然后我们类型这边选择内容重组,也就是 shuffle 模糊,我们设置为十 ok。 接下来我们回到 ipad face id, 关注乘车照,我们可以直接不用管它。 clip 视觉这里我们加载一个新的节点,叫做 load collaboration, 这边我们选择的模型是这个 b 七九 k 后缀的,最后我们看到这个 inside face, 我 们拖出来连接一个新的节点,叫做 ipad adapter inside face loader。 下面的话我们模型选择这个 antelope v 二,然后我们重新回到 ipad adapter 加载器这里, 我们把这个模型选择成 plus face, 也就是肖像。接着我们把这个清除组缩放改成最后个选项,然后我们把第一个权重改成一点二,第二个 face id v 二的权重我们改成二, 然后看到下面有个权重类型,点开了后有非常多的选项,比如说缓入缓出,缓入即缓出,还有风格迁移,强风格迁移等等等等。这边的话我们就先选择一个星星,接下来我们回到开采暖器这里,我们加载一个 roo 加载器,然后进行连接 pro 加载器的 clip 与这个转换连接,然后我们选择的 laura 是 刚才下载的 plus v 二 s 一 点五模型,强度的话我们改成零点五,然后我们稍微整理一下工作流, ok, 这样好看了很多。接下来我们开始生成,看效果如何,我们可以看到这比刚才更像我们的参考图,也就是赫敏了,我们可以多生成几张看一下平均效果, 我们可以看到效果还是非常不错的。这边我们可以试着再换一张人脸图像,比如说泰勒斯威福特,我们可以看到人脸还是比较相近的。接下来我们讲一下 ipad 其他应用风格迁移,或者说是材质迁移。这边呢,我们需要准备两张图像,一张是我们的材质图, ok, 然后我准备的就是这个黄蓝水晶。另外一张图像啊,比如这边我选择的是一张玫瑰,好的,我们把玫瑰放到下面来,接下来我们要加载一些 content 来完成我们的这个玫瑰线条的绑定,比如说我们搜索 line on, 选择这个 standard, line on 的 图像输出连接到 controlnet advance, 就是 该选项 apply controlnet advance。 好 的,接下来我们加载 controlnet 模型, load controlnet model, 然后我们选择的是 line on, 选择第一个,然后我们连接一下这个 controlnet 的 正面条件以及负面条件。 接着我们再回到 ipadder 部分,我们看到这个 ipadder 加载器,这个预设的话我们选用的是标准即可。然后来到 lower 加载器,这里我们选择忽略,因为我们并不是进行人脸替换,我们可以看到整个工作流看起来一堆节点,十分复杂, 但其实我们只分了三个模块,一个是基础的默认生图模块,一个是 ipadder, 一个是 controlnet, 这边我们做些分组来让整个工作流看起来简洁明了一些。 ok, 现在我们分了三个组,一个是基础的模块,比如说我们正向提示词以及副向提示词,还有大模型的加载。而第二个组呢就是 ipad adapter。 第三个组就是 controlnet, 这边我们可以编辑一下组,比如说修改它的名字,我们点击该选项编辑组, 随后点击标题,这边的话我们输,比如说 ipa 吧 ipadter。 当然我们也可以修改该组别的颜色,然后我们来到下面这个组,同样的也是修改名字,那么下一步就是修改我们的关键词,然后还要注意的一点是红绿灯这里我们需要把尺寸设置成与我们的这个参考图像相同, 注意是我们的需要被替换材质的参考图像,而不是我们的材质参考图。接下来就是生成,我们可以看到这个玫瑰成功变成了黄蓝水晶状,当然我们可以多生成几张,对比下效果, 是不是效果还不错吧。除此之外,我们也可以使用其他功能,比如说这边的话,我们可以把这个权重类型设置成 style transfer。 哎,我们是不是可以看到这张图片又变成了另外一种风格,此时玫瑰花的花朵以及它的叶子已经不再是水晶风格,而是替换成了与材质图相似的颜色,比如说我们再生成几张看一下, 是吧,还挺有意思的,这边可以根据自己的需要来进行相关的调整。看腻了黄蓝水晶,我们设置成其他的材质图试一下,我们可以看到图像效果还是非常不错的,很有风格。当然,如果说我们想要我们生成结果,根据风格化,我们也可以在大模型上做一些改动,比如我们来一个 二点五 d 的 大模型,我们对比一下它和原图,借用 ipad adapter 以及 ctrl 键,是不是让我们平平无奇的一朵玫瑰花变成了多姿多彩的星空玫瑰呢?好的,那么这就是本期的全部内容了,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! hello, 大家好,欢迎来到本期的 cf ui 学习频道,那么这节课我们一起来学习最基础的 ai 视频生成。好的,打开我们的 cf ui。 首先我们要介绍的是一个必备节点叫做 video helper, 我 们打开节点管理,搜索 video helper。 好 的,就是这个 video helper。 安装完后,我们回到默认工作流,那么该节点有什么作用呢?我们简单介绍一下。点击旁边的这个小字典,然后我们搜索 video helper, 我 们可以看得到这边有非常多的节点,其中最主要的是这个 video combine 以及 load video。 这个 load video 是 我们上传视频的一个小节点,还挺有用的,而这个 video combine 呢,我们可以理解为视频浏览器。好的,我们主要运用的就是这两个节点,我们先删除。 接下来在正式进入今天的主要内容之前,我们先来科普一下什么是视频。视频这一概念最早可以追溯到十九世纪末,当时托马斯爱迪生和威廉肯尼迪、老李迪克森发明了活动电影摄影机, 自此开启了动态影像的时代,最早的电影有一系列静态照片快速连续放映而成,使观众产生连续运动的错觉。如今随着智能手机的普及和 ai 技术的发展,视频制作变得更加便捷和智能, 从短视频到直播,从虚拟现实到 ai 生成内容,视频的形式和应用不断创新,已经成为我们日常生活中不可或缺的一部分。回到我们的默认工作流这边我们先加载一个加载图像节点,然后我们加载 input 节点, 选择这个 impenew 处理器。好的,我们现在把它们拖到下面来,然后与图像相连。这边我们把光标移动到图片上,右键在遮罩编辑器中打开,然后我们给它的键涂上蒙版, 随后点击 safe to know 保存。接着我们连接一下遮罩节点,随后我们加载一个 control net, 选择该选项 apply control net advanced。 接着就是加载我们的 control net 模型,这边的话选择的是 impant, 然后连接一下正面条件以及负面条件。 接下来我们搜索 in paint v a e, 选择该选项 v a e in code for in painting。 我 们可以看到它不同于以往的 v a e, 是 它一共有三个输入图像, v a e 以及遮罩。对,多了一个遮罩。这边的话我们先连接一下,把图像连接到 in paint 预处理输出 v a e 的 话,我们连接到 checkpoint 加载器。 遮罩的话我们连接到加载图像节点。接下来我们看到这里,我们把这个遮罩延展设置成三十,然后再把 laten 和 k 太阳器连接。最后我们设置一下关键词,这边我们想让它的键比如说冒出火光,那么我们可以说 flame 火以及 dark power 暗黑力量负面提示词的话,我们就用 easy negative 大 模型,这里我们可以选用一个二点五 d 的 大模型, 然后我们把 c f 居值设置成六采阳器,我们选择 d p n 加加二 m 调度器的话就是 chaos, 然后我们开始生成,哎,我们可以看到整张图只有它的键发生了变化,比如我们多生成几张, 我们可以看到它的键的纹路在不断发生变化。那么接下来呢?我们要进行一个操作,就是加载一个节点,叫做 image list to h, 对, 就是该节点,把该节点连接到 v e 解码之后,然后我们再加载一个新的节点,就是刚才 video helper 的 video combine。 好的,接下来我们在这个 v a e 内部编码器的后面新增个节点,叫做 repeat later batch, 复制 later p 四,将它与 k 太阳器连接,随后我们将这个次数改为四。接下来我们开始生成,我们可以看到,哎,这张图是不是它变成了一张动图? 那么这张图的原理也很简单,我们可以看到保存图像这边一共有四张图片生成了,并且每张图片因为收到 input 的 控制,只有键这部分收到了变化,再加上我们复制 layer 的 p 四以及随机种的作用,每张图键的火焰 都是不同的。那么最后我们用 image list to batch 将这四张图变成了一个小小的图像 p 四后,传到最后面的合并为视频,我们就可以看到这个非常简易的 ai 视频。当然我们也可以调整这边的帧率,比如说我们用常规帧率吧三十, 然后我们将这个复制 laten p 四,这边我们将这个 laten 的 次数改成三十,这边我们可以把这个采用步数给降低一点十五吧,然后 cf 居值我们改为四点五。接下来我们开始生成 这张图的帧率提高了很多,并且我们可以看到相当于我们一次性生成了三十张图片,然后由于我们帧率是三十的原因,那么我们每一秒都会进行这三十张图片的轮换,当然我们也可以换一张图片,这边我们加载一张这个双十一的文字图像,然后我们在遮照编辑器中打开, 比如说我们给这些数字添加上遮照,记住我们编写一下关键词。 好的,接下来我们把这个帧率给调成十六吧,然后开始生成。 好的,我们可以看到,那么这个非常简易的 ai 视频就这么出炉了,但是我们能发现它有非常多的屏闪,并且图像与图像之间的过渡非常的不自然。那么具体该如何解决这些问题呢?我们下节课再说,那么以上就是关于本节课的全部内容了,如果你 觉得对你有帮助的话,不妨给个三连加关注吧,我们下期再见,拜拜! 哈喽,各位小伙伴大家好,今天我们要学习的是如何让照片动起来,换言之就是通过我们输入的图片生成一段 ai 视频,那么本期需要用到的节点叫做 mimic motion, 在 我们打开它的官网后,我们可以看到他们展示的案例视频, 而要想得到这样的 ai 视频,我们仅需在工作流中输入我们的参考图片以及参考动作视频即可。我们往下滑可以看到官网给出的更多参考案例,总体来说效果还是非常不错的。仔细看我们可以发现人物的嘴型甚至都是和参考视频一致的。 那么接下来我们打开 get up 搜索 mimic motion, 这里我们点击 mimic motion weapon。 接下来我们点击这个按钮, 随后卸载它的压缩包并解压到 copyur 的 custom 文件夹内。随后我们开始安装必要模型。由于各个模型的查找以及部署过程非常复杂,这里我帮各位小伙伴把所有的必要模型都给打包好了,需要的可以在评论区内领取。 这里我们打开打包好的网盘资源后,可以看到一共有四个文件夹以及一个说明文档。那么首先我们需要将这个 dwpos 文件夹下载放置到该路径内,随后我们将 face store models 下载放置到该路径内。 接着我们再将 mimic motion 文件夹下载放置到这个路径内。最后我们将 stable video diffusion 的 文件夹放置到此路径内。 按照上述过程操作完成后,我们就可以在 comui 里面使用 mimic motion 节点了。那么现在我带着大家从零开始搭建我们的 mimic motion 工作流。这里我们先把所有的默认节点给删除,我们先把所有和 mimic motion 有 关的节点给拖出来。 好的,回到我们的工作流,我们先将这些组件进行简单的连接。 好的,那么接下来我们先来熟悉一下 mimic motion 采氧器的相关参数。首先是采氧步骤以及 c f g 最小值,还有 c f g 最大值,这些我们保持默认即可。往下看是种子值以及生成后的控制方式,注意这里我们选择的是这个 phase 固定。 接下来是 fps, 也就是帧率,该数值越高,画面也就越流畅,当然预算的时间也会更长。接下来是超声强度以及上下文的影响长度,注意这里,比如我们的上下文关联长度是十六,则代表着每一帧会受到前后十六帧的影响。 往下看是 context overlap, 也就是上下文的重叠度,这里我们保持默认值即可。接下来是人物参考动作骨骼对生成视频的影响强度,这里我们也是保持一默认值即可。如果该值太低的话,那么我们生成的动作就会与原视频不符, 并且有可能会发生肢体变形等情况。最后是动作骨骼开始以及结束的影响时机。最后一项是参考图像对生成的视频的影响强度,这里也是保持默认值即可。好的,那么接下来我们先上传我们的参考图像以及参考视频, 前面有提到过,这里我们加载视频的节点叫做 video helper, 需要的小伙伴可以在 manager 内自行下载。好的,接下来我们在加载图像后连接一个 image resize, 该节点可以控制图像的尺寸以及比例。随后将该节点的图像输出连接到这个 riff image, 也就是参考图像的意思。接着我们再将视频加载器的 image 输出与 pause image 连接。随后我们添加一个 video combine, 我们可以用该节点来预览动作骨骼视频。接着我们复制一份 video combined 节点到解码器的后面,用于生成视频预览。这里我们要改一些参数,首先是帧率,我们将该值改成三十, 随后我们将文件名改成 mimic motion, 左斜杠命。接着我们把格式改成 video h 二六四 m b 四。好的,接下来我们回到这里,我们将这个 video combine 的 文件名字改成 mimic pose, 帧率改成三十,以及格式我们也是改成 video h 二六四。好的,接下来我们可以看到它们报错了啊,必须拥有相同的解析度, 那么他们的意思是图像的尺寸得相同。好的,我们可以把这个 image resize 给复制一份放到下面来,最后与视频加载节点连接, 随后便可以开始生成好的视频出炉了,我们来看看效果。 对比后我们可以发现人物的五官,服装以及体态特征还是和参考图非常相似的,除此之外,人物的动作也和参考视频完全一致,并且视频无闪烁,流畅度非常的高。好的,那么以上就是本期的全部内容了,如果你觉得对你有帮助的话,那不妨给个私信加关注吧,我们下期再见,拜拜! hello, 大家好,本期视频我们将结合前面所学的内容,用 mimicmotion 来做一个 ai 视频风格转会。最后我们再结合 ipadder 看看效果如何吧。那么首先我们先打开 comfyui, 接下来我们先拖动节点,腾出位置 搜索 load image, 这边我们加载我们需要的参考图像,然后再搜索 image resize, 随后调整相关参数。接着我们把 later 拖出来,接上 ve 编码, 随后将 ve 编码的输入和 image resize 的 图像输出连接。随后我们用 anything everywhere 来加载我们的 ve 模型,将我们的 ve 发送到局。 然后就是选择我们的大模型。我们开始编辑我们的提示词,这里我们的提示词要尽量和参考图像保持一致。 然后将采样步数修改成二十五, c f, g 值设置成七。采样器我们选择 d, p, n 加加二 m。 调度方式我们选择 chaos。 接着我们再将 d, n, o, s 降噪的数值改成零点五。这里我们先稍微整理一些工作流,方便后续的工作流加入进来的时候不会过于杂乱。 好的图像已经成功生成了。接着我们在塞巴儿侧边栏里面搜索 mimic motion, 随后将所有相关的节点拖出来。 当然我们也可以用常规的方法搜索并加载这些 mimic motion 的 节点,只不过那样子比较繁琐费时。好的,那么接下来我们将这些 mimic motion 的 组件连接。 随后我们搜索 load video。 这边我们用到的节点是 video helper, 如果还没有的小伙伴可以去自定义节点安装里下载。 接着我们将 image resize 复制一份过来。这么做的目的是为了让我们的参考视频与参考图像规范化,不然有时候会有 resolution 相关报错。 接着我们加载 video combine 用于预览视频,这里我们将帧数改成三十,视频格式我们设置成 h 二六四。 随后将文件名称改为 mimic pose。 然后我们再复制一份 video combine 用于预览最终效果视频。这里我们将文件名改成 mimic motion。 左斜杠 mean。 好 的结果已经出来了,对比原视频,我们可以看到人物的外观以及动作是非常贴合的,并且我们在原视频的基础上进行了动画化的处理。 那么接下来我更换一下参考视频与参考图像,当然提示此部分我们也需要进行修改。这边我替换完参考人物图像以及参考视频之后,我们先来对其进行一个分组整理, 同样的这边也进行分组整理好,那么这边的话我们先起用主控制器,然后把 mimic motion 给忽略。这个主控制器呢是来自于 easy use 节点的。 之后我们再搜索 ipad adapter advance。 好 的,那么接下来的话,我们加载 ipad adapter 的 模型, 然后 ipad adapter 的 模型输入,我们连接到 jackpoint 加载器。接着我们再搜索 load image, 然后再搜索 preimage for collaboration, 接着我们再搜索 ipad printer noise, 然后将类型选择的是内容重组,模糊值设置成十,然后再加载 calibration 模型。 这里的话记得我们选择的是这个 b 七九 k 后缀的,然后再把这个权重设置成一点二。 好的,接下来的话,我们在 ipad 加载器这里设置成标准,将 ipad 的 模型输出连接到 k 太阳器内, 随后我们设置一个真实系的大模型,这里我选择的是麦吉的 realistic 真实系列。我们这边来编辑一下文本。好的,接下来我们开始生成。效果还行,但是我们可以生成多几次筛选出最佳的效果。 我们可以看到这个人物感觉比例有点奇怪,是吧?那么这边的话,我们可以用到 open pose 来绑定他的人物骨骼。首先呢,这边我们先给 ipad 先先建个群组吧,以防他会混淆。 然后我们改变一下它组别的颜色,这个图像生成模块的话,我们随便换个颜色吧。然后的话我们来加载我们的 controlnet 模块。那么接下来的话,我们将 ipa 的 群组往这边移一点,为待会的 controlnet 模块给腾出位置。 好的,那么这边的话我们先搜索 controlnet, 选择 apply controlnet advance, 然后我们再搜索 dw post estimate。 随后来一个加载 control net 模型节点。 这边的话我们选择的是 open post。 好 的,我们将 dw 自带域处理器的图像输入和我们的参考图像连接。 随后我们按住 alt 键复制一份 control 内的应用,加载器也一样复制一份下来。这边的话,我们加载器的模型选择的是 soft h 搜索节点 soft h 选择这个 h e d soft hines 跟同样的,把 h e d 的 这个图像输入和我们的参考图像连接。好的,那么接下来的话,我们将 ctrl 内的应用给串联在一起,正面条件连正面条件,负面条件连负面条件。 同样的,我们把第一个 ctrl 内的正面条件给连到正面提示词文本框内,负面条件的话就是负面提示词文本框。随后我们将第二个 ctrl 内的正面条件输出连接到 k 传感器上。 然后我们再把第二个也就是这个 soft h 模块的 control 内的强度改成零点五,随后开始生成。我们可以看到现在这个人物的姿态是变得正常了很多,以及他整个身体的比例。这边同样的,我们为了得到更好的效果,可以多生成几张。 好的,我觉得这张还不错。那么接下来的话,我们就开启 mimic motion 模块,随后再次开始生成。 生成完毕后我们可以看到效果还是非常不错的,怎么说也是还原了参考人物的部分特征吧。那么这里我把 mini 个默选转会和参考视频做一个对比,大家认为哪一个效果更好呢?好,那么一生就是关于控服 u i 基础课程的全部内容了,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们后会有期。

如果能够实现自动批量化出图的话,无论是我们每天有几十甚至上百款甚至更多的一个视频,我们能够在个把小时甚至是更短的时间在保持视频以及模特一次性情况下去进行出图,那这个效率的提升是极其恐怖的,相较于我们真人实拍的话,无论是成本还是时效性工作量上面都是极其繁重的。 那接下来我们来演示一下我们这个基础耳饰穿戴工作流的全程出图啊,流程的一个演示。那首先呢,我们这边上传我们的一个模特图啊,那这边的话就是我们的一个耳饰的一个图片,那最好是我们单个啊,不要上传啊,一对好,那么我们啊上传好之后,我们鼠标右键要在遮罩编辑其中去打开来绘制它的一个遮罩,来控制 我们需要生成的一个耳饰的大小。那绘制的时候有一个技巧啊,我们不要将整个耳垂都给啊绘制进去,不然的话他没有一个参考的话,他这个耳朵会生成出来啊,比较怪的一个形状啊, 那正确的方法应该是要预留一点他的基础形状啊,那么我们按照我们对这个耳饰穿戴效果的理解大小啊去绘制一个遮罩啊, 那这个时候我们的耳饰就在生成的过程中只会啊作用于这个范围。那我们绘制好之后呢,我们就直接点击啊保存,那我们透明度一定不要给啊,给的话啊生成出来也不会有很好的一个结果, 保存好之后呢,我们就直接点击运行就可以了,等待它自动出图。好,我们的结果已经出来了,可以看到速度非常的快啊,那我们来看一下我们的一个饰品的穿戴效果,它的它的这个一致性是非常好的啊, 几乎是一样的啊,也没有很明显的一个色差啊,最主要的是没有明显色差,以及我们穿戴周围的一个范围,也没有一个断层啊,跟色差存在用过迁移。还有我们这种穿戴流的话啊,都知道啊, 如果说你思路不对,处理不好的话,它大概率穿戴上之后它会有一个色差,脱离我们原产品上面的一个颜色,那这个时候的话图是完全没法用的,可以看到我们这边是没有啊, 输入此类的一个问题,下一步的话,我们会对工作流进行一定优化,如果能够实现自动批量化出图的话,无论是我们每天有几十甚至上百款甚至更多的一个视频,我们能够在个把小时 甚至是更短的时间,在保持视频以及模特一次性情况下去进行出图,那这个效率的提升是极其恐怖的,相较于我们真人实拍的话,无论是成本还是时效性,工作量上面都是极其繁重的。那好吧,我说一下我们这个工作流它的一些参数设置,其实很简单,默认参数都可以直接跑了的,为了让大家更好的理解的话, 那这个就是我们裁切范围啊,这个数值越大,裁切的整个范围也就越大,但是没有必要啊,只需要识别我们穿戴的这么一个范围就可以了。那通常情况下我们工作流出图的速度是非常快的,通常都是在十五秒左右啊,第一遍可能会慢一点,因为他需要 加载模型,那往后的每一次都基本上是在十五秒左右,那再到我们这个取色器啊,这个取色器的作用是告诉模型我们需要在哪个范围里面去穿戴上我们的饰品,那如果我们裁切的范围里面跟我们取色器取的颜色有撞色的话,我们就需要啊,点击这里 啊,现在是一个灰色的状态啊,我们可以任意的去选择一个我们想要的颜色,选择好之后呢,我们点击空白地方,对吧?这个时候就会更改我们选择的颜色啊,只要是跟我们截取的范围不撞色, 那模型就很能够清晰明了的知道它需要在哪里去生成我们这个啊。视频我这么说可以理解了,这就是我们最终的一个结果图啊,可以看到它图像的大小啊,无论是二 k, 四 k 甚至是六 k 都啊,没有多大关系,都是可以的啊。那像这种清晰度的话,电商还是说我们海报打印都是可以用的这个数值的话,如果说 他这边出图之后啊,他穿戴的周边有这个颜色的话,我们可以加大这个树枝啊,去消除这个颜色啊,可以五十到一百啊,通常来说保持默认就可以了,这边都是有备注的,那这个就是我们穿戴前后的一个啊,对比喜欢的话可以一键三连,然后点个关注。

挑战一个视频,让你变成 ai 达人!警告,本系列视频耗时两个月制作共计一百二十分钟,专为新手小白设计,实战教学一站式掌握。这应该是目前抖音仅有的从入门到进阶的全套系统开发 ai 教程,附赠配套练习素材,赶快收藏! ai 界最全能的软件来了! 一款软件就承包了所有的 ai 需求,关键是官方正版完全免费,它就是酷酷 u i, 仅需三个步骤,下载、解压、双击打开,连模型都全部为你准备好了,真正实现零门槛,学会下载就能用!哪怕你从来没有接触过 ai, 再匡扶 u i 也能化身成 ai 达人。无论你是想绘质惊艳作画,还是想打造火爆全网的创意短片, 通通都是点一下就能完成。而且有了旷辅 u i, 你 用它就能够体验国内最新最前沿的 ai 功能。作为全球公认最全面、生态最丰富、最贴近生产力的 ai 软件,旷辅 u i 堪称免费开源 ai 软件当中的王者。 接下来教大家如何安装匡府 u i 本地部署。第一种方式,我们可以来到匡府 u i 官网,点击这里的下载匡府 u i, 大家可以根据自己的电脑系统下载安装包,那我的电脑系统呢?是 v 系统,我就点击这里的下载 v 版本, 也可以从匡府 u i 的 官方插件节点仓库 github 进行安装,来到这里的 code, 把这个安装包下载下来。 下载下来之后呢,我们点击这里的运行即可。但是对于新手不建议使用官方版本,因为你需要安装非常多的文件,如果是新手就用我接下来讲的第二种方式非常好用,接下来我们来讲第二种安装方式,也是大部分的人选择的方式, 就是这个秋叶的会式启动器,这个安装包体积很大,有接近一百个 g, 之所以这么大,是因为这个安装包里面就已经给大家部署好了非常多的文件,节省了大家前期花费大量时间去安装插件节点之类的。点击进来 进入这个模型文件夹,进入这个 checkpoint 的 文件夹,我们平常所使用的大模型都是安装在这个文件夹,我们需要用到的 controlnet 模型就安装在这个 controlnet 文件夹, 通常我们需要用到的一些外置节点就放在这个 custom nodes 文件夹,大家现在所看到的这些文件都是需要我们人为加进去的,在这里呢我都已经给大家部署好了,大家拿到我给大家提供的这个文件夹之后呢,就可以直接使用。 接下来我们就来启动旷辅 ui, 双击这个图标,我们需要耐心等待运行一会,初次启动的时候呢,需要等待几分钟时间,此时他就跳出了一个运行界面,我们点击这个版本管理,这里我们就能够看到旷辅 ui 版本的更新时间, 点击切换功能就能够更新到你想要用的版本,切记千万不要使用开发版,点击灯泡就可以切换界面的颜色,其他的呢暂时不用管。 接下来呢我们就来启动这个匡辅 u i, 点击这里的一键启动,启动匡辅 u i, 我 们需要花点时间,我们只需要安静的等待它运行即可。 好了,经过三分钟的运行,现在我们就进入匡辅 u i 了,进来之后呢,我们能够看到匡辅 u i 的 一个默认工作流,我们只需要在加载器里选择一个大模型,官方给到的提示词呢是英文提示词,写的是美丽的自然风景,玻璃瓶景观, 紫色星系屏,我们再点击这里的运行,耐心的等待一会,此时一张有关瓶子的图就生成好了,我们也可以写入自己的提示词,比如 a boy, 点击运行, 一个男孩的图像就生成了,是不是很神奇。那么从下节课呢,我们就正式来了解匡府 u i 的 运行原理以及匡府 u i 界面的这些功能。好了,咱们下节课再见,拜拜。 哈喽,大家好,本节课我们来讲空腹 ui 界面布局的深度认识与功能解析。我们打开空腹 ui 界面之后呢,你会发现界面非常的干净,什么都没有,如果我们需要在空腹 ui 里面进行创作,那么我们就需要在空白处进行添砖加瓦, 这一大片的空白处你可以把它理解成它就是我们的创作区,接下来我们就在创作区进行简单的创作, 大家现在所看到的这个画面就是官方的纹身图。工作流,我相信很多小伙伴呢都听过,如果是要把空辅 y 学好,就一定要把节点的功能,节点的各个连接的原理把它搞明白。那么什么是节点呢?我们现在所看到的这些小方块, 这些这个,这个,这些全部都是节点,各个节点串联组合起来就能形成一个完整的工作流,我们只需要在这个文本编码里面输入一段提示词, 选择一个大模型,注意了,这个提示词一定要是英文,那么这个提示词写的是一位年轻女性双手捧着一束鲜花, 点击运行,通过这些串联起来的节点运行之后,一张一位年轻女孩捧着一束鲜花的照片就生成了,是不是很神奇?中间的创作区我们了解之后,接下来我们来看左边的布局。首先来看一下对列, 我们点击队列,这个队列指的是什么呢?很好理解,这队列里的内容就是你渲染输出的图像,这个绿色代表的就是你渲染输出的时长, 我渲染第一张照片的时候花的时间是一百零六秒,第二张图片画的是六秒,这张图片画的是十秒,选中这张照片,点击一下,我们就能够看到这个照片的全貌, 当然你也可以对这些图像进行删除,点击删除功能,那么所有的照片就全部删掉了, 这个就是队列的功能。接着我们来看这个节点库,点击一下,这个节点库顾名思义就是节点的仓库,这里面全是节点,你想要用哪一个节点,那么你就直接在这里面进行搜索即可, 比如说我现在要用 v e 解码器,那我就直接在这里进行搜索 v e 解码器,那么这时候呢,我们就可以选择这个 v e 解码,点击一下这个解码就进来了。除了这种添加节点方式之外,我们还有其他的添加节点方式,我们可以在空白处进行单机右键 来到添加节点,节点库里面的这些节点对应的就是这些节点,我们看一下这个 serp 高清放大,里面有十个文件,我们再来到这个 serp 高清放大,这里的节点对应的就是这里面的这些节点, 你想要哪一个节点,那么你就选择哪个节点即可。那么除了这种方式之外呢,还有一种非常便捷的方式,除了以上两种方式添加节点之外,还有另外一种最方便的添加节点方式,直接在空白处进行双击, 你想要哪个节点,直接搜索哪一个节点,比如说我现在要添加 k 采暖器,那我就直接搜索 k 采暖器,点击添加 k 采暖器即可。 再看一下这个模型库,每一个文件夹代表一种模型类型,这里有几十个文件夹,代表空腹 u i 的 模型有几十种类型, 可以看到有些文件夹它是带有数字的,数字代表的就是你自己本身安装了多少个模型。比如 checkpoint 文件夹里有四十个模型,那么它对应的就是我本地部署当中的 checkpoint 文件夹里的这四十个大模型。 lala 文件夹里有六十五个模型,对应的就是我本地部署当中的 lala 文件夹里的这六十五个大模型。其他的文件夹同理。 再来看一下这里的工作流,点击一下这里的工作流对应的就是这里的工作流,只要你保存了它就能够在这里进行显示,比如说这个工作流, ctrl 加 s 保存一下 这个工作流,保存之后他就进来了。再来看一下这里的节点语组,这里的节点对应的就是我们工作流里面所设计的节点。十七 k 采暖器对应的就是这个十七 k 采暖器,三十 k 采暖器对应的就是这个三十 k 采暖器, 那么还有一个节点组,没有组怎么办?我们可以自行创建节点组,按住鼠标的滚轮键,我们可以随意挪动整体的工作流。怎么进行创建节点组呢?按住键盘上的 ctrl 键 框选一下,然后 ctrl 加 g 打个组,给他命个名,图像输出,那么在这个图像与组里面,我们就能够看到这个图像输出组了,点击展开,我们就能够看到这个图像输出组里面有两个节点, 微解码、预览图像对应的就是这两个节点。我们再来到模板界面,点击进去,这里的模板其实就是官方已经做好的工作流, 有图像生成、视频生成、音频生成等众多工作流,你想用哪个工作流,那我们就点击哪一个, 这时候呢,他提醒你缺少模型,此时你需要下载安装模型,你可以直接点击下载,也可以复制链接到浏览器进行下载, 然后把模型安装在本地,部署对应的模型文件夹,接着重启空投 y 就 能够使用了,涉及到当下最新的一些工作流,有时候呢你需要花点米才能使用,以这个视频模板为例,这里显示我们生成一次视频是零点四九美元,折人民币是三点五块钱, 大家可以根据自己的需求去选择使用。接着我们来到帮助中心,这个就是匡府 ui 的 更新版本, 有些插件或者节点需要匹配当下最新的版本才能使用,有必要的时候呢,我们就选择更新。再看这个 get up, 点击进去,这个就是匡府 ui 的 官方节点插件库,我们所使用的外置节点插件都是源自这个网站,具体怎么使用我们待会会讲到。 接下来我们来到键盘快捷键,这里对应的就是我们在操作空浮页的时候对应的快捷键,如果你对官方设置的快捷键不满意,你可以自己在这里面进行设置。 左边的界面布局大家都已经了解了,接下来我们来了解下面的界面布局,我们选择这个工作流,这里的复制标签指的是复制这个工作流,这里的关闭标签指的是关闭工作流, 现在我们就把这个工作流关掉了,关闭右侧标签,关闭其他标签就非常好理解了,在这里我就不多讲了。接着来看这个图标,登记一下,这个新建指的是创建一个新的工作流,接着我们来到文件选择打开, 打开指的是我们可以通过这种方式可以打开我们的工作流,除了这种方式可以打开我们的工作流之外,我们可以直接把我们的工作流直接拖拽进来也是可以的。 关于这个保存呢就很好理解,大家养成一个习惯,隔几分钟保存,如果我们的电脑突然崩溃了,那么很可能我们花了几小时做的东西全部复制动流。再来看这里的导出,导出指的是导出我们的工作流,给他念个名,界面布局讲解二, 这时候呢会跳出一个保存的路径,我们点击保存即可。再来看这里的编辑,这里的撤销指的是返回上一步, 这个是清除工作流,说白了就是删除工作流,这个呢就是刷新节点,有时候我们卸载一些节点之后, 或者是修复一些报错问题之后,我们需要重新刷新一下,才能让旷辅员正常运作,这时候呢就用到这个功能,接着来看这里的释放模型,释放模型和节点缓存, 手机用久了之后呢,会产生很多垃圾,导致手机卡顿,这时候呢我们就得时不时的清理我们手机缓存。 那么空腹源也是一个逻辑,你的节点多了,或者是你用久了,他也会产生很多垃圾,导致我们在运行的时候呢会出现卡顿的一些情况或者不顺畅,那么这时候呢我们就可以使用这两个功能来释放这些垃圾,这两个功能对应的就是这下面的两个功能。 清理垃圾缓存的时候呢,我们也可以点击这两个功能。再看这里的主题,现在是深色,点击一下他就变成了浅色, 这个浏览模板对应的就是我们刚刚所使用的工作流。我们再来看一下这里的设置,这里的设置呢就是一些界面的设置,基本上呢你可以不用动它, 比如说像这个新菜单,现在是在底部,我们点击一下,那么他就到了顶部,我们现在呢把它切换回来。这里的设置主要就是去调节这个框辅 u i 界面的一些布局,感兴趣的小伙伴呢,大家可以去调节一下,我使用的都是默认的,再看下面的这些功能, 看一下这个拖拽,这个巴掌图标对应的就是我们鼠标的滚轮键,这个是自适应式图,点击一下 他就会回到一个自适应的视角,这个是缩放控制,就是去控制你这个画面的大小,我们可以通过鼠标的滚轮键去滚动来调节这个画面的大小,去看一下他的数字是在变的, 这个是专注模式,点击专注模式之后呢,整个界面他就只有我们的节点,其他界面全部消失了,点击回来,这个呢就是隐藏链接,也就是隐藏这些线条,一般情况下我们都不会用到。 接着我们来讲本节课的重点内容,学习空辅 u i 必备技能,如何安装节点,这时候呢我们就得用到这个管理器,我们需要安装插件节点,或者更新版本的时候通常会用到它。接下来来讲三种安装节点的方式。首先第一种方式, 我们通过这个节点管理器进行安装节点,我现在需要安装一个 bashnet 重绘节点,在框里输入 bashnet, 跳出 bashnet 节点之后我们就选择安装,因为我是已经安装过了,所以是这样的显示点击安装,等这个节点安装完之后,切记一定要重启光复 u i, 这样才能正常使用这个节点。接下来我们来讲第二种安装节点的方式, 我们通过酷狗 u i 来到 gitup 官网,在输入框里面输入我们要安装的节点 slashnet, 接着我们选择酷狗 u i slashnet 这个文件,我们来到 code 复制一下这个链接,接着再来到管理器,通过 gitr 进行安装, 输入我们刚刚复制的链接,点击确认也可以进行安装。如果这种方式我们还安装不上,那么我们就采用第三种方式,我们把这个节点下载到本地,下载好之后呢再把它进行解压,解压之后把这里的后缀名杠 m a i n 删掉。再拷贝这个节点, 我们来到窗辅 ui 本地部署,来到 custom node 这个文件夹,把我们刚刚拷贝的节点放到 custom node 这个文件夹,这个文件夹就是专门用来放置我们的节点,放置好之后重启窗辅 ui, 这时候我们就能够正常使用这个节点了。好了,以上就是本节课的内容讲解,咱们下节课再见,拜拜!本节课我们来讲学习空腹 u i 必须要收藏的网站以及优质的模型节点插件的下载及安装。首先我们来了解第一个网站利弊利弊。 ai 这个平台拥有庞大的模型库,包含了超十万个原创模型,覆盖了从摄影、写真、电商、平面设计、室内设计等众多领域的大模型。 用户可以根据自己的需求快速调用或组合不同的风格模型。我们还可以在这里查看当下最新最热的一些大模型。如果是本地部署的小伙伴,我们就必须要掌握一项必备技能,那就是安装大模型。 我们可以在这里进行筛选我们需要的大模型类型,比如我现在用到的是 trackpoint 大 模型,那就选择这个大模型类型。接着我们来到模型界面, 我现在我想用这个显示大模型,我们就点击进去,点击这里的下载即可。下载好的 trapcoin 的 大模型需要统一安装到以下这个路径, 那如果我需要安装的是 lowl 小 模型呢?那么我们一样进行筛选,选择我们需要的 lowl 模型, 一样点击下载。我们需要把 lala 模型安装在 lala 模型的文件夹模型安装技能,现在你就学会了。这个平台有一点做得很好的是,它集合了当下热门的一些大模型,比如可林、 海螺、 chat、 gdp、 video、 万象等热门大模型。在这个平台就可以轻松做到视频生成、图片生成、数字人等等。当然,你也可以使用它的 vb ui, 它也有这些功能。如果是希望快速上手,专注于创意和出图,而非技术细节,那么以上两种方式呢?是一个非常不错的选择。 但是如果你已经熟悉了 web ui, 并且遇到瓶颈,现在你想成为一个进阶用户,更加专业的 ai 创作者,想进行技术研究,那么 kufui 是 一个非常不错的选择。可以说, libui 这个平台真的很懂用户的需求。令人惊喜的是,这个平台已经切入了 kufui, 对于想学习酷否 ui, 但是自己的电脑配置不是很好的小伙伴来说,是一个非常大的福音,可以在线就能唱完使用酷否 ui。 除此之外,它还有大量当下热门商业常用的工作流,比如最近比较火的一键换装、 美女跳舞的动作迁移等工作流。如果我们也想实现类似的视频,我们可以点击进去,点击在空腹 u i 运行,现在我们就能够看到一条完整的工作流,我们只需要上传一段跳舞视频,一张参考图, 在熟练掌握空腹 u i 的 情况下,你也能实现这样的视频效果。作为一名更加专业的创作者,我们必须要掌握它的运行原理,了解每个节点的功能以及用法,这样才能有能力创作出更优质的内容。 接下来我们来了解第二个网站, swift ai, 这个平台类似于国内的 leb 里贝 ai, swift ai 的 优势主要源于其作为全球性社区的先发优势,它的资源数量与多样化可以说是与无伦比。模型总量巨大,更新速度极快, 平台曾有日均新增五百个模型以上的活跃期。几乎你能想到的任何的画风和主题,在这里你都能够找到对应的模型。国内找不到的模型你就到这里来。 接下来我们来讲第三个网站, gitup。 gitup 是 作为全球最大的代码托管平台,同时也是空浮 ui 的 官方仓库。 我们在使用空浮 ui 过程当中所设计的节点模型以及插件都是来自这里,包括空浮 ui 本地部署当中的节点管理器,里面所能够搜索到的节点都是来自这个平台的线路。接下来就来给大家演示一下 我现在需要安装学习匡辅 u i 必学的一个节点 ipodata, 接下来就来下载安装这个节点以及所设计的模型。我们在这里搜索 ipodata, 找到 ipodata 节点的路口,点击进入。为了方便大家理解,我把页面翻译成中文, 现在我们能够看到这个节点的相关资料。这个是 ipodata 节点文件,这个是官方提供的 ipodata 功能的工作流, 如果你不会使用或者想学习更多有关 ipad 节点的功能,官方还给到了相关的应用视频教程。 如果你担心不知道有关 ipad 的 模型怎么安装,那么这个顾虑可以说是完全多余的,因为官方还贴心的给我们准备好了详细的安装方式,甚至给我们备注好了每一个模型的特点,哪个模型对于哪个场景可以说是真正的做到了保姆式的教法。 不光官方贴心,我也贴心,接下来呢,给大家带来一个新手入门提高学习效率的一个强大插件, prometastone, 翻译成中文叫提示词小助手,它的功能非常的强大,你用了就知道了。我们在搜索框输入这个插件名字,点击进入,我们来看一下这个插件的功能,它能够把我们的提示词进行翻译,能够很好的做到中英互译, 能扩写提示词,也能做到提示词的反推。具体该怎么装,下面有相关的详细安装方式, 这节点对于大家的前期学习非常有帮助。好了,以上就是本期视频的内容,好了,以上就是本节课的内容,这三个网站一定要好好收藏,咱们下节课再见,拜拜!本节课我们来讲匡辅有为的工作原理, 如果我们真正要掌握 kufui 这个工具,让它变成我们的创作利器,我们必须要了解它的运行逻辑,只有真正掌握了运行逻辑,才能够大大的提升我们的生产和学习的效率,给我们带来更多的创作源泉。 大家现在所看到的工作流是 kufui 官方最基本的纹身图工作流,一个基本的纹身图工作流主要就是由以上七个节点组成,那么什么是节点呢? 我们现在能够拖动的这些方块,它就是节点框幅与外的运行逻辑,它是从左边进行计算,我们可以把这工作流分成三个板块,按住 ctrl 键拖拽鼠标就可以框选这些节点, ctrl 加 g 就 可以对这些节点进行打阻。 左边的板块是前期输入板块,中间的板块是核心生成板块,也就是浅空间像素,最右边则是后期输出板块,这样就构建了一个最基础的纹身图。工作流, 我们只需要在输入板块当中的 clip 文本编码当中输入一只小狗,点击运行,这样一只小狗图像就有了。接下来我们来逐步详细讲解每个节点的作用。 首先来看最左边的 checkpoint 加载器,我们能够看到加载器里有三个节点,分别是模型节点、 clip 节点、 va 一 节点。 这里的模型节点的作用就是用来加载我们的大模型,它的主要作用就是根据文本描述和随机噪声逐步生成图像的潜在表示。通俗一点,它的作用就是控制图像生成的风格。我们点击这里的模型选择框, 我们就能够看到这里有非常多的模型类型供我们选择。这里的模型选择对应的就是我们安装在 cf ui mod 这个 pos 文件夹里面的这些大模型。大模型的作用呢,就是用来控制图像生成的风格。 比如我现在选择一个真人写真类的大模型,因为它是一个菜鸟模型,我们就把分辨率改成一零二四乘以一零二四,点击运行, 这样一张真实写真类的小狗图像就有了。再来看这里的 clip 节点,它是 stable diffusion 模型的一个核心组成部分,由 checkpoint 节点加载出来的一个关键模块, 它的核心角色就是将用户输入的自然语言,也就是提示词翻译成 ai 图像生成模型能够理解的条件指令。 简单来说,他充当的就是一个翻译官的角色,让彩样器能够理解你你想要什么样的画面。这就是为什么我们刚刚在文本框里面输入一只小狗,他就能生成一张小狗图,而不是一只小猫图的原因。 接着再看下面的 ve, 它是一个负责将图像在像素空间和浅空间像素之间进行转换的核心部件,你可以把它理解成它就是整个 ai 绘画流程当中的翻译官和显隐器。常用的 ve 有 两个,一个叫 ve 编码, 它的作用就是将像素空间,也就是把图片转换成裁样器,能够读懂理解的浅空间像素。这个节点一般用于图声图,到后面讲图声图内容的时候会进行详细讲解。另一个就是 ve 解码, 也就是我们现在用到的这个 ve 解码,它的作用就是将浅空间像素转换成我们肉眼可见的像素。 我们了解完加载器模块之后,我们再来看这个 click 文本编码,一条完整的工作流,一般有两个文本编码,上面的文本编码我们一般用来写正面提示词,也就是我们想要什么样的画面。 下面的文本编码用来写负面提示词,也就是我们不想要什么样的画面。在正向提示词里输入一间教室, 点击运行,现在我们就得到了一张教室图,我们能够看到教室里面有黑板,桌椅、电灯、窗户。如果我不想让生成的图像有黑板,那我们就在负面提示词里加入黑板, 再次运行,这样再次生成的图像就没有了黑板,黑板变成了投影布。如果我不想让图像中出现窗户, 那么就在负面提示词里输入窗户,点击运行,再次生成的图像中就不会出现窗户,这就是可 leap 文本编码的作用。我们再来看这里的 comlaten 图像,它是一张在浅空间中由随机噪声构成的空白图像, 为 k 采集器提供初时的可逐步雕刻的造声数据。简单来说,你可以把它理解成它的作用就是决定生成图像的分辨率。这里的批量大小决定一次性能生成多少张图像。我们在正向提示词里输入一个男孩, 此时的宽高分别是五幺二、五幺二,那么生成的图像大小自然也是五幺二乘以五幺二。如果我们把画面的宽高设置成五幺二乘以七六八, 此时我们就得到了一张五幺二乘七六八的图像。我们把批量大小设置成四, 这样就能一次性得到四张五幺二乘七六八的图像。那么我们可不可以将宽高随意进行设置呢?比如宽高设置成两千乘两千,此时你会发现生成的图像根本没法看,与我们的提示词描述有天壤之别。 那么原因是什么呢?生成的图像画面是否合理,不光跟愣特大小有关,而且它还跟我们的大模型相关。如果我们选择的模型是 sd 一 点五的模型,那么分辨率就设置成五幺二乘五幺二。 因为 sd 一 点五的大模型在训练的时候用的就是五幺二乘五幺二的图像进行训练, 所以宽高设置成五幺二乘五幺二的分本率,这样生成的图像质量就正常。人家只有生成五幺二乘五幺二的能力,你却硬是让人家超常发挥,所以只能天马行空的进行会制生成的图像不尽人意。 如果我们的大模型是 sd 叉 l 模型,那么我们的分辨率呢,可以设置成一零二四乘一零二四,因为 sd 叉 l 模型是基于一零二四乘一零二四的图像进行训练的。 好了,以上呢就是空来的图像节点的用法。我们了解完输入板块的各项功能原理之后,接下来就是核心生成板块 k 采氧器。 k 采氧器的作用就是负责执行,他接到前面的指令,然后严格按照参数设定,一步步的执行去造, 将造声图塑造成符合指令的最终图像。简单来说, k 传感器就是负责动手把它画出来。我们在正向提示词里输入一个男孩正在踢足球,点击运行 一张男孩踢足球图像就有了。我们再来看这里的种子数,你可以把它理解成他就是我们的身份证编号,每一张图片都有属于自己的编号。再来到下面的生成控制后, 我们选择增加,那么种子数就增加一个单位,刚刚数值是四十二,现在的数值是四十三,如果是选择减少,那么数值将会降低一个单位,变回四十二。 如果选择随机,那么这个种子数将随机。如果我们选择生成后固定种子数,我们将这个种子数进行复制,再随机生成一张图, 接着再把种子数粘贴回来,我们又回到了刚刚那张照片,我们再来看一下这里的采样步数,它的作用就是控制去噪迭代的次数,为了方便大家看的更加直观,我选择一个 sd 叉 l 大 模型,分辨率设置成一零二四乘一零二四, 在其他参数不变的情况下,我们分别把步数值分别设置成五十、十五、二十二十五。 我们再一起来看一下这五张图整体的对比,仔细看你会发现,随着步数越多,整体的细节越来越精细, 当然运行的时长也更长,通常这个数值二十到三十步是质量与速度的平衡点,这就是采用步数。 我们再来看这个 c、 f、 g 值,它的作用就是用来控制关键词与生成画面的匹配程度。我们在提示词里输入一个女孩坐在草地上固定一下随机种子, cf 机址设置为一,采暖器设置为 mpp, 二 m 调度器设置为 kalas。 点击运行。我们能够看到,当 cf 机址为一的时候,这个画面很脏很乱,没有太多的细节,最基本的人物轮廓都看不清。 我们再把 shift 机址调整为五,点击运行。现在这个画面就清晰很多了,人物的体态样貌我们都可以看得见,但是颜色还并不是很丰富,女孩的手旁边有一个像包,但又不像包的东西,还是缺乏创作力。 我们再把这个参数设置为十二,我们能够发现整体的颜色又丰富了很多,生成的东西呢也更加符合逻辑。刚刚草地上的小花现在就有了更多的颜色,服装包包也有了更多的细节。我们再把 cf 机制调整为二十, 此时生成的图像质量就更高了,所以我们可以得出一个结论, shift 值数值越低,裁样器越不能理解你要什么生成的,质量越差。反之,参数值提高,生成的画面会更加符合提示词所想表达的内容。 shift 值一般控制在八到二十之间。再看下面的裁样器名称,裁样器和下面的调度器,它是结合使用 裁量算法和调度器的结合会直接影响结果的质量,生成的速度以及风格样式。通常情况下,裁量器我们就选择 dpmpp 二 m, 调度器选择 kalas, 这两个模块的结合对应的就是 webui 当中的 dpm 加加二 m, 只不过在空浮 ui 当中把它们独立出来了。 接着来看降噪功能,它的作用就是控制对初使噪声的去除程度。现在的数值是一,如果我们把数值调整为零点八,你会发现画面的人物形态、脸部的轮廓质量明显就降低了很多,色彩的饱和程度也降低了不少。 参数设置为零点五,画面的色彩还原程度接近复古色调,效果很差。 参数设置为零点二,可以看到基本上就没画面了。所以如果是纹身图,那么数值通常设置为一。如果是作为图生图,这个降噪功能的用法又稍微的有点不一样。到后面的图生图我们会讲到, 接下来我们来看这个 ve 解码,它的作用就是将 k 传感器处理的浅空间像素转换成我们肉眼可以看得见的像素。 预览图像节点的作用很好理解,它的功能就是显示画面,如果你想保存这张图像, 选择图片单右键点击这个保存图像即可,这个图像就保存下来了。各个板块的各项功能原理我们明白之后,接下来我们就一起来手动搭建一个完整的纹身图工作流, 在空白处我们进行双击,就会出现一个搜索栏,我们就可以在搜索栏里输入我们想要加入的节点。我们先加入一个彩样器,通过彩样器进行拓展,选择模型的小节点进行拓转,就会显示其他能够连接的节点。我们选择 trackpoint 加载器, 这样模型加载器就有了。再拖拽 clip 小 节点,我们就可以加入 clip 文本编码,选择 clip 文本编码,按住 alt 键,拖动一下 clip 文本就能够进行复制。 拖拽一下 link 图像,我们就能得到一个空 link。 拖拽一下 link, 我 们就可以在里面选择 v 一 解码,再通过 v 一 解码里面的图像,再拖拽一下,我们就可以创建预览图像, 这样我们就得到了一个基本的纹身图框架。接下来我们需要将它们连接起来,具体怎么连接呢?并不是盲目连接, 我们需要进行对应连接,这里的模型节点不能与 clip 文本节点连接,它只能与裁剪器当中的模型连接, clip 也只能连接 clip, v 只能连接 v 一。 正面提示词的条件连接正面条件,负面提示词的条件连接负面条件,这样一个基本的纹身图工作流就搭建好了。我们来运行一下这个工作流, 在正向提示词里输入一个美少女,再转换成英文,这个中英转换插件,在后面的课程内容当中,我会教给大家怎么安装,刚学习的小伙伴可以使用有道翻译进行翻译,把翻译好的提示词输入到正向提示词,再选择彩样器和调度器,点击运行 一个美少女就有了。最后我们再来理一理这个工作流的运行逻辑,通过加载器把大模型的信息给到 clip 文本编码,通过文本编码进行下达指令,把指令给到 k 采集器,告诉 k 采集器我具体需要什么。 k 彩样器接到指令之后呢,进行执行,进行作图,产生浅空间像素,也就是大家现在在彩样器这里能够看到的这个图像。 k 彩样器把生成的浅空间像素信息给到 ve 解码, 让 ve 解码对浅空间像素进行处理,处理成大家肉眼能够看到的图像。 ve 解码把转换好的图像信息给到预览图像进行展示出来。 好了,相信大家对匡府 ui 的 运行原理都已经掌握明白了,客户呢,自己去实践领悟,咱们下几个再见,拜拜!本节课我们来讲匡府 ui 的 图生图功能,图生图功能从字面上面就很好理解,我们需要一张参考图, 通过一张参考图结合匡府 ui 的 流程进行计算,生成我们想要的视觉效果图。在这里呢,我就已经准备好了一个基本的纹身图工作流, 那么在空白处呢,我们进行双击,我们在这里添加一个加载图像,加载图像的作用呢,就是用来上传我们的图片,把我们已经准备好的图片素材呢透露进去。 接下来我们要做的就是把图片信息给到采集器进行处理,生成我们想要的视觉效果,在这里我们能够看到 k 采集器里面呢,没有跟这个加载图像节点能够联系的节点, 这里没有图像,也没有遮罩。接下来我们需要通过一个节点把这个图片信息转换成 k 显像器,它能够理解能够读懂的数据,我们在空白处进行双击搜索, v a 编码加进来, 那么这个 v a 编码节点的作用是什么呢?用专业术语来讲,就是把我们肉眼可见的像素空间信息, 也就是这个图片信息转换成浅空间像素信息。用大白话来讲,就是把这个图片信息转换成就 k 采集器,它能够理解能够读懂的信息。我们直接把这个图像连接像素,这个 laten 连接 laten v 一, 连接 v 一, 那么基本的这个图生图工作流就已经完成了。那么这个大模型呢?我选择的是通用的 sd 叉 l 模型, 这时候我们只需要在这个文本框里面输入相关的提示词,它就能够生成相关的内容。比如我现在我需要把它转换成游戏动漫人物风格,那么我们就在这个提示词里面输入游戏动漫人物风格,再把这个中文呢进行转换成英文, 这个非常强大好用的中文翻译节点,后面呢我会教大家怎么去安装,怎么去使用,接下来把这个彩样器呢改成 p p r m 调度器呢改成 class。 我 们再来看一下效果, 这时候你会发现我们现在得到的图像跟原始参考图像可以说是差之千里,主要原因是什么呢?他有很多的因素,第一个因素就是他的一个降噪值,降噪值参数越大,那么生出来的效果呢?他越偏离主体,降噪值参数越大,那么生图出来的效果呢?他越偏离主体, 我们现在尝试把这个降噪值呢降低调,准备零点八,再来看一下整体的效果,这时候你会发现,最起码这个人物的头发变长了,人物的风格呢也开始接近了,再降低一下降噪值, 把这个降噪值呢调整为零点六五,再来看一下整体的效果,我们现在得到的这个画面,他有白头发,那么这个白头发他参考的就是这个白头发,那么这里的灯光他参考的就是这个月光,这块柱子的构图匹配的就是这根柱子的构图, 那么整体来说这些参数它是没有太大的问题的,但是呢,为什么生出来的效果还是这么的差呢? 有一点非常重要,大家注意看,我们所使用的大模型是 sd 叉 l 模型, sd 叉 l 模型它训练的是幺零二四乘以幺零二四的图片, 所以我们要想办法把这个图片素材呢变成幺零二四乘幺零二四,再导入到彩样器里面去进行计算。有两种方式,第一种方式就是常规的方式,直接输入一张幺零二四乘幺零二四的图像, 这方式在之前就讲过,接下来就教大家第二种方式,在这里呢给它加上一个图像缩放,我们就选择这个 r g 节点的图像缩放, 这个节点是一个外置的节点 r g three, 也就是说我们要去进行安装,这些节点到底是内置的还是外置,需要进行安装的,怎么去辨别呢?注意看一下这个节点,它的右上角上面写的是 r g three comfor, 再看一下这个加载图像右上角,它是小狐狸加载器,小狐狸文本编码也是小狐狸,也就是说,也就是说带了小狐狸这个标志,它就是代表内置节点, 没有小狐狸代表的是外置节点。那么这个 r g s 类怎么装呢?我们来到管理器里面, 点击这个管理器,我们只需要安装这个 r g 节点,安装好之后呢,我们就能够使用这个节点,因为我是已经安装过了,所以呢我在这里我就不重复安装了, 退出。刚刚教大家如何去安装这个节点,退出来之后呢,这个电脑就直接卡住了,我就重新启动了控制 u i, 所以 大家会发现这画面呢发生了改变,但是呢这里的各项参数我没有做任何的更改。接下来呢继续来讲解 这个图像缩放具体该怎么用,它的作用是什么?那么图像缩放节点呢,是需要把它放到加载图像的后面来的图像连接图像,这里图像连接 v a e 编码里的图像,我们可以把这个宽度呢调整到一零二四, 高度呢调整到一零二四,其他属性一概不变,我们可以通过图像缩放节点可以把加载图像里的。接下来我们来讲第一种放大方式, sd 放大,搜索 sd 放大节点,然后进行安装节点,因为我是已经安装过了,所以不需要再安装了,然后进行返回重启框复 u i 重启之后,我们来到旷辅 ui 安装好之后呢,我们就可以搜索出 sd 放大节点,我们需要选择第一个 sd 放大,大家看到这个 sd 放大节点之后呢,是不是感觉它特别像我们的采暖器?接下来我们再创建其他的节点,拉出图像节点,加载图像, 再把我们需要修复提高画质的素材放进来,再拖拽一个大模型,这个大模型呢,我们就选择 sd 叉 l 模型,再创建一个文本编码, 按住 alt 键拖拽这个节点,我们就可以复制一个节点负面提示词连接负面条件,这里的正向提示词呢,我们就写这个高质量,细节丰富。负面提示词呢,我们就写这个质量差,模糊杂乱。 v 一 连接 v 一, 再拖拽出放大模型, 添加一个加载大模型,这两个加载放大大模型我会提供给到大家,这个是两个模型放置的位置,然后再拖拽一个图像节点,添加预览图像,为了更加的直观,能够看清放大前跟放大后的对比,所以呢我们可以给他加上一个图相对比节点 放大,把分辨率为五三三乘八百的原始图像拖拽给图像 a, sd 放大的图像拖拽给图像 b。 接下来呢,我们去调整这里面的参数,放大系数其实很好理解,就是你要放大多少倍,我们就把它放到四倍, 那么随机种子呢,不用管它,这个采样器呢,我们就选择常规的采样器 m p b 二 m, 调度器呢,就选择卡拉斯这模式类型呢,不用管它。那么这个分块宽度指的是什么意思呢? sd 放大节点在对你这张图片进行处理的时候呢,他会把你的这张图片拆分成很多个模块来进行处理, 这个分块宽度的参数越小,那么也就代表着他要处理更多的快速,那么计算的时长呢也就更久。待会呢我们一起来看一下他是怎么处理的,下面的这个参数呢,也可以不用动,接下来呢我们就点击运行即可, 这时候它提醒我们忘记连接 clip, 关掉连接下 clip, 再点击运行。我们一起来看一下 sd 处理的细节。我们能够发现 sd 放大节点把这张图片拆分成了非常多个小模块进行处理处理,每个模块的大小对应的就是分块宽度的大小,处理的快越多代表时间越久, 当然效果更好。好了,我们现在所看到的这个图像就是经过 sd 放大节点提升画质后的图像。再来看一下图像对比节点,这是提升画质之前, 这是提升画质之后。从整体的角度来看的话,提升画质效果非常的明显。在提升画质之前,很多的元素都是模糊不清的, 尤其是头上的小花和人物的脸庞,他都没有较好的突出表现,但是在提升画质之后,我们能够看到小花人物的脸表现非常清晰,包括一些人物的细节, 像人物的手,衣服表现也是非常不错的,尤其是他的一个发丝处理的非常的好。当然经过 sd 放大节点处理之后呢,还有一些小瑕疵,比如说像人物的头发,注意看一下这个地方,他的 ai 感非常的严重, 这个地方处理的也不是很好,然后的肩上皮肤这块处理的也不是很好,但是从整体上来说,它的表现力还是非常不错的,这个就是 sd 放大的表现力,接下来我们来讲第二种方式, 接下来我们来讲第二种提升画质的方式, superior 节点放大。首先我们需要在节点管理器安装这个节点,因为我已经安装过了,所以我就直接退出, 接着在空白处进行双击,添加 supreme 放大节点,拖拽图像节点,引路加载图像节点。这时候呢,我们就可以把我们刚刚那张图片导入进来,拖拽图像节点,添加一个预览图像。为了方便观察放大前跟放大后的对比,我们需要添加一个图像对比节点, 原始图像连接图像 a 节点,经过 supreme 放大节点处理过的图像连接到图像 b。 接着我们需要选择 supreme 大 模型, 这里要注意的是 scaler 模型,我们就必须要对应 scaler 模型,我们就选择 scaler u f f p 十六精度的模型。 scaler 放大节点呢还有一个特点就是我们需要引入 sd xl 模型,这里呢我们就选择一个通用的菱形 sd xl 模型。接着继续调节下面的参数, 这个缩放系数呢,很好理解,就是你要放大多少倍,我的电脑呢是四零七零的显卡,十二 g 的 显存,我就把它放大三倍,放太大容易崩。正向提示词我们就写高品质、细节丰富。负面提示词呢,我们就写质量差,模糊杂乱。接着再看下面的功能, 仔细一看的话,你会发现它跟 s t 放大节点呢有一些共性,它都有分块尺寸,分块不长。 其实从这里就不难看出 spare 放大节点的特点呢,同样的它也是把我们的原始图像进行拆分成多个模块进行处理,然后把处理好的板块再拼接起来, 那么如果你的电脑配置在不够的情况下呢,你可以打开下面的两个功能,在你显存不够的情况下,它会调用你的运行内存, 那么这个彩样器呢,我们就选择默认的彩样器,接下来就点击运行等待结果好了,经过五分钟漫长的等待,这个图片呢就生产出来了,这个呢就是经过 supreme 放大后的图像,我们一起来看一下,整体来说效果还是可以的,我们再来看一下前后的对比,这是放大前, 这是放大后,这个小花他处理的还是非常到位的,现在呢我们能够非常清晰的看到这些花的细节, 还有就是它的一个头发丝,注意看它头发丝这个地方,这个地方它处理的非常的好,它不会像我们之前所使用的 sd 放大的这个效果一样,它有严重的 ai 感。 superior 放大节点还有一个啊, superior 放大节点还有个特点,让我比较满意的是它对衣服细节的处理,可以说处理的非常的到位,注意看一下现在的衣服是模糊不清的,你看不出什么纹理,再看一下经过处理后的纹理, 他非常的清晰,还有再看一下这个肩膀处,是不是也是处理的非常的好,再看一下这些发丝,也是处理的非常自然,非常的好, 这些发丝也是处理的非常的自然,非常的好。当然呢还有一些小不足就是对于这个脸部的一些细节的处理,当然我们可以尝试性的把这个分辨率再提升一个档次,把它放大的表现力是大于 sd 放大的表现力, 这个呢就是 sabre 的 强大之处。好了,接下来我们来讲第三种方式,接下来我们来讲第三种提升画质的方式,阿拉萨节点放大,这个节点是外置节点,需要进行安装。首先我们添加阿拉萨放大节点,拖拽图像节点,添加一个加载图像, 接着再导入人像图,添加预览图像,为了方便观察,老规矩,我们添加一个图像对比节点,放大图像,对比节点原始图像连接图像 a, 经过阿拉萨放大节点的处理,拖拽到图像 b, 接下来我们来了解里面的功能,阿拉萨模型呢,我们就选择第一个模型,这个模斗指的是你要放大多少倍,我们就选择放大四倍,选择第二个。 这个功能翻译成中文叫重新用透明度,你打开即可,下面这个翻译成中文叫快批量处理大小,这个指的是你要把张图片分成多少块进行处理,如果你想得到更高质量一点的画面,那么你就把这个参数呢调小一点,那么默认值呢是八, 或者是你也可以把它调成到十六,这个指的是你用什么渲染,那么你可以选择 cpu 渲染,你也可以选择 gpu 渲染。选择好之后呢,我们点击运行即可,经过一分钟的等待,这张图呢就处理好了,我们一起来看一下对比效果, 这是放大前,这是放大后,从整体来看,它还是有较强的 ai 感,在整体上呢,它加了一些绿化的效果, 尤其是我们需要看一下人体的皮肤,注意看,看起来呢,他有点像油画的感觉,而且人物脸型的质感可以说完全变了,那么哪些地方处理的还是比较好的呢?尤其是他对衣服细节的处理,质感处理的是比较到位的,当然对发丝的处理呢也还是可以的, 但是呢对于皮肤的处理还是不太友好,如果是需要对人物进行放大修复处理,我不建议使用这种方式。 接下来我们来讲第四种方式,也是我个人很喜欢的一种方式。第四种提升画质的方式呢是 c 的 vr 节点,它是一个外置节点,需要进行安装。接下来呢我们就添加 c 的 vr 视频放大节点,拖拽图像节点,添加一个加载图像,还是导入那张人像图,再给它添加一个加载文件, 那么这个参数呢,选择十六即可。这个功能翻译成中文叫做要交换的快速,说白了就是你要把张图片拆分成多少块进行处理,如果你想让画质高,那么你就把这个数值呢进行加大,你可以把它加到三十二, 我在这里呢就选择默认值。接着我们需要添加大模型,大模型的选择呢跟你输出来的质量有关系,大模型的精度越高,那么输出来的质量呢也越高,我们就选择这个大模型, 这个呢代表的就是它的一个分频率,这个呢就是分频率的输出,我们可以把分频率呢调整到二零四八。下面这个参数呢我们可以不用动。接下来呢我们添加一个预览图像节点,再添加一个图像对比节点, 原始图像连接图像 a, 处理过的图像连接图像 b, 点击运行看一下效果, 经过两分钟的等待,图像就已经生成好了,那么这个呢?是生成好的图像,二零四八乘以三零七零。我们来看一下放大前跟放大后的对比, 这是放大前,这是放大后,放大后的画质效果,你会发现无论是从发丝小花还是从皮肤的质感,尤其是你能从皮肤的质感看到它有一个质的飞跃, 可以说 c 的 vr 从皮肤质感的处理,放大细节来看,他可以吊打前面三种方式,你能够发现他的嘴唇,他非常的细腻,他有了非常多的一些纹理的细节,包括他皮肤纹理光泽硬的一些细节都非常的到位, 还有他的衣服的质感也是处理的非常的清晰,非常的好,像这个肩膀处也是处理的非常的好。好了,以上就是四种高清修复放大方式,喜欢的小伙伴记得点个赞哦!

哈喽,大家好,本期视频给大家讲一下五个 nt 卡片登录不进去的问题。登录不进去基本上有以下两个问题, 第一就是你的魔法工具没有打开 time 模式,也就是虚拟网卡模式, 那像我们第一次下载好软件,然后打开一步一步往下点,点到最后需要我们登录,这个时候呢,即使我们登录成功,你会发现你的软件也是卡住的,那么这个时候呢,我们只需要打开这个 time 模式就可以解决 第二个问题,我们打开了 time 模式,然后也重新登录了,这个时候你会发现你还是登录不进去,他的页面就是一个啊,大概是一个这样的提示,就是提示你的谷歌账号不在软件的支持范围之内,然后需要你用一个新的账号去登录。 那解决这个问题其实也很简单,我们第一个是要找到他这个软件支持哪些地区,我们可以通过这个网址查看一下,可以看到他基本上啊百分之七八十的国家都支持,就是没有通过。然后第二步呢,我们回到这个, 我们回到这个网址去查看一下你当前的账号所关联的地区是哪里,那如果这个时候你登录不进去,你的账号基本上就是不在那个支持范围之内,那么这个时候呢, 也很简单,我们只需要去修改这个关联地区即可,那这里填地区的话,就是填刚刚这里面的另一个地区就可以。填好之后,然后第二步我们要选这个其他原因, 然后原因说明,可以说一下你的啊新的地区你要经常去出差或者是旅游,然后点击提交,大概半个小时之后你会收到一封这样的饮料,那大概的意思就是说,哎,你这个 谷歌的关联机器已经切换过来了,那么这个时候呢,我们就可以开始使用我们的 ide 工具,那么这款 ide 工具非常强大,它内置了三 pro 和 pro 的 四点五大模型, 而且它还是免费。那本期视频就先到这里,如果本视频对你有帮助,请记得一键三连。

二月十五日 com ui 新版整合包重磅更新,妥妥的新手小白福音,全全中文界面,完全不需要懂英文。更惊喜的是,这次整合包直接内置了两百三十个 ai 模板,全是大佬们都认可的实用功能,还全都帮你整理成现成的 工作流了。安装也还是超简单的,三步就能搞定,一下载二解压三双击打开,一键升图,一键升视频,一键做音乐,一键建模,所有操作都是点一下就能实现,特别省心。模板数量太多,我就不挨个介绍,想要的小伙伴七七八直接带走去玩。接下来开始软件教学。 hello 各位小伙伴大家好,欢迎来到 kufui 系列教程的第二节课,那么在本节课中,我们将介绍 kufui 的 配置要求以及安装与部署的过程。那么首先是电脑配置以及系统环境的介绍,首先是显卡方面, 最低要求是拥有四 g 级以上显存的英伟达显卡,如果显存不足,可能会影响到绘图过程的流畅度。接下来是 cpu, 关于 cpu 要求不高,英特尔十代 i 三以上就可以使用,但推荐使用性能更强的,如英特尔十三代 i 五幺三六零零 kf, 以获得更好的性能。 接下来是内存,内存至少需要十六 gb, 推荐三十二 gb 以上,以确保可以加载和运行较大的模型。 最后是硬盘,关于硬盘呢,至少需要两百 g 的 空余空间,推荐使用大容量的固态硬盘,因为 ai 绘图过程中会下载和生成大量的模型以及图像数据。那么接下来我们详细介绍一下 cf u i 的 下载以及部署方式。我们先安装资源包里面附带的启动器运行依赖, 接着打开解压之后的 cf ui 文件夹,在文件夹内找到 a 会式启动器,随后点击一键启动即可。首次启动时可能会安装一些必要的环境依赖。 稍等片刻后,我们便来到了 cf ui 的 主界面,接下来介绍第二种安装方法,官网资源包的安装,当然关于官网的资源包我们也可以在评论区内获取。我们解压完资源包后,在文件夹内找到这个项目, 双击运行,等待片刻后,我们便可以来到最原汁原味的 comfui 界面了。这个版本的 comfui 是 没有装任何非官网的插件的。 此外, comfui 完全离线工作,对 gpu 的 要求相对较低,但是也有 cpu 模式,不过在 cpu 模式下绘图速度较为缓慢。如果小伙伴们之前有使用过 webui 或其他类型的 stefusion ai 绘图应用,那 我们可以通过修改 comui 的 配置文件来实现在不同的 ai 绘图应用间共享大模型以及 loa 等等,以此减少对硬盘内存的占用。那么接下来我将向大家演示一下 如何将我们的 comui 大 模型以及 loa 的 加载路径修改成 web ui 的。 如果小伙伴们没有玩过 web ui, 那 么这一段可以直接跳过。好的,那么我们打开 comui, 接着我们找到这个文件 extra model path y a m l 点 example, 接着我们用记事本打开。好的,那么打开之后我们找到这一项 base path, 我 们要做的是把 base path 后面的这一串改成我们 web ui 文件夹的路径。比方说我们打开了 web ui 的 文件夹后,我们可以单机上面的这个栏目, 随后 ctrl c 复制。接着我们回到刚才的记事本内,将我们刚刚复制的路径粘贴到此处,随后我们保存并关闭记事本。接下来的一步很重要,我们需要将 example 以及这个点给删除,也就是将我们的文件名后缀改成点 y a m l, 随后点击确定即可。那么接下来我们打开 ctrl u r 来确认一下。 好的,我们这边看一下区块朋友加载器里面的大模型,点开后我们可以看到多了,非常多啊,那么这就证明我们成功把模型路径合并到了 vip ui 内。好的,那么以上就是关于本期的全部内容了,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! 欢迎来到 kufu y 系列教程的第三节,那么在本节课中,我们将一起了解 kufu y 的 主界面以及各种参数到底代表了什么。最后我们将学习 stability fusion 生成图片的根本原理。好的,我们打开了秋月大佬的会式启动器后,点击一键启动。 经过一段时间的等待后,我们便来到了 comfyui 的 主界面。那么我们在面对 comfyui 这个完全陌生的软件时,我们要做的就是初步了解每一个模块的大体含义,那么接下来我带着大家过一遍。首先是操作方式,我们可以通过鼠标的滚轮来控制画面的缩放, 按住鼠标左键,我们可以拖动我们的仕途。点击鼠标右键,我们可以看到有非常多的栏目,这边我们可以试着点击新建节点,随后我们可以看到有非常多的节点可以供我们选择。好的,那么之后我们再来说一下快捷键,生成图片的快捷键是 ctrl 加 enter 框选节点的快捷键是按住 ctrl 加鼠标的左键。移动框选目标的快捷键是按住 shift 加鼠标的左键。 这边我们在框选完后,如果不按住 shift 直接进行拖动的话,我们可以看到此时只有单一节点进行了移动,剩下的快捷键我都放在这了,小伙伴们可以暂停观看。 好的,那么接下来我带着大家一起来解读一下这个默认工作流。首先在这边我们可以看到有个叫 checkpoint 加载器的东西,这个节点的主要作用是加载扩散模型,也就是我们常说的大模型。 此外该节点还提供适当的 ve 以及 clip 模型,具体它们是什么我们带回讲。我们顺着 checkpoint 加载器的节点连线,可以看到这里有两个 clip 文本编码器,在这里我们可以看到它们的输入都是 clip, 而他们的输出都是条件。那么究竟什么是 clip 模型呢? clip 全称为 contrasted language image pre training, 是 由 open ai 公司在二零二一年发布的一款多模态与训练神经网络模型。 clip 模型的作用是理解我们输入文字的意思,比如我们输入 one go 生成的是一个女孩,而不是太阳, 这就是 clip 的 作用。接着我们顺着 clip 文本编码器的条件输出看过来,连接到了 k 采阳器上,这边我们可以看到 k 采阳器一共有两个关于条件的输入,一个是正面条件,另一个是负面条件,那么这代表着连接着正面条件的文本编码器内的提示词为正面条件提示词, 也就是我们常说的负面提示词。好的,我们把目光重新回到 k 采阳器内, 我们可以看到除了正面条件以及负面条件外,还有两个输入,分别是模型以及 latent, 那 么模型则是连接着刚才的 checkpoint 加载器,也就是我们的大模型。那么这个 latent 究竟是什么意思呢? latent 通常是指前空间,可以理解为 static fusion 内部流程中的图像格式。如果将图像作为输入,则需要通过 v i e 编码将其转化为 latent 数据 在最后输出时也需要通过 ve 解码将其转化为像素空间,也就是我们最终看到的图像。这边我们可以看到 k 太阳器的 laten 连接着一个叫做空 laten 的 节点,这个节点内共有三个参数, 分别是宽度、高度以及 p 四大小。宽度和高度决定了我们最终生成图像的尺寸,而 p 四大小则代表着每生成一次将出多少张图。比如说我们将 p 四大小改为三,高度改成七百六十八, 最后我们按 ctrl 加 enter 进行生成。好的,这边我们可以看到一次性生成了三张图像,也就是我们 p 四数目的图像。接下来我们继续看 k 太阳器的其他参数。 首先是随机种,随机种的值我们一般称为种子值,每张图都有专属于他的种子值,我们也可以理解为种子值,就是图片的 id 号码。接下来是运行后操作,点开后我们可以看到一共有四个选项,分别是固定、增加、减少、 随机。如果选择固定,则在你生成完后,种子值会保持不变,方便你进行其他的调整与操作。那么接下来就是采样步数,采样步数越多,计算机的运算时间越长,在大多数的情况下,我们的采样步数保持二十到三十步即可。接下来是 c f 居值,该值的意思是提示词引导系数, cf 居值越高,则代表着生成图像与提示词之间的联系越紧密。 cf 居值越低,则代表着提示词对生成结果的影响越小。不过过高或过低的 cf 居值都会给图片带来不好的影响, 所以我们一般保持适中的 cf 居值即可。接下来是采暖器和调度器,我们可以理解它们为图像的生成方式,如果我们将其他参数比作是食材, 那么它们则是烹饪方式,不同的烹饪方法当然会带来不一样的结果。比如我们点开采暖器后,可以看到有非常多的选项,这里我们目前最好的一般是选择这个 d p n 加加二 a m 或者 d p n 加加二 a m s d e, 这两个都是挺不错的。接下来点开调度器,我们也是可以看到有非常多的选项,这里我们一般选择的是 carrots。 最后我们可以看到还有个降噪参数,由于该参数是跟图生图有关的,我们以后再说。 接下来我们看一下右边有个叫做 v i e 解码的东西,那么我们可以看到这边有两个输入,分别是 laten 以及 v i e。 至于 laten 刚才我们已经解释过了,也就是前空间图像,那么 v i e 究竟是什么呢? v i e 全称变分字编码器 variation auto encode 的 缩写,它是一种深度学习模型,主要用于无监督学习任务,特别是在生成模型领域。 ve 结合了神经网络和概率图模型的特点,而他在康复以外的作用是将我们的前空间图像编码成像素空间图像,或是将像素空间图像编码成前空间图像。除此之外,我们还可以双击屏幕上的空白处,最后就可以搜索节点,比如说搜索加载图像, 或者我们也可以双击搜索预览图像。这边再多说一嘴, v e 解码之后的图像节点,我们也可以直接连接到预览图像上, 比如说我们现在把这个保存图像节点给删去,如果这么操作的话,那么我们生成的图像不会被保存,接着我们再生成一次。 这边还要注意的一点是,在我们搜索节点的时候,我们也可以输入英文,比如说加载图像的话,那么就是 load image, 那 么我们可以看到这两个节点是完全相同的。接着我们再来说一下,比如说当我们输入英文的时候, 同样的也是 load image, 但是这个时候我们加了一个空格,好,我们可以看到这里面并没有出现加载图像的节点,那么这也意味着在我们搜索节点的时候,我们要注意区分节点的名称是否有空格。好,比如说我们需要搜索加载图像节点, 那么我们删去 load image 之间的空格之后,我们可以看到,哎,是不是加载图像节点就出现了? 好的,那么以上就是关于默认工作流的全部解释,接下来我们来看下界面还有其他哪些模块。首先我们点击左上角,这里有个文件夹, 点开后我们可以看到我们的工作流都保存在这,这边可以点击新建,那么我们就新建了一个新的工作流,当然我们也可以点击这个 import, 也就是输入我们的工作流,或者说是输入我们的文件夹。 最后我们点击 models, 我 们可以在这里找到并且下载相关的模型。接着我们来看一下右边的栏目,首先是该栏目的左上角,我们按住后可以进行拖动, 然后是这个齿轮标志,点开后我们便来到了康复以外的设置界面,在这里我们可以设置语言,点开后我们可以看到有中文,繁体中文,英语以及日语韩语等等,我们往上翻可以看到有其他的功能,比如图像面板顺序,图像面板的位置等等等等。 我们往下看,这有个文本补全,这个 enable 我 们一定要勾选上,这代表着它的起用。文本补全的意思就是在我们输入提示词的时候,会有这些英文短语的提示, 我们往下看有个添加提数字队列,这个是生成的意思。接下来我们可以看到有个保存的选项,点击该按钮我们便可以保存当前的工作流以及加载,那么就是加载工作流,同样的意思。 接着是重刷新,比如说我们下载一个新的大模型之后,那么我们点击重刷新便可使用。接下来还有个重点就是管理器,这个是 com 浏览器里面最重要的节点,点开后我们可以看到有非常多的功能, 比如说这边有数据库以及频道方式,预览方法,表情等等等等。这边预览方法我们一般选择的是这个 later to rgb, 然后表情这一栏我们一般选择的是名称, 也就是标签名称。选择了之后,我们可以看到节点的右上方一般会出现一个小狐狸按钮,而小狐狸按钮则代表的是它是官方节点。比如说我们加载一个新节点, 那么我们可以看到该节点是属于 animate develop 节点组的。接着我们回到管理器这六个 custom node manager, 点开后我们可以看到有非常多的节点,在这里我们可以查找以及安装我们想要的任意一个节点。在今后的学习过程中,我们会频繁使用到这一个模块。 接着我们看到 model manager, 在 这里我们可以安装我们想要的任意一个模型,注意模型不是节点,他们是分开来的,至于该模块我们今后也会频繁的用到。好的,在介绍完 comf 以外的主界面以及各种参数后,我们来了解一下 stepifuion 的 内在运行原理, 就可以方便我们理解并掌握进一步的学习内容。在我们输入完体式词之后,文本编码器的 click 模型会将体式词转化为特征向量, 然后再由 ve 编码器将这些特征向量传输到前空间内,这些特征向量在前空间内不断的降噪,最后再由 ve 解码器将这些经过降噪之后的特征向量解码成由一个个像素所组成的图片。好的,那么以上就是本期的全部内容了, 如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! 哈喽,大家好,欢迎来到康复 u i 系列教程的第四节课,那么本节课我们将一起学习纹身图的相关知识 以及提示词的语法。在第三节课的结尾,我们一起学习了 step diffusion 康复 u i 的 基础工作原理,那么现在我将结合默认的纹身图工作流来讲解其中的工作流程。 首先第一步,在我们输入完正负相的提示词后,文本编码器内的 clip 模型会将我们的提示词转化为特征向量输送到 k 彩样器内。那么这边有个疑问,就是文本编码器的 clip 模型从哪来呢?我们顺着这个节点往下看,可以看到它来自于 jpeg 加载器, 而这个加载器主要是加载各种各样的大模型,也就是说文本编码器内的克利普模型是属于各个大模型的内置克利普模型,而不同的大模型之间克利普模型也可能会有所差异。那么接着我们可以看到这个朋友加载器的输出有个 v a e, 那么也就是说他提供了 ve 模型,我们看看连到哪哦,连到了 ve 解码这里,而 ve 解码的作用就是将 k 传感器内经过了降噪之后的前空间图像解码成像素空间的图像,也就是我们肉眼可以看到的图像。这边我们可以做个实验,先将种子值固定,最后断开 ve 的 连接, 然后我们生成,我们可以看到这边是直接报错了,而这个报错的意思是缺少了 ve 的 输入,那么接下来我们重新将 ve 模型给连上,随后开始生成。这边再提一嘴,生成的快捷键是 ctrl 加 enter。 非常的实用,请牢记。 如果说你想调节生成图片的尺寸,那么我们可以在空内存这里,比如说我们将高度调成七百六十八,注意这个数值一定是八的倍数,宽度也一样。 至于 p 次的话,则是控制单次生成的图片数量,比如说我们设置成二。好的,我们摁 ctrl 加 enter 开始生成。 图片生成后,我们是不是可以看到它的比例已经成功变成了竖屏的比例,并且它一次生成了两张图像?好,接下来我们一起学习题序词的相关语法。首先我们来聊聊书写规范, 不论是正向提示词或者是副向提示词,我们在书写的时候一定是英文以及英文的标点符号,不然系统可能会识别错误。比如我们输入 one girl garden, 还有 yellow dress 黄色的裙子。这边再提一嘴,生成的快捷键是 ctrl 加 enter。 好 的,我们得到了一个穿着黄色裙子在花园中漫步女孩的图片。那如果说我们用中文来输入,结果会是什么样呢?一个女孩花园以及黄色的裙子, 我们这边可以看到,不能说是毫无关联吧啊,他们至少图片中都有女孩,但是黄色的裙子以及花园很明显没有在图片中出现。接下来我们来讲一讲题序词的权重。 在这之前,首先我们要理解什么是权重。对于权重概念模糊的小伙伴,我们可以理解权重就是比重 分量,那么一个提示词的权重越高,它的分量就越高,它的比重就越高,它在整体中的地位就越高。比如现在一个提示词的权重是一点二,而另一个提示词的权重是零点九,那么当然是一点二的提示词会占更大的比重。那么接下来我们做个演示, 比方说我们输入 one girl garden, one girl 的 权重是一点二,而 garden 的 权重是零点八,那么画面会更侧重于 one girl 的 展现。那如果说我们 one girl 的 比重是零点八,而 garden 的 比重是一点二,那么画面会更注重于描述花园是怎么怎么样的。 好的,接下来我们来讲一讲我们该怎么去控制提数字的权重。首先是中括号,中括号代表着零点九倍的权重,也就是说给提示词加上中括号后,提示词的比重会变小,会降低它的重要性。 那接下来是小括号,小括号代表着一点一倍的权重,比如我们给一个提示词加上小括号后,那么该提示词在画面中的比重 就会增高。最后是大括号,大括号代表着一点零五倍的权重,算是一种微调。当我们给某个提示词添加两个中括号时,那么就相当于为这个提示词加上了零点九乘以零点九倍的权重。零点九乘以零点九是零点八一, 那么就相当于给这个体式词加上了零点八一倍的权重。那么同样的,当我们给一个体式词加上两个小括号时,那么就等于一点一乘以一点一倍的权重,那也就是一点二一,相当于我们给这个体式词加上了一点二一倍的权重,大括号也同理。 那么有的同学可能会问,关于这个权重的变化有没有什么快捷键呢?哎,这个还真有。比如我们将光标移动到某一题是此上时,打个比方说 garden 摁住 ctrl 加上键,那么就是给他加权重,我们可以看到他的权重在不断的增加, 那么 ctrl 加下键,那么就是减少他的权重,是不是很方便呢?不过我们要补充的一点是,关于权重我们要多低都行,但是不是减少他的权重是不是很方便呢?不过我们要补充的一点是,关于权重我们要多低都行,但是减少他的权重是不是很方便呢?不过我们要补充的一点是,关于权重的话,图片就会过你和, 换句话说,图片就会变形,会失真。接下来我们来讲短句和长句。我相信不少小伙伴对我这么一个疑问, 为什么我写提示词的时候,一定是一个一个词这样去拼写,而不是用一句话去描述我们想要生成的内容呢?那么这边我可以很明确的回答你,其实两种都行,但是就目前而言, 用一个一个的词组去生成,效果会更加的准确,更能表达出我们提示词包含的意思。另外一点,使用一个一个的词的时候,也方便我们进行权重的调整。比如刚才我们有提到,将光标放在某一体字词上, 然后按住 ctrl 加上或下就可以调整该体字词的权重。那么如果说是一句话的话,你想调整某一体字词,那么可能就得手动去输括号,进行相关的权重调整。当然现在全世界的 a、 i、 g、 c 从业者也在不断的去 研究该怎么样让自然语言,也就是我们的长句能达到媲美短句的效果。 接下来我们来讲一讲提示词的整体长度,这边要注意,比如我们在输入正向提示词的时候,并不是说越多就越好多可能会让你的表现更加糟糕,那么我们最好把提示词控制在什么数量之内会效果最佳呢?经过众多 a i g c 玩家的经验以及研究表明, 提示词控制在七十五个之内是效果最精准的,超过了七十五个提示词的话,可能会对提示词的识别不精准,整体的表现会降低。正向提示词如此反向提示词也是一样的,记住最好不要超过七十五个。 接下来我们来讲一讲骑手势,那么什么是骑手势呢?在 stability fusion 各个大模型训练的过程中,会加入许多的 如四 k, 八 k 或者 masterpiece 各种各样高质量的图形去训练,那么当我们在输入提示词的时候,比方说输入四 k masterpiece, 那 么就可以使我们生成的图像更加的精美。反向提示词的话,那么就相反,比如我们输入模糊, 是文不想要模糊嘛,那么相当于也是会让图片变得更加的清晰,或者说我们在反向提示词内输入文字 text, 那 么在画面中就会减少文字的出现。这边我们可以来看一下这几组的对比,差异还是很明显的, 接下来我们来讲讲提述词的顺序。或许有小伙伴会有疑问,一个提示词在整体的前部或者是在整体的后部会有什么影响吗?答案是会有影响。在一组提示词中,越靠前的提示词权重会有所增加。那么在我们书写提示词的时候,我们尽量按如下格式进行书写。 首先是书写那些可以提升画质的,或者说可以改变画风的一些词汇,比如 masterpiece, high quality, high detail, 类似这些词汇。第二步是描述我们画面的主体,比如我们可以说 one girl, blue dress, 一个女孩,蓝色的裙子。 那么第三步就是描写环境,场景,灯光或者构图。比如我们可以说啊 garden 背景嘛, garden 或者说是 white background, 白色的背景,或者说是 soft light, 柔和的灯光,类似于这些。那么最后我们可以在正向题词的结尾添上我们想要加的 laura。 关于 laura 和各种模型的下载,我上期视频也有介绍,感兴趣的小伙伴可以回去观看。 接下来我们来讲一讲提示词污染。那首先我们要知道什么是提示词污染,我们可以看一下这一组图片,未经处理时,在多个提示词同时书写的情况下,各个提示词的意思可能会相互渗透。那么为了避免这种情况,我们可以用 break 来隔开提示词, 尤其是防止颜色污染。之后我们来聊一聊题序词融合,比如我们写 one girl, cat 这边我们可以看到生成了一张猫在女孩身上的图片。好的,现在我们在 one girl 和 cat 之间添加上 end。 注意这里的 end 必须是大写,全部大写。这边我们可以看到生成了一张猫娘的图片。这个 end 的 作用就是将两个提示词融合在一起。同样的,下划线也有和 end 类似的作用,也是将两个提示词结合在一块, 除此之外,隔一组提示词用中括号括起来,中间再用竖线隔开,也有类似与融合的效果。那么这个的原理是,第一步画前面的关键词,第二步画后面的关键词,第三步又在画前面的关键词,以此类推。最后我们来讲一下控制生成的时间段, 比方说现在的迭代步数是二十步,在这过程中,我想让前百分之三十生成森林,后面百分之七十生成一个女孩。那么我们可以试着这么书写,大括号 forest 在 街上冒号 one girl 在 街上冒号零点三,最后以大括号结尾,那么这一长串 代表着是在百分之三十的时候结束画 forrest, 开始画 one girl。 那 么如果说我们把零点三改成零点七,那么意思就是前百分之七十画 forrest, 后面百分之三十画 one girl。 好 的,那么以上就是本期的所有内容了, 如果你喜欢本期视频,那不妨给个三连加关注吧,我们下期再见,拜拜! 哈喽,大家好,欢迎来到 cf ui 系列教程的第五节课,那么本期视频我将分享几个非常实用的 a i g c 网站以及大模型的下载还有使用方式。那么在本期视频开始之前, 我们先了解一下大模型以及 lora 的 存放路径。首先是大模型,我们一般放在 cf ui 文件夹里的 models 文件夹内的 lora 内。 有些小伙伴可能不知道什么是 laura, 那 么我们可以简单的理解为 laura 就是 非常精简的小模型,它一般搭配着大模型使用,从而让我们的生成结果更具风格化或是质量提升。 首先是利布利布 ai, 利布利布目前是国内最有权威并且规模最大的 ai gc 网站之一,该网站包含了模型下载、作品灵感 在线生图,还有训练 laura 以及诸多功能。我们一起来看看模型广场,这里有诸多模块,动漫、游戏、插画、二次元幻想、手绘风、工艺风等等等等, 在这里都能找到你想要的相关模型。当你工作或生活中没有灵感的时候,我们可以来到这里看看大家上传的图片。如果有你喜欢的图片的右下角有生成信息,我们可以复制相关参数到 stable future 里面自行生成。第二个网站是 nova ai 点 dv, 该网站侧重于辅助功能,比如这个法术解析,我们可以把已下载好的 stable future 图片拖到这里来, 那么它就会进行相关分析,最后汇总成一个参数表格。当然我们可以复制这份参数表格到 stability fusion 里面,在这里有相关详细的使用介绍,我们看看侧边栏,这边有各式各样的标签供您挑选, 我们可以利用这些标签去组成我们想要的关键词,然后复制到 web ui 里面进行生成。此外,该网站还链接了 a i g c 的 社区,比如之前在 liblib 上看到的画作分享模块,这边也有,并且这边还对各种各样的图片进行了分类, 总体来说还是挺不错的。好的下一个网站是 poemlib, 在 这里我们可以很直观的看到每一个提示词所带来的效果。当然提示词标签也是多种多样, 我们可以看到人物的各种特征这边几乎都有包含,如果你想添加某个提示词,那么直接点击就行, 随后会在右侧的侧边来显示,有点像购物软件的购物车一样。等我们选择完所有信息的提示词后,直接点击复制便可粘贴到 web ui 里进行图片生成。除了人物外,我们还可以看到这边有诸多板块,服饰风格、各种构图、质感环境 以及一些质量参数等等。接下来是国外网站,首先是 civate ai, 在 这个网站内汇集了来自世界各地创作者所训练出的模型, 同样的也汇集了来自世界各地 ai g c 玩家所分享的图片。比如我们喜欢某一张图片,我们可以点进去看它的详细参数,比如它使用了什么模型,什么 laura 等等。当然还有关键词我们都是可以复制并直接进入到我们的 web ui 内进行粘贴复现的。 除了图片外,这边还有大家所分享的 ai 视频。总的来说, cvitai 是 一个非常非常全面并且有着海洋信息的网站,基本上市面上的所有模型以及 laura 在 这边都能找到。 接着我们来看看下一个网站 huginface, 想必这个网站许多人应该都听说过,许多最新的模型 laura 等都是在这边开源发布的, 比如我们搜索 stable fusion 三模型,这边我们可以看到网页包含了模型生成的视例图以及模型的原理,还有模型的代码等等信息,并且只要你登录了之后便可以下载该文件。最后要介绍的网站是 gitap, 这是目前全世界最大的开源代码网站,在这里我们可以找到海量的信息,其中就包括 aigc, 各个大模型或者是各种插件最新信息 以及下载方式。比如我们搜索 stable fusion, 在 这里我们可以看到有关于 stable fusion 开源的所有信息,无论是运作方式还是本地部署,亦或是它开源的代码,我们都可以从这里得知。最后是模型推荐,我们知道现在市面上已经有着成百上千各种各样的模型, 那么这边 up 主帮大家整理了一下,选出了几个我认为较为好用的大模型。首先是 dreamriver 以及麦吉系列,它们的共同点就是生图质量较高,并且生图的类型范围非常广泛。 最后是 pignix, 这是一个二次元大模型,在有关动漫的图像生成上,它的表现非常卓越。 然后是建筑类的大模型, architecture realmix, 这个模型包含了建筑相关的一切领域,包括楼体创意,现搞转会、室内设计等等等等,它都能胜任。 好,我们回到康复以外,现在我们将用同一组提示词以及其他参数仅仅变化我们的大模型,来看一下生成的结果有什么差异。首先我们选择的是真实感的大模型。好,我们可以看到生成出来的图片非常的写实。接着我们换一个二次元系的大模型。 好,我们可以看到现在图片完全变成了动漫风格,那么这就是大模型的威力。接下来我介绍一下 lora 的 使用方式, 我们鼠标左键按住模型输出,拖出来之后,我们可以看到这边有一个 lora 加载器。好的,选择了之后,我们可以看到 lora 加载器分别有模型以及 clip 的 输入与输出,那么这边我们先将它的 clip 给连上, 接着我们再将 lora 加载器的模型输出连接到 k 太阳器这里,然后再将这个 clip 连接到文本编码器。那么我们稍微整理一下工作流, 那么现在我们先设置一个 lora, 我 们其他参数同样保持不变。比如说我们来一个这个梦中花境吧,我们提示词也是没有任何变化,随后我们开始生成, 我们可以看到明明我们的提示词没有任何关于花的词汇,但是我们的结果图却出现了非常多的花, 那么这也正是因为我们的 lora 起到了作用。不同的 lora 有 不同的效果,小伙伴们可以自己去尝试。好,那么本期的视频到此结束,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! hello, 大家好,欢迎来到 comfui 系列教程的第六节课,那么本期课程我们将一起学习图生图的相关知识以及高清修复。那么在介绍图生图的工作流之前,我们先来讲讲什么是图生图。在我们使用图生图功能时, 我们一般使用一张图片与一组关键词共同作为输入生成的图像将收到这两个输入的共同调节作用,比如使用下面这张初级草图以及一段指令作为输入图中图功能会将其转化成一张完成度较高的图片。首先第一步, 我们输入的图片会由 ve 编码器编码从前空间图片并传入到前空间内。第二步,采暖器会向其添加噪音,通过设置降噪幅度可以控制究竟要添加多少噪音到原始输入的图像中,如果降噪幅度为零,则不会有任何噪音添加进我们的前空间图像。如果降噪幅度为一, 那么我们输入的图像会因为噪声过大而起不到任何参考作用。第三步,采暖器内的噪声预设器将 将上一步处理后的前空间图像与文字指令作为输入传回到 unit 网络,并预测出应减去的前空间噪声张亮。接下来前空间噪声张亮将会从前空间出属图像中减去,并得到前空间新的图像。并且第三步的全流程会重复特定的次数,而这个特定的次数就是采样步数, 比如说二十次,而这整个过程都是在采阳期内完成的。接下来到了第四步, ve 解码器会将降噪完成后的减空间图像解码成像素空间的图像,那么也就是图升图的最终图像。接下来我们回到 comfui 中,我们先加载一个默认工作流,随后将 comlinit 给删去。 接着我们点击 later 拖出来,选择 ve 编码,那么我们就成功加载了 ve 编码器。接着我们将 ve 编码器的 ve 输入连接到 checkpoint 加载器的 ve 输出上。随后我们将图像节点给拖出来,选择加载图像 load image。 那么这边我们上传我们需要的参考图像。这边我上传的是一个金发小萝莉,那么接下来我们要边写一下提示词。这边我们可以输入 one girl golden here, 然后再输入一个 lake, 也就是湖水作为背景。我们看一下啊,她穿的衣服是蓝色的,那我们可以说 blue dress, 接着我们可以看到他的衣服有一点点湿,那么我们可以加入 drench, 湿透的意思。还有白丝袜副象题诗词,这里我们一般输入的是模糊,也就是 blur 以及低质量 low quality, 还有文字,也就是我们不希望他出现文字。现在我们回到采暖器这里, 我们可以看到这边有个降噪,我们将该值修改成零点七,而对于降噪值,零点三到零点五之间属于安全的重绘幅度区间,而零点五到零点七则赋予了 ai 更多的想象与发挥的空间,那么低于零点三或者高于零点七, 图像都有可能会发生扭曲变形。好,那么这边我们先将该值设置成零点七,生成张图片试一下。 这边我们可以看到这两张图片的背景以及这个墓栈道还有人物的部分特征都是比较相似的,但是我们可以看到他们的年龄确实不太符合。那么接下来在关键词的前方加入一些质量提示词, 在我们优化完关键词之后,我们再次生成,看下效果如何。这边图片已经生成出来了,但是感觉还是不太相像,我们要做的就是将降噪幅度改成零点四五,之后我们重新生成一次,看一下效果如何。 效果是不是好了非常多呢?如果你觉得图片不太满意,那么我们可以多生成几张,直到得到你满意的图片为止。 那么接下来我们讲一下什么是高清修复,比如说我们现在生成的这张图片我们非常满意,那么我们怎么增加它的分辨率以及图片的细节呢?好,那么我们这边回到 k 采集器,我们先将种子值选择的是固定模式,随后稍微整理一下工作流 双击界面的空白处,输入 upscale, 然后我们选择 later 按系数缩放,我们将该节点的 later 输入连接到 k 渲染器的 later 输出上。 好,随后我们按住 alt 键,点击 k 渲染器拖出来,那么我们就复制了一份相同的 k 渲染器, 那么我们将这个 later 按系数缩放的 later 输出节点连接到我们新建的 k 渲染器的 later 输入中。 最后我们将文本编码器的条件输出分别连到 k 采集器的正面条件以及负面条件上,模型也是一样,我们回到 jpeg 加载器,将模型连接到我们新建的 k 采集器上。 好,随后我们回到新建的 get 检测器中,我们将步数设置成二十五, c f 居值我们设置成七。好,接下来我们点击这里选择这个 d p n p p 二 m 调度器,这里我们选择的是 carras。 接下来我们新建一个 ve 解码器, 随后我们将 ve 解码器的 ve 输入连接到 shift pro 的 ve 输出上。接着我们新建一个预览图像节点,随后开始生成。 我们可以看到这张图其实非常的不自然,那么我们该怎么去解决呢?我们回到我们新建的 k 采暖器这边,我们将运行后的操作改成随机,并且将降噪幅度改成零点五五,随后再次生成。 好,我们对比一下前后两张图片,我们可以看到脸还是变化比较大的,那么我们可以适当的降低降噪幅度,比如说我们改成零点五一再生成一次看看。 好,现在我们可以看到生成的结果,五官是和原图非常相近的,我们再来对比一下图片的细节,放大之后我们可以看到右边,也就是我们新生成的经过高清处理后的图片细节要比原图多很多,比如说水面上的气泡以及这些发丝都是非常的清晰的, 我们这边可以对比一下原图头发这一块一放大就变成一块马赛克了,而我们新生成的图片还是比较清晰的好,那么有的小伙伴可能会说,哎,这还不够清晰,那怎么办?别着急,我们还有高清修复的方法,那么接下来我们将进行第二重高清修复, 我们搜索 s d upscale, 也就是这个 s d 放大,那么接下来我们将这些节点一个一个的连上。首先是图像,我们连接的是这个 ve 解码之后的图像输出,接着模型我们还是老样子, 连接的是这个 point 的 模型输出,那么这边我推荐一个小技巧,我们将模型拖出来之后选择转接点,我们可以看到这边有一个小小的节点,那么这个节点的意思也就是代替了这个模型的输出,我们将 sd 放大的模型输入跟这个模型输出相连。 好,现在我们可以看到它其实也相当于跟我们的 point 连接在了一起。接下来是正负相条件,我们也用同样的方法拖出来选择转接点。 好,接下来我们连接 ve 模型,我们也是用同样的方法选择转接点,拖出来 连接 ve, 这边我们选择放大模型加载器节点,接下来点击这里,我们选择该选项,这个放大模型是我试用下来效果最好的。随后我们加载一个预览图像节点,接着稍微整理一下工作流, 好的,整理完工作流之后变得整洁了一些,我们开始生成图片,已经生成出来了,我们可以放在一起对比一下效果。 这张图的分辨率已经达到了二 k, 非常的清晰,我们可以看到细节都还是不错的。然后我们再来看一下第一次放大的图片,放大之后还是有点糊啊,对吧, 不过清晰度也还是可以得到保障。再来对比一下这个哦,确实特别的清晰。 随后我们再来看一下第一张图片的清晰度,这个放大之后就是一团马赛克了,对吧,差异还是非常大的 好,那么有的小伙伴可能会说觉得这张图清晰度还不够,哎,那怎么办?别着急,我们还有最后一重放大,那么加上了这最后一重放大之后,也就构成了所谓的三重放大。这边我们搜索 upscale, 接着选择这个图像,通过模型放大, 这个节点非常简单,只有两个输入以及一个输出,然后图像的话就连接到 sd, 放大之后放到模型这边,我们同样选择的是该模型, 随后我们将图像拖出来,选择预览图像。好,我们可以看到最终生成图像已经出炉了,我们来欣赏一下它的效果到底有多么的炸裂。 这是一张四 k 的 图像,清晰度非常的夸张,发丝都看得见,完全没有那种模糊马赛克的感觉,湖水也是很真实, 我们再来看一下对比第一张,那放大了之后全身马赛克对吧? 没法比啊,这个确实没法比,那么这就是本节课所介绍的图生图以及三重放大的效果。首先这是我们的原图,然后这是我们图生图之后转换成真人的图片,接着这是第一重放大, 第二重放大,最后这是第三重放大。好,那么本期的视频到此结束,如果你觉得对你有帮助的话,那不妨给个三连加关注吧,我们下期再见,拜拜! 这些这些,这些都是 ai 生成的,距离 flex 模型发布以来呢,它的相关生态已经逐步完善,那么我们今天就来看一下如何用 flex 生成像这样具有抄写式风格的 ai 图片。首先我们来到 kufui 界面,那么映入眼帘的是我们今天的 flex 生图 高清放大工作流,那么该工作流分为了两个部分,首先是黄色部分,黄色部分代表着 plus 基础生图部分,而蓝色部分呢,则代表着是高清放大部分。这个高清放大一共也是分了三部,那么我们的话,首先关于生图,我们就先把高清放大模块给进行一个忽略。 好的,接着我们回到我们的生图部分,来看一下其中有哪一些组建。首先我们来看一下这个生图工作流的核心节点叫做 essential, 这个节点呢,它是一位印度工程师写的节点,那么那一位印度工程师,他也是 ipad 的 作者。 ok, 这也是题外化, 那么这个节点他可以省去非常多的 flex 基础节点搭建。 ok, 我 们可以看到啊,我们整一个关于 flex 的 生图部分, 也就只有这些节点而已,那么我们首先的话来看一下这些,哎,关于必备的一些节点。首先是双 clip 加载器,在这里呢一共是搭载了两个 clip 模型,那么这也是 flax 模型跟其他大模型不一样的地方。我们可以看到 这个双 click 加载器连接的是一个专属于 flux 的 文本编码器,我们仔细看可以发现这个文本框它并没有分正负向提示词,而我们的一个核心组件呢,也是只有一个条件输入, 并没有分正负向提示词,那么它的意思是说在 flux 生成工作流中,我们已经不需要负面提示词的输入了。我们可以看到这个文本编码器,它一共也是分了两个部分,上半部分是使用 传统的提示词语法,也就是一个一个词组这样去编写。而下面这个部分呢,我们可以使用自然语言编写,也就是说使用 连贯的语句来进行文本的编写,而关于这个部分,我们最好是可以两个都编写上,这样子可能得到的结果会更加准确,那么这边的话,我们只填写一个文本框也是完全没有问题的。好,我们再来看一下其他的, 那么这边有一个叫做 eonet 加载器,这个 eonet 加载器呢,我们也可以理解为以前的 jumper 加载器,也是加载我们大模型的地方,我们可以看到,哎,咱们的 flex 模型就是在这边进行加载的。 那么首先呢, plus 模型啊,它一共有两个,分别是 f p 八以及 f p 十六,那我们这个叫做 f p 八的,它是一个十一 g 的 大模型,而 f p 十六呢,它是二十二 g 大 模型,有些电脑可能 hold 不 住,那么我这边的话,为了咱们的一个生存稳定性,我也是用的是 f p 八,好, 我们再往后看,那下面这个空位腾也就不用介绍了,和以前一样,也是控制宽高的地方,那么要注意的是这个 lo 胶带系,哎,我们这边 也是用的是 flux 的 专用 laura, 大家待会就可以看到咱们今天这个 laura 的 强大之处。好,我们再来看一下咱们这个主要的模块里面有什么参数。首先是种子值,这个咱们就不过多介绍了,还有就是采阳器,采阳器以及调度器呢,我们这边用的是 euler 以及 simple, 这个是针对于 flex 大 模型的一个彩样组合,如果说你切换的话,图片效果会变得很糟糕。接着我们可以看到彩样步数,哎,我们发现没有,不是特别高,对吧?十七不高,因为据实验统计, flex 大 模型啊,在生图的第十五步之后,其实就已经变化不大了,那我这边时期呢,也是为了增加多一些细节吧。那后面的话有个叫做 guidance, 也就是引导系数,我们设置成三点五就可以。接着我们来看 vae 加载器,那么我们的 flex 也是有专门独属于它的 vae, 叫做 flex vae, 哎,这一个我们可以留意一下,那么关于我们的 vae 也好,咱们的 flex 专属 lora 以及专属的 clip 模型, 我们都可以在评论区进行一个资源获取。那么接下来的话,我们就直接来进行生成,来看一下 plus 大 模型啊,它到底有什么强大之处? 哎,我们可以看到这张图是不是非常的真实,对吧?啊,真实度非常的高,它仿佛就好像是用手机拍出来的感觉,那么这也是要归功于我们的洛尔,这个洛尔的效果呢,叫做 plus 小 红书, 那么它的效果也是为了能够更贴近咱们真实用手机拍出来的图片质感。接下来的话,我们把种子纸给换一下,接着我们再稍微改一下提示词, ok, 我 们再点击执行队列来进行一次生成。好的,我们可以看到啊,那么一张小姐姐的图片就这么生成出来了。如果说大家不是看到咱们这个 ai 工作流, 咱们是在比如说自媒体上看到这样的图片,那真的是真假难辨,毕竟它还原度非常的高,它和咱们现实世界用手机拍出来的质感,或者说用相机摄影和 ps 过的质感是非常相近的。 那么除此之外呢,我们也可以进行进一步的高清修复,比如说我们想让他画面更多细节的话,那么咱们就把高清修复模块给打开,接着我们直接点击执行队列就 ok 了。 好的,经过了漫长等待后,最终图像也是生成了,你觉得效果怎么样呢?如果你觉得本期视频对你有帮助的话,相关工作流以及资源包都可以在评论区进行获取,我们后会有期,拜拜观众朋友们。大家好啊,今天讲一个小技巧,可以让我们 fux 的 图脱离 ai 感, 然后这个就是 fux 直接出的,我们这次使用到的技术叫噪声添加或者叫噪声注入,你会发现这张图就会少一点 ai 感,对吧? 然后包括他衣服上的一些细节,他都会比呃直接出的会多出来很多。接着我们看一下其他图片,脸部的纹理、头发, 然后这个也是会发现噪声加入之后的图片会更加的真实,会少了那么多 ai 的 感觉。还有其他的应用,就比方说像出这种产品的图片,他会读出来更多的细节, 从细节上来看也是很 ok。 简单说一下这个原理,当然视频用到的工作流和模型我都打包好了,如果有需要的小伙伴可以在评论区留言,我会一一回复发送给大家。 这个原理很简单,就是正常采样是直接采完的,对吧?比方说四十步采样,然后通过四十步的去造后,到结束出一张图片,然后这边的技术就是说你四十步采样之后,先得出来一张图片,再重新把这个采样再逆过去,逆回去的过程, 到二十步的时候我再给你添加一些噪声,然后你再重新跑,然后这样就会多出来非常多的细节。具体我们到工作流里面去看一下,这是我刚刚跑的一张图,我们可以看一下它的区别,你会发现通过噪波添加之后,它的图片会多出来非常多的细节,并且少了很多的 ai 位。 简单说一下这工作流,这工作流我参考了国外两个在潜空间里添加细节的工作流,我这边用的是 f t 八的模型,然后这边我用了一个八步加速的 lora, 然后再加上了亚洲人脸 lora 这个加速度, lora 会把我们整个流程提速很多, 在第一次裁样完之后,他会到这里,这里会进行一个相当于一个逆裁样,就是他会回速到十五步,回速到十五步之后,他会来到这里添加一些噪波,添加完噪波之后,他会继续裁样的过程,然后最终得到我们这样一张没有 ai 位的图片。 我这边还用了一个锐化的节点,你们也可以关掉,如果觉得图像太锐的话,可以调整这个数值,然后这边有几个关键的参数, 我跟你们讲一下,如果说最终出来的图有很多噪声,噪点没有消除干净的话,你们可以在这边去提高它的强度,或者降低它的强度,提高它的强度之后,它会图片会添加更多的细节, 但是他有一个预值,大概我这边测试应该是在零点四吧,如果说你高于零点四的话,他可能会有些噪声,踩不完全就会可能出现一些脏脏的画面,脏脏的感觉。我这边建议的值是零点二到零点三,这边你们如果不太了解的话,就不要调了。 还有一个就是这个 latent 缩放系数调整,这个值可以保证你们最终出的图的清晰度会更高一点。如果说你们这里设置一的话,最终出的图可能会有一些模糊,但也影响不大, 这个最终就看你们怎么使用,我们这边可以跑一下看一下, ok, 我 们这个图跑完了,你会发现这个图片的细节多了非常多,对吧? 好,这就是我今天分享的工作流,如果有需要的小伙伴可以在评论区留言,我会一一回复发送给大家,然后喜欢的可以三连支持一下,感谢大家! 一直以来总有小伙伴问我有关 comfy 电商产品摄影图的问题,尤其能否利用最近大火的 flux 生成更真实更落地的产品图, 当然是可以的。今天我不仅会分享搭好的工作流,同时还会跟大家一起分析各部分的原理与功能,让你也能从零开始组合出自己的电商产品摄影工作流。电商图工作流程可以拆分成如下步骤,设计成品图片大小、物品大小、物品位置、背景等。 提供商品图片,从中获取主体和蒙版。将商品主体融合到生成的或者提供的背景中,添加光影效果,精细化成图,扩图、重绘等,还原商品细节,颜色校正,生成视频。 其中第三步是整个工作流程的关键,要求不高的小伙伴在完成这一步后就可以收工了。后续的五个步骤则是帮你实现更协调、绚丽、真实、精细的效果。 随着技术的发展,还能换成未来更新更好用的模型和插件。好话不多说,我们直接来工作流看一下。 首先我们使用 segment anything ultra v 二节点,提取沐浴露主体和蒙版,添加 image bind advance 节点,将主体放置在特定位置,添加 flux 纹生图流程节点生成符合要求的背景。接着接入 ic light 节点,为全图重新打光, 基于 s d 一 点五实现的 i c light 模型打光,图片质感稍微会差些。然后使用 flux 图升图,增加一些细节,调整彩样器里的参数,重绘幅度设置为零点三五,提升了画质。 由于彩样重绘,商品上的字体被重绘了,我们需要重连图恢复细节。目前主流的有两种方案,大家只需使用一种即可。 首先添加一个开宅实线的 i c light 插件里的 detail transfer 节点,恢复屏子上的字。或者使用 layer style 里的 frequency detail restore 节点,同样可以回复文字细节。 有些时候我们需要调整一下成图的颜色,针对不同情况,如果需要参考另一张图来调整成图的颜色,可以使用 colormatch 节点及图像调色。比如我喜欢刚刚 flex 重绘之后的那一张,就拿它作为参考来修正恢复细节后的成图参数,保持默认就可以。 还有一种情况比较常见,就是主题的颜色跟背景的颜色不太搭时,可以使用 auto adjust 节点,它能为程图遮罩里的内容进行自动调色。连接好程图与蒙版,添加一个图像预览节点。接着权重参数调整为三十 mode, 改成 lamb 加 set, 然后直接运行。 小伙伴们在使用时可能需要根据具体输入的物品来微调参数,现在我们来看一下经过各个步骤后的程图。好 flexing paint 方法就讲到这里, 视频中用到的模型和工作流我都打包好了,有需要的小伙伴可以在评论区给我留言,我会一一回复发送给你, 谢谢大家。哈喽,小伙伴们大家好,今天跟大家一起讨论一下 vlog 万物迁移在电商次世代的商业落地应用这一块的内容。 近年来, ai 技术在视觉领域的应用快速发展,尤其是在商业化落地场景中展现了巨大的潜力。 从传统的背景替换、局部重绘,到如今模型驱动的深度场景适配,这领域的技术和思路逐步走向成熟。以产品植入场景为例, 过去我们通过传统的工作流程实现效果,比如将项链带到模特身上,或者将沙发摆入不同角度的环境中,甚至在鞋子的展示上实现类似的穿着效果。这些方法虽然有效,但往往需要复杂的技术流程,如遮罩处理、边缘优化以及节点构建等。 而这些传统方式的局限性也逐渐显现,尤其在复杂透视关系或材质表现上容易出现问题。目前以 stable diffusion 为代表的生态系统中, flux 官方更新了一套生态,里面有深度轮廓。 redux 和 impaint 提供了更加精准的控制能力。例如通过 redux 的 参考功能和 feel 模型的配合,我们能够实现极高的一致性和还原度,甚至无需提示词便可生成贴近原图的效果。借助特定模型记忆物体外观,再将其复现到新环境中,不仅在视觉上更为自然, 光影适配与角度调整也更加流畅。视频用到的工作流和模型我会打包好放到网盘上,需要的小伙伴可以在评论区留言,我会一一回复发送给你。那么这个工作流具体是怎么去使用的呢? 我打开这个工作流给大家去说一下啊,这个就是在 com 与 i 里面去使用的,你拿到这个工作流把它拖进来就行了,这就是我们的 plus 电商万物迁移工作流第一步,在上方的加载图片,这里上传一张你的这个产品的图, 我已经跑了一次,这个是做的一个家具的下边边就是你的一个意向图,你可以从网上去搜,你可以用 ai 生成一张,一定要记得在这个地方右键遮照编辑器当中打开 他默认的话,这个图他是这样子的。那我希望把我的这个家具这个白底图把它放到哪个位置去,我们需要对应的去涂抹出来,把这个场景里面我们需要替换的部分把它涂抹出来, 涂抹出来的地方等会 ai 他 就去重绘我们涂抹的地方,这样子稍微的抹一下大概的位置就行了, 不用去涂抹的非常的精准,不用像我们有一些抠图技术,抠图非常的精准的这种边缘才能做它,这个不需要就简单的抹一下就行了, 点击这个 save, 剩下的就没有了,就这两步他已经开始给你去跑图了,最终他就会在这个地方去生成一个最终的结果。 看到这个图的这个场景,它的光影关系,包括它的角度跟这个都是不一样的,它都可以非常完美的融入进去,我并没有去做任何的什么 control net 控制啊这些,那它这里面的核心是什么呢? 它就是利用 flux 之前发行的几个大模型,除了我们刚刚说的这两步,打开这个工作流需要自己去操作的,那么这个是模型加载区, 可能你用的模型的路径可能跟我稍微有一些区别,那么你也可能要去加载不同的这个路径,你稍微的去检查一下这个模型加载区其实就是我们整个工作上的核心。 第一个就是我们用到了 flux 一 fill 这个模型,这个是 flux 的 重绘模型,它这个重绘技术非常的好, 那么我们在这个地方去重绘的时候,它就可以保证我们重绘的这个图跟原图它是非常协调,非常统一的。 包括我们这些家具的话,它这种光影关系,它会自动地去做这个光影的这种协调,这个 fill 模型非常重要,这个地方你要去自己去选一下你自己的路径。 clip 这个地方没什么好说的,一个 clip 八 a, 一个是 t 五 x x l f p 八,对吧? v a e 这边也是常规的,这下面这两个是做什么的?这个就是 flag 新出的一个 redux 的 模型,我们之前在评测 redux, 我 跟大家说过 redux 它把它这个风格迁移的非常的死, 我们当时一个比较保守的评价,它有可能很有用,有可能没有什么太多用,目前来看它就非常的有用,因为它控制的非常死,它就可以把这个图非常完美的迁移到这个图里面去。 风格模型加载器这个地方选择 flux 一 redux style 这个模型,下面这个是 clip 的 视觉加载器, 这个是我们使用 redux 模型必须要去加载的,选 c clip vision patch。 十四、这个模型后面就是它常规的接法,我们把这个风格模型接在我们的条件后面去这个 clip 文本里,不用去写任何的提示词,我们以前还去做一些什么图像提示词的反推,对吧? 现在这个地方提示词直接不用写,就空在这就行了,记住哈,你用这个 fill 这个模型的话, flex 的 引导这边选择三十差不多就可以了,其他的就是一个很常规的流程。那么这个 k 采阳器你们看到这里它实际上是两张图拼起来的, 那么它实际上是进一步的去强化最终生成的图片与原图的一致性。实际上这个也是受到一个叫 icloam 的 技术的影响,它的这个技术的思路其实就是我们在重绘的时候,我把这个图把它放在旁边,它去重绘的话,它会去严格的参照这张图来进行升图。 不过有个地方要注意的是,因为这个图我上传的时候就是两张图就拼起来的,那么我在拼之前得去记录一下每个图这个尺寸, 我们这边先去做了一个缩放,整体做了一个缩放,万一你这个图太大了,我们整体缩放到一零二四,你可能在七百六十八到一千五百三十六之间,这个整数应该都是可以的。 但是这个图片不要太大了,因为他还要去两张图拼在一起,如果你一张图一千零二十四,两张图拼起来,他差不多就是两千多了,这个图如果太大的话,可能会对你的显存消耗会比较大。另外一个就是把这个蒙版去做一个拼接, 因为我这个地方这个图就做了一个蒙版,那么他的蒙版要和他对应起来,那么我只是去重绘这块去就整个图,其实我现在把这个图给你扩大了, 我最后只重绘了这一块区域,他这种一致性就会更好,我们最后生成出来这个图之后,最终再把它切开,只留下这张图就行了。整个思路其实非常的简单,这个就是一个完整的工作流程, 大家把这个地方这几个模型你看懂了,实际上你自己去搭建起来,其实非常的容易,我们再来看一下,效果 好就分享到这里,如果需要工作流和模型的小伙伴在视频下面评论区给我留言,我会一一回复发送给你,赶紧玩起来吧, 谢谢大家!这个电商工作流利用了 flax 的 最新配套模型 redux 和 fill 模型,可以将模特迁移到指定的画面位置,可以用到比如家具类、机车类等所有需要模特展示的电商场景中。这里做个简要的使用说明。工作流需要上传两个图片, 第一个是主要上传需要参考的模特图,最好这个模特图也是在类似的场景中站立的,也是可以的。第二个图是需要添加模特的商品场景图,比如沙发或者椅子。 下一步还需要给添加模特的地方做一个遮罩编辑,在图片鼠标右键选择遮罩编辑器打开,在你希望模特出现的区域做一个大致的涂抹,可以适当大一些,这样 ai 发挥的空间更好。 绘制完成之后,点击直行等待一会,椅子上的模特就绘制出来了,可以看出生成的这个模特跟这个图片融合的非常好,包括和椅子的比例关系,光影色彩度都非常自然,但是这个指出的画质不是很高,还需要后期加高清修复缓解, 这都是很容易实现的,比如利用 siri 超级高清放大修复。感兴趣的小伙伴欢迎评论区交流讨论。视频用到的所有资料和工作流,我也会打包好放到网牌上,有需要的小伙伴可以在评论区回复,我会一一回复发送给你。好的小伙伴们,这期视频就分享到这里,谢谢大家! 紧急尬消息,某书平台惊现 ai 神作, 一位神秘大佬利用矩阵软件注册了上千个账号,疯狂发布超逼真照片,竟然成功骗过了平台的 ai 识别系统,点击量更是高的惊人。消息一出,群里瞬间炸锅。这位大佬透露,他使用的是 flex 大 模型的工作流, 生成的画面毫无 ai 痕迹,就连影楼专业的摄影师都直呼,你不跟我说是 ai 生成的,我真的以为这是相机拍出来的照片。 如果你还是 ai 新手小白,那么你一定要看完这个视频,学习如何使用 flax 工作流生成某书同款超逼真画面,轻松打造爆款内容! 首先下载我分享的安装包及工作流,再配合我之前的安装 comfyui 的 教程,然后打开这个 flax 某书写真工作流,接下来去利步利步下载这个写实逼真大模型。 好,我们点击进入。这里有模型使用说明,大家可以看一下。好,我们点击下载。将这个模型放置到 models 的 unit 文件夹,然后在 unit 下载器里加载这个超逼真大模型。下面 clip 下载器要指定 t 五语言大模型,然后指定一下 clip hi, 这是提示词大模型,最后再指定一下 ve, 这里的提示词可以根据自己的需要进行修改。好,我们点击生成一下,是不是就生成出这种照片级的画面了? 要是你的配置不够,你可以使用在线工作流,我们点击进入这里的模型,也同样的需要指定一下,然后根据自己的需要填写提示词。好,我们点击生成一下。哇塞,这么漂亮的女孩就生成了,是不是难以置信啊! 兄弟们,课间和相关资料已经上传到网盘了,需要的小伙伴请到评论区留言,谢谢大家!