我认为本地部署这一 made 是 目前入门康复 u i 最好的时机,因为它精准抓住了小显存用户的痛点,它有媲美闭元模型的出炉质量,生成速度快,而且原声支持中文。 大家好,我是王德发。这期视频,我们来丛林跑通这一面,并聊聊开源绘画模型的改革。在往期视频的评论区,被高频讨论的话题往往是康帝 ui 的 硬件配置和入门门槛。 过去我会劝大家,内存小于三十二 g, 显存小于十二 g, 你 就别折腾本地部署了,因为在 ai 绘画领域,一个复杂的工作流不仅要大显存,还要大内存。 就拿 flex 模型为例,它原版主模型就要二十三点八 gb, 加上 vae cleveland 文本编码器啊,尤其是那个 t 五叉叉 lfp 十六的版本,哈完它自己就快十 gb 了。 那这一套全家桶下来呢?显存开销直奔三十二 g, 那 我们十六 g 的 用户呢?还得用量化手段,使用 f p 八的量化精度,把显存开销降到十六 g 以内那所以我之前一直觉得十六 g 显存才是一个甜点配置。 那如果你用极致的量化,比如 n 叉酷的硬件四精度,这样主模型能压到六点五 巨币,只有原版模型的四分之一。但能跑跟好用其实是两回事,体验并不会很流畅。对于小鲜醇用户来说,这确实是一个无奈之举。在一个月前,阿里旗下的通一团队开源了这一 mate 之后, 事情就变得有趣起来了,他直接打破了我刚才说的这种硬件门槛。我们来看一下任务管理器, 这是这 mate 加载后的显存占用,我用的是 f p 八新度的版本,主模型只有五点七 g, 配合量化后的文本编码器,整套跑起来显存占用仅在十二 g 左右。 那如果你用的是 g g u f 格式的量化模型,比如说 q 四 k s 版本,这一套加起来不到八 g 的 显存开销,意味着几年前的老显卡现在也可以流畅的跑起来了, 这在以前简直是不敢想的。很多观众怕本地部署就是因为装环境爆错,这些问题太复杂。但这一类的工作流其实很简单,你只需要更新到最新版的 comfy ui, 在 模板界面就可以直接找到这一类对应的工作流, 他不需要安装额外的复杂的插件,那官方模板还直接给出了模型的下载链接,你把模型下载下来,放到对应的文件夹里,那这时候如果你显存有十六 g, 建议你用原版的模型。配置好之后,我们来看一下效果。它是国产模型, 直接就能识别中文,所以你可以自己写中文提示词,也可以让 ai 帮你写。点击深层,大家看一下这个速度,再看一下这个质量,手部的结构,光影的质感,摄影味特别浓, 完全没有早期模型的那种塑料感,而且他一步到位,不需要像 sd 叉 l 那 样,还需要去修手修脸。 这一魅就证明了一件事,只要优化做得好,小模型也可以出大片。这就是阿里团队带来的开源改革,以前我们认为模型越大越好,现在是效率为王。 最后我们总结一下, comfyui 的 技术门槛确实有点高,本地部署有两大拦路虎,找模型、装插件解决报错。那如果你看不懂代码的情况下,或者硬件配置跟不上啊,你完全可以去用云端,这不丢人啊。未来的 ai 创作,云端化会是主流, 本地部署会变得越来越小众和硬核。坚持本地部署的一般是两类人,一种是喜欢折腾技术的极客,本身解决这些暴躁呢,他就乐此不疲。另一种呢,就是有特殊需求的,需要搭建保密性高、定制化工作流的 专业用户,所以大家根据自己的需求去选择本地部署或者是云端。那如果你想要尝试本地部署 comfyui, 我 很推荐拿自己妹子来入门。那在跑通工作流的过程中,如果你遇到了什么难题,可以看我晚期的视频,也可以直接跟我交流。 呃,如果是下载模型的环节,你还可以使用我开源的模型查找器 comfyui model 翻的,他可以帮你省下不少的时间。 相关的工作流和资源我会放到抖音粉丝群里。这期视频呢,如果对你有帮助,请帮我点个赞,我们下期再见。
粉丝2600获赞8057

最近除了大火的 nano banana pro, 还有一款模型的表现同样非常亮眼,它就是通域最新发布的 gimage 图像生成模型,最重要的是完全开源免费 支持 n s f w 输出的纹身图,模型参数量仅为六十亿,绝对属于轻量级选手,显存消耗只需约十六 g, 大 幅降低了本地部署门槛,让更多人能够轻松上手体验。 从官方视力中可以看出, g e m g 能够生成高度逼真、具备专业极致感的图像,美学表现也相当出色,无论是图片质量还是生成速度,他都交出了令人满意的答卷。 接下来学姐就带大家一起安装部署,并进行一些案例测试。如果你有独立显卡,并且显存超过八 g, 那 就跟着我一起部署吧! 打开 comui 官网,点击下载,找到与你系统对应的版本进行安装。接着打开 comui, 让它自动开始安装。部署完成后,可以直接在模板这里搜索 gmail。 以往安装过 comui 的 朋友在这里没找到的话,可能是 comui 的 版本不够, 在网页搜索 gmail, 进入这个界面往下滑,在这里下载智信工作流文件, 接着就能直接将文件拖进 comui, 它会弹出弹窗提示,缺少模型,按照它的指引下载即可。模型下载完成后,就可以开始你的 ai 创作之旅了。直接在文本框里输入自然语言,或者是将你准备好的提示词复制过来。 comlitent 这里用于控制图片大小以及一次的生图数量,其他参数保持默认。 接着就可以点击运行,稍等片刻,一张图像就生成出来了。如果你觉得本地部署麻烦或电脑配置不足,也可以直接前往哈丁 face 体验在线生图。输入提示词,在这里可以选择图片尺寸, 点击生成。生成速度真的非常快,两三秒就能得到一张图像,而且完全免费使用。 首先测试一下它的文本生成能力,这是我在网上找的一段 ai 绘画提示词,一张手绘风格的英文海报,即使提示词中包含大段英文 z image 也能准确生成文字内容,就连细小文字也能清晰呈现。接着测试中文生成能力, 海报审美在线的同时,中文文字生成毫无扭曲。我现在用的显卡是四零九零 d, 这张幺零八零乘幺九二零的海报十六秒就生成出来了。继续来看看中英文混合的海报生成效果。 油画风格有了,画面壮阔又孤寂的氛围也准确的表达出来了。生成的中文、英文均按提示词准确呈现。这三组海报测试下来,生成出来的文字都是清晰无扭曲。 接着再测试一下他在人物摄影方面的能力,即使你不会写提示词,仅用自然语言描述场景,校园草坪、 jk 少女长发、黄金时刻逆光 也能生成出非常不错的效果。发丝在阳光下的细节、皮肤质感都表现得细腻真实。再来试试电影胶片质感的梦幻少女写真。亚洲人物面孔生成的还蛮有记忆点, 从这几组亚洲人像案例可见,即每只生成的面孔具有多样化,避免了以往某些模型输出面孔相似度高的问题。 再来一组提示词,看看特殊镜头的生成能力,以眼仰拍镜头轻松拿捏,还能多生成几次,即使在大透视下,人物形体也未出现畸形。再来试试微距镜头, 小猫的眼睛、毛发等细节处理到位,我不说谁知道这是我用 ai 生成的。即使输入非常长的提示词, z image 也能完整理解并准确输出对应画面。 以上的案例测试,我基本上都是一次性得到想要的画面效果,避免反复凑卡。今天的 z image 模型就讲到这里,感兴趣的小伙伴快去用起来吧!

哈喽,大家好,之前有给大家讲过该怎么使用 zim 姐这个模型来进行纹身图,然后这个模型的效果也是特别好的,就直接用他这个模型就可以输出那种可以用于海报呀,或者说商用的这样的图片。 嗯,但是呢,发现有些同学可能是刚了解刚 biu i 嘛,就不太知道怎么改成图生图。然后此外呢,还有今天下午给大家介绍一下那个 zim 机,它出了一个嗯 control net 的 使用方式,然后今天也会给大家讲讲该怎么使用, 嗯,这个就是之前的纹身图的流程。嗯,那首先先简单的讲一下该怎么把它改成图生图,其实这个改起来你需要对 cosplay 有 一个基础的了解,就发现其实很容易实现,我们只是需要改两个节点。 嗯,首先纹身图的话,他就直接是传的 com latest 这样一个这样一个节点点过去,那么图生图的话我们就比较容易想到嘛,需要先加载一个图像, 需要这么一个节点,然后我们需要把就不是传成空空白的一个图像过去,那么就需要再加上一个 v i e 的 编码, 然后就把整个工作表复制一下,然后把这个删掉就行了, 然后把 v i e 接过来,这个传过去, 然后咱们使用的时候要记住,因为你是通过这个图片来进行升图吗?那么我们的这个噪声这一块不能把它设太高,一般设个零点六、零点七都可以, 就比如说我按这个图来的话,我就写简单一点的修饰词,就编不住, 就看我们生成的图像会不会按照这个图片来。 嗯,现在我们可以看到他应该就是参考这张图片来的,因为我没有加风格,然后你这个值拉的越高,他们的参考的,嗯效果就会越差,拉到一其实就相当于没有参考, 如果你拉了零点一,那其实跟他的差别就不大,没有什么改变。 然后你图上图的话,肯定是按照你参考图片的这个尺寸来的,所以如果你想对它进行有一个尺寸的改变的话,那你就需要加上一个尺寸调整的节点,我一般就喜欢用这个节点,我们把尺寸的 这个这两个值,把它拉到外面来做成一个全绝的参数控制, 我们一般控制的就是宽和高嘛,那就省去了,每次都得在手动去设置, 然后把上面改改,改成输入,那个地方也改成输入, 这几个模式大家自己去尝试吧。就是拉伸或者说保留尺寸,因为它这是方形的嘛,然后我设置的是一个长,嗯,这种长条形的,长方形的,所以到时候会有一定的裁剪或者说调整, 就按照自己的需求来进行调整就行。好,那图中图这一块就讲完了。

大家好,这里是左维,今天呢给大家带来的是这个 z image control net 二点一版本的一个双彩样的一个工作流,这个工作流呢,我对它也进行了一些调整,主要呢就是这个分辨率的调整,这次呢,你可以直接在这里输入长边的数字, 然后呢他的短边呢,就会根据你这个参考图自动计算出来,就省去了一些麻烦啊。其次呢,就是由于二点一模型的更新吧,其实更准确的说是二点零模型的更新。 二点零模型呢,他对提示词的描述要求没有那么严格了,一点零模型的时候呢,他就要求你提示词要尽量的跟你输入的参考图的内容保持一致。二点零以及二点一呢,你只需要粗略的描述一下,就可以生成非常不错的效果了, 大家可以看一看。至于为什么要用双彩样呢,双彩样主要是用于你加载路由的时候, 众所周知, zimage 的 laura 和 controlnet 一 起加载生成图片的时候,生成的画面会有些裂化,你可以看到第一次彩样生成的画面是不是感觉有些问题,这个时候呢,我们就可以进行双彩样啊,第一次彩样呢, 我们是 laura 跟 controlnet 模型一起加载的,它生成的结果呢,非常奇怪啊。第二次彩样呢,我们把 latent 传到另一个彩样器底下, 同时呢,第二次彩样我们不用 ctrl net, 只用 loir 进行生成,然后咱们把重绘幅度调到零点六五,这样呢,最后它们出来的图呢, 就会一定程度上修复第一次彩样的画面,但不至于对画面改变太大,并且呢它会跟你预想中的 loir 效果变得接近些。比如说你如果是用人物 loir 的 话,它第一次彩样出来的人脸呢,基本上跟你的人物 loir 对 应的人物 没什么关系,但是你如果第二次使用这个 lora 进行修复的话,他的人脸基本上会给你修复好的,这样二次采样后,画面细节的问题就基本上解决了。然后呢,我们看一下对比第一次采样,可以看到它的效果呢,非常的奇怪,画面中有不少维和的色块, 感觉有一种裂化感。我们再来看看第二次采样后的结果,基本上它已经修复好了,效果呢也是非常的明显啊。 如果你对修复后的画面还是不满意的话,你也可以在这里我这里加了一个 c d v r 的 一个高清放大的一个节点,你可以把图像放到这里,然后在这里进行放大。 s e d v r r 的 一特点呢,就是它会对你的原图的细节 进行很大程度上的保留,它在保留细节的同时呢,还能增加一下细节,并进行高清放大。我们可以看一看,基本上看起来呢,它好像是没放大的样子,但是你仔细一看,你仔细拉近一看, 可以看到它的细节还是非常非常丰富的。 当然了,如果你的图片本身就有一些缺陷,比如手指错误之类的,它是不会给你修复的,它主要是一个放大的模型, 放大效果呢也是非常之好。至于修复图片缺陷就别用这个了,用那种修复模型 给你专门给你修复一下手了啥的应该就行。然后再用这个节点放大,他会添加各种微小的细节,但他不会改变你的总体的细节,这一点他做的非常的好。我其实早就厌倦了那种好不容易抽到一张非常满意的图片,但将其高清放大后, 就好像失去图片原有灵魂的感觉了啊。其次呢,就是模型的下载,模型下载呢,我基本上都给你标出来了在这些框里头啊。至于 s、 e、 d、 v、 r、 r 呢, 它的插件说明页里头就有它的模型下载的方式啊。如果你本地网络不方便的话,你也可以关注,然后私信我放大,然后我就会发你对应的 c、 d、 v 二二的模型。好的,这就是这期视频的所有内容了。最后感谢大家的收看,求点赞,关注、转发,谢谢大家!

z m h 上线以来,它在文字渲染上的稳定表现迅速成为讨论焦点,这种在开源体系中罕见的精确度使它第一次具备了进入实际生产炼炉的条件。 但在真实的创作流程中,角色一致性始终是多数用户跨不过的门槛。模型可以写对文字,却难以在不同场景中保持同一身份的连贯性,这本质上也是纹身图长期无法规避的结构性限制。 而在 z image 的 图生图能力尚未上线之前,就在前两天, c c 二十一发布了 z image turbo 的 aio 版本,以更完整的节点布局回应了这一需求。 aio 指的是 l in one, 是 对推利所需组建的一次性封装,给模型提供一个稳定的入口,而不是去改写模型本身的性质。 角色一致性的控制则依赖于工作流里额外加入的啰啰节点,这些节点把原本分散的连接关系固定下来, 使影响人脸与身份连贯性的关键环节变成可以被直接操作的结构。相比只提供权重文件的原声模型, 这种 aio 加预设工作流的组合更接近创作者在实际项目中需要的使用形态。而在加入楼二之后,模型在高复杂度的构图场景中表现得更为从容,许多过往容易失稳的边界任务也开始具备可操作性。 简单来说, aio 版本既把角色锁得更准,也把生成的空间彻底打开,让模型在稳定的前提下拥有更大的表现自由度。整合包我已经准备好了,就在视频下方。 接下来我会在 comfy ui 中演示 z image turbo aio 的 模型落地与预设工作流的导入,用可复现的步骤把整条推理链路建立为稳定结构。这个步骤纸面像已经使用我 comfy ui 整合包的老用户,新用户可以跳过这一节, 直接下载我整理的一件包,并进入正式使用阶段。我们看到官方提供了两个版本的模型, f p 八和 b f 十六版本,两者在八 g 显存上通常都可以运行 f p 八版本以更低的显存占用和更快的推理速度为特征。 b f 十六版本在精度上更为稳定,细节与结构的保留度更高,但对显存的压力也更大。点击文件和版本这里进行模型下载,也可以在我的网盘中获取相同版本的权重文件,并将下载后的模型放置在这个路径下。 同时也需要将罗尔模型下载到对应的目录下,再把工作流文件保存到任意路径。这里的一件包是为新手准备的,模型与工作流都已经预先放置,完成解压后即可直接使用。 由于其中包含完整模型文件体积较大,不建议老用户重复下载。新用户在下载所有分卷后,只需解压零零一文件即可完成安装。当然,老用户如果觉得部署模型麻烦,也可以重新下载一件包,解压即可直接使用。 放置好模型后,启动 comui, 再将工作流文件拖入界面,这时会看到部分节点出现红框,这是由于仍需安装相应插件,已满足节点的依赖关系。 进入 custom nodes 目录,打开 cmd 窗口,分别执行这两条克隆插件的命令,用以补齐工作流所需的节点依赖 克隆好插件后重新启动程序。此时可以看到工作流中的节点已经全部恢复为可用状态,直接输入提示词,点击运行即可使用这一基础工作流 还可以使用快捷键 kyl 加 b 激活 lora 和放大图像。与对比效果的节点同步开启特征注入链路与分辨率扩展链路,并在同一界面中呈现前后对比结果, 使创作者能够在实时反馈中判断特征融合的精度、分辨率提升后的结构稳定性以及整体画面的风格一致性。 在测试中发现,起用罗热后,图像生成的性别倾向出现显著偏移,模型会持续将角色特征向女性方向重构,对男性不具备友好度。模型以我们命名并非偶然,而是对其内部偏置的一种准确标注。 与此同时,该罗热在女性角色上的建模精度却异常突出,生成的美女效果呈现出高度逼真的视觉质感,在此不做展开演示,感兴趣的观众可自行测试其表现,往往会带来超出预期的惊喜。 接下来,这个 control 奈版本的工作流用于在生成链路中加入结构约束,通过姿态轮廓与空间线条的控制,让同一角色在不同场景中维持连续的体态比例与构图秩序,从而降低角色漂移的概率,使 z image 的 语义解析能力在更可控的框架下运行。 这一版本的核心目标是提升角色的稳定可控性。这个工作流依赖 control 节点,因此需要安装一个插件,在 customnotes 目录下执行这条克隆命令。克隆完成后还需要将 control 模型下载到对应目录。 完成以上部署后,还需要将 cfui 升级至最新版本。双击升级程序, 看到提示是否继续升级时,输入 y 并按回车确认。看到提示升级完成后先关闭命令窗口,这一步只是完成代码更新。接下来还需要安装几个额外依赖,并完成 comfyui 前端的同步安装,整个工作流才能在最新环境下正常运行。 为了方便老用户安装,我准备了一个更新依赖的脚本,下载后放在启动器同一目录下,双击即可完成全部依赖的自动更新。 该工作流的部署过程确实相当繁琐,对插件、路径、模型、版本与依赖环境都有严格要求, 任何一步的疏漏都可能导致无法启动,因此并不建议新手尝试。与其在开源链路里不断排错浪费大量时间,不如直接使用闭源项目,以更稳定的产出能力换取更高的时间效率。 在实际创作场景中,时间往往比技术更稀缺,能够快速形成可控效果,比在复杂流程中反复摸索更具价值。 本期教程也是因部分低显存网友的请求而制作老师说,如果早知道整条链路会复杂到这种程度,我当初可能不会轻易答应。 流程永长依赖繁琐,任何一个环节出错都会让人心态爆炸。不过既然决定要做,就必须把它做到足够扎实,把所有潜在的坑填平,让真正需要的人能够顺利跑通。 开源炼录从来不是轻松路线,但它值得被认真对待。然而,如果你的显存充足,我依然更推荐直接使用 z image 的 原声模型工作流,也就是我上期发布的详细教程,稳定性更高,流程更清晰,产出的可控性也更强。 如果你的显存实在不够用,我也不太推荐这种自己安装部署的方式。整个流程过于繁琐,与其在环境里来回折腾,不如直接下载我准备的一键包。虽然体积较大,但模型与工作流都已完整放置,解压后一键即可运行。 对了,由于文件数量过多,我采用了分卷压缩的方式,全部下载完成后,只需解压零零一文件,剩余分卷会自动合并。 如果你没有独立显卡,也可以选择在 runninghop 上搜索我的名字,王之锋,直接在线运行这个工作流,无需本地部署,也不会受到显存限制,对新手更加友好。注册时输入我的邀请码还可以额外获得一千积分,这部分额度足够你完整体验整个工作流。 使用工作流时需要注意,在这里上传的参考图片只负责控制人物的姿态,他不会锁定五官或外貌。如果想在不同场景中保持角色的一致性,需要手动点击淘购罗瑞节点右侧的箭头,将状态切换为 yes, 从而激活该角色一致性用的罗瑞。 对了,再次提醒,这个罗热在女性角色上的建模尤为质感逼真。以上教程送给大家以后,我大概不会再介绍复杂度过高的工作流,我会把重点放在那些能够直接提升生产力的炼炉与工具上, 把时间投入到产出中始终是更高效的选择。 next time, 我 们专注真正提升效率的内容。

安排辛苦画好的遮罩,结果生成这样的图片,欲哭无泪啊!三十秒教你修复专用采氧器,扔掉 k 采氧器吧!哈喽,大家好呀,今天给大家介绍一个重绘效果特别牛的工作流。 工作流用的是我们的 lamp pen 插件, lamp pen 彩铅器允许模型在降噪前可以进行多次迭代。大家可以理解成 lamp pen 可以 像修图师一样,在修图之前可以反复斟酌。与 k 彩铅器不同的地方在于, lamp pen 会基于蒙版区域分析周围的环境,比如说像纹理、色彩、光影, 然后逐步生成与周围匹配的修复内容,而不是一次性生成。这样的一个直观效果就是它修复区域是没有拼接感的, 端图的细节与原图非常一致。好,为了对比直观,我做了两个对比的工作流。输入端使用相同的图片和蒙版,同时使用相同的提示词。模型用的也是 z e m g turbo 的 a i o。 后续的流程会分成两组,一组是通过 k 渲染器的方式生成修改图像,另一组是通过 lamp pen 的 方式生成作品。两 两个工作流我们分别做一下介绍。为了让 k 采集器参考组的效果更好,我们增加了遮罩、模糊生长和差异扩散的接点,这样可以使重绘的区域与周围的区域融合得更好。由于我们的大模型用的是 z e m g, 所以 步数设置为十, c f g 设置为一,采集器用的是 u l, 调度器用的是 simple。 接下来我们来看一下 lamp pen 组。 lamp pen 组的工作流主要用到的就是它自己特有的采集器,这个采集器前面几个参数跟 k 采集器是一样的,前面刚刚有介绍到, lampen 会在彩样前逐步地去思考这个 number, step 就是 它思考的步数,理论上步数越多,思考的越精细,当然后时也会增加我们默认迭代思考是五步。好,下面一个参数是提示的模式,由于我们做的是图片的重绘,所以 prompt 的 模式选择图片优先,然后重绘的模式选择图片重绘。在 lampen 的 彩样器处理完成之后, u v e 解码。我们后面还有一个关键步骤,就是这个 master blend 的 节点,它可以让生成的图片去参考原图片,从而达到遮罩区域外的图像与原图完全一致,只改变遮罩区域本身。好,我们再回过头来看一下输入条件,首先输入一个模特,我把他的服装已经遮罩住了,同时留了半个手臂。 啊,这个是故意预留出来的,主要是想展现 inpen 在 修改图片的基础上保留一致性的功能有多强大。提示词,我们用的都是白色连衣裙,我们点击运行看一下效果。 图像已经生成,第一组是 k 彩样器的对照组,右侧是重绘之前的原图,左侧是 k 彩样器生成的重绘图问题还是挺严重的,大家看,我特意留出来的手臂跟原来的手臂并没有完美的融合到一起,由于 k 彩样器的推理只有一步,所以 生成的很多作品他的逻辑性并不强。好,我们再来看一下 lamp pen 的 工作流,同样右侧是原图,左侧是修复完成的图片,跟 k 传感器的对比差距各位就已经看到了,对吧?我们看特意流出来的肘部并没有因为重绘而改变逻辑,反而非常合理的补充了手部的动作,这就是降噪前迭代五步思考的好处。 再将两种方法放到一起对比一下效果。左侧其实不光是肘部的问题,我们看肤色其实也有问题,生成的手臂它的肤色略深,而 lamp pen 生出来的图片就非常的和谐。另外我们看到衣服和手臂拼接的部分,黑散养器是有非常模糊的一大坨混乱区域的,而 lamp pen 拼接的就非常自然。关于头发的处理,也能看出 lamp pen 的 细节,我们的原图片就是头发放到肩部的前面,而 k 彩样器则是把头发放到了后背,整个人的发型就显得很丑。好,通过上述的对比,我们也得出来一个结论, lamp pen 是 修复图片的专用升级款, 而 k 彩样器则是通用的生成基础款。如果在修图的时候我们需要对图片进行高质量的修复,那 lamp pen 一定是个必选。好, 今天的介绍就到这里,大家如果对 lamp pen 的 感兴趣,可以用一下这个工作流,使用时大家可以把 k 采集器的参考组直接删掉,用 lamp pen 的 采集器组就可以了。我是张 sir, 只推荐简单好用的工作流,关注主播不迷路,拜拜啦!

大家好,这期视频将带你在 beta hub 上从零开始部署阿里开源的六 b 级轻量化纹身图模型 z image turbo, 并通过 comfy ui 十级跑通推理流程。 扩散模型的竞争已经进入参数规模与效率平衡的关键阶段,像 flux 二这样的二十 b 加模型虽然效果好, 但需要三十二 g 显存才能跑起来,推理时间甚至要十几秒以上。而 z image turbo 采用 s 三 bit 单流架构,将文本 token 与图像 token 统一成一个系列进行处理,使得六 b 参数就能做到接近二十 b 的 生成质量,同时显存需求大幅下降,适合实验室 高效企业进行快速迭代使用。那第一步我们需要准备 comfy ui, 将 comfy ui 仓库克隆到本地,就是这个地址。克隆完成后,我们需要把整个 comfy ui 文件加上传到 beta hub 的 文件存储中, 可以看到这里我在之前已经完成了上传。下一步我们需要下载 z image turbo 所需要的三个模型的权重。我们在 beta hub 的 模型库就可以看到我之前上传的这个模型权重, 那它整个包含了三个文件,一个是主扩散模型,然后是它的文本编码器以及它的自编码器。我们需要将这些权重文件通过转存到云端的方式保存到我们的个人的文件存储当中。比如说我们保存到控制台之后,需要进入控制台, 按照这样的存放路径,将刚刚转存的传重文件存放到 comfy ui 项目的对应的文件夹下。 比如这个扩散模型需要放到 comfy ui 目录下 models 这个文件夹的 diffusion models 文件夹里可以看到我之前已经按照上述的操作方式完成了正确的模型存放。 在 diffusion models 这个文件夹下,我已经把这个模型文件存放到里面了。那接下来我们就需要启动一个任务,我们在开发机创建一个开发环境,然后在这里我们选择单卡的四零九零套餐就可以了。 然后在文件存储当中,我们需要把刚刚构建的 comfy ui 的 文件夹进行一个挂载。除此以外,为了能够从外部访问我们启动的 comfy ui, 我 们需要定义一个容器的端口, 端口号是八一八八,然后我们就可以启动这项任务,我们需要一些时间等待任务创建。由于我之前已经完成了环境的配置,所以在这次演示当中,我直接将我之前在开发机当中的任务进行开机来进行后续的演示。 我们点击 jupiter。 进入开发环境之后,还需要为这个项目创建一个单独的虚拟环境,通过执行这行命令来创建并且激活。 然后你进入到这个刚刚的 comui 项目的目录下,通过这行命令安装这个项目所需要的一些依赖。由于我之前已经完成了环境的激活,复制这套命令, 然后打开终端, 那激活了这个虚拟环境之后,我需要进入到这个项目目录下, 并且去执行这个最主要的 python 文件复制这行命令。 接下来我们就需要等待这个任务的启动。任务启动之后,我们就可以回到开发环境来复制这个完整的地址,然后粘贴到浏览器当中,打开, 现在我们看到的就是 comfy ui 的 界面了。然后在这里我们加载这个 z mate turbo 的 模板,这个就是它的工作流了。我们需要在这三个节点当中确认我们之前三个模型都已经指向了正确的路径。 在这里我提前准备好了一些提示词,然后我们对这个模型做一个测试。我们在文本编码这里输入我们的提示词。然后一切准备就绪之后,我们点击运行这个按钮,就可以看到它已经开始进行纹身图的一个过程。 到这里,我们已经在 beathop 上完成了 image turbo 的 全流程部署。从准备环境、上传权重到启动 comfy ui 跑通声图,整个过程都可以在云端一站式完成。也正因为比特哈提供了稳定的 gpu 资源, 灵活的文件存储以及开箱即用的开发环境,我们才能用最少的时间把注意力放在模型探索与科研实验本身,而不是基础的环境搭建上。 如果你也想更高效地跑扩散模型、搭建 ai 工程项目或进行大规模实验,不妨试试 beta hub, 无论是模型部署、训练、微调还是 notebook 开发,这里都能让你的工作流更顺畅,更省心。感谢收看我们下期教程,再见!

哈喽,欢迎来到好奇漫步频道,刚才大家看到的这些质感超强的图片都不是相机拍的,而是用今天的主角阿里最新发布的 cm 开源模型生成的。 模型虽然只有六 b 参数,但生成的图片在细节、质感和真实感上直接对标那些体积大他好几倍的顶级 b 源模型。 本期重点讲解如何利用 g image 这个工具来去除 ai 生图的 ai 感,并利用 seedvr 二点五和 flash vs 二把图片放大到四 k 加级别。 我已经在 runninghub 上部署好了三个针对不同需求的 zimich 工作流。 runninghub 是 comfyui 云端部署平台,点击我分享的工作流即可使用云端的四千零九十显卡,省去了本地部署的麻烦。 务必通过视频下方链接注册,这样才能获得一千 r h b 哈。每日登录还可以获得一百 r h b, 足以让您自由玩转 comfy ui。 下面咱们一个一个来说怎么用。 第一个是 g m h turbo 纹身图原版工作流,这是最简单的工作流,只需简单的提示词便可以生成写实感的图片。 第二个是图片去除 ai 感工作流反推喜图重绘。 我们找到一张 ai 感很重的图片上传到这里,这个工作流可以根据参考图自动反推出提示词,再根据反推的提示词生成类似风格的图片。在降噪这里设置重绘幅度, 如果设置为一,则全部遵循提示词生成新图,生出来的图可能和参考图差距过大,也就是全部重绘。如果设置的值越小,比如零点五, 则生成的图会参考原图,重绘幅度就低,而这一过程则巧妙地去除了原图的 ai 感。这边是 jimmy 的 妙用之处。 第三个是 zimage 纹身图加高清放大修复工作流,此工作流是对第一个纹身图工作流的补充,解决了 zimage 纹身图原始工作流生成图片过小的问题,此工作流可以直接生成八 k 图片 本地部署方案。老规矩,和之前几期视频一样,好奇漫步分享的所有 comfyui 相关资源,包括 comfyui 一 键整合包、模型库,各种本地部署应用和工作流都整理在我网盘的 comfyui 文件夹里。 夸客等网盘链接建视频简介,或者去公众号十万个怎么办?回复 comfy 自动获取。同样的,先把 gmail 相关模型和工作流下载下来备用。把模型放入 models 文件夹, 启动 comfyui, 再导入工作流文件,这时 comui 可能会提示缺节点点,右上角管理器安装缺失节点,然后重启 comui, 直到全部装好,这样就能在本地使用啦。 经测试,本地三千零八十实际显存显卡可运行基础纹身图工作流生成一张幺零八零 p 图片的时间大约三十秒左右,而放大工作流对显存要求要高一些,请自行测试显存需求。 另外注意,目前开源的是 z m h turbo 精简模型,后续还会开源 z m h base 满血模型,还有 z m h edit 对 图像进行精确编辑的模型。不敢想象到时候开源社区会有多精彩,敬请期待后续更新吧。 如果对工作流中的具体参数设置有疑问,欢迎在评论区留言讨论,咱们下期再见!如果本视频帮到了你,请记得一键三连点赞、关注、收藏、评论哦!

hello, 小 伙伴们大家好啊,那么 zee 妹子发布了已经一个月了哈,那么 face 还没来, id 还没来,那么日常催更啊,加油加油,赶快赶快啊,社区已经迫不及待了啊。 ok, 那 么我们说回来啊, zee 妹子发布了这么长时间,其实呢,它的很多潜力我们还没有挖掘完啊, 还没有挖掘完,特别是很多时候我们会发现它这个图像呢,是就说可能没有想象那么清晰啊,比如说我现在跑的是这个幺五三六乘幺五三六的这么一个图啊, 好,这么一个图,那么我们可以看到啊,他这个图像呢啊,这个,然后还不错啊,但是说你细看的话可能就感觉不够清晰,那么我们今天介绍几种方法啊,能够让他图像的无论是细节还是这个锐度都得到一个提升啊,我们看一下这个效果啊, 那么我们循序渐进,从最简单的开始来啊,最简单的,其实我们就是用换一个这个 ve 模型,就这个 ultraflex 这个 ve 模型啊,它是能够解码的,效果更好啊,我们看看这几组的对比 啊,就是普通的 ve 和这个 ultraflex ve 啊,跑了五组,那么先是我们这个产品咖啡机的啊, 这个是我们普通 ve 的, 那这是我们的 ultraflex ve 啊,对吧?啊,很明显它这个对图像的质量呢,有一步的提升啊,不单单是一个单纯的锐化,它是质量都有提升啊,你看到没有是吧? 啊,泡沫的丰富度啊,泡沫这些细小的它都出来了。 ok, 我 们再来看下一组啊,这是一个塞布缝克风格的啊,这个也是啊,很明显包括脸上糊的地方呢,我们看到没有对吧?哎,就已经得到了一个强化哈, 再看第三组这一个男性角色的啊,哎,我们看看这个也是啊,对比那西装的这些细节,对吧?服装的这个就锐度啊,我们感觉他就提上来了,对吧?锐度就提上来了 啊,当然脸呢,其实这个就有点过了啊。我们再来看看第另外一组人物的啊,女性的这回是一个是吧?他的头发也从比较模糊,包括嘴唇这些地方比较模糊呢,变得清晰起来了啊,变得清晰起来了,就拉高了一个锐度。 我们再来看就是刚才风景那个啊,风景呢?这个是我们刚才最基础那张,那么我们看看他这个浪花礁石, 对吧?还有我们的海鸟,是吧?包括远处太阳这些云彩的这些地方,细节啊,他都会有一个提升啊,那么这是最简单的一个方法。其次呢就是老狗大佬他开发了一个节点啊,这个是专门做这个噪声注入的啊,噪声注入我们知道啊, 我们可以理解为劳保大佬的这个节点呢,他是在整个这个降噪过程当中呢,注入了更多的噪声啊,因为他这边我们看看,第一是个强度,第二就说开始的时间,第三是个结束的时间 啊,就是说他在哪一步的时候会加入噪声,还有加入多少,我们这也是可以人为控制的啊,一般我就按照他默认的啊,比如说你要拍女人的话 啊,你就可以给他清第一点啊,啊,劳改劳这边也有个注注视啊,就是零点一到零点二,轻微零点二到零点四比较明显啊,那么剩下这两个就是我们的开始时间和结束时间啊,我们再来看看他的这样一个对比啊,他这个对比就比较明显了,因为噪声一旦注入的话,我们相当于增加了很多内容,增加很多细节啊, 啊,从这个,我们这个海鸟这个开始啊,这海边这个,对吧,一下子我们的细节就多了哈,而且我们会发现它其实图片有点变亮,有点像我们 hdr 的 效果啊,玩过摄影的小伙伴应该都知道 hdr 效果,那有点那个感觉啊,我们看一下,对吧?我们再来看看第二组, 第二组,其实呢,这个人物啊,我们看看啊,无论从沙发,对吧这些,呃,上面的装饰 手,手部啊,还有他这个花朵,这个啊细节包括人物的头发这些,他都增强了啊,都增强了 啊,都增强了,这个就是讲助噪声的一个好处啊,但是说我们看他其实就是有一些,呃,像那种像级的那种 iso 一 样,他有一个噪点啊,这个也是造成出的一个结果,这个也可以调整啊,可以调整。我们再来看第三组, 还是个男性的啊,这回我们再来看他这个衣服细节,对吧,哎,又不一样了,纹理更清晰对吧,对比更清晰,包括后边这块对吧,增加了更多细节啊,这里注意啊,看到后边的背景了没有,雨滴也更多了啊, 那么角色我们看看角色的面部的肌理也更多了,就增加了很多细节,包括你看衬衫这里非常明显啊啊,衬衫的肌理都出来了啊, ok 啊,我们再来看第四组啊,还是这个对比,我们一样的啊,向这里,从左边开始,我们看到这个卷闸门细节多了啊,上面这些细节更多了一些,更清晰了。 水花,水花啊,更多的水花。衣服的质感啊,衣服的质感的细节呢,也是更多了,角色啊, 这些墙砖,这些墙砖啊,好,我们再来看下一组啊,还是这个产品摄影呢?我们最后再来看看跟原来这个对比,一开始对比啊,对吧,细节增加了非常多,包括上面这些,呃,通气口啊,通风口啊, 一些金属质感,包括这种磨砂质感啊,他的磨砂的颗粒都多了,咖啡的边缘,对吧?多了个杯子把,还有我们这个大理石桌面这个纹理也多了,包括我们这个,看到没有,这个咖啡豆袋的上面这些细节啊,都多了, 不多了。 ok, 那 么这就是老狗大佬开发的这个节点啊,这个效果属于也是一层,再往上一层。那我们还有一个什么呢?就是小智大佬,他还有个节点,小智大佬有个节点呢,就是怎么说呢,呃, 他也是相当于做了一个高频的一个处理啊,对这个高频信息进行一个提取,在后段,他是在后段啊,处理完高频信息以后再去解码。 那么他这个我就直接跟那个什么对比了,跟我们那个凹槽 ve 做对比了,他也能提到一个锐化的效果,但是没有凹槽 ve 这么强,没有凹槽 ve 这么强啊, 不过他更适合一些什么呢?就是说可能拍一些女性的啊,拍一些女性的时候,那他的肌肤要求你不能太颗粒分明,对吧,是吧?但是他还是比默认的我们这个涂的要好啊,默认的 ve 的 要好啊, 那这个就不做细对比了,那么还可以把这几个都放在一起去对比啊,放在一起就是把我们这个老狗大佬的跟小智大佬的,还有这个獭兔 ve 呢,我们三个一起来啊,三个一起来,那我们得到的结果,对吧?在这个是 就更强了哈,我们看看啊,更强了,更强,细节也会更加的锐利一些哈,就是多管齐下,多管齐下,但是也要注意啊,他这时候对如果对这种人类的啊,这种女性的,他就有点过了哈,有点过了,大家把握好这个度,把握好这个度啊, 那么这个就是我们从一开始到这种普通的 ve 加上三板斧啊,我们用了三板斧给它做出来这种效果对比啊,你看看这张就像 hdr 的 一张效果了,包括对比度,锐度都上来了啊,看产品摄影的这个也是啊。 啊,这个已经有点过了啊,有点过了,所以说大家一定要把握好这几个的一个应用程度啊,可能三个结合在一起就没必要啊,不是很有必要。 那这个其实大家就看啊,一定要把握好这个程度,就是你要用哪些工具呢,怎么组合一定要把握好啊,就不能说盲目的全部弄上去,像比如说如果刚才我们那套用法,就三个全部一起用, 是吧?做这种风光类的 hdr 的 片子,没什么问题啊,没什么问题啊,但如果是涉及到人人物的啊,像我们这个角色类的啊,如果三板斧全弄下去,我觉得就没有必要了啊,太过了啊,太过了, 包括特别是女性这个啊,对吧,这个跟原来的比就有点过了啊,有点过了,很多女生拍片子是不需要这种啊,产品类的比较硬核的这些东西我觉得是可以把它拉多一点,没什么问题。细节啊,包括一些这个真实度啊,都有一个提升。对比度都有提升, 对吧?啊?包括像这种海报类的,远景类的啊,这个也所以说一定要自己把握好啊。那么今天就是介绍的这几种,我们可以说是三种吧,三种的一个就是逐层递进的这样一个。呃,把自己瞄视呢,它的图片 质量提升了一个方法啊。 ok, 那 就给大家分享到这里啊,对应的节点和工作流还有模型呢,我也会上他的网盘。好,就这样,拜拜。