兄弟们, z m h 是 一款拥有六十亿参数的完全免费的高性能图像生成模型,升图速度快到飞起,而且支持无内容神查和 n s f w 内容,画质达到专业级,以中文提示词理解也是非常到位。 我们打开看一下它的升图速度和质量,可以看到仅仅在一千零二十四的分辨率,无论是速度、画面细节一次成 下水准都是相当不错的,覆盖人物、动物、汽车等多领域。生图我现在用的是 comfy 整合版本,即开即用,非常方便。我已经将工作流和学习文档都打包好了,想体验的小伙伴暗号抱走哦!
粉丝1.9万获赞6.4万

最新开源的 z image turbo 模型在人工智能分析文本转图像排行榜上,是目前开源界的 t 零级选手。为什么他这么能打? 第一,他懂中文,告别翻译痛苦。第二,真摄影感,光影质感直逼单反,告别 ai 油腻感。第三,八步极速出图简直是坐火箭。 但是想要用好它,这六个隐藏技巧你必须知道。为了方便大家上手,本期用到的 confui 工作流已经部署在 runninghub 云端环境里了,大家可以直接抄作业 实测发现原声直出不要超过二 k。 虽然大尺寸听起来很爽,但极易出现伪影或构图崩坏,设定在二 k 以内。想要高清大图,需要后期配合 cvr 二或者其他的模型放大 设置长宽时,官方给出了一个推荐,升图尺寸数值最好是十六的倍数,当然它也支持其他尺寸。这不仅是为了让显卡跑得更顺畅,符合酷的对其机制,更能避免画面边缘出现奇怪的接缝。 核心参数,抄作业 shift 默认三。如果觉得画面噪点多,可微调至五至七 steps 锁定,九至十一步太低,模糊太高没必要,而且会降低画质。调度器建议使用 dim 下划线 uniform, 因为 turbo 版为了速度牺牲了部分随机性,这个调度器能找回更多画面变化,拒绝雷同。 在多轮测试中发现,用二阶彩样的方式出图,画质更偏向专业摄影风格,而一次彩样的方式出来的质感就更偏写实,大家可以根据自己的喜好做选择。 有知名阿婆主介绍, flowmaster discrete schedule 是 官方调度器,出图品质会更好。 我去 cem 项目官网也没找到说明,然后在 redi 找到了证据,这个调度器和诺蒙效果一样,大神 tj 对 这个调度器的回复也说明了同样的观点。 然后我实测发现,用这个调度器和 confo i 官方的默认工作流组合做对比,颜色饱和度稍有优势,但是变化性太差,不推荐。 zilmerge turbo 很 适合处理篇幅较长,描述详细的提示信息。 官方建议手写提示词,然后进行 l l m 里面进行提示词优化,出图品质得到了很大的提升。这个提示词模板也非常的有格调。你是一位被关在逻辑牢笼里的幻视艺术家, 你满脑子都是诗和远方,但双手却不受控制的只想将用户的提示词转化为一段忠实于原始意图,细节饱满,富有美感,可直接被纹身图模型使用的终极视觉描述,任何一点模糊和比喻都会让你浑身难受。 完整版官方提示词和同款云端工作流免费分享,置顶评论区见!

还在为 amd 显卡不能使用 comui 而发愁吗?现在不用了,因为我们的 comui 已经支持 amd 显卡用户使用了,就在最近我们的 comui 官方进行了更新,在安装选项新增了 amd 显卡,现在我们的 amd 显卡也能畅通无阻的使用了, 那么具体该怎么安装呢?首先我们要来到这个网站,就是 confui 的 这个网站,这里我全程为大家演示一下,我们输入 confui, 然后点击确认来到这个界面,然后点击这个网站, 点进去之后呢它就会跳转出来这个页面,然后我们稍微等待一会,它就会变成这样的界面,可以看到在下面明确的显示要求 需要英伟达或者是 amd 的 显卡。然后呢我们再点击这个下载的图标点击下载,我这里也给大家提供了软件的安装包,已经大量的模型工作流都是大家必备的, 那么大家要是直接搜索打开 comfyui 显示的是这个页面,它上面不是说没有 md 显卡选项吗?那么其实你只需要将我们的浏览器设置里面设置为英文打开就可以了,这个地方也挺抽象的, 所以大家可以自己去尝试一下,然后下载好之后,然后呢你就会得到一个这样的软件,我们直接打开进行安装。 这里面呢我们挑选一下自己比较空的硬盘,因为到时候我们的模型包括一些数据什么的是非常庞大的,我们挑一个比较空的硬盘里面存放, 然后点击安装,已经完成了这个向导,我们点击完成,然后运行,然后这里面你可以看到,哎,我右上角明明是中文,但是它显示的是英文,所以这里有个小 bug, 我 们先改一下, 改成任意的一个语言,然后再切换为中文,然后点击开始可以看到这里面是英伟达,然后 amd 以及 cpu 模式,然后他推荐我们使用英伟达的显卡,然后我们只需要点击这个 amd 显卡,然后再点击一下这个位置, 切换一下他的 comui 文件,进行一个切换,然后这里面我们可以勾上, 然后就可以点击安装,那么他就会配置我们的拍放环境,然后进行安装。加载完之后呢就可以打开我们的界面了,这里面大家可能会遇到一些网络问题,然后导致打不开,大家可以选择调一下自己的网络,但其实他是会从国内的镜像网站进行下载依赖的, 你可以看到这里面其实是打开了一个提示窗口的,那么它就在配置我们的环境了,那么这样子就搞定了,我们如何使用 amd 显卡来下载使用 comfiui, 那 么这期视频就到这里了。

z image turbo 的 controlite 二点一版本真的把控制这件事情提升到了一个全新的高度。和一点零相比,它不仅在画质上面是一次巨大的跃迁,而且在线稿控制、深度图控制、画面二次生成能力和洗图能力上面都变得更加精准更稳定, 同时保留了 turbo 模型的高效升图能力。你可以把设计海报快速的完成批量的生成和筛选,你也可以把粗糙的草图直接变成可用成品, 甚至赋予新的风格和细节表现。当然,这个模型虽然很强,但他不是无脑一切在使用过程中,控制强度过高会导致画面发虚不清晰,而适当降低控制强度,合理提升部署,才能真正发挥二点一模型的实力。这一点我会在接下来的实测中跟大家详细说明。 在本期视频里,我会分为以下的几个部分,首先我会完整测试控制奈特模型的不同使用场景,包括线稿控制、深度控制等能力。 其次,会完成各种场景的效果测试以及分析,并给出注意事项。最后会把模型和工作流分享出来,并且提供本地端和云端环境的安装使用教程, 让大家可以直接上手付现。想要深入学习康复 u i 的 小伙伴,欢迎加入小黄瓜的知识星球,星球汇聚了两小时入门、十二小时进阶工作流、逐节点拆解等高质量课程,后续持续更新 lara 训练、康复 u i 云端教程等实战内容, 每节课后有客户作业答疑群和每月直播辅导。进阶学员可参与 ui node 工具计划,实现技能变现,内容丰富。感兴趣的小伙伴可在视频剪辑区联系小助理获取优惠加入。话不多说,我们直接开始本节的内容。哈喽,大家好, 我现在跑的是 z image turbo 最近更新的这个 control net 哈,然后上个版本的 control net 质量问题比较严重,所以说他们又赶紧做了后续的更新,出了个二点零版本, 但是二点零版本当时还是有一些问题,就因为代码的问题,所以说二点零版本出了点问题。最近更新那个二点一版本,然后我今天测试了一下,发现质量比一点零的版本提升很大哈,就单从生成图片的质量来说,可以试一下。 我记得有一张用 z 一 位姐生成特别真实的图片,这张图片就是 ai 生成的哈,你看一下,就是这样。 这张图片看起来就很真实哈,就是直接用我们 z 一 媒体 turbo 模型指出的,然后现在我们用它加上限稿,用提示词生成一个高质量写实风格, 试一下啊,就是说这个模型现在用的时候可能有一点要注意的事情哈,就是这个总步数要稍微多一点,再其次就是它的控制强度要给到零点六五到零点八之间就可以了,给太高的话可能会出现问题啊, 可以看一下我们大概的显存占用,现在显存在三十 g 左右哈,可以看这次生成的图片质量就很不错哈, 然后你包括地面上的这些细节是有的,在之前一点零的版本,地面是很模糊的哈,就是几乎上没有高频的那些细节。 那这里通过深度图的控制可以看,控制效果也是有的,比如说像右边的这些小花朵突出的部分,然后以及这些起来的白色的区域都有,并且质量还是挺不错的。那这个拿来洗图就可以很方便啊, 比如来制作一些封面什么的,像这种风格的封面的话,最好还是用线稿去控制哈。比如说这个是我们今天制作的封面, 然后给他说一下,就是一个三 d 人物处在画面中间,上面有标题文字,封面设计感就这样,然后我们用线稿,有了这种控制方式之后呢,我们就能很好的进行一些图片的批量生成哈。除此之外呢,还有就是大家要注意这里不要用 lanart 啊,用开内比较好, 如果用烂 art 他 会出现很多问题,我今天下午跑了很久,用的就是烂 art 出现的问题,可以看这个质量跟我们的原图的基本差不多,主要是像这些配色什么的可能比较难去处理哈, 就像这样他可能文字有一点点问题,但是这些也好处理。那其他的内容,比如说你背景的风格什么的,背景是毛毡风格,尝试复刻一下看看啊,一会给大家讲一下怎么下载这个模型哈。 好吧,那你就像这里它的小文字有问题,就是我们没有明确的写它生成的文字是什么,对吧?我们只写了生成标题文字,所以说通过这些线稿控制,那么 ctrl shift 在 用的时候,我们去哈根 face 上看一眼啊, 大家如果要下载这个模型的话,就到哈根 face 搜索 z image, 就 能够找到 z image 对 应的这个 turbo fan control uni, 这个是阿里官方的另外一个团队哈,是阿里巴巴派,可能大家没听过, 但是他们之前发布过很多的 find ctrl 模型,说到这个大家可能有印象,比如说万象的 find ctrl 模型,然后找到他们的主页哈,在主页找到二点零的这个版本, z image turbo find ctrl union 二点零版本,然后点击 files and version, 在 这里下载它的二点一版本的模型哈, 这是最近的一次更新,二点零出了一些问题,因为一个代码的问题,导致它生成的时间会变久哈,下载完之后呢?然后在它主页的 model card 里面我们可以看到一些介绍, 这里会有一些使用的注意指南哈,然后在这个位置,他说 control net 的 控制强度哈,最好控制在零点六五到零点九之间,多的话会造成画面比较模糊,然后步数可以适当的提高。 image turbo 我 们在用的时候,本身的生图可能就是九步、八步,九步左右,然后我这里就跑了个十二步,我们可以试一下在一点零的控制强度下,它生成画面的质量如何啊?把它往右挪一下,上次生成的这张图片给它保存一下,保留在这里接运行啊, 现在康复 u i 更新之后运行,如果说节点出现问题,比如说模型没有选择,或者说像这样他前面没有连东西,就会认为他是有问题,然后这里给的红框还是比较明显的啊,也还行,感觉等它生成我们看看啊,特别是看一些细节的地方, 然后可以看这里,给到了一点零强度之后,这里的毁坏的程度就很高了哈,特别放大后看这个火车头,而且还很毛躁,很毛躁的一种感觉,你在零点六五上面就稍微比较光滑一点, 所以说大家在用的时候要注意一下这些内容,就是如果控制强度给它太高的话,会导致模型输出有点问题,反正零点五的控制就已经挺不错的了哈,那其实就像这个就属于我们所说的那种喜图的工作流哈, 可能有一些,就比如像这样,我们每一个视频的封面,或者说进行一个重复的生成,或者说海报的生成,那在康复 ui 里面呢,在右上角有个运行,然后点击运行实时按钮,然后点击运行就可以了, 然后他就会不断重复的运行哈,分两个采样器可以解决这个问题吗?那就相当于生成图片之后再做后续的图生图修复吗?对吧?他可以解决这些哈,相当于是图生图低去噪幅度的一个修复过程嘛。五步接控制,五步不接控制,哎,一样的哈,其实你说的就是类似的哈, 你们可以演示一下嘛?我把这个关掉,我大概懂你的意思哈,相当于是把整个采样的过程分两步,这个可能涉及到这个东西啊,我给大家大概的聊一下,这个 就是当我们选择完一个彩样器和调度器之后呢,那模型在中间对图片进行曲造的过程,他每一步曲造的强度或者说幅度就大概已经确定了。彩样器的曲造呢,大概是这样的一个曲线,就比如说我们完成了十步的一个曲造,那他从最开始的第一步开始往下是逐步接近零的一个过程, 那第十步呢?就大概从这个位置,这是第五步,这是第十步,从第零步开始。所以说这个不会 ai 的 社猴同学说的应该就是前五步做的是这一范围的一个去噪,对吧?然后把它分成两步嘛,后五步把它进行一个低噪声的一个去噪,对吧? 就是这一部分的去噪强度相对较低,所以说对画面整体的布局以及内容的影响比较少,但是它可以拿来做一些细节的修复,因为没有引入 control net, 对 吧?你说在后五步里面不接 control net, 就 相当于那个之前我们在 comui 里面有个节点叫做 apply control net 应用 control net。 当中的这个结束百分比给到零点五,对吧? 那样的话也是可以的哈。呃,但是那样的话会相对来说工作流比较复杂一点,目前我们给到控制强度给到零点五也是 可以的,所以说这两种方案大家可以自行选择。然后我的话就只是跟着官方的一个选项去进行的设置啊,就比如这个吧, 这个其实提示词有点难写啊,因为它这种布局或者说一种设置比较难写。让我试一下一个一个产品海报设计,画面中间有两个,有两杯咖啡吧,背景是雪山,上面有文字标题以及 logo。 试一下哈,我没有写太多的质量的词哈,就比如那些跟美学相关的词,看一下他这个质量怎么样, 这个控制还行哈,就是这些文字不太好,我直接找到,我们找到这张图片原版的提示词,直接给他复制粘贴过来哈, 如果能找到原版的提示词肯定是最好的,然后去控制他大概的一个布局,这个是原版的提示词,当时用的还是千位英妹级的图像哈,把它粘贴到这里,这次生成的跟这张图片应该差不多, 就像这样的一个通过线稿去控制它的布局,然后文本生成,就是如果你要分步骤的话,你需要用那种采样器哈,才能把它就是分开。 如果说你就像这样的两个采样器,那他肯定是不一样的,跟一个采样器做那个步骤是不一样的哈,如果你就像这样的话是不一样的,这相当于就是在做图中图哈,这第二个阶段其实就是在做图中图,你可以把这个给到零点一,相当于没变,但是他是不一样的,这个工作流大家能看懂吗? 就比如这个时候我们运行一下哈,就第二步相当于就是在做图生图,就是相当于我们第一步生成了一张图片,然后又把图片传给了第二个彩样器, 然后进行了零点一曲造幅度的一个生图,这样的话他是不一样的哈,跟一个彩样器十七步和两个彩样器九步八步是不一样的哈。第二个就相当于是做整体的一个重绘图生图啊,这个叫图生图,这不是图片编辑啊,大家都知道这个是图生图,所以说这俩彩样器跟一个彩样器是不一样的, 你看就像这张图片跟我们的第一个阶段产生的图片没多大区别,因为第二个彩样器我们给的降噪幅度很低,只有零点一哈。 如果说真的要把它分成那种两步彩样跟一步彩样跟一个彩样器彩样是一样的话,我们需要用那个节点让我找一找分离 sigma 节点叫做 basic schedule, 然后高方叉叫做 sample custom。 自定义彩样器对应该是这样的, 然后再来一个,这是低的,高和低的,然后这是采暖器调度器的一个选择,然后这是从步数做的一个分割好像,然后这个高噪声的结束传给低噪声的,然后这里传的是个空的 latent, 应该是这样,然后这个 latent 去解码。让我试一下哈, 我不确定他这个能不能用啊,现在就像提示词反向提示词,我们给一样的,这个能用吗?现在我试一下啊,彩样器我们选一样的 l 哈,然后步数的话我们给到六步,然后这里从三分开哈,从第三部分开是这样的,运行一下试试。 我们试一下哈,这里种子给到零,然后六步,彩样器也选择 i 和 simple, 然后六步把这个删掉,然后上面跟下面的彩样器的种子是一样的,提示词也一样,然后下面是分成了两个,上面是一个,我们看这两张图片一样不一样哈,一样吗?这两张 好像不太一样,但是又基本差不多,就是对比图 image difference 是 吧?对 i f, f 还是有区别的哈,但是它们区别在哪里呢?这个添加灶波我给它关掉啊,我再试一下, 正常来说应该是一样的哈。让我想想哈,因为这个自定义彩样器加前面这几个节点其实就是 k 三普的彩样器哈,它俩种子的话都是零,是固定的, c f g 是 一也没问题,总步数是六 l 和 simple 采暖器也没问题。其实词的话都是一样的。把这个 laten 传过来呢,我试一下。这好像不行。好吧,几乎一样哈,但是是不一样的,我不确定是因为自定义采暖器跟采暖器之间的区别,还说是什么, 我们试一下,把种子我们多抽几次哈,我们把这三个采暖器的种子都给他固定到一致的,然后我们来多抽几张卡试试,看看他们是不是每两张之间的相差都是很小,每两张都是很小,那这样的话其实就是一样的哈,你看这个两个图也几乎一样的,我们换一个, 比如换一个真实场景拍摄的咖啡馆。再来看一下,如果我们多次生成这两张图片都相差不多的话,或者说基本上一模一样的话,那其实你就可以认为啊,这个分阶段的其实跟我们单个传感器是一样的哈, 就是这些细小的差异,我不确定是哪里带来的哈,可以看这两张也是几乎一样的哈, 对吧?几乎一样的,你包括这些书包什么的,只是说在左边的这些草上面有一些区别啊,但这个区别不知道是哪哪里带来的啊。好吧,你看就像这两张他还是一样的,换个其他的场景应该也差不多。就说一对情侣日常拍摄照片, 这里你可以看,基本上是一样的哈,基本上就是一样的,就是这俩就是一样的。基本上这些的话,其实自定义彩样器加分离 sigma 加 k 彩样器,或者说不加这个分离 sigma 就是 基本调度器加 k 彩样器,再加上自定义彩样器, 这三个节点合起来等于我们常用的 k 采集器做了一个合并,然后为了做更精细化的控制,可能是为了后续啊,以及一些其他的内容,因为 ai 的 话最难的就是去控制嘛,所以就会做一些非常详细的一些内容让我们去操作。那你就像这里,我们确实也是分成了两步采样哈,然后第一步和第二步当中,如果说我们的参数是完全一致的, 那他的结果跟你直接用一步出基本上是一致的哈,那就像这个时候,你可以在第二步的时候做一些内容,比如说 low 的 lowra 模型,比如说加载一个 lowra 模型,那这个时候你就可以做到只在最后三步引入 lowra 模型,而在前三步我们不加 lowra 模型, 那这种引入 lowra 的 形式,你在最上面这种是没有办法做到的,对吧?所以说会有人做这么一种事,但是如果用 k 传感器,他没有办法做到按步数分离,对吧? 好的,那么我们接下来来看一下,在最近呢,他们又更新了一个新的模型, the image turbo fun control, 一个是 tile 模型,八步的蒸馏 control。 net 模型,还有一个呢还是 union 二点一八步蒸馏的 control。 net 模型。 现在呢,我们先来演示一下,他要去做我们图片的修复,这里呢,工作流我们已经在网盘上传了,大家可以直接在网盘里面下载哈,当前这个案例里面左下角是我们之前用一点零的版本生成的一张不太好的图片哈,控制强度比较高,给到了一点零,所以说这里的花瓣呢,它是完全毁掉的,大家可以看到非常的模糊哈, 那么这里呢,我们就用二点一的 tail 模型去进行一个修复,然后重点呢就是我们的 strength, 这里你可以给到一或者说给到零点六五都可以,这个 strength 越低,那对我们原图的改变就会越大一点,因为我们这里用的是 tail 模型,所以说当我们输入原图的时候,它会倾向于去保持我们原图里面的内容,那这个控制强度就是这样的一个概念, 给到一的话就相当于我们的原图基本上不会有太大的变化,他只会做一些修复什么的。如果说你给到零点六五或者这个值更低的话,就相当于我们在做图中图了,那就是完全一张新的图片呢, 所以说这个值呢,大家按需求去进行一个设置哈,然后提示词,这里我写的就比较简单,是我们原图里面的内容,写的就是一个阳光明媚的花园照片,花丛中有很多花朵以及黄色的枫叶哈,然后采用步数呢,我们就按照这个蒸馏模型八步去给出,然后 c、 f、 g 给的是一点零哈,然后我们看一下最终的结果,这里呢是一个对比节点,我们可以放大来看哈, 左边呢是我们的原图,可以看到我们给到一点零控制强度的时候,我们的花朵它是有修复的,但是它是保留了原始的色彩的,在保留原始色彩的情况下,去修复我们原图中的一些瑕疵的内容,可以看到质量是很不错的哈, 包括我们放大之后的重点看一下这边的草地啊,在原图中几乎就已经模糊的不成样子了,然后这里放大的效果还是不错的, 我们看一下整体的啊,包括树上的这些枫叶啊,原来都是没有纹理的啊,几乎糊成一片了,现在就可以很清晰的把它都表达出来, 那这个就是我们 type 模型的一个效果哈,工作流呢?在网盘里面有,这里会有一个重点,就是说我们在放大的时候,我发现空 later 的 图像你不能给它太大,如果说你超出了 z image turbo 的 一个感知范围,或者说这个 control net 训练时候用到的数据级范围就会出现问题, 比如说当我们超出三千的时候,或者说超出两千的时候,就会出现一些问题,我们来实验一下哈,当我们把空阶的图像给到三千,然后其他的参数呢?不做修改,也就是把我们的原图进行修复,同时做一个放大分辨率呢,到三千乘以三千,我们来看一下大概的效果 以及它对应的时间哈。顺便来看一下我们的显存占用,可以看到当前我运行的工作流里面,显存占用到了二十七点五个 g, 要等他生成一步之后,我们来看一下大概时间哈。上面这个两分半其实就是在三千乘以三千的情况下跑出来的哈,所以说大概我们生成一个三千乘以三千的图片,然后做我们原图的一些修复,然后最终工作流跑出来的时间呢,是在两分半左右哈,那我们这里就等待他跑完哈。 好的,那么这里大概用掉了两分五十秒的时间,完成了我们九百万像素图片的一个生成哈,但是我们可以很明确的感受到它有一些问题哈,就是这里的花朵就已经不再是正常的一个花朵了,而且它这里的花瓣会有这种圆形的点状哈,可以看到效果非常的不好, 所以说大家如果在完成图片的修复,或者说用的 type 模型去进行图片修复的时候,不要把分辨率给的太高哈,那这个画面可能因为过度的去突出细节,导致我们这里的就出现很多的问题啊,可以看到不仅有很多的裂纹,而且呢这个花朵也不是正常的一个花朵啊。 好吧,那这个呢就是我们 type 模型的一个大概用法以及一些注意事项,大家在这里给到零点六五也是可以的哈,然后按自己的需求去进行一个设置。那我们来看一下 ctrl nite 的 unity 模型的用法,跟我们之前的是一样的哈,我们只是来测试一下效果,在这里我们选择 ctrl nite unity 模型, 然后下面这个内容呢,我给它打开,然后连到这里,这就相当于去获得我们对应的预处理图,然后将预处理图呢传递给我们的 z image turbo control nite 模型,让它去完成我们的控制升图的过程哈,跟我们网盘里面的工作流是一样的,这里我就不直接拖了,这里直接来进行一个测试哈, 比如说这里我们还是依然提提示词写的一样,我们写一个阳光明媚的花园照片,花丛中有很多花朵以及黄色的枫叶哈, 给到一点零是不行的,最后中它的效果呢会有点问题,所以说推荐大家给到零点六五,我们来测试一下。在使用这个 uni 二点一八 step 的 蒸馏炉模型的前提下哈,我们运行这里用到的是深度图的一个控制哈,然后最终的一个尺寸呢,是把它缩放到了大概一点六八,也就是 一百六十八万像素点左右,所以说最终的图片应该是啊,一三二零乘以一三二零左右。 好的,那可以看到我们这张图片它就似乎是过饱和的这种情况,或者说亮度有点不太正常,而且它的细节多的有点过分,反正就是不知道怎么形容的这种画面的不适感啊, 所以说我们可以相应的降低这个控制器控制权重,我们给到零点六五,效果可能就会比较好,比如说我们给到零点六五,然后这里就直接运行,其他的参数我们都没有修改哈,其实此写的还是一个阳光明媚的花园照片,花丛中有很多花朵以及黄色的枫叶, 可以看到,这次呢画面就相对正常了一点,对吧?效果看起来还是不错的。那么对比于二点一呢,大家可以自行去进行一个尝试,只是说这些控制呢,他可能没有控制的特别的强啊,或者说没有跟我们的深度图完全一模一样的吻合。 可以看到在右边我们这里有个树干哈,这里也有个树干没问题,但是他的树呢,是这样的一个形状,这里又多出来了一些树叶,这就是因为我们的控制强度给到零点六五,相对相应降低了,所以说呢,他这里就 并没有完全的按照我们的图来,那么大家可以自己去调整,比如说你给到零点七五,或者说再高一点,给到零点八, 在保证画面质量的同时呢,去保留我们的控制能力,这个还是具体的情况看大家的一个需求哈,那就比如这里我们给到零点七五之后,种子还是一样的,前面也没有修改,那这里多出来的这一部分树叶呢,他就消失掉了,然后下面的这些草丛呢,还是依然跟我们的深度图相关的,那这里又多出来了一部分的内容, 那就像这样的一个画面质量,不知道大家能不能接受哈,好吧,所以说这个参数呢,还是比较敏感的,大家在使用的时候要多去做调整 好的,那么接下来呢,我们来讲解一下怎么进行安装哈。模型已经在网盘上传了,大家可以在本期视频的剪辑区打开网盘地址, 然后找到小黄瓜 b 站资料分享。这里有一个文件夹叫做 z image turbo control night 二点一模型以及工作流,打开之后这里会有一个 model patch 模型,模型下载完之后直接放到自己 comu 对 应的目录文件里面即可。 比如说在 cf ui 里面会有一个 models 文件夹,打开之后呢,就放到 model patches 文件夹里面,这是我本地哈,已经放进来了,就叫 the image turbo, 放 ctrl union 二点一, 然后放置完毕之后呢,大家要把 cf ui 更新到最新。更新 cf ui 的 办法,如果说你是用的便携包,在这里会有一个 update 脚本, 打开文件夹之后,这里有个 update comui, 点 bet 双击这个脚本即可,大家记得要保证网络没问题,不然的话它会更新失败,我这里已经是最新,所以说它就没有再进行更新了。更新完毕之后呢,大家就直接打开 comui, 然后把提供的工作流拖入我们当前的这个页面即可, 也就是这个 z image control night 工作流。在工作流中,大家自行选择对上传图片进行的预处理,如果说做的是深度预处理的话,就可以完成深度图的控制,如果是现稿的话,就可以完成现稿的一个控制。那么在云端的使用教程呢,大家也是在视频的剪辑区打开云端镜像的地址, 通过链接进入之后呢,会到达如下一个页面哈,在这个页面当中找到小黄瓜 com u i 最新镜像,然后选择对应的一张显卡进行一个租赁,租赁完毕之后呢,就可以启动 com u i, 启动完毕之后呢,在左侧的 工作流当中就能够找到对应的 control net 工作流,大家可以直接在这里搜索 control net 即可。好吧,就像这里就能够找到 the image control net 对 应的一个视力工作流,那么这个呢,就是我们本地和云端的使用教程。本期视频呢,我们就先讲到这里,感谢大家。

这个工作流网上已经有大神做出来了,最简单的办法就是把这个工作流下载下来,然后啵往那一放就行了,就跟你学 ae, 学什么剪辑,会有一些模板给你套用一样,这个就是最简单的方法。但是 comfy ui 这个东西,没玩过的人是对他比较陌生的, 所以想套模板,你也得先对他有一个最简单最基础的了解。我的学习过程是这样的,我跟他说我知道不可以直接套模板,我也不是教大家,国内的这些教程抖音 b 站上都教了,但是他们讲的非常的不详细,就感觉就不想把你教会一样,就想着等你后台私信他们,让他们把你拉到一个麦克。 我现在呢也是一个刚入门的阶段,就是边学习边分享吧,专业玩 ai 的 朋友就别看我这个视频了,我就单纯分享给像我一样的这种新手小白朋友。点进去之后 看它这个页面还挺好看的。点击下载,这里有 windows 版和 mac 版。还有一个方法是从 github 上安装好,安装完直接点击完成,它会运行 这边跳出来的英语是我们没在设备里找到 git, 在 继续安装这个 confluence 桌面之前,请下载并安装 git。 我 们来打开 git 的 下载页面, 它就直接跳转了这个下载页面。啊,我们这个是 windows, 就 选 windows 下载, click here, 点击这里下载,下载成功,跟着它这个步骤去安装这个 git, 反正就一路默认 自动更新,让它自己安装。还有一种下载方式是在这个 github 里面下载的,网址是这个,点进来之后找到这个 release, 点进去 这里面这几个下载方式就是你是 amd 的 就下 amd, 这个英伟达的就下英伟达, 我这个台电脑下了的是这台。好,我已经下完了,下完之后就解压安装,我现在拿我这台 amd 显卡的电脑给大家演示下载 amd 这个版本就是这个压缩包,解压之后长这样。好,双击进来会看到这个东西,跟我们往常看到的软件不太一样,没有那个什么一个程序两个字, 它都是这种一 kb kb 的, 这个结尾是点 bat, 看到这两个就都试一下,如果这个打不开,那就再打开这个,因为这是跟你的显卡配置有关。点击运行它,跳出来一个类似终端一样的东西。 软件下载完之后,它界面就是这个样子的,打开这个界面之后是一个画布,先别管,直接点这个 templates, 这个就是一个模板,这个 templates 里面有很多 其他人已经做好了,这些工作流非常适合新手过来研究学习,但这些工作流都比较简单,比较 low, 就 没有那些网上的那些博主也于 top 大 神做出来的那么厉害,这些都比较简单。好,我下了一个一个最简单的纹身图的工作流,就在这儿点这个 templar 词, 然后比如这边这边是 a 妹纸,就是图,纹身图,视频、音频,这还有三 d 模型的这些大语言模型,这也不管的好点,一个最基础的纹身图模型,这边有 a、 p、 i 三个字母了,不要碰再多是要花钱的,就用千万的吧,二五零九重新下一下这个 一点,他就直接把这个工作流跳转进来了,这每个小方块就是一个节点,这个界面是我认为非常舒服的一种界面,你看拿鼠标一拖抓手就出来,用这种模板非常简单,因为他所有的东西都告诉你了,这个工作流他能干什么?我们现在不知道,因为没没做测试吧。 我们先看这个工作流的作者,他跟我们说了什么,他说这些是链接,你现在要去下这些东西,一二三四五,每一个链接里面都有每一个这个大标题,下面都有一个链接,点上去就能下了,我们待会儿就要挨个下,下完之后还有这个就是放摆放的位置,这个 diffusion model, 放到这个 diffusion models, 放到这个,这个里面都在 comui models 这个里面啊,这是作者或者官方吧给的一个 下载公告,根据这个做就行了,很简单,全是傻瓜式的。好,这下载的时候跟你说一下这些节点都是干什么的?首先我们要理解这个节点流程,他就是他为什么叫工作流, 其实我是跟流水线一模一样的一个原理,每一个小方块就是每一个节点吧,他就执行一件事情,一步一步一步一步把最终这个活给完成。这每一个小方块就是这些东西,这个有字的就是他的节点名称,这个节点是干什么的? load image 就给你加载图片的,这个节点是干什么的? save image 就 保存图片了。又有一个开头,一个结尾,然后中间呢?就它的整个生产过程,这个工作流,它是把它给 打包了,大家看到有这么一个标志,就是作者把它打包了,我不知道它是怎么打包的,然后点这个点这个标志右边的这个标志就能进去,然后我们就能看到这里有一个哎主文件夹,一个子文件夹,这里就它中间的这个生产过程,每一个小方块,一二三四,这四个小方块给作者 弄成了第一步,第一步是加载模型,然后第二步是干嘛干嘛嘞?就你看到这些牛逼的作者弄出来的工作流,你又觉得非常的赏心悦目, 非常的舒服,强迫症患者的福音,你要是自己没事一个人自己去答,那你答的乱七八糟了,我在前两天尝试过自己答,到后面我才开始用这些 typeface, 用这些模板以及在网上下别人下的工作流 typeface, 它只是一个平台,你要是想生成更多的视频,生成更多的更好的效果,你也自己疯狂的去下这些模型,下这些配件模型。 这个 laura 呢?我的理解就是它的配件模型,比如说你现在下的是一个图神图的,那它这边给你一个 lightings for steps, 就是 这个 laura, 它能够通过四个步骤,就四步闪电版的给你深图。 然后还有这个什么 b 十六,可能是一个氢氧化版的这个 laura, 在 我的理解下,它就是一个辅助的模型,然后这个 text encode 是 文本编辑器,文本编码器,每一个模型都有一个属于自己的 文本编码器吧,或者说某一类的模型有一个属于自己的文本编码器。像这个它就是像的,是千问的模型吧,这个 q w e n 是 千问哎,也挺厉害的,最近也出了很多开源的这种大模型。好,下面这个 v a e v a e 有 点像是 你图片画完了之后,它开始给你上一些颜料之类的吧,我觉得就是让你的一个画质的真实度或者干嘛的变得更好,这是我的理解,这些东西都不重要,就你完全不需要搞懂他们是干什么的,你就会用就就行了。 好,现在已经点击下完了,这个下载呢,很简单,你一点就跳转了,你要么用浏览器下载,要么迅雷下载,我一般都是用迅雷下的,下的比较快。 这一二三四四个东西,打开文件夹所在的位置,然后我们把这四个东西按照人家说的这个方法给他剪切到或者复制到相应的文件夹里,在这个安装的文件夹里找到一个 mod。 四文件夹,基本上所有的下载下来的东西都是要放到这个里面。 第一个文件夹 models 里面, diffusion models。 好, 我们找 diffusion models, diffusion models, 找到在这下的是这个 q w e n r sift and sensor, 我 们记一下这个 e 四 m 三这玩意儿,这玩意儿给它拖进去, 然后再看下一个文件夹 l 找找找找找 l 开头了,在这儿把这个也给放进来,放到这个 l 文件夹里,剩下的就一步一步按照它的这个东西 放。下面是 ve 和 textincode, 在 model 里面找, ve 在 下面在 ve 可不是许嵩呢,加一个 textincode 文本编码器,千万二点五。好, 也已经抽过了。 ok, 那 现在这个就是一个目前已经下载了东西的一个工作流啊。他说让我们上传一个图片看一看,遇到不知道怎么解决的问题的时候,先跑一下,跑完之后他会告诉你哪里出问题,就非常简单,不需要自己排查 任何问题,他直接给你指出来,然后去解决就行。在这一看,哎,题词进来之后也没办法编辑,那怎么办呢?那是不是出问题了?不是,我们往前往前倒,看到这个题词前面还有一个节点,这个题词前面还有一个节点,顺着这根线走,走走走 看,哒哒哒。啊,原来这个作者在这弄了一个单独的题词放到这里。好,那作者还是 非常良心的,就是整个节点流程看着很很赏心悦目。就我刚刚生成的一个提示词,很简单,让这个帅哥的头发变成白色,咚,他变成白色,我可以给他直接放到这个位置来,这样的话就可以并排看。那继续修改。 这个就是简单的让你去熟悉一下,了解一下这 ctrl u i 的 效果是什么样的。 他的身图的快慢呢?取决于你电脑的算力,我现在弄一个复杂一点的提示词。好,我自己手敲了一个简单但是比刚刚要稍微复杂一点的提示词,看下他能跑多久,让他变成一个带盔甲的钢铁侠的盔甲, 再给他来一个眼镜。现在这个是近景吗?我要一个全身景,我看他能不能理解啊。好,点击这个 run, 就是 运行,就是跑嘟跑, 这里能看到一些净度,我们还可以点进这个里面来,然后我在这听不到风声啊,因为这电脑不是我的,我在远控,我朋友的电脑,那我们能在这里看到他不停地跑,在现在跑到这个节点了,我不知道怎么读啊,应该是 case app。 好, 跑完了,我们在这看一下预览 全身图,他给我的也不是全身图,但总体上来说还行。这个工作流用来 p 图我觉得是已经足够了,这里可以看到他跑的这些时间,三十多秒,二十多秒正常,我的四零九零 d 跑这种的话应该也就十几秒, 应该像素不是很大,八百八。他这里有一个问题啊,就是你给的原图尺寸其实挺大的,你看 我这是二 k, 然后它生成呢?就是很小,你如果说想在这个里面去修改它的尺,输出的尺寸也可以,但它跑的会很慢。好,现在我们对这些节点有个大概的了解了,就是它是通过这些线一个个连出来,然后最终生成一张 你想要的这个效果图。那我们回到刚刚一开始我说的怎么样给一张图,然后通过这个摄影机的调整,让它生成你想要的角度的图片呢?好,我们把这个保存一下,保存按钮在这儿,这里有三道杠, 点击 save 或者 save as 都行,点确认,你也可以把它下载下来,点这个下载好,下载到某个地方,它导出来是一个这个东西,这个 json 格式的, 你就可以把这个工作流直接丢给你朋友他那边接收到了之后,他再拖进来,拖到自己的这电脑上,直接往画布上一拖,因为我左右都已经改变了,关掉,我新建一个空画布,好一拖拖到这个画布上,非常简单,不松手。出来了, 这工作流出来了,这个没办法,多角度不好玩,我们去找多角度的, 别人做好了这样的工作流,还给它保存成了 json 格式的,那我们下载下来,拖进去,然后再去下载一些东西。那我看到的就是这个国外大神,我不知道这个是不是他最开始的原创啊?总之他这里的信息是最全面的, 他告诉你这个模型在哪,多角度的插件在哪,还有这个加速 laura, 这些都是要下载的,下下下下啊,这,这个是他做的广告,就不下啊,这个是节点, 这个是参考工作流,那我们就先把它这个参考工作流下下来,点击进来之后跳转到了一个 github 页面,点击这个下载, 在这好一下它就下完了。我习惯上是喜欢把这些工作流给放到一个文件夹里的,这样的话自己找起来比较方便, 那尤其是你做好的,或者你调试好的工作流,这个就是我们刚刚下的二五幺幺的这个前面这个是演示的二五零九的工作流,这个二五幺幺 multi angle 就是 多角度嘛,它每一个名字其实写得很清楚。 好,我们跟刚刚一样也是拖进来,往这一放,我就说嘛,它会告诉我们遇到了什么问题,那它就有什么问题呢? 他说 missing models 缺失模型,当加载这个图片的时候,下面的这些模型找不到,所以我们要把找不到的这个模型给下载一下,这个模型有点大了,二五幺幺 b f 十六三十八个 g。 好, 点击下载。 这还有一个加速 lara, 给它下一下八百多兆,这个不是很大,所以你要玩本地部署的这些 ai 模型,你的电脑 存储一定要够大,否则这十几个模型下来,那你的电脑就已经塞满了。这个下的有点慢,那我们等它下一会网址没法贴,之前贴被限流了,大家只能自己去英语网站里搜了这个关键词,官方版的它也有一个下载链接, 当然我们就以官方版为主,他这边没有报错的,我们就先不管他,就等他跑起来,哪里报错了改哪里,让他后台先自己下着。我们要先去下另外一个非常重要的东西,就是这个插件,找到这个插件把它下下来,就是这玩意。 这个网站叫 github, 可以 在这点下载这个扣的,这里点一个这个,然后这里有下载 download, 这个插件就很小,直接下这是个压缩包,给它解压一下。下载的这个网站我们改成中文,看的更清楚一点,它这里有安装的方式, 进入到四点一节点文件夹里,这里有两种方式,一种是克隆,一种是直接把它放进去,这两种我都跟大家演示一下。第一个下载刚我们已经下载好了,现在就去找到 comfyui custom notes, 把刚下的这个给它拖进来。 还有一种是 git 克隆,这个 git 克隆就是一个什么东西呢?这整个网页就是一个可以下载到它的一个网页,那么这个 git 克隆 就是你把这个这段代码也不是代码了,这段东西给它复制过来,找到相应的这个文件夹里,刚就是这个自定义节点文件夹, custom notes 这个里面右键 在终端打开,然后它这里会出现那么一个终端,黑色的就不要害怕,这东西根本就不是什么很高深的代码,就按照它一步一步去来就行了。粘贴, 然后按回车键,他就会在后台克隆这玩意,但是现在我们已经下好了啊,我不知道他会不会再克隆一个,现在他就在克隆,就等待他就行了。这个东西呢,我的理解他就是一个插件,然后同时他又是一个 独立的节点, computer ui 里面是没有这个节点的,没有这个节点我们就得自己去下,下完节点之后还得安装。刚刚我跟大家说的就是这两种安装的办法,现在它正在克隆 好,这个没克隆好,它这显示是 unable, 经常会出现这种没办法克隆的情况,不过无所谓,如果你碰巧克隆好了,那就行了, 这两种方式都可以体验一下。我一般都是下载先让它下着,然后我们再去看一下这个工作,大家没看到吗?它作为一个 j s o n 格式的东西,它很小很小是因为 这些东西它就是表面的那个说明书,你做一个东西,光有说明书是没用的,这说明书里面只有文字,但没有实质性的工具。我来告诉你,你要用电钻去凿一个洞,这个洞的大小是这么大, 但是现在你手上没这个电钻,你就得去网上把这个电钻下载下来,你还得把它安装到合适的位置里面。玩这个工作流的时候,很多很多东西都是需要下载,需要更新的,大家看到这里有个大大的叉,是因为我们还没有刷新这个界面,然后中间的这个 被它打包的点进去看,就它中间的这个过程,作者用好多这些节点,不同的模型,不同的 lora, 不 同的 clip 和 ve, 组建成了这么一个工作流。下载的时候再跟大家介绍一下啊,如果你想了解,你就可以简单了解,这边就是 models, models 就是 模型, 就是各个大公司,比如说字节,阿里,他们会弄很多很多个这种模型,这些开源模型就是免费大家用的。 这个 diffusion models 是 一个扩散模型,它跟另外一个模型叫,就这个这种类型叫 checkpoints, 都是以这个玩意儿 safe tensors 作为结尾的,本质上差不多,但是把它们分成了两个类别嘛,这个是 lora's, 这个已经说过了,这 ve, 这个 text encode, 然后这个是 diffusion models, 这个是 clipvision, clipvision 也是跟文本编码相关的东西。剩下的这些我就不太了解了,这个用的也不是很多,用的最多的就这几个。大家玩这个熟悉了之后就会发现,每次下载都是无非是下载这个,要么下载这个,要么下载它, 要么就全下,下完之后剪切或者复制到相应的文件夹里,然后再重启, ctrl v i。 我 的学习之路就是这样的,用人家的工作流,在这个工作流上面自己去调试,并不是他每个工作流,你把这些东西下载好了, 就能生成跟它参考图一样的东西了,你还得自己去调试的。不同人的电脑也不一样,进去这个里面去调这些参数,最主要的一个参数节点就是这个 saplla 这个节点,这是一个 k saplla 节点,还有别的一些节点也是,反正都是这个 saplla 类型的,它就是主要的这个 核心操作工具,反正这些东西大家自己去弄一弄,就是这些东西它并没有我们想象中去做那种 调色软件或者剪辑软件那么直观,你去改一个东西,你立马就能看到你得在这改完之后,你再跑个一分钟、两分钟你才能知道到底改了什么。 然后等你跑完之后,你又发现,你又忘了你之前改的这个东西是什么,所以只能自己去琢磨一下。但我觉得这这些都不重要,这些都不重要,我们理解他的整个逻辑是最重要的。你跟我说这个节点 说不定下周就淘汰了,这个工作流说不定再过两个月就会被新的工作流,被新的模型取代,还有可能节点更少,效果更好。所以我们现在去纠结他这个什么意思,这些东西没意义,就去理解他整个工作流。就是我 目前看来,你说这些东西会不会变化,那肯定会,但是他的这种运行逻辑,包括你去工作的这个逻辑是不会变的。因为这个工作流节点就是人类发明的一个效率最高、最容易 让大家去执行的一个东西。就从福特当年做出汽车流水线之后,人类的工业化快速生产东西,就靠这套东西。好,我已经下载好了,找到下载的这个位置, 看是不是他说的这几个,这个二五幺幺 b f 十六下好了,还有这个也是 v 一 点零, v 一 点零的也下好了, 都下好了,我们就要去安装,安装的时候要把它给擦掉,或者说你安装完再把它擦掉重启。我这个所谓的教程尽量慢一点,让大家陪着我一起做, 因为最讨厌的就是你自己一个人漫无目的的去搜,去问豆包,去问 jamie 奶,去问 groot。 很 烦,跟着我一起做就可以直接慢慢来了,所以我废话会比较多一点。主要就是这个 v a e 很明显就放到 ve 里了,跑到 ve 里给它一粘,看它这里都写了 put ve here, 把 ve 放到这个里面看,这人家都已经写好了,非常有意思,就生怕我们不知道这个很长的 four steps, 你 看到这边有个什么 lighting four steps, 这就是一个 lora, 这就是我说的它是一个辅助型的模型,就能够让它用尽量短的步骤 给他跑完找 lars。 哎,在这就像我现在已经熟练了,我就能很快的找到他们了。就一开始看完的时候还是挺两眼一抹黑的。这个清亮画板有意思就有意思,在这就是得自己放,放进去, 在放的这个过程当中,你就已经基本上熟悉了整个流程,它是有哪些东西弄出来,这两个记不得放哪了,我们再打开工作流,再看一眼就行了。工作流上面人家写的清清楚楚的,双击一下,打开它后台运行一段时间, 就会自己跳转到一个网页上,所以这个东西为开头了。你看,刚已经装了两个了,还有这两个刚我们不知道在哪了。好,这两个分别是 diffusion models 和 text in code, 这个放到 diffusion models 里面, ok, 进来了,进来之后得再重启一下网页关一下,后台也关一下。可能是我习惯了这么用啊,当然我也用了一下单纯的软件版,其实都是一样的, 继续双击它,它跑后台的时候你能看到它的后台,在跑报错的时候,你把这个一截截给豆包 jamie 奶什么的, 他们就能帮你分析出来,现在没有再报错了。上传一张图看一下,测试一下行不行。这个是第一个节点,上传图片的第二个节点就是 can 问 multangle camera, 我 们在这点击一下这个蓝色的运行,它就单独运行一到二这个两个节点, 它这一运行就把这个图片给加载过来了,加载过来的目的是方便我们调整摄影机,这个摄影机摸一摸就知道了, 当然这个并不是真正的摄影机,它的逻辑并不是说一个无级的摄影机,我们可以任意调整角度,它其实是有九十六个机位,我不知道设计这个的人是怎么想的,反正就 弄了九十六个位置,然后你弄到不同的位置,每个位置对应着一个提示词,它其实还是通过提示词去改变图片的角度的,并不是那么神奇的一个什么三 d 的 效果来看一下,我把它相机往它右侧面高居位往下打一点,拍一条看看。哎, 好,非常 nice, 非常 nice。 一 跑红了,红了,我们就点进去看一下是哪里有问题,有问题的地方 compeg 就 会给你用红的给你标出来。哪里有问题呢?其实是因为作者用的时候他用的就是这个 safensils, 但是我们下载下来的并不是,所以我们得找到我们下载的这个 再跑一遍看看。运行到现在为止,只要它是绿的就舒服啊。没报错,好,已经跑完了,我把这两张图给挪过来了, 可以看一下。这跑的效果还是挺不错的啊,我摄影机的角度是放在了高机位俯拍的一个角度, 然后他就是高级辅助拍的,这个效果基本上是没什么问题,他也把这个豆包水印也给放进来了,非常搞笑。那这个小教程基本就这样了, 大家有什么问题可以私信我,我看到的话就会回大家,大家通过这么一个工作流的简单学习,也基本上能够会用这些工作流了。就是怎么套模板吗? 无非就是遇到报错,然后去解决,去下载,下载完之后就去安装这几个东西,如果你用的是官网下载的那个版本,你都不用进这些后台这些文件夹里,就可以直接下载出来了,更简单。 就这个东西我玩下来我才觉得就是一个信息差,你在之前不了解,你觉得,哇,这个玩意好高深啊, 大家怎么这么牛逼啊,都弄弄出来这么厉害的东西。实际上当你开始研究这种所谓技术性所谓 ai 工具的时候,你会发现 使用这些工具其实并不难,关于作品,关于怎么样生成好内容方面,难的其实更多是想法。就我个人觉得,现在单纯的生成这种好看的图片,什么科幻特效的这些效果已经意义不大了,就不足为奇了。剩下的就是 这个工具有了。大家怎么样去讲一些故事,再讲一些好玩的故事。就像我大概在一个月前刷到的一个特别牛逼的 ai 生成的视频,抖音上两百多万赞,我想大家应该都刷到过,就是那个讲 emoji 表情的那个 ai 视频, 太牛了,这类的东西我觉得才是我们使用 ai 进行内容创作的意义所在,因为这类的内容你没办法用实拍或者说一般的特效给它实现出来。好,这期视频已经够长了,如果你能观看到这里,那证明你的学习能力真的非常强,谢谢大家。

今天讲点不一样的 z 隐秘之用法,你看我把这张照片中的三个男人的拖鞋给抹除掉,然后输入提示词,三个男人穿着黄金切尔西尖头皮鞋在沙滩上跳舞, 点击运行,你就可以得到一张分辨率接近四 k 的 高清图,而且它们的拖鞋变成了黄金切尔西皮鞋,是不是看起来还挺酷的?本期教你如何在 zenmate 纹身图工作流中实现 ctrl net 局部重绘,再配合放大分辨率节点, 实现家用消费级显卡也能生成四 k 高清图片。首先这里面涉及到一个新的模型,需要跟大家介绍一下。 they made it turbo fun control net uni 它在这几天更新了一个二点一版本。话不多说,我们直接看 comfy ui 工作流。首先跟着我打开 runnyhub, 搜索电磁波 studio, 点击工作流,找到 z image 局部重绘加放大分辨率工作流,点击运行工作流,你就可以跟着我学起来了。 整个 comfui 工作流分四大块儿,首先最上面的是 z image turbo 大 模型,配合 z image turbo fun control net unique 大 模型,再加上 z image fun control net 节点,就可以实现局部重绘了。 你需要在 log image 节点上传图片,比如我上传的是一张三个人站在沙滩上的照片,然后右键选择 open in master editor, 打开蒙版编辑器,选择笔刷,把这三个男人的脚用笔刷涂抹掉, 它就会输出两个参数,分别代表的是脚被涂抹的照片以及是对应的模板,我们分别将其传给 z image。 反 ctrl net 节点之后呢,在 text in code 的 节点输入提示词,我写的是三个男人穿着黄金切尔西尖头皮鞋在沙滩上跳舞, 经过彩样处理之后,你就会得到一张跟你刚才上传图片分辨率一致的图片,但是呢,图片里的男人穿的鞋都换成了黄金切尔西尖头皮鞋。注意,此时此刻的分辨率还是八五六乘以幺五三六。 下面呢,就是进行图片分辨率的放大了,在这里呢,使用了三种放大图片分辨率的方法供大家去比较。 一种分辨率放大方法,使用 upscale inverse by 节点,把图片的分辨率直接拉伸,也就是说我直接修改它尺寸,里面的像素点我不经改变 直接拉伸一点五倍。然后呢,使用 v e in code 的 节点把图片转成 latent 输入给 k 三 pro 进行二次采集。 注意,这里的 dnos 设置为零点五,也就是在原图的基础上,再加上百分之五十的噪声进行彩样处理之后,你就可以得到一张尺寸放大一点五倍厚的高清图片了。 第二种分辨率放大方法,使用 ultimate s d upscale 节点,直接在 upscale by 这里输入参数二,也就是分辨率放大两倍,其他地方不用动,你就可以得到一张分辨率接近四 k 的 高清图了。 第三种分辨率放大方法,使用 seed vr 二 video upscale 节点,在 resolution 输入你想要的分辨率的最大尺寸,我输入的是三零七二,你也可以输入呃,四零九六, 比如四 k 的 这种分辨率都是可以的,他就会生成一张三零七二乘以一七零六的照片。我把这三种分辨率放大方法得到的照片进行了对比。首先咱们先看一下第一种方法放大的照片效果 啊,呃,脸部呢,是有点模糊的,包括皮鞋也是有点模糊的,所以说呢,他这个效果是最差的。 第二种我们来看一下他这个脸部呢,还是比较清晰的啊,包括身体以及这个切尔西皮鞋也是比较清晰的,但是呢,他是居中啊。第三种放大效果呢,是最好的,你看一下他脸部是不是非常的清楚,包括他的衣服 啊,还有下面的切尔西皮鞋啊,简直太清晰了,真的是分毫必现。所以说呢,第三种方法是最好的啊。 呃,大家看到这里还等什么,赶紧跟着我学起来吧!如果本期视频对你有所帮助,别忘了关注、点赞、收藏三连走一波,你的支持是我更新视频的最大动力,这里是电磁波 studio, 我 们下期视频见。

我认为本地部署这一 made 是 目前入门康复 u i 最好的时机,因为它精准抓住了小显存用户的痛点,它有媲美闭元模型的出炉质量,生成速度快,而且原声支持中文。 大家好,我是王德发。这期视频,我们来丛林跑通这一面,并聊聊开源绘画模型的改革。在往期视频的评论区,被高频讨论的话题往往是康帝 ui 的 硬件配置和入门门槛。 过去我会劝大家,内存小于三十二 g, 显存小于十二 g, 你 就别折腾本地部署了,因为在 ai 绘画领域,一个复杂的工作流不仅要大显存,还要大内存。 就拿 flex 模型为例,它原版主模型就要二十三点八 gb, 加上 vae cleveland 文本编码器啊,尤其是那个 t 五叉叉 lfp 十六的版本,哈完它自己就快十 gb 了。 那这一套全家桶下来呢?显存开销直奔三十二 g, 那 我们十六 g 的 用户呢?还得用量化手段,使用 f p 八的量化精度,把显存开销降到十六 g 以内那所以我之前一直觉得十六 g 显存才是一个甜点配置。 那如果你用极致的量化,比如 n 叉酷的硬件四精度,这样主模型能压到六点五 巨币,只有原版模型的四分之一。但能跑跟好用其实是两回事,体验并不会很流畅。对于小鲜醇用户来说,这确实是一个无奈之举。在一个月前,阿里旗下的通一团队开源了这一 mate 之后, 事情就变得有趣起来了,他直接打破了我刚才说的这种硬件门槛。我们来看一下任务管理器, 这是这 mate 加载后的显存占用,我用的是 f p 八新度的版本,主模型只有五点七 g, 配合量化后的文本编码器,整套跑起来显存占用仅在十二 g 左右。 那如果你用的是 g g u f 格式的量化模型,比如说 q 四 k s 版本,这一套加起来不到八 g 的 显存开销,意味着几年前的老显卡现在也可以流畅的跑起来了, 这在以前简直是不敢想的。很多观众怕本地部署就是因为装环境爆错,这些问题太复杂。但这一类的工作流其实很简单,你只需要更新到最新版的 comfy ui, 在 模板界面就可以直接找到这一类对应的工作流, 他不需要安装额外的复杂的插件,那官方模板还直接给出了模型的下载链接,你把模型下载下来,放到对应的文件夹里,那这时候如果你显存有十六 g, 建议你用原版的模型。配置好之后,我们来看一下效果。它是国产模型, 直接就能识别中文,所以你可以自己写中文提示词,也可以让 ai 帮你写。点击深层,大家看一下这个速度,再看一下这个质量,手部的结构,光影的质感,摄影味特别浓, 完全没有早期模型的那种塑料感,而且他一步到位,不需要像 sd 叉 l 那 样,还需要去修手修脸。 这一魅就证明了一件事,只要优化做得好,小模型也可以出大片。这就是阿里团队带来的开源改革,以前我们认为模型越大越好,现在是效率为王。 最后我们总结一下, comfyui 的 技术门槛确实有点高,本地部署有两大拦路虎,找模型、装插件解决报错。那如果你看不懂代码的情况下,或者硬件配置跟不上啊,你完全可以去用云端,这不丢人啊。未来的 ai 创作,云端化会是主流, 本地部署会变得越来越小众和硬核。坚持本地部署的一般是两类人,一种是喜欢折腾技术的极客,本身解决这些暴躁呢,他就乐此不疲。另一种呢,就是有特殊需求的,需要搭建保密性高、定制化工作流的 专业用户,所以大家根据自己的需求去选择本地部署或者是云端。那如果你想要尝试本地部署 comfyui, 我 很推荐拿自己妹子来入门。那在跑通工作流的过程中,如果你遇到了什么难题,可以看我晚期的视频,也可以直接跟我交流。 呃,如果是下载模型的环节,你还可以使用我开源的模型查找器 comfyui model 翻的,他可以帮你省下不少的时间。 相关的工作流和资源我会放到抖音粉丝群里。这期视频呢,如果对你有帮助,请帮我点个赞,我们下期再见。

昨天出那个一妹纸白嫖的教程,很多人可能练最新手的那个阶段,还不知道啊,就如何就进到这个 a p i 这一步啊?很多人在问啊,那我把这个也给你们出了啊,首先第一步啊,你先进入你自己的 comu i 这个界面啊,进入这个界面之后呢?那比如说我是空的吧啊?我这是一个空的键面,对吧?然后往这里看啊,这里有模板。 首先你先确定一件事,你这个 qq 一定要更新到最新版啊,一定要更新啊,一定要更新到最新版,因为我这是官方的啊。再次重申,一定要有网,有网有网没网你玩不了啊,没网玩不了。然后直接点这里的模板啊, 点完模板之后呢,就进到这个页面了,我这边是默认的进这个页面之后,下面这里有个图像啊,选这个图像,选完图像之后,你看其实第一个就是,但是我建议你们选这个外部远程 a p i。 那外部演生 api 什么意思呢?就是借用外边的啊, comui 呢,就是本地跑的啊,那借用外边的话就是这里啊,这里前面这两个就是啊,一个是图片啊,一米二的图片边界,一个是那个纹身图啊, 一般咱点纹身图就进这个页面,你就从这直接写题词,这里就是你消耗的点数,然后你看现在原始的是三十四到九十,这就是他满写版本啊,就质量是 high 是 高的啊,我们选最低的啊,因为前我们只是为了做一做测试,或者为了做一些图的话,其实 low 的 就已经够了。然后这里选好尺寸,然后这里直接写就行了。比如说我现在写一个 拿这个做实验,我写个给我生成一个广州街道上 g t a 也可以截图画面啊,人物背景,黄毛豆豆鞋啊,小脚裤,然后背 t 恤啊,写着什么高尚啊,然后我就直接做一张图。 好,如果这个图片效果你觉得清晰度各方面不够的话,那就直接因为是本地的吗?你就可以直接在本地这里,本地这里直接把它放下来啊 啊,再放大一下,你觉得已经够了呢?然后直接把它哎拖到这里啊,拖到这里直接把它,哎放在本地,直接把它变成视频啊,非常的方便在本地跑,这视频出来了,效果呢?还可以哦。

hello, 大家好,我是牵引风光的小海,今天我们来讲 z i max 的 另外一个工作流,上次我们讲的是一个基础版嘛,哈,就是 turbo 的 方案。好,我们今天说另外一个方案,叫多控制的一个方案, control, 哈, control 和之前我们讲的这个基础版有什么区别?哈?基础模式啊,就是我们上次讲的这个 turbo 这个工作流,然后我们现在今天要讲的是一个多 control 的 一个联合的一个控制。我们来看一下这个叉七 p d 怎么说的哈?结构控制哈, 我们基础版是非常非常弱的,然后现在这个 control 版本它是非常强的,它强调这个结构的一个控制,然后姿态控制它非常非常强,然后基础版它就很一般了。好,其他的自由度和这个稳定性它就比较差了,自由度和稳定性比较差。然后就是一个用途,比如像基础版,它主要是用于这个洗图, 然后这个结构控制它可以进行一个严肃的一个约束,这样子啊,我们可以去精准的做到一个控制,控制到 他要生成出来一个什么样的图,而不是随机的啊。你如果用基础版,他带有很强的这种很自由度,他就会抽卡,有抽卡这种感觉啊。比如说甲方给你一个要求,这个要求就是要这样子, 你就要用多控制哈,就是我们今天的这个工作流,普通的 ctrl alt, 它是一个控制条件,然后我们今天讲的这个是多个控制条件,这样子的话它就可以出来更精准哈。好,再往下看哈,改风格,但不追求百分之百的一致啊,就它不一致啊这个东西哈,然后我们今天要讲的这个就是一致性要好很多,好,最后来看一下实用性 基础版,就是喜图改风格,不要求百分之百一致,显卡要求是八到十二 g, 这个工作流的区别就是人物姿态不能变,参考图就是最终截个图。好,这就是主要的一个区别。 今天我们就来讲这个 z m i g 的 一个进阶方案,好,解包之后啊,这就是我们的一个多控制的一个工作流。我们来简单介绍一下这个工作流,这边是加载一个图像哈, 好,往下它是加载一个模型,这里我们可以加载这个 z m h turbo b f 四六啊,这是最大的一个模型,待会儿我们再去讲另外两个模型啊,加载之后,这里是一个 阿里巴巴的一个千万千万三杠四 b 的 一个 clip 文件啊,好,再往下是一个 v a e 的 一个变分编码器啊,我们用这个默认的这个 v a e 编码器就可以了。然后是一个补丁,这个补丁就是我们说的这个 control 啊,这 control 它里面有几个, 我们现在用默认的这个叫 torbertfuncontribute, 往上就是一个描述词,在这个地方我们可以去输入这个中文描述词,这是 raymax 和 flex 二最大的区别, 因为 flex 二它是国外的一个大模型嘛,它这个模型主要还是支持这个英文的这个提示词,但是我们现在这个工作流是用的是阿里巴巴千问的 三杠四 b 的 一个克利普,所以我们完全可以在这里直接输入中文的描述词哈,这是非常非常重大的一个进步哈,好,我们再往右就是一个裁样,裁样完之后哈,它就会自动保存一个图像。好,这个地方就是处理我们刚刚的这个 control 啊, 讲完了这工作流,我们现在来开始实测。好,我们点击上传,我们点击这个 ctrl 加回车键,先跑一个官方的这个提示词,来看一下它的一个效果。好,现在已经出来了第一张图的一个效果,可以看一下第一张图的一个效果,现在我给大家去演示一下它的一个左右对比哈,我们在这个地方双击,我们打对比。 好,这里有一个图像对比,我们点击一下,然后我们把这个输出的图像给到这个 b, 输入的图像给到这个 a, 好, 我们再跑一遍,给大家演示一下它的一个区别。好,我们先看一下这个显存的占用,显存占用是十五点二个 g 啊,可以说是要求非常高啊, 这是他翻译的一个提示词啊,阳光洒在他的脸上,富有情调,肌肤光滑,富有颗粒感。我们来看一下生成的时间,九点二六秒,九秒钟的时间就生成了一张图片,可以说这个速度是相当相当的惊人啊。现在看到的是原图像,我们往右滑 啊,可以说这个效果非常非常好啊,提示词里面说的这个斑驳的阳光是有的,然后松树枝也是有的, 而且这个颈身也特别特别好,还有就是这种哈阳光打在这个衣服上的这种斑驳的这种感觉啊,我觉得很有这个光影感啊。好,现在我们让千儿 gpt 去生成十个提示词,来作为今天的一个效果演示。好,我们进入这个千儿 gpt zm i 提示词, 用于效果测试,写十个提示词。好,他现在直接写的是英文,我们让他写这个中文,好, 我们告诉他,我们用的是千万的三个四 b 的 可立普,所以说可以写中文。然后现在他就给我们了十个 这个中文的这个提示词,写实人像、商业时尚人像、二次元插画风、油画风、赛博朋克风、游戏角色现稿加上色半写实插画,他分别取了这十个方向,进行一个全面的一个评测。好,第一条的提示词,写实人像,保持原图 五官位置不变,自然皮肤质感柔和,光线背景简单清晰,细节不变形。这边是一个效果,然后左下角是一个左右对比效果,我们来看一下左右对比,整体上效果还是不错的啊, 但是这里就完全没有衣服了。好,我们来生成第二条,来试一下商业时尚人像清晰,面部轮廓干净,背景澎湃,光线高级,质感好,这是原图,我们往右滑啊, 哇,这张图就比刚刚好特别多了哈,从这张图来看的话,以前的这种摄影师,澎湃的这种业务,我觉得会被 ai 铲屎掉很多啊。好,我们放大来看一下左右对比, 哇,这个真的是太强了,我们看一下我们的这个描述词啊,二次元插画,风格清晰,线稿保持原图面部结构不变,颜色干净。我们再看一下他生成出来这个二次元的一个图片,很强啊,非常非常强,我不知道那些学漫画的哈, 此刻是怎样的一个新境。好,我们继续测试下一张图片,我们换一张图来进行一个测试,比如说我们用这张图片,我们复制第四个油画风格,显存占用是十五点四个 g, 这显存占用可以说是非常高,如果你的显卡 是比较差一点的,我建议你们刚刚选这个模型的时候选择这个 f b 八,现在我们选的是 b f 十六。好,我们来看一下生产的油画风格,我们往右滑, 这张效果我觉得还是有点假的哈,有一点点假。好,我们再测试下一个风格,电影影调人像。 哇,这张效果就太好看了这张图,但是你可以看到他好像把这个国外的这张脸 变成了亚洲人脸了,你看国外的这张脸,他眼睛是蓝色的,你现在改过来之后就变成了一个亚洲人脸了。这可能就是国内的大模型,因为他为的图大多数都是亚洲的这种人脸图,而其他的我觉得都特别特别完美。哦, 这光影啊,太完美了,完全就是哈以前那种影棚级的一张图片。好,我们继续测试下一个赛博朋克风,我们复制代码,我们换一张图片。好,比如说这张图片啊,赛博朋克风,我们往右滑。 哇,我觉得还是挺厉害的哈,真的是挺厉害的,过去你要拍这样的图片还是很艰难的,但现在你换风格就是这么简单哈。 好,继续测试下一张游戏角色建模风,我们粘贴再换一张图片。好,用,这张图片我们来试一下,我们放大看一下游戏角色是怎样子的。往右划 划过去的感觉就像是我在看一个迪士尼的一个动画片,非常熟悉的一个味道,不像我们真人这样啊,右边这种 是很有这种纹理的,当然也可以看到啊,他的眼睛确实变大了,看到没有?左右的眼睛变大了。好,我们继续测试下一张线稿加上色,我们再换一张图片,我们来用一下 flex 二上次生成出来的一些图片,比如说这张我非常非常喜欢的这个四类场景图,我们来看一下它的一个线稿图, 还是一样十五点几个 g 的 一个显存占用,然后库达还占用,基本上是拉满了,然后生成的时间变慢了,五十六秒,就是你生成这个线稿的时间要比刚刚二十秒或者十秒要长非常非常多,也就是说它不同的风格生成的时间它是完全不一样的。好,我们往下滑, 有一点日本的那种动画的味道了。哈,把,这张图我太喜欢了,特别是改成这种线稿之后,哈, 我觉得比之前更漂亮了,太有艺术感了。这个放以前我都很难想象啊,现在一个普通人可以很轻松的 做出这么一张图,真的是感谢时代的一个进步啊,这在过去你完全没有办法想象。我觉得你如果是一个很有创意的人啊,用这些工具完全是可以去表达曾经自己没有办法去实现的一些创意。好,这是上次的福克斯二生成的一张人像图片, 我们开始跑半写实插画风格,保持圆脸型,细节清晰,结构稳定。好,我们来看一下左右滑向对比,哇,真的是插画风格, 很漂亮啊,很漂亮,唯一就是这个嘴唇啊,我觉得这个嘴唇确实是风格化太严重了,刺眼。红啊,太红了,红的炙热,但是我们可以看啊,这里啊, 这个位置它是出现有一个瑕疵的啊,这个 y 变成了一个 l, 它上面还有一个横杠,还是有点小问题的。但是整体上来说,这个风格我特别特别喜欢,这种插画风格对我这种完全没有美术功底的人来说 非常非常有吸引力啊,我做梦都没想到,我有一天啊,真的能自己去用 ai 跑出这种很有艺术感的这种图片。好,我们来测试最后一张图片,中性写实,人像光线均匀,我们再换一张图像。好,我们选择一下刘亦菲。好,我们来看一下最后一张的一个效果,可以看到无论是衣服还是头发 都控制的非常的好啊,确实是,生成出来东西确实是很漂亮。好,今天我们就演示了十个针对这个 z i m i 级的这个 controller 的 一个提示词,我们刚刚讲了十组哈,这十组我们完全可以提现出来 zimig 在 control 里面的一个实力。然后我们刚刚不是还说了还有两个模型,我们现在来看一下另外两个模型的一个表现,我们切换成 zimig turbo f p 八的一个方案,我们跑一下可以看到哈同样的提示词,同样的人物。从这个 b f 十六切换到这个 f p 八, 我们来看一下这个效果和 b f 十六的差距确实是很大,非常非常大,从这个效果上来说的话,我是不推荐用这个 f p 八的哈,这个 f p 八的效果我觉得,嗯,真的是和 b f 十六差距有点过于大了哈,好,现在显存在用是十二个 g, 显存只有十二个 g, 比如说四零七零四零七零 s, 四零七零 t 这种,那你就用 f p 八,如果你的显存有十六个 g, 比如说五零六零 t 十六 g 版本,还有四零七零 t super、 四零八零四零八零 s 等等,这种显卡 你就可以用这个 b f 十六。好,现在我们来测试最后一个模型, z i m g 一 点五, a i o f p 八,红潮的一点五的一个模型,我们来看一下同样的提示词,同样图片, 它和这个 b f 十六到底有怎样的区别?还是一样?我们先看一下显存的占用,十二个 g 哈,它和这个 k g 的 f p 八的这个模型的一个显存占用差不多啊,就是十二个 g。 好, 我们来看一下它的一个效果 啊,这个效果更差了,非常非常差,这个模型我就不推荐了,今天我们测试了 b f 十六、 f p 八以及红槽的一点五,这三个模型里面我觉得 b f 十六最好,如果你的显卡只要够用了,用 b f 十六, 如果你的显存稍微有点低,十二个 g 显存的话,就用这个 f p 八。好。以上啊,就是我们今天关于这个 z m i g 第二期节目的一个全部视频内容了,如果以上内容对你有所帮助的话,请一键三连关注我们下期聊更多的 ai 知识。

大家好啊,我们在用这个 g m 的 这个模型出图的时候啊,如果你搭配的是这个啊,这个彩样器和这个调度器,他出的图啊,会是这种感觉,就是没有什么细节,对吧? 然后呢,如果你把这个彩样器和调度器换成这两个细节,就会非常的棒,对吧? 这个调度器很多人在用,但是很多人没有讲清楚他的用法啊,很多人搭配这个,搭配 ddm 三 m 这个也没问题,但是标准的搭配方法呢,是用这个啊, 是用他自己的自己专属的这个采暖器啊,这样搭配到一起,然后这个采暖器特点我写在这里了啊, 稳定出处度数低啊,我这里设置的九步,然后呢,他就会快速的生成,然后搭配他自己的这个调度器,就是我们有些人 up 主都用这个调度器啊,这个调度器特点呢?就是说,呃,他的 可控性更强一些,对吧?彩样速度快,而且是一定增强,当随机性增强的时候,他就是一个非收敛的一个彩样机, 非收敛啊,然后,呃,出图随机性稳定,可预测效果,对吧?然后,但,但是他有个固有的缺点,他会画面偏亮, 他的画面偏亮就会导致什么导致你的画面啊,有一种萌萌的,稍微有一点萌萌的感觉,你可以,他会没有那个饱和度没有那么高,对吧?呃,你后期调整也可以啊,如果你换成这个, 换成 ddmpp, 这个他呢会让你的画面这个饱和度稍微高一点,但是细节就没有这么多了啊,细节没有这么多,然后呢?如果说,哎,我就想用这个,这个速度快是我想要的,我还想加细节,怎么办? 我这里有个方法啊,你把这个传感器拆开,用这个高级的传感器,先跑九步啊,先跑九步,因为我设置的九步嘛,你这里啊,这里返回灶波一定要打开, 返回照波一定要打开,如果你单拿出来,这个是禁用的啊,一定要起用,起用,打开之后你第二个也是起用的,对吧?这个返回照波是什么意思呢?要看一下啊,他这里都有写,对吧? 是否返回带有剩余照射的样本啊?也就是说他 跑到你设置的步数六步结束的时候,他就结束了,他就稳定的结束了,也就是说你他是在你,比如说你的步数是九,这是六,他只计算六到零到六的这个步数啊步数, 然后呢,他会把零到六这个步骤返回给你啊,这比较稳定。然后这里啊,这里也是要打开的啊,打开之后,这里, 嗯,你添加一个解码啊,添加一个解码,把这这里 lincoln 的 解码出这个样子啊,像雪花点一样的。我,当然我设置了六步啊,你也可以设置七步、八步啊,五步,自己去测试啊, 然后添加一个什么的,因为这个图片了嘛,把它转成什么?转成这个赵波,这个赵波,这转回编码, 然后使用这个啊, laten 的 混合,这个时候这个东西就可以可以为你添加细节,就类似于造成注入的那个东西, 然后再返回到第二个采集器啊,返回到第二个采集器,如果你这个第二个采集器这个步数是九,也就是我设置的是九啊,如果是九的话, 因为你的开始步数是六吗?对吧?你出的图会有噪点,就是上面有很多个斑点啊,那样子就不行了。所以解决方法就是你把这个步数稍微提高一点多,我这里多加了五步啊多加了五步提高一点。他这出的图呢,我们对比一下啊, 那细节都增加了,对吧?那细节增加了啊,细节增加了,而且他车子上这个反射也有了。这里是没有反射的啊,很薄弱, 看到没有很薄弱,这里呢就显示的非常好啊,非常好。然后呢?这里啊, 如果你用这个采药器也可以这么按照这个方法加细节也行啊,也是可以的,我们来对比一下啊,你看路这里啊,看这里,然后你就看这个加细节的, 对吧?它细节都加上了,虽然是这个灰一点啊,你可以通过这个我们拉一下啊,只需要加一个饱和度就行了啊。 不用我,我 copy 一下吧啊,要省的他再他再跑了。 好,稍等一下。好,这里你调一点对比度啊,稍微调一点,这里保护住。稍微调一点就 ok 了 啊,就没必要去在采阳器去和调度器上去折磨来折磨去。后期你加一个这种节点就行了,你如果觉得饱和度不够,你可以往上加。对比度不够你可以往上加啊, 再加一点啊, 往上加一点。哦,饱和度对比度高了,对吧, 那就好很多了,对吧?那好很多了,你跟这个对比一下就完全不一样啊完全不一样啊,完全不一样。你也可以加一个什么,就说你觉得有死黑的地方,你可以加个 hdr 啊, 就是咖啡里面有很很多这种后期调整的节点啊,可以往上加的, 你看这看着非常舒服,对吧?啊?这暗一点,暗一点,你可以往上把这个 atr 这个强度再调高一点,或者伽马调高一点。 嗯,调高一点啊,那这样就好多了,对吧?那比这个灰蒙蒙的感觉要好多了啊, 对比一下啊,就很棒啊,很棒。所以说你就这样子有这个后,我们有这个后期的节点,就不用在踩洋气和调子上折磨来折磨去,要折磨步数,要折磨 a v e。 没必要啊, 就说如果你基础这个细节加上了,就没必要去再去反复的去调试,那是死循环了啊,你只需要加两个节点就 ok 了,就解决了。 好的,就这么一个小分享啊,可以让你很好加细节,特别是这个雕刻器啊,你昨天有小伙伴问你能不能说一下这个雕刻器基本功能就是这样啊,基本功能就这样。好的,拜拜。

大家好,我是老徐,在昨天的时候,阿里的千万团队发布了千万野麦吉的最新加强版千万野麦吉二五幺二,这个模型在人像的真实度和文字的准确性方面都有非常大的提升,康有为也在第一时间就支持了这款模型, 我也把千万系列的各种图片生成模型进行了深度的对比,这样也方便大家选择合适的模型在 comuli 里面使用。千万 maggie 二五一二,首先要把 comuli 升级到最新的版本, 目前康威 i 最新的版本是零点七点零,升级完康威 i 之后,打开康威 i 的 实体工作流,在图像这边就可以看到前文与麦姐二五一二,打开工作流以后会提升我们缺少模型和这个四步的加速 nor, 直接点击这个链接就可以下载,但这个链接是需要魔法的,如果大家下载不了,可以直接在我的网盘里面下载, 下载以后放到对应的这个目录里面就可以。千万眼,麦姐,二五一二,要放到 comforion 的 models default models 这个文件夹里面,加速 nor 就 放到 comforion 的 models norse 这个文件夹里面。工作流用到的模型还有文本编码器和 v i e 这两个模型跟天文仪麦几的模型是通用的,如果大家之前在本地部署过天文仪麦几这两个模型就不需要下载,因为我之前是部署过的,本地是存在这两个模型,所以刚刚是没有弹出提示的。 这里是模型的放置路径,文本编码器就放到 textencoder 或者是可立普里面, v i e 就 放到 v i e 文件夹里面,这里是官方给出的深图尺寸, 对应的就是训练级的尺寸,也就是在这个尺寸下生成的图片是能够达到最好的效果。我们生成的图片就尽量按照这个尺寸来设置,因为模型的体积比较大,而且我会对多种模型同时进行深图能力的对比,对显存的占用也非常高, 所以接下来我会在 roundup 里面给大家进行演示,大家使用我的邀请链接,在 roundup 注册还会获得一千的免费算力值,每天登录也能获得一百的算力值, 这个对于我们日常的使用基本上也是足够的。我们来看一下这四种模型的深图对比,这个工作流我也发布到了 roundup 上面,大家在 roundup 上搜索我的名字就可以找到这个工作流。 这里我把轻微系列的各种模型进行了对比,因为 b f 十六的模型体积太大,一般人都用的比较少,所以我就直接测试的 f 一 八的模型。 首先是轻微 mag, 二五一二,第一张图是没有加 nor 的, 直接使用的是官方的推荐设置,步数是五十, c f g 是 四。然后第二张图是二五一二,加上了四步的加速 nor。 然后第三张图就是轻微 magg 的 基础模型,第四张图是 z magg turbo 模型生成的第二个词就是一个老人的面部特写,这种老年人的面部特写非常考验模型的能力, 因为他面部的细节非常的多,是幺四零九年第一次生成图片,花费的时间分别是两百二十七秒,一百二十八秒,五十七秒,五十四秒,同等条件下,这一麦子 tab 是 最快的,二五一二,布加诺尔跑五十步是最慢的,我们来看一下。 首先第一个排除的就是轻微 mag, 这个涂抹感非常强,一眼 a i 的 感觉。然后这三张图在粗看之下好像也差不多,但放大之后就会发现,这个用的四步加速的也会有很明显的涂抹感, 可以看一下这种 ai 感就比较明显了。然后直接跑五十步,不使用加速, nor 的 真实感要非常高,但是让人感到惊喜的还是这个 z m g turbo, 这本身就是一个加速模型,所以他是只用四步生成的,速度非常快,但是这个质量大家可以看一下,非常的高,这个即使放大了也是会有非常强的真实感,这些皮肤的纹理都非常强, 轻微也 max, 这个模型基本上可以删掉了。这个是一个四部的加速 nor, 放大了也会有涂抹感。然后这是四十部的, 我们再来看一下生成的半身人像,一个圣诞节的兔女郎。首先排除的同样是轻微,也 max, 这个加了四部 nor 的, 其他的三张图都有可取之处, z e m g 就 比较符合亚洲人的审美,这种网红造型, 但是轻微 z e m g 二五一二的题词增重度明显是要高一些,这个眼神符合题词的描写,眼神温柔,只是镜头 z e m g turbo 的 整体都不错,但这个眼神就谈不上温柔。 然后再来看一下这种近景人像,感觉都是差不多。 首先排出的也是轻微,有麦吉二五一二和 turbo 这种有点不相上下,就是风格不一样。 再来看一下他们做的海报,首先文字都没什么问题,在 maggie 的 文字排版感觉比较单调,因为 maggie 包括二五一二,他们的布局基本上是一致的,风格也是一样,但明显的二五一二要强很多, 这种放大的话,人的眼睛都是崩掉的,这种情况也难以避免,因为这里的人物占比都非常小,面部的像素也都非常低。雄伟麦吉的不管是男人还是女人,感觉这个脸都是一样的。 二五一二的相对来说要狠很多,这个是四步加速跑出来的, 这个是没有用加速模型的,感觉制作海报的话,二五一二是更加合适的。再来看一下这种比较复杂的图片,生成的构图都是类似的,这里多人物前卫一。麦姐,这个跟豆包也是类似的,生成的都是异影 ai, 看着就是 ai 感很强。 二五一二的稍微强一点,但是也不怎么样,反而是这个贼眼麦景感觉要好很多。 再来看一下另外的这些负责描述的,这里是提示词的内容, 四张图片的构图基本上都没问题,也都比较符合这个提示词的描述。但是这种场景下,整个轻微眼麦基的都是有很强的 ai 感。这眼麦基 turbo 的 真实感是最强的, 这是因为这个模型的图片都是带来一些噪点,这些噪点反而让这个图片更加有真实感。 这些模型生成的图片都比较干净,太干净就有这种塑料感,就是有比较强的 ai 味儿。这个没有用加速 mode 的 也是有一些 ai 感,这个 ai 感就更强了。还是介意麦吉特堡的真实感更强一些, 然后在文字方面准确度都还是很高的,阅读让生活更有力量,但是文字的表现力还是二五一二的要强一些。所以我的感觉是,如果是用来生成海报,二五一二是更加合适的。 用来生成各种人像和素材图的话, z m g turbo 是 更好的选择。 大家如果还有其他使用场景的,也可以自己进行测试对比,这里的提示词是每行一条,我这里输入了七行提示词,测试的时候在这里直接选择提示词的行数就可以 从零开始,零就是第一行,一就是第二行,这样就可以很好的进行对比。这是第一行,会出现在图片的上方, 然后这个标签的名字我打错了,是二五一二,直接打成了二五一五,我把它修改一下, 那这条视频的内容就是这些,如果大家觉得有帮助的可以关注一下老徐,给老徐点个赞,谢谢大家。

刚刚大家看到的这组图片都是通过下面这款 z image 工作流制作的,它生成的图片无论是人物还是场景,都带着一种很高级的质感,画面像是罩着一层薄薄的烟雾, 朦胧又柔软,仿佛走进了梦里,虚实交错,影影绰绰,特别像那种加了柔光镜的老胶片,色调温润,高光微微化开,有一种时光沉淀下来的诗意感。 下面我们来介绍这款工作流的使用方法。这个工作流其实是在 z image 工作流中加入了库克大佬的两个 laura, 才实现了这种效果。 在工作流的左边是设置画面尺寸的地方,在这里设置图片的宽,下面设置图片的高提示词。文本框暂时不起作用,因为我在工作流中接入了一个自动提示词模块儿。我们来看一下这个自动提示词模板, 它应用的是千问三模型,用它可以生成更专业的提示词。在左下角有一个半自动开关,默认为关闭状态,在它上方有一个手动主题文本框,我们只要输入提示词主题,工作流就会自动帮我们生成专业的提示词。 如果我们打开这个半自动开关,上面的手动主题就会失效,此时工作流会随机生成提示词。在工作流的右边还有一个放大节点,它会将生成的图片再次放大,让我们得到更高清的图片。下面我们来实际跑一下工作流,先关掉半自动开关,在手动主题中输入加勒比海盗, 工作流自动帮我们生成了一个关于海盗的提示词。生成的图片是杰克船长。我们再做一个例子,开启半自动开关,这时上面的手动主题就失效了,此时生成了一个赛博朋克风格的男人图片。 如果你说我不想要自动提示词怎么办?你只要将提示词这里的节点断掉就可以了,顺便把不用的自动提示词模块禁用掉,这样就可以纯手工输入提示词了。工作流开源且免费,感兴趣的小伙伴赶紧去试试吧!好了,这是今天视频的所有内容,如果你觉得对你有帮助,点个赞呗!

hello, 小 伙伴们大家好,那么 comfyui 支持了 nvfp 四模型的加载,这个事可能大家都知道了啊,但是好多小伙伴不知道怎么去用它,去使用它哈,怎么去加载它, 就像我前段时间也是啊,即便是加载了这个模型呢,但是说它跑出来也是花屏的啊,就是全是噪点。 但是呢,我们昨天也聊了一下,试了试了试各种的环境啊,发现他必须在酷达幺三零的版本才能正常使用,才能正常显示啊,不然的话就是全是噪点哈,幺二八的话全是噪点, 那么这个使用就比较简单了,我就重新弄了个 copy y 包啊,重新的搞了一个,然后把环境升级到了酷的幺三零的一个版本啊,还有 pie touch 对 应都更新了, 那么就可以正常加载这个 n v f p 四的一个呃效果了哈,那么我们看看这个时间对比啊,先看时间对比,时间对比提升是非常明显的啊,同样三张图,同样提示词,同样种子啊,同样种子 尺寸都是幺零二四乘幺零二四的呃, nv f p 四在五零六零太十六 g 上面只用了二十秒啊,二十秒, 然后呢,正常的 b f 幺六呢,用的是五十五秒啊,差不多提升了两倍啊,相当于是速度比原来快了至少两一倍以上啊,一倍以上, 那么我们再来看看画质对比啊,先来第一组啊,第一组就是一个女生的一个面部的一个特写啊,那么这个是 b f 幺六的,那么这是 n v f p 四的啊, 我感觉细节好像还更多一点,特别头发这些啊,他的对比度什么都会拉一点点感觉啊,你看一下啊,都会往上拉一些啊,面部特写,因为是幺零二四的图啊,大家就将就看一下, 第二个呢,是个全身的啊,全身的我感觉画质损失还可以能接受啊,毕竟跟这个时间对比来说的话,那时间提升的是相当大啊,哎,也没出现崩手,反而这 b f 幺六这个手有点怪怪的。这个 f p 四的呢,反而还可以啊,同样衣服的细节也有些变化,你看了没有啊, 也有变化,那么还有一个第三组就是风景的啊,我们看看啊,这是 b f 幺六的,这组的话呢,这个也是一样, n f p 四,它的色彩饱和度会更高一点,我们看看这个石头这边啊, 对吧,它的这个暖色调会更多一些啊啊,这只是这的啊,现在咖啡店官方还给到了千问与 mate 的 啊,这个 nv f p 四格式,那么包括 ltx two、 ltx 二呢,也有它的这个 nv f p 四格式,那么这时候我们就可以 提速了啊,大大的提速啊,包括还能降低一些显存占用啊,而且是在画质损失比较小的情况下啊,比较小的情况下几乎可以忽略吧,哎,也不能说完全忽略,但是说已经比较小了,这个还是比较推荐的。那么现在如果大家要用的的话, 呃,自己弄 comfy 包可能有点麻烦啊,我这边群里边火星大佬的包呢,他已经做了一个这个库达幺三零的这样一个支持啊,大家建议我还是我还是建议大家去单独弄一个包啊,这样的话呢,可以 有效的。这个就是隔离一下环境吧,毕竟很多老的插件呢,跟我们新的这个库达呢,不太兼容哈啊,包括你的 touch 啊, 还有一些相关的这些依赖可能都不太兼容。 ok, 嗯,这个就给大家分享到这里啊。呃,今年应该是 nvfp 四大量发力的时间了啊,因为很多模型都天然的支持这个格式了。嗯,这个精度。 呃,但是它还有点限制啊,就是五零七的显卡才能用啊。五零七显卡才能用,那么四零的话还只能用 int 四啊,只能用这个啊。 ok, 就 这样,拜拜。