这个有人说这个 comfui 是 不是要被淘汰了?像那个 cds 二点零啊,包括那些在线的极梦的那些生成类的视频已经非常好了,那这个东西还有没有必要学?这个我来给大家说一下我的看法啊。首先你学 comfui 如果是为了说直接的就想拿去去用,或者去商用,或者你满足某种欲望的话呢?这个我觉得是不太现实的,因为你学这个东西只 只是在学习他底层的生图逻辑和生图理论,至于那个成果,那个效果肯定不如在线的,因为你花了钱之后的他的那个模型也会更优秀一些,然后那个人家的算力也会更好 一些。当然这种排队的问题咱们就不说了,所以说生成出来的质量肯定是比你这个本集里面要好很多,但是所有的事物迭代速度非常快,什么东西不会变,就是底层的这个生图逻辑是不会变的,就即便说你用的是线上的那些生图的模型或者生视频的模型,它底层的原理是一样的。 都说学康费 u i 有 两种人不适合学,一种是急功近利的,这种马上就要去应用到它的生产环境,或者要用它来去赚钱的。这种人不太适合学,因为它的迭代速度很 快,你还没学会呢,它就已经变了,你永远跟不上这个它的变化速度。第二就是拿来主义的人不太适合学,就什么一键启动包啊,什么整合包之类的这些如果你想用的话呢,我觉得真的不如你去用在线的这些模型,就是 直接买一个会员,充点积分,你在里面去试会比这个好很多。学这个就是享受它搭建这个整个工作流的一个流程,了解每一个细节,每一个参数的调整会对画面产生什么影响,什么变化,这是一个学习的过程,其实它的结果并没有那么的重要,而且这是一个高度可定制的产品, 就是你很多的在线你升升不出来的内容,你都可以在这个 comui 里面自定义,就是有很多的这种视觉风格,可能线上没有,你 可以自己在本地去练一个 lara, 练一个类似于调色里面的滤镜一样的,然后你就可以自己的去生成你想要的内容 啊,这些内容并不说一定有多么多么的不可见人,但是那种独特的风格只有你自己去做出来,然后他才有。别人设计好的风格未必是你想要的,而且你总是跟着别人的风格走的话,也很难走出自己的个性来,所以说学呢,我觉得没有任何问题。嗯,但是太急躁的人应该是不适合的。
粉丝2144获赞1.0万

康复 u i 现在还值不值得去学习?我用了两年的 u i 跟大家分享一下我的心得,怎么样的人学习康复 u i 它的收益是很大的。康复 u i 它解决的一个核心问题 就可以批量化的生产内容。如果说你没有这一点的需求,我都不建议大家去学习康复 u i 因为运行康复 u i 它的硬件的要求是比 要高的。学习康复 ui, 你 没有个十天八天很难学会的。从下载模型,各种插件的安装,工作流的搭建、调试,通通报错的处理。如果说你的工作是设计的,建议大家可以 去学一下,不管你是做平面设计的,电商详情、页设插画这类设计。因为现在康复 ui 它不管是深层图片还是图片精修图片的再编辑功能效果都很好,它可以达到一个商用的要求。如果大家对康复 ui 的 感兴趣,可以点个关注,我们一起交流使用康复 ui 的 心得。

哈喽,大家好。为什么觉得学 comfy ui? 嗯,就是现在去学 comfy ui 可能并不是那么划算。嗯,大家可以看一下,就前段时间中国爆出那个六代战机嘛,然后我就,哎灵机一动,我就想能不能用这个爆出来的图来想象一下它真实的样子是什么样,然后它给了我这样的结果。 对,呃,就大家如果了解开源模型的话,可以去想象一下,如果说你要达到这样的效果要花多长时间,我大概花了十分钟不到,我就拿到了这样的结果, 就我觉得时间的效率是非常重要的。当然有些朋友在说有些平台不能过时的内容,那我觉得你生产那样内容也没有商业价值啊,对吧?就是为什么要去生产这样的内容,所以我就我是没有这个需求。 对,包括有些朋友说什么批量化的去生产内容,他觉得,嗯,用本地比较合适。那确实比较合适,但是我是一个用想要用 ai 做视频的人,我没有批量化的需求,我是一个个性化的,就是创作的需求,所以我觉得闭眼比较的方便。那有朋友就是问了,那我应该怎么去学习呢? 哎,首先我我也在学习当中,所以我好像没有那么强的资格来说,但是如果硬要问我的话,我觉得就是去用,然后去 去用它,去做你想做的东西。其实我也跟朋友交流过,他觉得其实 ai 时代来了之后,感觉好像这个事情变简单了,其实这个事情是变得更难了,因为你需要去自己搭建出整个故事的世界观,你要去 懂美术啊,知道什么是好看,你要懂剧情,然后就是因为所有的东西都变得可以让你控制,那你就要把一这些所有东西就跟木木桶一样吗?就是你把每一个版都不能做的很短,那最后才能拼出来一个比较优秀的作品, 所以其实这个对人的要求是变得更高了,我们以前是拿到素材去处理加工就可以了,作为一个剪辑来说,至少那 现在是你的素材是你自己创创造的,你的世界观是你自己创造的,然后你还要去把这些剪辑成一个片子,那这中间需要用到的技能,如果说你想用它做视频,或者说作品品牌宣发视频, 那你你想这个里面需要的技能难道是怎么用模型吗?难道不是你的想象力,你的文学功底,你的 嗯,审美,对吧?就是是是这个这方面的综合能力,而不是说我要去学这个模型怎么用,当然你要知道它应该怎么用,比如说, 呃,你要知道每个模型的长处是什么,它有什么特点啊?那我要实现这个效果的时候,用哪个模型来的效率最高,以及呃,模型会有哪些短板?我在写剧本的时候我就需要去避免这样的长板,那是不是能利用这样的长板? 呃,比如说有些模型它能实现的功能是在以往的我们的创作中是完全不可能实现的,那现在变得可以实现了, 那是不是我们可以用这些长板,呃,来实现一些之前从来没有过的效果,对吧?这这这个地方就完全发挥你的想象力,所以我觉得我们应该去了解模型,了解模型有什么样的功能,以及它的能力边界在哪?我们取其所长,然后弃其所短。 我觉得这个是我现在探讨下来我觉得性价比比较高的一个方案,或者说去学习的。我自己的一个学习的方法论, 对,就是去拿它去做作品,然后拿到结果。而至于很多还还还有些朋友说,什么面试的过程中需要一个什么能力啊?在工作中我觉得更加是如此。其实说写了那么多能力,最终还不是想拿到结果吗?如果说你已经把结果摆在他面前, 呃,你有什么样的能力还重要吗?对吧?就是你就用这样的工具去创作出你想要的东西,以及为什么。还有朋友说,呃,觉得 花钱买课什么这方面我我提了一嘴嘛,当然不是否定所有的课程,还是有些还不错的课程,但是就 ai 这件事情实在是太新了,其实对于很多老师来说,他也是自己在学习的过程当中,呃, 所以与其这样,不如去看一些其实优秀的开源的作品,已经就是开源的,这些教程已经很好了,而且,呃,也有很多一部分 up 主有有这样的开源精神,我觉得做的挺好的。你如果想要去花那个时间去考古, 你就去考古。但是我觉得开源的模型,嗯,不要花太多时间在上面还是去考古,但是我觉得开源的模型,嗯,不要花太多时间在上面创作,包括我接下来我就会,呃, 包括我接下来我就是会利用这个,比如说这个战斗机的一个元素,一些我做了一些人物的形象以及一些场景,那我会在后面的过程中持续去更新我自己创作的一个情况,也也会在这样一个平台来进行发布。那我最后我已经做好了这个 吹乐视频的啊,一个预告片一样的视频的一个脚本的架构,我已经基本写好了,所以接下来的过程中我会去一步一步再借助这样的工具去去实现我脑子里想的东西。我其实我也不知道最终效果会怎么样啊,所以如果大家感兴趣,可以持续关注我的频道。

好消息, c d 四二点零终于取消了排队限制,现在直接集成到了 ctrl u v 中,整体流程大幅简化,跟着我的节奏,基本两分钟就能搞定一个视频。操作门槛非常低, 我简单走一遍流程,先用一张图生成九宫格分镜画面,把这个九宫格图传到这里面,在 ctrl u v 的 画布里双击空白位置,输入 c d, 就 能调出对应的节点, 点一下添加到画布。接着把提前弄好的图片素材和提示的文档链接到节点上,参数按需调整,时长有五秒、十秒、十五秒可以选,画幅,比例也可以自己选。最后连上保存视频的节点,点开生成就开跑了。 实测下来,十五秒的视频, ctrl u a 里大概跑二十分钟左右,五秒的基本就两三分钟出头就能下来,相关的题句词我也顺手整理好了,直接拿去用就行。今天就先聊到这操作中,如果碰到啥问题随时来找我。对了,刚才跑的那个视频已经好了,一起来看看效果, 关注我, ai 这个东西其实没有那么复杂。

二零二六年还有必要学 public ui 吗? ai 发展到今天,做图做视频有很多低门槛、傻瓜式的工具,为啥还要学 public ui 门槛这么高的技术呢? 今天咱们来聊一聊这个话题,我的观点呢,相关的从业者里面,百分之二十一定要精通,百分之八十是不需要学的, 这个怎么说?我们先来看 comui。 在 ai 生态的位置中间是 comui, comui 往下是各种大模型, 包括大语言模型、各种生图生视频声音模型。往上是各种更低门槛的工具,比如美图设计师搞定设计、可灵即梦,还有 live tv 等简化版的工作流创作工具。 comui 的 生态位置大家可以和操作系统进行类比,操作系统往上是各种应用软件,往下是 cpu、 gpu、 内存、硬盘等这些硬件。 comui 所处的生态位置决定了它的高门槛。普通人,特别是没有技术背景的,想编辑 comui 工作流是比较难的, 但是只要掌握了它,获得的收益也是比较高的。比如第一个构建内容生产线,构建好之后可附用可批量生产,一下生产一百张电商主图,不需要人工干预,那降本增效确实挺明显的。 第二个,生态活跃, flex、 sd 三点五、 l t s 二点三这些新模型, comfyui 社区永远是最快落地的。 你学的不只是一门技术,是最新 ai 能力的工程化入口,意味着掌握了 cvui, 你 的组织就能以最快的速度使用上 最新的 ai 能力。第三个,基作能力,最近的各种无线画布,如 live tv、 tab now、 it's a pixel video 等一些知名的开源项目,底层都有 cvui 的 影子,掌握了 cvui, 使用那些工具都不在话下。 有上面的信息以后,我们接着来看,在一个组织里面以及相关行业里面,哪些人需要这些能力呢? 最典型的是技术从业者,比如架构师,他们的工作目标里天然就有一部分是为组织建立可附用的自动化的产品工具,实现大幅度的降本增效,并且根据技术发展及时更新组织的技术站。 第二个专业的电商设计师视觉团队,他们需要日更大批量商品图片,需要风格统一的品牌视觉,需要稳定的商业交付,也就需要这些能力。另外,想通过定制工作流变现的一些自由职业者, 以上这些人是一定要精通 copy ui 的。 这部分人在从业者里面属于少数部分,按二八原则,姑且认为他们是需要精通 copy ui 的 百分之二十。 剩下的从业者,比如中小电商老板、运营市场营销策划人员、泛内容自媒体博主, 他们的工作内容和目标通常是直接产出商品。主图详情图没有大批量的需求,更想快速看到效果,那么完全没有必要学 copy ui 门槛这么高的东西,使用更低门槛的工具就能满足需求。 最后总结下,学或者不学是由你的工作内容和产出目标决定的。下次再纠结要不要学 copy ui 的 时候,不妨先问自己两个问题,你的工作是大批量重复性的吗? 是否想消除这些重复性?如果是,那么需要学,否则大概率是没必要学的。

呃,我想把我的五零九零卖掉了。嗯,下面是一些我具体的原因。先说一下我当时为什么买 五零九零这张显卡,其实是我想用最新的开源的模型,因为当时我看了一些呃 ai 的 评测,我觉得开源的模型其实效果也是非常不错的,所以我就想去运行,比如说像蔚的模型是蔚二点一。呃,阿里的开源的视频模型, 所以我当时非常好奇啊,也是一个纯 ai 的 小白。呃,但是如果说你现在还是个 ai 小 白,其实我也不建议你去买,就为了自己去玩这些开源模型去买一张显卡,我就是一个活生生的例子,因为那个时候我确实不懂,我都不知道。呃, 其实只有一张显卡是不够的,你还要去买内存,然后去了解了很多模型在本地运行的一些知识,其实花了非常多的时间。呃,也 跟了一个 b 站的博主学习了很久啊。当当,当然非常感谢他的这样的开源的精神来呃分享,无私的分享这些知识。呃,这里也顺便插一嘴,如果说, 呃,你为了学康费 u i 或者说为了学一些 a i g c 的 东西,去购买一些付费的课程,课程坚决不要去购买。嗯,我觉得没有任何意义,去买这些课程就纯粹的割韭菜,我觉得纯粹割韭菜。 哎。拉回说,回到我的五零九零为什么想卖?就是我发现玩开源的模型是肯定是不够的啊,我现在已经去走向了,去探索闭源模型,而且未来一定是走向闭源模型。我觉得, 呃,就比如说现在的 flux 的 呃二代的模型,它如果说量化版本也是能够在家用的这个显卡上面去跑的,但是我觉得意义不大,因为你五零九零, 它的算力说白了我觉得是远远不够的。你如果想要用 ai 去作为生产力的话,它跑一张图要花多长时间?如果说我在线上平台,我可以同时跑好几张图,可以多线并发,你的本地的五零九零可以吗?肯定是不可以的 啊,这里面就涉及到了一个时间成本,还有一个你的五零九零。而且我现在就为了随时随地能用这张显卡,其实我是把它 呃做了远程的,可以访问的,我在外面任何地方都是可以访问我的这张显卡来进行工作的,但是我觉得即便是这样,也是没有线上平台来的方便的。 呃,我现在其实是订阅了 loveart 的 会员啊,尽管他现在因为被抢了,然后 也有一些平台本身的呃网上的一些非议,但是我还是买了他们最高等级的会员,我觉得非常的方便。而且我觉得,嗯,当时我是六千多块钱买的吧,现在可能有一点点涨价,但我觉得非常值。 嗯,尤其是你试用了 comfui 之后再去用这样的模型啊,这样的 a 阵的平台去用的时候,你会觉得它帮你提升了很多很多的生产效率,相比于你用 comfui 来说,而且 comfui 它的学习成本其实蛮高的。 嗯,就是,其实我最近也听到一个说法,就是尤其是在 ai 时代, ai 不是 应该你去学 ai 怎么用,然后你再去用它, 而是你应该直接把它拿来用在用中学在用中去体会这个工具,因为这个东西现在进步的实在是太快了, 包括有一些博主。嗯,我觉得他就是在尝试嘛,用 ai 的 开源的这些模型看尝试能做出一个什么样的片子,我觉得这样的精神是很好的。但是如果说你从纯生产力或者说纯为公司创造价值来说的话,其实意义不大 啊。包括现在万最新的二点五的模型,二点六的模型都没有做开源。呃,就算他做了开源,我相信五零九零也是跑不起来的。呃,所以我觉得 最终的我思前想后,我最终的结论就是五零九零我已经想卖掉它了,因为我觉得它对于我来说没有太大的价值。呃,如果说你想折腾一些 开源的东西,或者说你就是想纯折腾,我就可以折腾折腾,但是对于现在的我来说,我觉得没有太大必要啊。当然我觉得未来的话,显卡还有个很大的应用场景是,比如说 nas 可以 接上显卡,我觉得这个东西还是挺有意义的,但是可能也用不上五零九零,可能一个更低端一点的游戏显卡就够了,因为他可以在 ai, 呃,他可以跑一些 ai 的 程序,帮你去做文件的分类啊,文件的标注,我觉得这个应用我是非常非常看好的,以及我看未来能不能有更多的纳斯能去做这件事情,包括我知道,呃,好像飞牛的纳斯 还是有一些挤空间的纳斯可以去完成这样的一个功能,我觉得这个功能是非常非常好的,但可能我也不需要五零九零这么强劲的一个算力, 所以我思前想后,最终的结论就是五零九零我想卖掉了。呃,包括这台整机我也想卖掉了我觉得。 嗯,放在家里闲置有是一种浪费,我想把它出给啊有缘人,如果你们需要的话,我觉得你们可以购置这台机器。所以我接下来也非常期待我自己能用 loveart 能创作出更多的东西。对。

ai 创作者注意,咖啡 ui 彻底杀疯了,二零二六年不会塌,你真的要被淘汰!刚结束的 gdc 大 会,英伟达直接把咖啡 ui 封神,专属 rtx 技术让 ai 视频 提速二点五倍,四 k 增强狂飙三十倍微零点一七点零版本直接重构底层,从小众工具升级成 ai 创作操作系统, max 模型优化拉满 本地运行,无审查无订阅费完爆云端 ai, 别死磕没哲理了! comui 三千加插件全覆盖,图文视频音频 一键搞定,新手靠 ai 自动搭工作流,半天就能变现出作品,全球顶尖开发者扎堆入局,大厂深度适配,这就是 ai 创作的下一代旗舰!现在上车还不晚, 半小时装好软件直接操大佬工作流,赶上这波 ai 红利,快车评论区扣 comfyui 带你入门不迷路!

ai 视频靠运气抽卡的时代,已经被开源神器 comui 彻底终结了。此前劝退无数人的显卡配置,蜘蛛网一样的复杂节点,在他面前全都是冷笑话。 虽然都知道它免费无限制,但很多人刚上手就被现实狠狠打脸。本地部署疯狂报错,看着满屏的英文节点脑壳直发蒙。今天我直接把运行半个月干出来的 comfyui 满血通关大礼包端上来,主打一个无保留分享。这份战略直接帮大家铲平了安装报错、显卡带不动、节点连不明白的三大痛点。 想少走弯路的小伙伴往下看,想给真人换装点一下就行,想替换人物动作再点一下就好了。指定做光影炸裂的赛博朋克点一下的事,就算要搞爆款短视频的瞬息全宇宙特效,也只是 点一下的功夫。这可不是什么按章收费的套壳网站,而是圈内公认的控图能力最高级别的 ai 绘画神器。软件本身开源免费不说,只要把现成的工作流拖进去, 可以体验所有最前沿的视觉效果。首先,界面完美汉化,并且支持中文提示词指出。大家注意,这可能不是以前那 种半调的插件汉化包,连带底层逻辑全给你安排的明明白白。第二,我给你准备了两百三十加个开箱即用的 ai 功能,完全不用你从零学连线,你以为就这样了吗?第三,我还解决了新手最头疼的三座大山。环境老报错,低配电脑带不动,不知道去哪找优质大模型。 我用了两个多星期,翻遍全网,通宵测试了各种方案,不仅总结出了最稳妥的一件整合包和配低电脑网上免费跑图的渠道,甚至把几十个 g 的 绝版神仙模型全部给你重新跑通了。拿到手之后跟着保姆级教程走, 不用自己瞎折,打开软件,选个感兴趣的工作流拖进去,直接就能出视频。对零基础的 ai 视频,小白宠粉可是认真的。

我真的不推荐设计师去学 cfui, 刚我本来都要睡了,然后刷到一条视频说,呃,我觉得大家最后一定都要去学 cfui, 还有个什么软件? 呃,首先, cfui 它非常的吃电脑配置,我之前为了去学 cfui, 我 配了一个五零八零的显卡,结果 打开 comui 的 界面,一堆的节点和连线,根本不知道从哪下手,还没开始学就已经头晕了。其次,我们就只是一个普通的设计师罢了,没必要把自己搞得像一个写代码的程序员一样,没必要,太复杂了,真的没必要。 嗯,我们完全可以把市面上的这些 ai 工具组合起来打呀, mj 洛瓦特纳多 banana, 把它组合起来用啊,不用非要 就这一个工具去来想着完成我们的工作,运用 ai 思维来辅助我们设计,最主要的是我们底层的设计逻辑不要被一个渲染工具给绑架了。

你可能早就听说过它,但 comfyui 推出的全新大版本绝对超乎你的想象。第一,原声全中文界面注意了,这可是官方正版自带的中文,绝不是那种动不动就报错的第三方翻译插件,性能极其稳定,直接帮你跨过英语这道坎。 第二,用不完的官方精选模板。新版直接在工作流预览里内置了数不清的开箱即用无需学习的经典 ai 功能模板,从 ai 绘画的纹身图、图生图、高清放大、局部重绘,到 ai 视频的首尾键、过度动画,应有尽有,直接带你临门槛体验当下最火的 ai 黑科技,欧耶!第三, 新手难以跨越的三座高山,找不到模型,不懂魔法,上网看不懂报错,我报干了两个多星期熬夜测试,把五十六个工作流的节点全部打通,模型和底图全内置拿到手,不需任何调试点击就能运行。宠粉我们可是认真的,如果你还没有整合包,不妨验验牌, 接下来我就带着大家一起学习。 com v i hello 大家好,这节课我们一起来学习如何搭建纹身图,工作流以及具体参数都有哪些。那么这个工作流我们上节课也稍微了解了一下,不过还没细说, 现在我们就来看一下这其中都会涉及到哪些参数,以及是如何控制我们生成的图像的。首先, 我们看到最左边的这个节点叫做 check point 加载器,那么它是放置大模型的地方。大模型我们可以非常简单地理解为它就好像一位厨师,那么有的厨师做的是 中华料理,有的厨师做的是东南亚菜系,有的厨师做的是日料,不管之后这些参数再怎么调,主体基调都 是和我们的大模型息息相关的。那么我们点开来之后,可以看到,有的大模型是真实系,有的大模型是动漫系,有的大模型是全能系,各有所长,当然除了这几种大模型之外,还有千千万万的大模型,我们待会会提到,这边我们就先试验一下, 比方说咱们先来一个真实系的大模型,接着点击右上角的执行,现在咱们可以看到最终的生成图像,很明显是写实风格。那么如果我们来到 checkpoint, 把大模型替换成一个动漫类的大模型,随后再一次点击执行,那么此时 我们能够明显地感觉到最终的画面呈现出了一种动漫的色彩。咱们讲完了大模型,就顺着去 point 加载器的输出往后看, 它一共有三个输出,分别是模型输出、 k 输出以及 v i 输出。咱们先从它的模型输出讲起,顺着这条线咱们往后看,可以发现,哎,这个模型输出啊,连接到了 k a 采氧器上,那么这个节点我们可以看到它属于整套工作流的核心节点,咱 我们可以把它简单地理解为中央处理器,它就是整个工作流的核心大脑在这个节点里会进行各式各样的运算,然后再通过解码输出成我们的最终图像。接着我们再看 这刻加载器的 clip 输出,那这 clip 输出连接在了两个节点上,分别是这两个 clip, 文本编码器。好,那现在问题我来了,啥是 clip 呀?要解决这个问题,我们也可以顺着文本编码器的条件输出,哎,我们不难发现,它也是连在了 k 彩阳器上,那分别 一个连接到了正面条件,而另一个文本编码器连接在了负面条件上。如果说有学过维 b 的 小伙伴应该就知道, 上边的这个我们称它为正面提示词文本框,而下边的这个就是负责输入负面提示词的文本框,因为它连接的是负面条件嘛。那么什么是正面条件呢?很简单啊,就是我们想要啥,咱们就输入啥,比方说我现在想 生成一个女孩,那么就输入 one girl, 比如这个女孩在森林里,那么咱们就在 one girl 的 后面 加一个逗号,紧接着输入森林的英文,也就是 forest。 当然语言这一块有任何 不懂的小伙伴,我们都可以打开翻译器,比方说像这一个有道翻译呀,挺便捷的,我觉得非常适合康复语外。比方说我们想让它翻译一个水手服,那么就可以直接把这个英文给复制一下,接着再粘贴回我们的正面提示词文本框,注意 词汇与词汇之间要添加逗号。 ok, 现在我们编辑好了提示词,大体就是一个女孩穿着水手服在森林里,咱们点击执行,可以看到最终图像也是成功生成了, 并且完全符合我们的提示词意思。但是我们可以发现啊,这张图片有非常多的瑕疵,比方说他的手,或者说他的面部非常的粗糙,缺失太多细节了。想要完善这一点,我们会在 之后的图片高清修复中一起去学习该如何解决这一系列问题。那接下来我们回到刚才的话题,在我们知道了正面提示词之后,咱们就来聊一聊负面提示词,那这一个也很简单,就是我们不想要什么,咱们就输入什么,比如说我们现在啊把 把正面提示词给输入花园,哎,一座花园,咱们先点击执行,来看一下一座花园它能长什么样,我们可以看到图中的花非常的多 哎,当然我们也可以多升几张,我们可以看到基本上啊,每一张花园关键词所对应的图像花朵都是非常多的,如果我们想让这些花朵的比重 下降的话,那么咱们就在负面提示词这边输入花朵,也就是 flower, 代表着我们 不想让画面出现花朵,输入完之后点击执行,现在可以明显的感觉到图片中花朵的比重大大减少了,我们可以多跑几次,是吧?能够明显的感觉到花朵占比没这么多,但是还是存在,这也正如我刚才所说,负面提示词它根本的原理, 我们可以理解为降低提示词的权重,也就是花朵在这一整幅画面中的比重,但并不是完全消失啊,如果是想要做到完全消失, 那么我们可能得提高关键词的权重。怎么提高呢?看到文本编码器,比如说我现在想提高这个花朵的权重,也就是我想 更进一步地降低图片中花朵的元素,那么我们把光标放在提示词上, l, n, ctrl 加上键,哎,我们可以看到数字是不是变成了一点一哎,继续按上,然后就变成了一点一五,一点二,一点二五,那么这个 一点二五这个值,这个数字越高代表着权重越高,大家只要记得快捷键是 ctrl 加上键或者 ctrl 加下,那么就是降低权重吗?我们可以试一下,对吧? ctrl 下,我们先一看到后面的数字一直在减小,代表着权重在降低,那比如说我现在啊 把这个权重给调成一点六,接着我们再跑一次,能够明显的感觉到花朵的元素占比 非常非常小,已经几乎消失不见了,那么如果我们打这个花朵,摁 ctrl 加下,哎,我们降低它的权重,比如说降低到零点五吧,此时我们再点击生成, 我们可以看到画面中又出现了花朵的元素,那这就是正负面提示词以及权重的使用方法,没听懂的小伙伴可以回去多看几遍。接下来看到下边有一个叫做空 let 的 东西, 哎,啥是 later 呢?我们看到它的参数自然就明白,可以看到它一共有三个参数,分别是宽度,高度还有皮次大小,很明显它是有控制我们图片比例以及分辨率的地方,比方说高度我们设置为 七百六十八,相当于此时的宽高比二比三,点击直行,哎,那么最终图像也是瞬间就变成了竖屏比例,那么这 就是控制恁的作用。还有个批次大小,则是控制单次任务会出多少张图片,比方我们把批次设置成四,点击执行,那么此时可以看到保存图像这边多了一个交叉按钮,点击一下 我们就可以发现哦,一次性啊生成了四张图片。接下来我们看到 k 采集器,那么刚才我也说了,它就好像整个工作流的核心大脑,负责处理一切事物, 其中它也是有非常多的输入以及参数。首先看到十几种,我们可以把它理解为图片的身份证号,那么相同的参数以及相同的随机种 出图会保持一致。有同学可能还不太理解,我们这边先把 p 四大小设置为一,随后点击执行,哎,我们第一次升图是长这个样子,接着我们再点击执行,可以看到图片立马换了个样。 细心的小伙伴可以发现呢,这两张图片每次生成的时候,随机种也不一样,但是其他参数我们变了吗?比方说关键词 我们有改变吗?模型有改变吗?或者宽高有改变吗?很明显没有。那这就是随机种子的作用,能让我们相同参数生成各式各样的图片。同时只要我们约束随机种,我们也能保持出图的一致。比如说我们看到运行后操作,哎, 把它设置为固定,那么代表着我们生成完这张图片之后啊,随机种子会保持不变。那么既然随机种保持不变,此时我们再点击执行,可以发现工作流 直接不动了。那么因为啊,我们的所有参数都没有发生变化,代表着如果我们能跑起来,那么最终结果也还是这张图片,所以说康复癌怀会 直接不动。接下来我们看到步数,那么这个值,我们可以把它想象成毛巾擦拭一块脏玻璃的次数,哎,很迷是吧?我们的 stable diffusion 生图过程啊, 其实是不断地为一张噪声图像降噪,降噪最终生成而成,那么步数也就是降噪的次数,当步数过低时, 可能这块脏玻璃还没有擦多少下,上面全是灰尘或者说扭曲的色块。我们一起来直观的看一下地方,把步数设置为三,接着点击执行,可以看到这段画面, 啥玩意儿啊?哈,根本看不清。而此时我们把步数设置为七,然后点击执行,可以发现,哎,画面稍微清晰了一点,但是好像 细节没这么多。大家想象一下,我们为一块脏玻璃,如果说只擦七下跟擦一百下,那呈现的效果 肯定是不一样的,比如我们只是啊,把步数设置为四十,哎,这个时候脏玻璃上的灰尘基本上都被擦干净了吗?可以看到,细节就多了很多,图片的质量也相应的有所提高,但并不是步数越高就越好,哎,什么意思呢? 一块玻璃呀,擦一百下跟擦两百下有区别吗?区别不大,因为当我们擦到一百下的时候,可能玻璃上的灰尘都被擦光了,继续擦下去只是在浪费自己的力气。我们可以实验一下,把步数从刚才的四十设置为八十, 接着点击执行,我们一起来看一下,两者之间的差距会有多大。我们可以发现,升图时间其实是多了一倍, 因为八十是四十的两倍嘛,而我们最终图像的变化连百分之五都不到,所以就显得非常没有必要。因此 一般情况下,我们的步数设置在二十到三十之间即可,所以我们这边可以取个中值二十五,那么下边有个叫做 c f g 值的东西,又是一个新参数,那么它也很好理解, c f g 值越高,代表着我们最终生成图像和关键词越相符, 咱们也可以理解为 c f g 就是 对关键词的约束力,当我们的 c f g 为一时,则代表着 我们约束力非常的弱。咱们的最终图像啊,就好像脱缰的野马,将和我们的关键词没多少关系,不信的话点击执行,一起来看一下。我们能看到这生成的是一坨啥呀?所以一般情况下 c f g 保持在 五到八之间即可,我这边设置为六点五。那么接下来有一个叫彩样器以及调度器的东西,这两个可以简单地理解为图片的降噪方式,图片的生成方式,我们彩样器一般选择的是 d p n p p r m, 而调度器我们一般选择 chaos, 点击执行可以来看一下生成效果。那么最后还有一个降噪值,有关这个值的解释我们会放在下节课图升图中再详细讲到。 那么我们终于把 k 彩阳气的所有参数都讲完了,现在一起来看看它的 latent 输出。那这个东西是什么啊?不太懂哎。我们看到它后边 连接着一个叫做 vee 解码的,而这个 vee 解码的作用就是让我们的 latent 图像能够转变为最终的像素空间图像。我们可以简单地把这个 latent 或者说 latent 图像比作一盘刚炒出来的菜, 但这菜还没有摆盘看得乱糟糟的嘛,不忍直视。而后边经过 v a 解码之后,哎,这一个服务员把这一盘不忍直视的菜 优雅地进行摆盘设计,最终端在我们面前的就是这一个像素空间的图像,也就是被优雅精心摆放过后的菜品,而其实像这个 laten 以及 laten 空间,我们也翻译为前空间,在这里面的图像 我们是看不见的,而咱们平时能看得见的所有图像,包括你所看的本视频都属于像素空间。那么关于这一点,咱们了解一下就好。还是来说一下唯一解码的运用吧。我们能够 明显的感觉到,咱们刚才啊生成的这些画,感觉是不是都灰蒙蒙的,不太对劲啊啊,没感觉到也没关系,总之啊,他们其实都有点灰,比方说我现在把种子值给稍微修改一下,新生成的这一幅画,哎, 是不是能够感觉到色彩没这么的鲜艳饱满了?那这和 ve 有 关,不同的 ve 会带来不同的解码效果。想要改善这个灰蒙蒙的现象,我们可以把这个 ve 节点先给断开,然后在 ve 解码的这个 ve 咱们点住,拖出来,选择 ve 加载器。那之后我们在这个 ve 名称点击一下,可以看到,目前一共有三种 ve, 当然有更多的我们可以自行安装。我们要生成的是动漫类图像,所以选择的是安尼美 ve, 那 现在我们再点击执行, 哎,图片是不是立马变亮了,立马变得鲜活了,那这就是 ve 解码的作用。好的,那么以上啊是关于本期文生图的具体参数 以及工作流讲解,下节课我们将进一步探讨图生图,并用图生图简单地做一个风格转变。那我们就下期再见!拜拜!

学 cfui 到底能不能赚到钱?能,但跟你想象的可能不太一样。 ai 绘画刚火起来那阵子,我选了图片方向,当时呢,有两个工具,一个是没得遮瑕,出图最好看,但天花板非常低,做不了产品。另一个呢,是 cfui, 难上手,但能做出产品。我选了后者, 等我入了坑了,才知道什么叫做门槛。一个插件报错能折腾一整天,没有技术背景的人啊,光搭环境就被劝退了。但是呢,我发现了一件事啊,这个门槛本身啊,就是护城河,因为难,所以用的人少,会用的人稀缺,稀缺啊,就是价值。 同时呢,我把做工作流的过程发到了网上。有一天啊,一个视频突然火了,大量的私信涌进来,问的都是同一个问题,报错了怎么办? 几十个人反复问同样的问题,我意识到一件事,大家踩的坑啊,是高度重复的。于是呢,我开始教他们,不是系统讲课,就是教他们装环境,排爆错,搭工作流,把我花一天解决的问题总结出来,让他们十分钟搞定, 那段时间有了些收益。从入门到做出第一个能卖的工作流,我用了一年。第一个商用工作流呢,是两个方向,从油画和真人转 q 版头像,不是什么高大上的技术,就是找到了有人愿意付费的小需求。 这一年呢,最大的收获不是学会了工具,是想通了三件事,第一呢,技术门槛是护城河, 信息差就是利润。第二呢,解决问题比精通技术值钱。第三呢,变线路径比技术能力重要。如果你也在学康复以外,我的建议非常简单,找一个很小的具体需求,把它做到极致,然后把你的过程分享出去,需要你帮助的人会自己找上门来。 这条视频呢,是我的真实经历,从零到第一个商用工作流用了整整一年。如果你也在纠结某个方向,能不能走通评论区聊一聊。

ai 彻底取代产品经理和影视导演岗位了。 openai 刚刚发布了 gpt 五点五大模型,可以直接用自家二代图片生成模型,生成完美的 ui 界面,然后一分钟就能生成一套完整的产品原型。当然文字提示词也没有任何问题。这完全就是一套世界模型啊,那些 com ui 和 n 八 n 工作流一夜都被淘汰了呀。

这是一个不限次数生成图片和视频的 ai 工具,它就是地表最强开源 ai 生产力工具, ctrl u i v 八破线版,或许你早就听说过它,但这个大版本的更新完美解决了康复 u i 安装困难和工作流报错问题,这种电影级的 ai 视频完全不在话下。 和那些花钱还要排队的网站不同,纯中文界面,完全不用懂英文,不用联网,更不用魔法上网,所有运行都在本地或限制 审查,最低支持一千零六十显卡。更惊喜的是,这次整合包直接内置了三百三十七个顶级工作流,全是大佬们认可的使用功能,使用也是超级简单的,三步就能搞定,一,拿到整合包,二,解压缩,三、双击打开 还没有试试的老规矩,验个牌。接下来开始教学,欢迎来到本期的康复 ui 教学,那么本节课呢,我们一起来学习一下纹身图以及它背后的生图逻辑。 那首先我们来到了 comui 的 界面,那么接下来呢,我们一起来看一下它究竟如何去完成这些直能的,那比方说这个 clip 文本编码,它是怎么做到把这个文字 最终通过 k 采集器转化成相应的一个图片?那首先呢,我们来先看到这一张,那这一张呢,就是 ai 生图最基本的框架了,我们从左边开始看起,分别有 promen, 那 是这个是什么意思呢?就 是说正向提示词以及反向提示词吗?那接着这两个东西就会传入到 ai models 里面,那经过计算呢,最终就能够生成我们 想要的图像了。那这个呢,确实是大体上正确的,非常笼统的概数,那我们今天 ai 生图的逻辑,那接下来呢,我们就从这个正反向提示词看起吧。我们回到刚才的 左流,我们可以看到向正反向提示词输入在哪里呢?我们可以看这里第一个有 clip 文本编码器, 而这个文本编码器的 clip 到底是什么意思?那为了弄清楚这一点,我们再来看一下这张图, 那在这一张图里,我们可以看到有一堆英文,也不用害怕,我们来看一下它代表的是什么意思。那首先我们来看一下左上角这些东西有稍微熟悉一点的,那有什么呢?我们可以看到有这一些, mountain, landscape, eastern running horse and gaddis gottis。 那 这些东西呢,其实就是我们的正向提示词,比方说第一个就是与山有关的一个景观,那第二个呢,其实就是宇航员骑着一匹马, 那顺着我们后面的一个箭头看到我们,他们被送往哪里呢?可以看到一个叫做 transformer 的 东西,而这个 transformer 呢,它出自于二零一七年的一篇论文,那这篇论文呢,也是 ai 史上最重要的一个里程碑过。我们这边呢先补 打开来讲,那我们回到刚才的这个图片,那我们继续来看一下这张图片,那具体它是干什么用呢?那在这个 transformer 在 弄懂这个之前,来看一下它后边输出了个什么。 那首先我们可以看到这里是输入了一些一点几几,还有大致的一些中括号,那我们可以看到像这些代表的就是叫做特征向量, 所以我们的这个 transformer 的 一个作用呢?也就是说我们输入的文本通过特定的方式给转变成了这个特征向量。那有的小伙伴可能会说啊,那这一步有什么意义吗?当然在我们的计算机处理文本的时候是比较费劲的,就好比我先让你去翻译一大段英文, 好比我现在跟你说,你长得真的很像姓刘名亦菲的人,或者说我说,哎,你长得真好看,那我问你哪一个更能清晰明了,能更容易让你一瞬间就懂呢?那肯定是第二句话嘛, 直接夸你好看。虽然说第一句话也是听起来比较好听,但是对于电脑也是这样子的,他是觉得让电脑去识别并处理一大段英文或者中文是更容易的, 还是让它去处理一段蕴涵着这些文本信息的数字容易?那毋须质疑,那肯定是处理数字对电脑来说更容易些。 那这个呢,就是我们的这个 transformer 在 其中扮演着类似于转换器一样的一个作用了,它识别文本,并且把它转化成这个特征向量,那这个就是它最重要的部分, 那在这一条流程当中,就是属于类谱模型所需要包含的一些内容啊。那我们接下来呢,回到现在的这个工作当中,还记得刚才我所介绍的流程吗? 也就是说我们在这个文本编码器当中去输入文字后,由 transform 转化成什么呢?也就是特征向量对不对? 而这个特征项链呢,它好像就是蕴涵着非常多信息的一个浓缩小盒子,那么它被传到哪里呢?也就是它会被传到这个 k 采氧器当中,最终呢,它会在这个 k 采氧器当中进行一个运算, 具体的流程呢,待会我们也会提到。那我们接着回到刚才的那一张图片里,那下半部分呢,其实就是我们的一个图像编码了,大家可以看到左下角这里是不是有一堆图片啊?那这些图片我们也可以把它称之为训练级,大家可以想一下, 我们在康复来工作流当中,哪里会包含着训练级呢?那必然就是我们的一个大模型了,那 diffusion models 扩散模型,那比方说有大模型是二次元风格,那必然呢,它的训练级大部分的内容就是使用的二次元图片来进行训练的,那如果是大模型 是写实风格,那必然它的训练级肯定是包含着大量的真实系图片。那接下来呢,我们再顺着这个训练级往后看, 可以看到它这里一共是连接的两个箭头,对不对?那分别是什么呢? v i t 和 resident, 那 这两个呢?并不是同时进行的,注意我们这边代表的意思啊,有的是这个克里普模型用的是 v i t 的 框架, 有些 clip 模型呢,用的是 restit 的 框架,那不管是说 clip 包含的是这两个其中的一个,那么它本质上的目的是只有一个啊,也就是说为了让我们的训练级干嘛呀?就是转化成特征向量。 那现在呢,是不是就觉得和刚才的文本编码器有点像了,那目的呢?其实都是为了去简化我们的一个信息,让信息更好的去处理以及。 那么接下来呢,问题又来了,为什么克利普模型要做两个部分呢?那上面处理完文本之后,那下面的这个图像该怎么去配合呢? 那接下来呢,我们来讲一下这个文本编码和图像编码是怎么进行配合的。那比方说我现在呢画一个 s 轴和 y 轴,然后这个位置呢,我们就代表是猫相关的一个特征,那在后面的这个位置呢,我们就代表是人的位置。那此时啊, 如果我想要生成一张猫粮的图片,那这个猫粮的位置应该是在哪里呢?大家可以思考一下啊,那必然呢是我们这两者之间的一个范围,对不对?你可以想象一下,那我们的这个猫粮的范围区间呢?它是有这么大的, 那么我们的目标呢,其实是不是这个猫粮?那必然我们的这个猫粮的取值范围呢,就在它的这个区间里面,也就是说这两者之间的一个交集范围内。那我们刚才的这个位置呢,这个编码作用 其实就是锚定这个猫,还有人他们在特征向量当中的一个位置,从而让文本编码器编码之后,特征向量一个框架内。 我知道我这样子说,可能有很多小伙伴是比较懵的,那么我们再回到刚才的工作流里面,我们来看一下,首先呢是咱们的训练级,也就是大模型,那大模型呢,它包含的就是在这个 checkpoint 的 加载器里面, 它是会经过我们的一个克里普连线制定好一个框架。那制定好这个坐标轴之后呢,我们输入的文本就会经过这个克里普模型转变成特征向量, 那特制向量呢,就会套用在我们的这个 x o y 轴上面的一切套用的一个逻辑是在背后的这个 k 传感器当中内发生的。那我们刚才呢已经讲解完了这个理论知识了,我们再来看一下实际的操作吧。我们讲一个难度稍微低一点的, 我们目光呢先锁定在这个 k 采集器当中,可以看到它有非常非常多的一个参数,比如说像随机种子,还有像这些什么步数啊, c f 居址啊, 采集器名称啊,调度器,降噪啊等等,一共有七种参数。那首先呢我们先从随机种子开始讲起吧,这个呢就好像是我们的图片当中的一个身份证号,那比方说我现在呢先把这个随机种子随便输入一段数字, 比如说六六六六,接着我们直接点击一下运行操作。那我们每次升图之后呢,这个随机种子数固定了还是变化呢?是增加了还是减少呢?那我们呢只需要在底下这里设置成固定就可以了。那接下来我们再次点击一下运行, 可以看到啊,我们现在这张图像是长这个样子的,那如果说我们不在改变随机种子的情况以及呢任何参数的情况下,我们再次去点击一下执行的话, 会发现我们的工作流呢是完全不会动的,因为呢他生成的图像是完全一样的,以至于这个随机种子是如何做到这一点,就像是一个身份证一样, 图片进行绑定。那接下来呢,我们来看一下下面的这个步数,那这个步数呢,它也就是代表着多少个降噪的次数叠带一共分成了多少步啊? 那我们想象一下这个 star diffusion, 它在生图的过程中,就好像是一块脏玻璃,用抹布进行 擦拭,当然你擦拭的越多,那么图片呢,也会越清晰,细节也会越多。我们现在呢,先把这个叠带步数设置成二十,也就是相当于我们给这个肮脏的玻璃擦了二十下。那如果我们把这个步数设置成 五下,我们再来看一下它到底会发生什么样的变化,有没有发现这张图片啊,是不是明显细节比刚才的那张少了很多? 如果说我们设置的更低呢?比如设置在二,我们再次进行运行,可以看到啊,现在的图片是不是一片模糊,那反之同理。 如果呢,我们的步数设置在四十,再次点击运行,那此时呢,我们可以看到我们的这一块玻璃就被擦的非常的干净,像这些细节和纹理都多了非常多, 当然过高的步数不总是都是好的,那大家可以想象一下啊,一块玻璃你擦一百次和跟擦两百次有很大的区别吗? 反而没有,那基本上我们所有的灰尘都被擦干净了,那我们的康复仪其实也是一样的,那我们的步数一般设置在四十步以上呢,就不会有过多的一个变化了。 那比方说我们现在呢,把这个步数再次设置成六十步,我们来看一下点击升图 怎么样?我们现在呢,是不是跟刚才几乎没有区别,但是呢,却增加了百分之五十的升图时间,对不对?因为呢,他增加了二十步,那原来我们四十步步数越多,生成的这个升图时间也会越久, 而我们在一般生图呢,就设置在二十到三十步之间即可,那这里呢,我就先设置成二十五步看一下,那底下的这个 c f g 值又是一个新东西了,那它的作用呢,主要就是为了去控制我们的最终图像与提示值的失配程度。 俗话说我们的 c f 居值越高,则代表着我们最终生成的图像与关键词也就越匹配,意思也就越相近。那如果说我们的 c f 居值过低的话,就会让 ai 有 更多的自由发挥空间,意思也就是与提示词匹配程度也会有所下降。 那接下来呢,我们把这个 c f g 值设成四,再次点击升图,我们来看一下,可以看到啊,有没有发现它们的整体色调它会变灰是不是?那这个其实就是 c f g 值过低带来的一个负面影响, 那由于我这边输入的元素不是很多,当我们比如说设置在二十到三十个的时候呢,那么 c f g 值的表现会更加的明显。那此时我们继续把 c f g 值的这个系数提 低一些,比如设置在一,我们来看一下会带来什么样不好的一个效果。可以看到啊,那现在呢,整体的这个图像变得更灰了对不对?并且图像多多少少都会有一些变形。但是呢,当我们的 cf 居室过高,也会有不好的影响,比方说我们设置成实物, 点击运行,可以看一下它的这个出图质量怎么样,很糟糕,是不是?为什么感觉它的一个清晰度远远比这个 cf 值为七为八的时候要低很多呢, 我们可以对比一下,此时我们将这个 cf 值设置在七的时候的一个效果,那么现在我们的这个紫色的星云屏又恢复了原有的一个清晰度,而我们在正常的升图过程中呢, cf 值一般设置在五到八步即可,大家可以稍微记一下。 那么接下来呢,我们再来看一下这个采暖器还有调度器到底是什么意思。那点开来看,像我们的这个采暖器呢,会有非常多的选择,比如说 d p m 加加呀,还有像一些传统的这些老的采暖器,那这两款采暖器呢, 一般来说大家就选择 l 采暖器,还有像这个 d p m 的 都是比较不错的,那这两款采暖器呢,都是大家测评下来比较好用的,大家直接无脑进行选择即可。那调度器呢,我们一般就会去选择这个叫做卡拉斯的一个采暖器, 这个彩样器呢是比较好用的,那至于下面的这个降噪呢,我们会放在下一节的一个图生图当中,会涉及到我们之后再讲。那么现在呢,我相信大家应该就会有些疑问了,那 彩样器和调度器他们到底是干什么的?那为什么这个随机种子可以像身份证号一样控制我们的图像呢?那为了解答这些问题,我们再来看一下这张图片,那么这一张是更为详细的 ai 生图流程, 我们先看一下左上角,那么这个就是我们去输入完这个 prom 的, 也就是关键词之后,会发送至我们的 cleveland 模型当中,之后呢再由这个 cleveland 模型把我们的文本转化成下面的这个 extend and bearing 的 一个文本,陷入到这个特征向量里面, 那么这组呢,更易于电脑处理的数字信息就会发送到这个 unit 当中,那这个又是一个新名词,对不对?其实都是属于我们 k 场气,明白了吗? 那这一大块的内容啊,都是在 k 场气当中去完成的,那这个特制向量被发送至 unit 之后,会发生什么样的操作呢?会降噪吗?那但是问题来的,我们的噪声从哪里来呢?那大家都知道啊,我们的 stabilification 用的是扩散模型,而扩散模型的运行机制呢,就是为噪声图片段的一个降噪, 从而生成了咱们的一个目标图像,也就是现在较为清晰的一个图像。那么现在我们要考虑到这个噪声的添加了,以及我们的这个滑步大小。 我们可以看到上面呢有一个叫做 gustnor, 也就是高斯噪声,它具体的分布规律也就是随机种子来决定的,那 不同的水滴种子呢,会添加不同的这个高斯噪声,从而影响到我们最终生成的一个图像嘛。那么现在呢,咱们的这个噪声就添加完毕了,我们来看一下这个话布大小了,那我们上一节课是不是有提 到过这个 klenet 呢?我们可以看到,那这个高斯噪声发送到底下的这个 klenet, 那 这个 klenet 的 大小呢?我们是可以在 klenet 当中的设置当中去设置的, 比方说我这这个花波的一个大小,我就规定了它是一个正方形,那么噪声呢,它会在这个正方形内添加,那么之后呢,这个结合了高斯噪声之后的 latent 图像在 unit 当中有什么呀? 也就是说与我们的这个特性向量进行组合,而 unit 的 一个作用就是在预测下一步的这个降噪之后的一个图像,以及呢,我们要去减少噪声,以及 我们可以看到啊, winet 降噪完成之后,被降噪的雷腾图像又发送至了上一步了,那这一步 其实就是我们所循环的这个次数,那也就是说我们在这个降噪的过程中不断地去进行循环,比方说有二十次一个循环,可以看到这有一个橙色的内容,那这个代表的其实就是我们的调度器和采暖器了,那其中呢,调度器的作用是为了控制降噪的方法, 而采暖器的作用呢,就是去控制降噪的一个程度,于是我们就这样子不断地降噪,降噪,降噪之后就经过了我们设置的这个迭代步 数了,比方说我们是设置了二十五步,也就是说我们这里是循环降噪了二十五次之后,我们才得出到这个最终的一个图像被发送至 v a e 当中,而 v a e 呢,它就好像是一个转接插头,它是可以把我们的 light 图像转化成一个像素 空间的一个图像的,也就是我们肉眼可见的一个图像了,那么最终呢,就被解码成大家所能看见出来的这个狗哥的图像。那么在我们的这一整套工作流里面呢,我们的 clip 模型,还有 unit 模型以及 v a e 模型, 一般情况下都是由我们的大模型,也就是 star diffusion 的 这个模型来提供的,那我们回到刚才的这个康复 ui 工作流里面,我们来看一下这里的这个加载器,它是不是一共有三个输出,分别是模型输出以及呢 clip 输出, 还有另外一个是不是 ve 输出?那么这个模型输出指的是什么呢?那其实指的也就是我们刚才图片当中的这个 unit, 那 我们刚才介绍的这个 unit 模型呢,会在我们的 k 测量器内配合我们的特征向量, 而咱们的这个 clip 文本编码器呢,输入进来的这个特征向量会进行降噪,之后再由这个 v a e 解码器这个转换接头输出成我们能看到的这个像素空间的图像。 那比方说我们现在呢先来一个二次元的一个大模型吧,接着我们书写一下提示词,那我在我们去书写提示词的时候呢,可以先写一下质量提示 词,在写主体,在写这个氛围词汇,那什么叫做质量提示词呢?如果我想要输入的是一个高质量啊,高清壁纸,杰作极致的细节,哎,类似于这种词语,那咱们的这个颗粒普文本啊,他就知道我们想要的就是这个范围内的一个词汇, 那比方说你现在呢想要的就是一个比较清晰并且具有非常细节的这个词汇就会在这个范围当中帮助你寻找符合条件的。所以这边呢我们一起来进行输入吧。那首先我们打开一下翻译器,然后我们就可以输入杰作高质量 极致的细节。那接下来呢,我们就输入我们想要的一个主体内容,比方说一个女孩,好双马尾,蓝色的头发,校服。 那输入完主体之后呢,我们再来输入这个氛围的词汇,比方说是环境词汇,比如教师背景,动漫风格。那我们最后呢再来翻译一下这个词语,粘贴到我们的文本编码器当中。 那刚才我们也提到了,为什么要先输入这个质量词汇,再输入这个氛围词汇呢?那因为啊,我们越靠前的词汇,它的权重比重也就越高,在整体的内容呈现上也会占比更大。那接下来呢,我们再来输入一些反向提示词, 比如说我们输入的是这个模糊不清晰,低质量,类似于这些词汇,我们把它复制下来,模 回到我们的编码器当中给它贴上,那传达的意思就是我们不想要模糊,不想要低质量的图片,不想要一些混乱的图片,对不对?那这边呢,有的玩家呢会把这个负面提示词整合成一个组 词包,我们只需要呢输入这个 e、 c、 n、 g、 t。 那 随后我们再来看一下有质量提示词和没有质量提示词添加的一个差别。直接点击运行, 可以看到我们现在呢生成的这个形象就变成了一个二次元的风格了。那造成这两个原因其实有两种,第一方面呢是因为我的提示词当中去输入了这个动漫风格了。 其二就是我们的这个大模型,那这个模型呢,它本身的训练级呢,就是拥有非常多的关于二次元的一个训练级所训练成的一个大模型。 所以它所预测之后的这个降噪图像呢,必然是跟我们的动漫还有二次元是有关系的,所以我们最后的生成图像呢,就会呈现出这种非常自然的一个动漫效果。而我们的这个 comelon 呢,它也就是说我们可以去限制我们 的 layton 图像的一个大小,比方说像这么大的正方形的一个尺寸图片,随后在我们的随机种子所对应的这个高噪声当中进行降噪, 当然在降噪的同时会结合我们的这个可立普文本编码器输出的特征向量,对吧?不然他也不知道就是你想降噪之后生成的图像到底是个什么啊?是一匹马呢?还是一个动漫的女生呢?这些都是由我们的关键词所决定的对不对?而 unit 它只是为了让我们将噪的 图片尽可能的往这个方向去靠拢。那今天我也知道本节课是非常的干,但是呢,我相信学会了这些之后,对于我们后续的节点理解还有模型的学习都有着直观重要的部分。 以上呢,就是我们本节课的所有内容了,那下一期我们再一起来看一下图生图以及它背后的运行逻辑吧,那我们下节课再见!拜拜。

误了,用 comui 来做一张图,本质呢就是说我为了喝一口牛奶,我建议做牛奶工厂,完了之后过牛奶工厂,整天喝牛奶,你要建牛奶工厂,你明天,比如说你要喝蜂蜜水,明天要建一整个蜂造蜂蜜水的工厂。 我刚连完一套这个 comui 的 工作流,说一下我这几天手连接,包括下载 comui 的 一些 心得。其实我的想法我觉得还是挺好的,就是用这个康范 y 的 工作流来实现,比如说换皮非常快,让他都非常快的去换皮。嗯,我如果说直接去学教程的话,其实是很慢的。 b 站上面男女同学那里去看了一集,大概了解康范 y 里面的各个节点是干什么用的。去 c 站上面 下载了一个通用的这种过流,它是视频这些都可以生成的。然后我也去研究这个工作流里面所有的每一个节点的它的意思,然后再去把这些参数都调好,调好之后呢,我生成了这个东西, 它有很大的局限性,比如说我要生成一个美杜莎,它这个是,呃, flex, 就是 现在最流行的最全能的这个大模型,它这个模大模型它是不能理解你这个美杜莎,就是头上是没有头发,你的头发全是舌头的这种异象。那我就让 jimmy 给我出一个方案,我就完全按照 jimmy 一 步一步的去连接这些节点。 其实呢,我的学习思路总结起来都是第一步,先看一集视频,大概知道这个水管就科曼鱼丸水管里的水是怎么流的,水管我是往南流的。第二步就是去网站上面直接下载这些大佬的无敌炫酷的通用工作流, 我这个工作流程到微之后的工作流,我才慢慢的熟悉的吧,这是一个非常完美的计划,但是吉米尼做不到对着屏幕发梦,就是这个节点,怎么又不对了,我明天按照吉米尼说的那个费老劲,然后把那些模型和这个节点下来,然后他告诉我做错, 然后我就疯狂的截图发给吉米尼,然后说这这个地方报错怎么回事,这个地方怎么生成的图跟我不一样,然后吉米尼就给我疯狂的发发,然后就疯狂按照吉米尼这桌的这个来连, 然后我就复制粘贴,各种复制粘贴,整整花了几个小时,我我感觉就是说堪比我以前做高考数学最后一道大题一样,我把这些呃,就你给我的答案看完了以后,简练的整整齐齐, 能够跑通的情况下,我点了运行,然后最后告诉我,要不然就是图画不出来,要不然就是这画出来的图质量非常的差,我感觉就甚至不如我手抠图 p 图。 然后我就这几天我就疯狂骂吉米,我发现我骂他的时候他才他的那个给我的答案还能好一点,这反正吉米尼就是我的军师,我就按吉米尼说的做,然后做错了又重来重来,这样反复的做,折腾了这几天,高强度从早到晚坑,天天晚上到十二点,我感悟了,悟了, 就是说用 comfui 来做一张图,本质啊,就是说我为了喝一口牛奶,我建议做牛奶工厂,完了之后过牛奶工厂就说你愿喝牛奶,你要建牛奶工厂,你明天比如说你要喝蜂蜜水,明天要建制造蜂蜜水的工厂,最后你的牛奶工厂到处报错,还还修不好,最后反正你这个牛奶你也嫌别人喝到你牛奶工厂你都没有建好。 我这一天我,我只想简简单单的出一张图,然后我我把自己逼的就是要懂网络懂物件,懂节省报错,还要修这个管道的全能型牧场工人。我只是一个想喝牛奶的人。不不推荐那家纯美术来手搓,这个工作流太复杂了。

这个工作流网上已经有大神做出来了,最简单的办法就是把这个工作流下载下来,然后啵往那一放就行了,就跟你学 ae, 学什么剪辑,会有一些模板给你套用一样,这个就是最简单的方法。但是 comfy ui 这个东西,没玩过的人是对他比较陌生的, 所以想套模板,你也得先对他有一个最简单最基础的了解。我的学习过程是这样的,我跟他说我知道不可以直接套模板,我也不是教大家,国内的这些教程抖音 b 站上都教了,但是他们讲的非常的不详细,就感觉就不想把你教会一样,就想着等你后台私信他们,让他们把你拉到一个麦克。 我现在呢也是一个刚入门的阶段,就是边学习边分享吧,专业玩 ai 的 朋友就别看我这个视频了,我就单纯分享给像我一样的这种新手小白朋友。点进去之后 看它这个页面还挺好看的。点击下载,这里有 windows 版和 mac 版。还有一个方法是从 github 上安装好,安装完直接点击完成,它会运行 这边跳出来的英语是我们没在设备里找到 git, 在 继续安装这个 confluence 桌面之前,请下载并安装 git。 我 们来打开 git 的 下载页面, 它就直接跳转了这个下载页面。啊,我们这个是 windows, 就 选 windows 下载, click here, 点击这里下载,下载成功,跟着它这个步骤去安装这个 git, 反正就一路默认 自动更新,让它自己安装。还有一种下载方式是在这个 github 里面下载的,网址是这个,点进来之后找到这个 release, 点进去 这里面这几个下载方式就是你是 amd 的 就下 amd, 这个英伟达的就下英伟达, 我这个台电脑下了的是这台。好,我已经下完了,下完之后就解压安装,我现在拿我这台 amd 显卡的电脑给大家演示下载 amd 这个版本就是这个压缩包,解压之后长这样。好,双击进来会看到这个东西,跟我们往常看到的软件不太一样,没有那个什么一个程序两个字, 它都是这种一 kb kb 的, 这个结尾是点 bat, 看到这两个就都试一下,如果这个打不开,那就再打开这个,因为这是跟你的显卡配置有关。点击运行它,跳出来一个类似终端一样的东西。 软件下载完之后,它界面就是这个样子的,打开这个界面之后是一个画布,先别管,直接点这个 templates, 这个就是一个模板,这个 templates 里面有很多 其他人已经做好了,这些工作流非常适合新手过来研究学习,但这些工作流都比较简单,比较 low, 就 没有那些网上的那些博主也于 top 大 神做出来的那么厉害,这些都比较简单。好,我下了一个一个最简单的纹身图的工作流,就在这儿点这个 templar 词, 然后比如这边这边是 a 妹纸,就是图,纹身图,视频、音频,这还有三 d 模型的这些大语言模型,这也不管的好点,一个最基础的纹身图模型,这边有 a、 p、 i 三个字母了,不要碰再多是要花钱的,就用千万的吧,二五零九重新下一下这个 一点,他就直接把这个工作流跳转进来了,这每个小方块就是一个节点,这个界面是我认为非常舒服的一种界面,你看拿鼠标一拖抓手就出来,用这种模板非常简单,因为他所有的东西都告诉你了,这个工作流他能干什么?我们现在不知道,因为没没做测试吧。 我们先看这个工作流的作者,他跟我们说了什么,他说这些是链接,你现在要去下这些东西,一二三四五,每一个链接里面都有每一个这个大标题,下面都有一个链接,点上去就能下了,我们待会儿就要挨个下,下完之后还有这个就是放摆放的位置,这个 diffusion model, 放到这个 diffusion models, 放到这个,这个里面都在 comui models 这个里面啊,这是作者或者官方吧给的一个 下载公告,根据这个做就行了,很简单,全是傻瓜式的。好,这下载的时候跟你说一下这些节点都是干什么的?首先我们要理解这个节点流程,他就是他为什么叫工作流, 其实我是跟流水线一模一样的一个原理,每一个小方块就是每一个节点吧,他就执行一件事情,一步一步一步一步把最终这个活给完成。这每一个小方块就是这些东西,这个有字的就是他的节点名称,这个节点是干什么的? load image 就给你加载图片的,这个节点是干什么的? save image 就 保存图片了。又有一个开头,一个结尾,然后中间呢?就它的整个生产过程,这个工作流,它是把它给 打包了,大家看到有这么一个标志,就是作者把它打包了,我不知道它是怎么打包的,然后点这个点这个标志右边的这个标志就能进去,然后我们就能看到这里有一个哎主文件夹,一个子文件夹,这里就它中间的这个生产过程,每一个小方块,一二三四,这四个小方块给作者 弄成了第一步,第一步是加载模型,然后第二步是干嘛干嘛嘞?就你看到这些牛逼的作者弄出来的工作流,你又觉得非常的赏心悦目, 非常的舒服,强迫症患者的福音,你要是自己没事一个人自己去答,那你答的乱七八糟了,我在前两天尝试过自己答,到后面我才开始用这些 typeface, 用这些模板以及在网上下别人下的工作流 typeface, 它只是一个平台,你要是想生成更多的视频,生成更多的更好的效果,你也自己疯狂的去下这些模型,下这些配件模型。 这个 laura 呢?我的理解就是它的配件模型,比如说你现在下的是一个图神图的,那它这边给你一个 lightings for steps, 就是 这个 laura, 它能够通过四个步骤,就四步闪电版的给你深图。 然后还有这个什么 b 十六,可能是一个氢氧化版的这个 laura, 在 我的理解下,它就是一个辅助的模型,然后这个 text encode 是 文本编辑器,文本编码器,每一个模型都有一个属于自己的 文本编码器吧,或者说某一类的模型有一个属于自己的文本编码器。像这个它就是像的,是千问的模型吧,这个 q w e n 是 千问哎,也挺厉害的,最近也出了很多开源的这种大模型。好,下面这个 v a e v a e 有 点像是 你图片画完了之后,它开始给你上一些颜料之类的吧,我觉得就是让你的一个画质的真实度或者干嘛的变得更好,这是我的理解,这些东西都不重要,就你完全不需要搞懂他们是干什么的,你就会用就就行了。 好,现在已经点击下完了,这个下载呢,很简单,你一点就跳转了,你要么用浏览器下载,要么迅雷下载,我一般都是用迅雷下的,下的比较快。 这一二三四四个东西,打开文件夹所在的位置,然后我们把这四个东西按照人家说的这个方法给他剪切到或者复制到相应的文件夹里,在这个安装的文件夹里找到一个 mod。 四文件夹,基本上所有的下载下来的东西都是要放到这个里面。 第一个文件夹 models 里面, diffusion models。 好, 我们找 diffusion models, diffusion models, 找到在这下的是这个 q w e n r sift and sensor, 我 们记一下这个 e 四 m 三这玩意儿,这玩意儿给它拖进去, 然后再看下一个文件夹 l 找找找找找 l 开头了,在这儿把这个也给放进来,放到这个 l 文件夹里,剩下的就一步一步按照它的这个东西 放。下面是 ve 和 textincode, 在 model 里面找, ve 在 下面在 ve 可不是许嵩呢,加一个 textincode 文本编码器,千万二点五。好, 也已经抽过了。 ok, 那 现在这个就是一个目前已经下载了东西的一个工作流啊。他说让我们上传一个图片看一看,遇到不知道怎么解决的问题的时候,先跑一下,跑完之后他会告诉你哪里出问题,就非常简单,不需要自己排查 任何问题,他直接给你指出来,然后去解决就行。在这一看,哎,题词进来之后也没办法编辑,那怎么办呢?那是不是出问题了?不是,我们往前往前倒,看到这个题词前面还有一个节点,这个题词前面还有一个节点,顺着这根线走,走走走 看,哒哒哒。啊,原来这个作者在这弄了一个单独的题词放到这里。好,那作者还是 非常良心的,就是整个节点流程看着很很赏心悦目。就我刚刚生成的一个提示词,很简单,让这个帅哥的头发变成白色,咚,他变成白色,我可以给他直接放到这个位置来,这样的话就可以并排看。那继续修改。 这个就是简单的让你去熟悉一下,了解一下这 ctrl u i 的 效果是什么样的。 他的身图的快慢呢?取决于你电脑的算力,我现在弄一个复杂一点的提示词。好,我自己手敲了一个简单但是比刚刚要稍微复杂一点的提示词,看下他能跑多久,让他变成一个带盔甲的钢铁侠的盔甲, 再给他来一个眼镜。现在这个是近景吗?我要一个全身景,我看他能不能理解啊。好,点击这个 run, 就是 运行,就是跑嘟跑, 这里能看到一些净度,我们还可以点进这个里面来,然后我在这听不到风声啊,因为这电脑不是我的,我在远控,我朋友的电脑,那我们能在这里看到他不停地跑,在现在跑到这个节点了,我不知道怎么读啊,应该是 case app。 好, 跑完了,我们在这看一下预览 全身图,他给我的也不是全身图,但总体上来说还行。这个工作流用来 p 图我觉得是已经足够了,这里可以看到他跑的这些时间,三十多秒,二十多秒正常,我的四零九零 d 跑这种的话应该也就十几秒, 应该像素不是很大,八百八。他这里有一个问题啊,就是你给的原图尺寸其实挺大的,你看 我这是二 k, 然后它生成呢?就是很小,你如果说想在这个里面去修改它的尺,输出的尺寸也可以,但它跑的会很慢。好,现在我们对这些节点有个大概的了解了,就是它是通过这些线一个个连出来,然后最终生成一张 你想要的这个效果图。那我们回到刚刚一开始我说的怎么样给一张图,然后通过这个摄影机的调整,让它生成你想要的角度的图片呢?好,我们把这个保存一下,保存按钮在这儿,这里有三道杠, 点击 save 或者 save as 都行,点确认,你也可以把它下载下来,点这个下载好,下载到某个地方,它导出来是一个这个东西,这个 json 格式的, 你就可以把这个工作流直接丢给你朋友他那边接收到了之后,他再拖进来,拖到自己的这电脑上,直接往画布上一拖,因为我左右都已经改变了,关掉,我新建一个空画布,好一拖拖到这个画布上,非常简单,不松手。出来了, 这工作流出来了,这个没办法,多角度不好玩,我们去找多角度的, 别人做好了这样的工作流,还给它保存成了 json 格式的,那我们下载下来,拖进去,然后再去下载一些东西。那我看到的就是这个国外大神,我不知道这个是不是他最开始的原创啊?总之他这里的信息是最全面的, 他告诉你这个模型在哪,多角度的插件在哪,还有这个加速 laura, 这些都是要下载的,下下下下啊,这,这个是他做的广告,就不下啊,这个是节点, 这个是参考工作流,那我们就先把它这个参考工作流下下来,点击进来之后跳转到了一个 github 页面,点击这个下载, 在这好一下它就下完了。我习惯上是喜欢把这些工作流给放到一个文件夹里的,这样的话自己找起来比较方便, 那尤其是你做好的,或者你调试好的工作流,这个就是我们刚刚下的二五幺幺的这个前面这个是演示的二五零九的工作流,这个二五幺幺 multi angle 就是 多角度嘛,它每一个名字其实写得很清楚。 好,我们跟刚刚一样也是拖进来,往这一放,我就说嘛,它会告诉我们遇到了什么问题,那它就有什么问题呢? 他说 missing models 缺失模型,当加载这个图片的时候,下面的这些模型找不到,所以我们要把找不到的这个模型给下载一下,这个模型有点大了,二五幺幺 b f 十六三十八个 g。 好, 点击下载。 这还有一个加速 lara, 给它下一下八百多兆,这个不是很大,所以你要玩本地部署的这些 ai 模型,你的电脑 存储一定要够大,否则这十几个模型下来,那你的电脑就已经塞满了。这个下的有点慢,那我们等它下一会网址没法贴,之前贴被限流了,大家只能自己去英语网站里搜了这个关键词,官方版的它也有一个下载链接, 当然我们就以官方版为主,他这边没有报错的,我们就先不管他,就等他跑起来,哪里报错了改哪里,让他后台先自己下着。我们要先去下另外一个非常重要的东西,就是这个插件,找到这个插件把它下下来,就是这玩意。 这个网站叫 github, 可以 在这点下载这个扣的,这里点一个这个,然后这里有下载 download, 这个插件就很小,直接下这是个压缩包,给它解压一下。下载的这个网站我们改成中文,看的更清楚一点,它这里有安装的方式, 进入到四点一节点文件夹里,这里有两种方式,一种是克隆,一种是直接把它放进去,这两种我都跟大家演示一下。第一个下载刚我们已经下载好了,现在就去找到 comfyui custom notes, 把刚下的这个给它拖进来。 还有一种是 git 克隆,这个 git 克隆就是一个什么东西呢?这整个网页就是一个可以下载到它的一个网页,那么这个 git 克隆 就是你把这个这段代码也不是代码了,这段东西给它复制过来,找到相应的这个文件夹里,刚就是这个自定义节点文件夹, custom notes 这个里面右键 在终端打开,然后它这里会出现那么一个终端,黑色的就不要害怕,这东西根本就不是什么很高深的代码,就按照它一步一步去来就行了。粘贴, 然后按回车键,他就会在后台克隆这玩意,但是现在我们已经下好了啊,我不知道他会不会再克隆一个,现在他就在克隆,就等待他就行了。这个东西呢,我的理解他就是一个插件,然后同时他又是一个 独立的节点, computer ui 里面是没有这个节点的,没有这个节点我们就得自己去下,下完节点之后还得安装。刚刚我跟大家说的就是这两种安装的办法,现在它正在克隆 好,这个没克隆好,它这显示是 unable, 经常会出现这种没办法克隆的情况,不过无所谓,如果你碰巧克隆好了,那就行了, 这两种方式都可以体验一下。我一般都是下载先让它下着,然后我们再去看一下这个工作,大家没看到吗?它作为一个 j s o n 格式的东西,它很小很小是因为 这些东西它就是表面的那个说明书,你做一个东西,光有说明书是没用的,这说明书里面只有文字,但没有实质性的工具。我来告诉你,你要用电钻去凿一个洞,这个洞的大小是这么大, 但是现在你手上没这个电钻,你就得去网上把这个电钻下载下来,你还得把它安装到合适的位置里面。玩这个工作流的时候,很多很多东西都是需要下载,需要更新的,大家看到这里有个大大的叉,是因为我们还没有刷新这个界面,然后中间的这个 被它打包的点进去看,就它中间的这个过程,作者用好多这些节点,不同的模型,不同的 lora, 不 同的 clip 和 ve, 组建成了这么一个工作流。下载的时候再跟大家介绍一下啊,如果你想了解,你就可以简单了解,这边就是 models, models 就是 模型, 就是各个大公司,比如说字节,阿里,他们会弄很多很多个这种模型,这些开源模型就是免费大家用的。 这个 diffusion models 是 一个扩散模型,它跟另外一个模型叫,就这个这种类型叫 checkpoints, 都是以这个玩意儿 safe tensors 作为结尾的,本质上差不多,但是把它们分成了两个类别嘛,这个是 lora's, 这个已经说过了,这 ve, 这个 text encode, 然后这个是 diffusion models, 这个是 clipvision, clipvision 也是跟文本编码相关的东西。剩下的这些我就不太了解了,这个用的也不是很多,用的最多的就这几个。大家玩这个熟悉了之后就会发现,每次下载都是无非是下载这个,要么下载这个,要么下载它, 要么就全下,下完之后剪切或者复制到相应的文件夹里,然后再重启, ctrl v i。 我 的学习之路就是这样的,用人家的工作流,在这个工作流上面自己去调试,并不是他每个工作流,你把这些东西下载好了, 就能生成跟它参考图一样的东西了,你还得自己去调试的。不同人的电脑也不一样,进去这个里面去调这些参数,最主要的一个参数节点就是这个 saplla 这个节点,这是一个 k saplla 节点,还有别的一些节点也是,反正都是这个 saplla 类型的,它就是主要的这个 核心操作工具,反正这些东西大家自己去弄一弄,就是这些东西它并没有我们想象中去做那种 调色软件或者剪辑软件那么直观,你去改一个东西,你立马就能看到你得在这改完之后,你再跑个一分钟、两分钟你才能知道到底改了什么。 然后等你跑完之后,你又发现,你又忘了你之前改的这个东西是什么,所以只能自己去琢磨一下。但我觉得这这些都不重要,这些都不重要,我们理解他的整个逻辑是最重要的。你跟我说这个节点 说不定下周就淘汰了,这个工作流说不定再过两个月就会被新的工作流,被新的模型取代,还有可能节点更少,效果更好。所以我们现在去纠结他这个什么意思,这些东西没意义,就去理解他整个工作流。就是我 目前看来,你说这些东西会不会变化,那肯定会,但是他的这种运行逻辑,包括你去工作的这个逻辑是不会变的。因为这个工作流节点就是人类发明的一个效率最高、最容易 让大家去执行的一个东西。就从福特当年做出汽车流水线之后,人类的工业化快速生产东西,就靠这套东西。好,我已经下载好了,找到下载的这个位置, 看是不是他说的这几个,这个二五幺幺 b f 十六下好了,还有这个也是 v 一 点零, v 一 点零的也下好了, 都下好了,我们就要去安装,安装的时候要把它给擦掉,或者说你安装完再把它擦掉重启。我这个所谓的教程尽量慢一点,让大家陪着我一起做, 因为最讨厌的就是你自己一个人漫无目的的去搜,去问豆包,去问 jamie 奶,去问 groot。 很 烦,跟着我一起做就可以直接慢慢来了,所以我废话会比较多一点。主要就是这个 v a e 很明显就放到 ve 里了,跑到 ve 里给它一粘,看它这里都写了 put ve here, 把 ve 放到这个里面看,这人家都已经写好了,非常有意思,就生怕我们不知道这个很长的 four steps, 你 看到这边有个什么 lighting four steps, 这就是一个 lora, 这就是我说的它是一个辅助型的模型,就能够让它用尽量短的步骤 给他跑完找 lars。 哎,在这就像我现在已经熟练了,我就能很快的找到他们了。就一开始看完的时候还是挺两眼一抹黑的。这个清亮画板有意思就有意思,在这就是得自己放,放进去, 在放的这个过程当中,你就已经基本上熟悉了整个流程,它是有哪些东西弄出来,这两个记不得放哪了,我们再打开工作流,再看一眼就行了。工作流上面人家写的清清楚楚的,双击一下,打开它后台运行一段时间, 就会自己跳转到一个网页上,所以这个东西为开头了。你看,刚已经装了两个了,还有这两个刚我们不知道在哪了。好,这两个分别是 diffusion models 和 text in code, 这个放到 diffusion models 里面, ok, 进来了,进来之后得再重启一下网页关一下,后台也关一下。可能是我习惯了这么用啊,当然我也用了一下单纯的软件版,其实都是一样的, 继续双击它,它跑后台的时候你能看到它的后台,在跑报错的时候,你把这个一截截给豆包 jamie 奶什么的, 他们就能帮你分析出来,现在没有再报错了。上传一张图看一下,测试一下行不行。这个是第一个节点,上传图片的第二个节点就是 can 问 multangle camera, 我 们在这点击一下这个蓝色的运行,它就单独运行一到二这个两个节点, 它这一运行就把这个图片给加载过来了,加载过来的目的是方便我们调整摄影机,这个摄影机摸一摸就知道了, 当然这个并不是真正的摄影机,它的逻辑并不是说一个无级的摄影机,我们可以任意调整角度,它其实是有九十六个机位,我不知道设计这个的人是怎么想的,反正就 弄了九十六个位置,然后你弄到不同的位置,每个位置对应着一个提示词,它其实还是通过提示词去改变图片的角度的,并不是那么神奇的一个什么三 d 的 效果来看一下,我把它相机往它右侧面高居位往下打一点,拍一条看看。哎, 好,非常 nice, 非常 nice。 一 跑红了,红了,我们就点进去看一下是哪里有问题,有问题的地方 compeg 就 会给你用红的给你标出来。哪里有问题呢?其实是因为作者用的时候他用的就是这个 safensils, 但是我们下载下来的并不是,所以我们得找到我们下载的这个 再跑一遍看看。运行到现在为止,只要它是绿的就舒服啊。没报错,好,已经跑完了,我把这两张图给挪过来了, 可以看一下。这跑的效果还是挺不错的啊,我摄影机的角度是放在了高机位俯拍的一个角度, 然后他就是高级辅助拍的,这个效果基本上是没什么问题,他也把这个豆包水印也给放进来了,非常搞笑。那这个小教程基本就这样了, 大家有什么问题可以私信我,我看到的话就会回大家,大家通过这么一个工作流的简单学习,也基本上能够会用这些工作流了。就是怎么套模板吗? 无非就是遇到报错,然后去解决,去下载,下载完之后就去安装这几个东西,如果你用的是官网下载的那个版本,你都不用进这些后台这些文件夹里,就可以直接下载出来了,更简单。 就这个东西我玩下来我才觉得就是一个信息差,你在之前不了解,你觉得,哇,这个玩意好高深啊, 大家怎么这么牛逼啊,都弄弄出来这么厉害的东西。实际上当你开始研究这种所谓技术性所谓 ai 工具的时候,你会发现 使用这些工具其实并不难,关于作品,关于怎么样生成好内容方面,难的其实更多是想法。就我个人觉得,现在单纯的生成这种好看的图片,什么科幻特效的这些效果已经意义不大了,就不足为奇了。剩下的就是 这个工具有了。大家怎么样去讲一些故事,再讲一些好玩的故事。就像我大概在一个月前刷到的一个特别牛逼的 ai 生成的视频,抖音上两百多万赞,我想大家应该都刷到过,就是那个讲 emoji 表情的那个 ai 视频, 太牛了,这类的东西我觉得才是我们使用 ai 进行内容创作的意义所在,因为这类的内容你没办法用实拍或者说一般的特效给它实现出来。好,这期视频已经够长了,如果你能观看到这里,那证明你的学习能力真的非常强,谢谢大家。

经常会在网上看到有些人说,学什么康复 ui 啊,现在网上一大堆的 ai 工具可以拿来生图, 比如说吉梦啊,可怜啊,或者是豆包,对吧,甚至是一些其他的第三方平台,无非就是收点费用嘛。那真的是这么回事吗?我今天用自己的一个真实客户案例给大家看一下,对比一下 啊,我这个客户的需求呢,非常明确,他是需要把图片当中左右两边没有果肉的糕点,加上果肉的效果, 而且构图不发生任何变化。那非常明确啊,他有一个具体的参考图,也是中间那两块有果肉的糕点。学过康复 ui 的 一般就知道,这个首选肯定就是万物迁移,把中间两块的效果去迁移到旁边两块糕点, 这是最简单高效的。那视频最后我会把这个工作留给大家展示看一下。最终我生成的效果图是这样子的, 仔细观察的朋友应该能看出来,这张效果图,我在他原来图片的基础上做了质感的修改,糕点表面的粗糙感给他做了细微调整,我尝试用豆包去生成它,生成出来结果是这样子的, 那第一张我给他做的效果图先发给客户,确认了,确认他这个效果满意,我再给他安排,于是他把要改的那张详情页发给我,他要改的这个原图呢,是这样子的。最终我生成出来的结果图是这样子的 啊,豆包我不管是用什么提示词啊,我都没办法生成出想要的效果,他出来效果基本上是这样子的。 为什么会有这种情况发生呢?因为大部分的大厂平台,你用题日词去生成,他是没办法用参数去进行细微调整的,细微调整的目的就是为了高效准确的修改自己预想的效果。 失去了微调的参数,你必定是需要花大量的时间和金钱投入到里面去抽卡,并且这个效果是肯定不稳定的,甚至说有些效果你根本无法完成。还比如说一个全身照的模特或者半身照的模特,让他手上戴上指定的手表, 像在康复 ui 里面,你是可以指定要修改的区域的,然后再加上你要参考的部分, 那我参考的肯定就是这一块,对吧?有果肉的,然后进行合并,合并之后呢, ai 模型,它就会参考你这一张图去帮你设置白色区域的指定内容,最终出来的效果就是这样子的, 大家不妨去试一下用其他平台直接用提示词能不能做到。

别瞎学 ai 了,你看看我电脑里面这两百多个文件夹,这都是我这三年里面四科 ai 留下来的实体。 从最开始的 web ui 到后边的 comui, 从 gpt 到 gmail, 但凡市面上能够跟设计战场编的 ai 工具,我基本上全部把它都试了一遍, 有的我还深度研究做了教程,但是 ai 的 更新迭代速度实在是太快了,我到后边我发现我根本就学不完。原来我以为只要用上了 ai 设计就会变得非常简单,结果现在我觉得我入坑了。 真正的 ai 实战应用啊,它根本就不是百米冲刺,而更像是一场马拉松。如果你也用 ai 做过设计,那我想我们就会很有共鸣,就是你拿 ai 做到很容易,但想做好非常难。 如果你再想用 ai 来突破自己的能力边界,那他就会变成一项非常艰巨的人物。 在筛选这些 ai 工具的过程中啊,也会发现他跟我们设计在选材料、定工艺的时候是一模一样的。比如说我想在这些模型里面用到最好用的,我就会发现一个全新的局面。 这边这些大模型光影很好,但是结构不准。那边那些 laura, 它的风格很强,但是兼容性太差。有的软件呢,它使用起来很方便,把模型做了整合,但是效果不行。 而这边这个软件,它很强大,就是学习门槛有点高,这是平台因素,再加上各类的模型种类繁杂,有开源的,有闭源的,各有优势,都在更新,一代更比一代强,看的人眼花缭乱, 你说你都想用吧?兼容性还是一个问题,如果让每个设计师都花大量的时间去研究这些随时可能会过时的技术,那我认为他不是一个明智的选择。所以到今天我把自己定义成一座桥梁, 设计师的时间仍旧需要专注于方案的审美判断还有落地把控。而我自己给我自己定的角色,就是替你们把这些复杂的模型串联起来,变成那个用的最顺手的工具,通过不断的验证还有反馈,把那个最稳的、落地性最强的按钮送到你们手里。 保持清醒比盲目的追赶更重要。如果你也对这场马拉松比较感兴趣的话,欢迎入队。