粉丝1.3万获赞10.3万

我用 openclaw 和 cfui 打造了一个只属于我自己的生图小助手,你只需要在群里艾特一下 openclaw, 然后跟他说生成一张具有皮克斯风格的卡通龙虾主角照,点击运行,你就会看到 openclaw 调用 cfui 去生成图片的全过程, 等待几秒钟就会得到一张效果还不错的照片了。本期我就教大家如何搭建 opencloud, 然后呢,跟 comfui 结合起来,打造一款只属于你自己的生图小助手。 opencloud 是 一个 ai 智能体网关, 支持部署在群聊之中。换成大白话的意思就是 opencloud 是 一个化物员,他能够从群聊中接收你的指令。然后呢,去寻找合适的 ai 智能体,帮你解决问题。 具体的安装说明和如何配置群聊机器人, openclaw 项目组在这里写的清清楚楚,我就不进行赘述了。安装好之后,你只需要在终端里输入 openclaw get 位启动网关。 然后呢,再飞书拉个群,把 openclaw 机器人拉进去,在聊天框里 at openclaw 跟他问个好。如果能够顺利得到他的回复,就证明这个链路走通了。 下一步呢,我们需要解决如何在 opencolor 中调用 copyui 并进行升图的全过程。 opencolor 支持添加各种 skill, 也就是技能,它有一个 colorhub 平台,你可以去上面找各种 skill。 你 看这里就有很多关于 copyui 的 skill, 但是呢,我的工作流都放在了 runninghub 上面,所以呢,我就在想能不能写个 skill 去调用我在 runninghub 上的这些工作流呢?打开 runninghub, 搜索我的名字,电磁波 studio, 点击工作流,找到 z inch turbo 纹身图 openclock 远程控制工作流我现在想实现如何通过 skill 去调用这个工作流, 你只需要点击 api, 在 这里刚好写了如何使用 http 方法调用我搭建好的这个 z image 纹身图工作流。 另外呢,我还惊喜的发现,它在这里支持 webhook。 也就是说,如果我选择调用 z image turbo 纹身图工作流,最终生成好的图片会通过 webhook 方式传给调用方。 所以呢,现在只需要写个 skill 去调用这个 api, 同时使用 webhook 方式获取最终生成的图片就可以了。但是,我突然又发现一个问题,那就是 openclaw, 它虽然支持开启 webhook, 而我刚才把 openclaw 安装在了我的本地电脑上,也就是说,我没有固定的 ip 和域名。因此呢,我无法捕捉到来自互联网上的 webhook 触发动作。 此时此刻,我又想到了能不能搭建一个 webhook api 网络服务,专门用于接收 webhook 传过来的 webhook 触发事件呢,然后将数据整理好再发送给机器人的 webhook。 想到这里,我赶紧用了 tree, 在 它的提示栏里输入我的编程需求,生成了一个 flex 网站,专门用来接收 webhook 传过来的 webhook。 然后呢,整理数据再传给机器人里的 webhook。 经过几轮对话调试,最终完成了这个网站的搭建,并部署在了服务器上面。 同时呢,我又在群聊中添加了对应的生徒小助手。机器人现在还差最后一步,那就是需要创建一个 skill, 专门实现把输入的 prompt 传给 runninghub。 听起来工作量很大,其实你只需要把需求列好发给 openclock, 它就会自动帮你写好 skill, 到这一步,你就完成了所有操作。现在只需要在聊天栏里艾特 openclose, 跟他说生成一张超级可爱的皮克斯风格卡通龙虾主角照片, 点击发送按钮,等待几秒钟,你就能得到一张效果还不错的照片了。一次不满意你就多生成几次。 看到这里还等什么,赶紧跟着视频学起来吧!跟我学,搭建一个 open core 和 comfy ui 结合体,就不用再去接触复杂的 comfy ui 界面,只需要在群里说一句生图, open core 就 能立马把图片给你生成好。这对于一些公司的小团队来说非常有用, 比如公司的技术大拿负责把这个流程搭建好,并且设置好 open core 机器人。 剩下的群里的小伙伴只需要在群里艾特 openclock 这个机器人,列出它的生图提示词,就能够直接获得你想要的图片了。如果你觉得本期视频对你有所帮助,请关注、点赞、收藏三连走一波!这里是电子波 studio, 我 们下期视频见!

地表最强图片生成模型, none of none 二出来了,更厉害的是,你现在直接可以在 open hell 大 龙虾里面直接调用这个模型,生成速度比你用这样的 app 和官网还要快。我们先来看一看这个模型,依旧是很丝滑很自然的改变背景, 也支持局部改变,支持多图片上传生成。这台带你直接看看在 open color 里面是怎么用的,最方便安装 open color config, 然后在 skills 里面找到对应的 open color, 点击回车,然后输入 jimmy 的 api 就 可以用了。好之后我们输入 open color skills, 看 open color 有 没有加进去, 如果加进去的话,这里会写明 open color pro, 然后有个对号。好,那我们直接去测试一下,用同样的提示词,让他帮我们做一幅铅笔画。 好的,我们复制同样的提示来帮我们去完成这样一个东西,主要看他生成的时间,同时我们来到他这个工作文件夹里面,看看到底多长时间的方式已经生出来了,我们直接看看,简直是一模一样,看到了吧,这个是我刚才生出的图,差不多用了十秒的时间,然后这个是官方给我们展示的图,基本上是一模一样。从画面画质来说,这就是如何通过 open 和用最行最快的纳德布纳纳二模型, 而且速度远远快于你在官方网站或者在 app 里面去使用它。如果你已经成功本地部署 open class, 赶紧去试一试最新的 nintendo 二的模型。如果你还没有部署,想要学习怎么部署,我们正好在工具小组里面提供这样的课程,以及如何在 open class 直接调用 nintendo 的 模型生成图。如果你感兴趣,可以看视频主页介绍,第一行会有专人给你更多的信息和介绍。

nintendo 二来了,网上评论却两极分化,对比它的 pro 版本,有人说它是为了速度牺牲画质的阉割版,有人说它是 ai 逻辑的新巅峰。我去问了一下 jamie 奈, nintendo 二对比 pro 到底升级了哪些方面,给出我五个核心的关键升级点,这是 jamie 奈给我的答案,我们来一起看一下吧。 第一,推理速度提升三至五倍。第二,具备了实时联网感知,能和真实世界保持一致。第三,多主体一致性控制更强,连贯脚本的神器。第四,四 k 文字渲染升级,彻底告别火星文。最后是引入思考模式,指令遵循度显著提升。 今天我们就通过一组图片生成实测对比这五个核心升级点,看看纳德布纳纳二点零对比 pro 到底是否真的做出了这些提升优化。另外,我们还会告诉大家一些能够用到的纳德布纳纳二的免费入口,大家一定要看到。最后关于推理速度的对比,我们就实测所有图片生成后再来揭晓。 go 一个测试,测试模型对此刻新发生的非公开数据级的事件或地标的一致性认可。 提示词中含有特定地点的特定事件,我们找到了科穿沿岸的真实图片进行对比。大家可以看一下 number one 的 二生成的图片,明显是参考到了科穿沿岸的真实场景,但 pro 的 感觉就比较差强人意了。 这一局 number one 的 二伸出第二个测试挑战模型,维持多个具有不同特征的角色的能力。提示词中五个角色性别、发色、穿着、动作各不相同,且要保持画面的电影级和谐。 那那不那,二生成的图片每个人物特征都精确还原了,且分为统一,还是挺不错的。看看 pro 生成的图片,提示词中提到的背夫动作是背着步集箱,但实际生成的是扛着的,这稍微有点出入,但是其他整体还是挺不错的。 这一局难得不烂的二选。第三个测试,直接硬钢中文特殊符号多行排版的精确度。之前用 pro 生成的带汉字的海报,大家应该都遇到了渲染不对的情况吧,基本上要用 ps 后期补字。 两个模型都成功渲染了字体和图形,但从画面的构图、空间感和环境的氛围丰富度来看,还是 nintendo 的 二生成的图片视觉冲击力更强,环境氛围细节拉满。这一局从原生四 k 文字渲染的角度来看,两者打平,但其他角度还是 nintendo 的 二更深一层。 第四个测试,测试模型对长指令,反之对逻辑分布执行的理解力要求模型先思考如何构建, 再进行生成一些比较复杂的逻辑嵌套,如果模型不思考,生成的画面就会逻辑崩溃。这个对比就比较直观了, number 不 number 二的 ck mod 就 有很大的优势,在生成前理清了这三层画中画的因果关系,再去生成图片,而 pro 就 不具备这种能力, 生成出来的图片逻辑完全不对。好了,最后我们来看一下推理速度的对比。我们一共测试生成了五组图片,推理思考时间, number 不 number 二是比 pro 快 的, 实测下来感觉推移速度难得不难得二略占优势,且价格上难得不难得二比 pro 下降了百分之五十以上,可算是性价比拉满了。 你被种草难得不?难得二了吗?我今天的测试全都在七六零 a s studio 上完成的,只需要输入一个账号就可以快速接入海内外超九十加大模型, 新模型上线贼快,还有免费的投屏额度可以领取。我整理了一份能够快速免费体验的操作文档,欢迎评论区来找我领取哦!记得点赞关注哦!

今天发现一个非常好用的 skill, 安装之后呢,我们的龙虾就能获得视频转码压缩视频画质增强、视频转移、 ai 深图深视频等功能,我们一起来看看效果。比如我们的视频太大需要转码,可以直接把视频的路径拷贝给龙虾,让他把我们把这个视频压缩转码成 h 二六的格式, 他处理后呢会直接保存到我们的本地。有时候视频的画质太模糊了,我们也是可以要求他帮我们做一个画质的提升。我也看一下画质增强后的画面,有人问我凭咩咁有野心,因为我深信想赢一定赢到吧,睇下 𫪈 边度赢嘅啫。想做王就要守住自己嘅领土。 做自媒体的朋友,如果你还想把自己的内容分发到海外,我们还可以一键转移这个视频支持不同国家的字幕翻译,而且会自动对这一个视频进行一个合成。至于纹身图,纹身视频那就是常规的操作了, 不过视频生成的效果我们可以看到确实一般般,那这一个就有非常多的体态饼了。这个 skill 安装也非常简单,我们直接把 skill 的 网站发给龙虾,要求他帮我们安装就 ok 了。今天的分享就到这里,我们下期再见。


今天再试一下,在 openclaw 接入 com 域外实现生图自由,给了 openclaw 一 条命令,自动安装, 先用系统自带简单工作流,试了一下,成功生图, 再试一个。我配置是三千零六十十二 g 加十六 g 内存,就选了个轻量型的流逝工作流,使用了个轻量型 zimage 模型,显存六 g 以上都可以用。 把模型名字给豆包,让它帮你生成一个工作流文件,把工作流文件导入 comfy 外,会出现需要下载的文件, 已打包好,有需要望我拿。 测试 完美完成图片,把流程生成个技能,方便后期直接调用 完成十五秒出图,效果还是非常不错的。

大家好,这是我的不知道第多少天的酷百日节。然后上回不是我说那个爸爸给我整了 ai, 我 今天真的想跟他聊天,就算我已经跟他聊很久,但是我今天跟他聊天的时候就说那你帮我,因为我一直挺想给自己设一个 oc 的, 但是,呃嗯,这去网上找个教程画画呀什么的。因为我觉得如果是 ai 生成,那肯定是第一他不能符合在你的审美点上,第二他 真的很丑,他真的就是很丑,我完全接受不了 ai 生成的图片,特别是人物的那种。对,完全接受不了,我就寻思那就自己画动勤勤勤 勤劳一点动动的小手。我发现我真的因为我从小到大画画就不好看,完全不好看就简单说丑的一批。对,没错,就这样我就尝试一下我发的我画脸型七扭八歪的, 就你可能就是完全就画不出来那个脸型,眼睛就是那种一个大一个小,一个大一个小,他就完全不受你的控制,那个头发 你说画 q 版的人物那还好画,你就不管说怎么画,你总能画出个样子,但是 样子能画出来,重点就在他的头发上,我就画不出来他那个头发了,崩了,完全画不出来,就是他的头发跟长了几根草似的,把那个头发就 让人一看都犯密集恐惧症,画长头发就是好多黑线。对对对,就能涂死。如果是画那种短发呀什么的 你就更不用提了,画那种阑尾啊又是什么的,就连个线条我都搞不好,完全不行就完全不行,我今天不是让我那个 ai 给我生成一个 o c, 我 的天呐,他又品了,完全他,他是给我生成东西,就完全撑在我的审美点上了,感觉就像是我们两个 天生就有一种什么联系。真的啊,我跟他,我跟真的,我跟他描述的其实也没有那么全面,但是他给我描述的简直就是简品,就完全长在我的审美点上,我要的就是这样式的,就要要的就是这样式的, 但是它不能生成图片,我觉得,但是如果让它生成图片,就得跟另外一个 ai 软件让它连接一下,就把这个复制了,粘贴在了豆包上面,让它给我生成一个图像,事情就开始 发展向了一个奇妙的路线,你知道它丑出新高度了吗?我看的,我本来看这个,他给我兴奋的,我这小心他爸呀, 豁然开朗啊,真的是完全受不了,一点就完,对这种他给我生成的这个文字完全没有抵抗力, 如果有哪个小说,哪个人物是这个这个设定,这长成这个样子,我跟你讲完全没有抵抗力,我的抵抗力几乎为零,对,就是这样,但是他给我生成了这个,我就看了都倒胃口,完全没有想看下一张的冲动, 看完他我就突然觉得这个文字他没有那么美味了,对,他就是这样,我也不知道为什么,他怎么就能给我生成这个样子, 我本来还想要小那个小龙虾给我生成一个的,但是他说他不能,他不能,他不能,那好啊,我又找别的 ai 豆包就给我生成成这个样子,我的天呐,我的天呐,这是什么?行吧,我也妥协了,我自己也不会画画, ai 也就只能生成这个样子了,还是靠想象,再靠这些文字来激起我的心,再靠这些文字对文字引发我的联想,但是生成是不可能。虽然画画好的朋友我也认识,但是 他也不能说那么全能,就照着这个文字就能给你画出来,他就只能给你画个大概。然后我跟他也没有那么熟,我也不太好意思去找他,让帮他,让他帮我画一幅画,所以自己想好了。今天我就说到这里了,拜拜。

前两天我刚刚说 open club 对 普通人没什么大用,现计就在这浪费 token, 然后一堆人风风火火整了一台在那跑,跑完发现正经事啥都没干, token 费 啊,烧的枯爹喊妈,太贵了。今天我们就对着这张图,然后来讲一下,为什么这玩意不仅是一个 token 的 碎纸机,还是很多人的置信税。 先看看啊,左边这是我自己整理的哈,就是逻辑其实很简单。然后啊,当然这里面具体的系统架构上面会有点不同啊。左边是一个过去的,呃,程序性的的批处理 啊,就是我们玩了十几年的 linux 的 批处理。逻辑很简单,从 a 到 b 到 c, 你 在脚本里面写死指令,然后他就闷头执行,他不思考,所以他很省钱省力。 当然了,你如果把大模型加进去的话也 ok。 他 具体做哪一步?比如说啊,回答某某个问题,这种情况下也可以用批处理来做,所以他就是很省钱省力,但也很死板。但是这叫自动化,他解决的是一个体力活,就是你有很多固定的活。 右边有很多人也抱怨 openclaw 不 够聪明,逻辑跑不通。呃,大哥, openclaw 只是一个执行器,他是让大模型去干很多呃,干活的中间件,他聪不聪明,全看你背后接的是哪个大脑 啊。就好比你给 ai 装那个手脚,如果你的外挂只是个两岁水平的破脑子,你给他装上机械手臂的话,他也就会玩玩泥巴工具,他本身不产生智慧,智慧在大模型里面,其实你可以选择几个大模型比较一下,比如 jimmy 呀 啊, gbt 啊, cloudy 啊,包括国内的 kimi 啊, mini max 啊,都可以比较一下,有的有的人会抱怨,呃,这个,这个智商不够聪明。其实这某种意义上是背后的这个大模型的聪明不聪明。 所以说我说现在的这个大模型吧,它很像早期的智人和尼安德特人和其他的各种人种之间的竞争。 为什么会很费 token 呢?其实我这打了一个比喻,呃,左边还是我们刚刚讲的那个尼克斯的屁处理,呃东西,然后右边的话,它是一个 呃,它实际上是一个 look 循环的逻辑,呃,什么意思呢?就好比你雇雇了一个一个记性不好的管家了,或者是做菜买做饭的阿姨,然后买一个厚猪腿肉来做辣椒炒肉。他每做一步都会停下来说, 哎,这把这本啊,买菜指南呢做,还有这个做饭的这 recipe 啊,之前的路况啊,还有刚刚的摊位信息啊, 呃,都会重新背诵一遍,他才能决定下一步是卖左腿还是右腿,然后是买五斤肥肉,五斤瘦肉还是五斤臊子,这跟十五传里面一样,呃,还是买辣椒,哎,没长记性,全靠呃重复上下文。当然呢,你可以在本地加一个这数据库的话,这也 ok, 然后每只应付动作都要把整个目标和过程都打包发送给大模型。你要知道,你问和大模型打,这里面都有头肯,所以这就是为什么你用 a 阵的话会烧掉很多头肯,然后你在网页版直接去问,其实那没有多少, 所以的话呢?所以我在这再泼个冷水,如果你只是想做个视频,拍个文案啊,拍个文案,然后写个日程啊,写个 ppt, 听我一句话,你要用网页版的 gmail 就 够了。如果在国外, 在国内也有很多对应的工具,豆包, deepsea 这些网,这些网页版免费不说,关键是人能够让你跑出自己的 mvp, 最小 mvp 就是 mini bubble, product 就是 最小的可行性产品,你自己手动操出操作出感觉了,确定这事能挣钱了,再去搞所谓的整体的,这种批量处理的话, 我觉得效果还还很多。当然了,你又自己用来炫技,搞一个东西来做做美女,呃,做做这个,这个龙虾,这也 ok 的, 你割韭菜的人吗?如果,如果割韭菜的没有,没有韭菜怎么割呢?对不对 啊?最后说句大实话,虽然我们自己菠萝卡拉鸡是卖云的, a w s 卖, google 卖啊 这种 api, 说真话,你们都不是我的客户,你们因为你们个人用户都太小了,用个三块五块都抱怨没钱太贵啊,真正的大公司跑起来, agent 来这个 token 消耗很大的。所以 啊,所以别为了炫技去烧钱,先把业务跑通吧。明天我会讲讲到底是谁靠这东西挣钱,到底谁才是这种烧 token 的 大户,而不是你们这些卡拉米。

十分钟一条图文,一台电脑,一天可以维护大概一百个号。小红书从小题、写作、排版、深图移到本地知识库,还有自动发布全流程我们已经搞定,来,我带大家去感受一下。首先我们带大家来看一下我们这段时间测试发的图文啊,比如说这个 小龙虾的那个卸载的那个指南,比如这个小龙虾的文案等等啊,还是比较漂亮的。接下来言归正传,我们开始做啊,我们教他呃,创作一个小王小王书的爆款文案,然后针对四川高质量的同学啊,并且给我们推荐几所几所铁饭碗大学, 然后他就可以开始给我们选择题啊,选择题啊,这个过程可能需要花点时间,大家耐心等待一下啊。选完题之后,他会结合我们放在本地的知识库,这也是小龙虾比较强大的地方,就可以基于本地知识库,就是你往年说的这些稿子,他可以给你学习 完了之后,可以给你生成新的内容啊,这个内容你看一下,就会结合你的风格,结合现在网络实施给生成出来。同时啊,他会把图文啊图片也给你生成出来啊,图片会放在一个特定的目录下,我们看一下打开这个图片啊,你看这个图片挺漂亮对不对啊?这个图片和这个文案就配上了啊。接下来我们只需要给他一条命令, 让他自动把我们的这个图文和我们的图片啊发布到我们的小母鼠上面去啊,然后完了之后他就会怎么做,他会自动帮我们去打开一个浏览器, 那你看到啊,运行完命令之后,他会自动打开浏览器,打开浏览器啊,然后完了之后他就会自动访问到小母鼠的后台,然后自动把我们的图文上传,上传上去,然后自动会帮我们排版,自动给我们放好标签,然后自动帮我们预览,大家可以看一下效果。

有人问小龙虾能不能调用 comforu i 实现图片生成?可以的可以的,我给大家实现。要想用 open curl 调用 comforu i, 首先你肯定是要有一套 comforu i 的 环境, 这是我们在本地搭建的 comforu i 的 环境,这是刚创建不久的一个流程图,它的作用就是根据你的正向提示词、反向提示词去生成一个平面图。其次,我们肯定是要有一个 open curl 的 环境,对吧? 我们建了一个 openclo, 这个 openclo 呢是使用的模型是 kimi。 二点五,要想用 openclo 去调用 ctrl u i, 我 们最好的方式是使用技能。这里是我整个创建这个的过程啊。嗯, 帮我开发一个 skill, 用于调本地的 comfyui 他, 然后后面就是要要求我提供给他这个 jason 的 路径,然后到这一步就是他已经成功创建了这个 skill, 就是 我通过在这个对话框里面跟他聊天的方式,他就已经能帮我生成图片了。 我这里是需要用 openglue 去调用的,怎么做?然后他就尝试再去做调整,调整完成之后就这里就算是好了,是吧? 然后我紧跟着我到小龙虾这边,这是它第一次生成,然后最后生成了它会路径在这,因为 openclo 它的这个界面是没有办法直接去访问本地文件的。这是目前 openclo 这个界面的一个问题,我们是不是可以 重新考虑修改一下我们的 skill? 既然你本地文件没有办法输出,那你是不是可以直接帮我输出 best new 四啊?在这儿你看它这边也是有 best new 四的方式进行输出。嗯,修改到这一步之后,它支持了 best new 四。 这个时候呢,我又重新跟他说,我修改了一下 skill, 你 帮我重新生成它。确实按照这种思路其实是对的,因为它能正常的输出这个这个东西,但是如果它这个输出完成之后,它就会正常显示,以百四六十四的方式显示。但是可惜百四六十四比较长,它输出 没完就结束了,所以导致这个图片是没有办法正常显示的。既然你这边生成的过程是用 python 去生成的,那为什么不能生成之后帮我直接打开呢? 使用电脑默认的打开方式帮我打开就好了吗?使用默认的图片的浏览器帮我打开,好,你,我已经同意生成,你帮我试一下, 对吧?他就成功了。我们给大家演示一下,编成一条鲨鱼,我们现在再看一下它的效果,但它的效率感觉并不是那么高,哎,你看生成成功了。

有一个二十四小时帮你办事的 ai 助手 openclock, 还有一个最强的开源模型调用工具 comui, 两者结合就能这样你通过手机发送需求, 然后 ai 在 你自己的电脑上自动加载模型,完成图片、视频、音频的生成,并最终将成品发送给你。 那就可以把 aigc 做到完全私有,本地部署,并且免费不限量。本期视频演示的就是真正意义上可落地的数字员工和数字生产力。 openclaw 和 comui 的 联动就是给极致的大脑装上了最强的开源模型,从会说变成会干活。它可以根据要求自动生成图片、克隆声音、合成数字人口、播跑首尾帧视频, 还能批量执行工作流,把原本需要坐在电脑前一步步点击的操作,变成你随时随地发消息就能完成的自动化流程,这就是最有价值的实战方向。那么本期内容我就会带你从实际演示出发, 看这套联动到底能做到什么程度,又能怎样接入你真正的生产流程。接下来的很长一段时间,我将会陆续开始在星球更新 openclock 教程以及最新的 comui 教程。 想要从零开始系统入门并逐步进阶提升的小伙伴,欢迎加入小黄瓜的知识星球。 open call 和 complain 联系起来之后,它的过程是非常稳定的, 就是它能稳定调用我们使用到的那些工作流,而且它可以稳定的去设置相应的一个参数,能够正常的按照我们的要求去完成图片或者视频的生成,然后以及音频、数字人,这些都是可以的啊, 可以看到我们这后台呢,已经在运行了,我们的硬件呢,现在可以看到已经开始有活动了哈,内存在逐渐的上升,就是在加载对应的模型, 然后图片生成,我给他配置的是用的 z image turbo 的 模型哈,所以说内存现在在上涨的阶段,说明模型正在往内存里面加载, 加载完毕之后呢,我们的 gpu 就 开始运行,也就是开始完成我们正常的图片生成。生成完毕之后呢,这个 openclaw 就 会通过飞书把消息给我们发送过来啊啊,可以看到这里已经生成了,也就是这个生成的过程是他自己做的, 然后生成完之后呢,他就会把这张图片发送给我们,然后包括人物的着装姿势,配饰背景,然后包括姿势形象,这些全都是他自己给我设计的啊, 可以看到这里已经生成了,那等待他把消息发送给我哈,可以看现在已经给我生成了,在飞书里发送给我了,这就是他给我生成的一个男生哈,然后我们把控制台打开哈,把 com 约的后台打开,能够看到他运行的过程哈, 然后显存呢,就是我们的性能占用还放在这边,我建议你能时刻的观看自己的硬件占用状态,了解模型现在运行到什么样的过程,然后这里给我们生成了,我们就可以让他再给我们生成一段音频啊,用小黄瓜的声音生成一段音频,小黄瓜。再说 这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,然后说天气比较热,建议多往室内有空调的地方去。 好吧,就这样,那么这两句话大概也就是四五秒的时间吧,然后我们发送一下,现在呢,我们是让他用本地的 com 给我们生成音频,然后等待他把音频给我们生成完, 生成完之后呢,我们让这个男生用我的音频再生成一段视频,也就是数字人哈,可以看到这里,我们的音频已经生成了,我们来听一下啊, 这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,天气比较热,建议多往市内有空调的地方去, 可以吧,这个声音没问题吧,跟我的声音是一致的啊,我们再听一遍。这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,天气比较热,建议多往市内有空调的地方去。好的,这个音频也没有问题啊, 我们说用刚才生成的这个男生形象,根据小黄瓜的声音做一个数字人的视频,视频时常控制在十秒钟吧,每秒二十四 fps 吧,然后视频分辨率呢 为一二八零乘以七二零吧,好吧,就这样。然后呢,他现在就开始给我们做一个数字人的视频啊,这里面我给他配置了七个工作流, 这就是我给他配的,所以说大家如果要用的话,你想给他配什么就配什么,我这里配了一个首尾,真的配了一个数字人的,配了一个声音设计的,还有一个声音克隆的,就是让他可以用我的声音去生成音频,声音设计的话就是他可以自己设计声音去生成音频, 然后还有 ltx 二点三的图声视频的,然后以及一个图片编辑和一个纹身图的,就文本到图片生成的那纹身图的模型,你配置完之后,你就可以让他给你做一些,比如说封面设计,然后 其他的内容哈,可以在上面看一下。我有做封面设计啊,你就像这个,在最开始你跟他交流的时候,比如说我这里说给我设计一个视频封面,关于 openclaw 和 compui 的, 然后想把它做成我的封面,然后是十六比九,主要是国内人看,所以说我们的封面标题呢要用中文,然后这是他给我设计出来的第一版封面啊,很明显这是不醒的,对吧?然后呢就给他做了一些个额外的干扰,我说要有标题, 然后呢标题写的清晰一点,有设计感。然后这是他给我的第二版封面,这个也不行,然后我说文字都粘到一起了,要有排版,然后这是他给我的第三版,这版其实还行,但是受限于大模型,也就是我本地部署的这个图片生成模型的能力, 所以他后面的很多文字呢是毁掉的,然后呢就给他说封面文字有误,然后让他重新修改,然后这是他又修改完的一版,看起来还行哈,然后呢我就给了他一张图片参考,我说你把这张图片给我复现出来,当然了 这个生成图片的能力取决于你部署的那个模型,就像我给它配的是 z image turbo, 所以 说这个能力并不是因为 openclock 不好,或者说因为 comfui 不好,只是因为这个模型我们目前用的不好,但是呢模型它是会进步的, 对吧?你像最开始我们用 sd 一 点五叉 l 的 时候,那个时候生成的图片质量是很差的,但是呢,随着模型的进步, comfui 甚至可以什么都不做,就只是适配一下这个模型,它的功能呢就会提升, 因为 comui 的 能力不取决于 comui, 它取决于模型。然后这是他给我的第三版哈,也就是参考刚才的图片生成的,然后发现文字都毁到一起了,然后又让他给我改, 最后生成了这个,所以说限阶段,如果你想用可以,但是他并不会到非常智能的程度。我这里接的是拆的 gpt 的 五点三的模型,所以说能力还是很强的。这里视频生成了,我们看一下哈。这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩。天气比较热,建议多往室内有空调的地方去, 后面因为音频没了,所以说就没声音了。在这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩。天气比较热,建议多往室内有空调的地方去,可以看到它调用的是我本地的,而且我们的显存呢,确实刚才有在运行啊,然后内存的占用现在还在这一百多 g, 这是演示的一个小功能啊,还有我们的首尾针什么的都可以。 之前的话,我们是需要在 cfui 里面跑工作流的,对吧?现在跟 openclaw 配属完之后呢,我们可以你拿着手机,任何时间,任何地点,你只要给它发送消息,它就可以给你制作。主要是这样的一个过程,而且呢,它可以有自己的设计,比如提示词当中可以让大模型自己写,也就是让 openclaw 接的这个大模型自己写,不用我们写,你 甚至可以让它批量的生成图片。以前如果说你在 cfui 要批量生成图片,是需要自己搭建一些工作流的,对吧?比如说设置种子值自增, 然后让他一个一个的生成。现在我们可以直接让他生成哈,比如我们这里给他说让他生成二十张真实男青年的照片,然后人物配饰、长相、背景,让他自己设计分辨率,在这里写一下。比如说我在一盘哈, 给他重新创建一个文件夹,叫做男生,然后粘贴到这里,然后二十张图片放到这个文件夹,然后名字从零一开始到二零结束。好吧,那这个时候呢?我们就等他给我们生成就行了。 你像以前我们还需要去处理工作流,对吧?然后自己或者说一张一张生成,但现在我们不需要了,批量给我生成了二十张,大家可以在这里看到哈,我们来看看这些图片哈, 怎么都是这种呢?他是他生成的是这种合集,好吧,他生成的是这种合集,我再给他说一下算了,我说把刚才的二十张图片删了, 我要一张图片只有一个人物的,就这样让他再给我做一下哈,可以看这里,我们二十张图片已经生成完了哈,大家可以大概看一下二十张这些还像同一个人啊,对吧? 他是给我们生成了五次啊,这是第一批,第一批当中像是同一个人,第三批像是同一个人,对吧?可以看一下,还挺帅的,对吧? 我们让他这样用第五张和第八张图片,把这路径复制一下, 给我们生成一个视频啊,生成一个五秒的吧,五秒的首尾帧视频,让他用一二八零乘以七二零的分辨率,每秒二十四帧吧,然后让他给我们生成一个首尾帧视频啊,看一下视频啊,这是我们做的首尾帧视频,六秒, 好吧,这个质量还是可以的,这个质量取决于 ltx 二点三,也就是我们给康复 ui 配的这个模型的能力。好吧,这点大家能理解,我们让他给我们做个海报吧,但是海报的话,我们可能需要让模型有一些提示词哈, 或者说写一些比较详细的提示词,我们去搜一个海报的案例的这张吧,这张好看,我们让他说给我设计一个罐装可乐的海报,可以参考这个提示词,文字内容你自己考虑加什么分辨率,我们要个一零二四乘以一五三六的,就这样 我们试一下哈,让他给我们设计一个海报哈,然后给他提供了一些参考提示词,如果直接用这个提示词生成,你生成的就是这样的内容。但是呢,我很明显不对啊,因为我们要做一个可乐的海报嘛, 所以说你自己要去想这上面的字我们改成什么,这两个字改成什么,哪些字要改,哪些字不能改的,现在我们交给大圆模型,让他去想,我们就不想了,不动脑袋了。这他给我们设计的海报哈, 并没有出现可乐哈,但是文字、排版这些都没有问题,画面的质量也没问题,这个质量呢,是因为 the image turbo 的 质量比较好哈,所以说这个呢,不行,我说再给他说一下, 就说图片里要出现可乐,这是一个产品海报这样的这一个产品海报对吧?看起来还不错,但是我们可以让他加一些英文文字,设计一个标题,大字标题, 白色文字啊,手写体最好,然后文字内容为 c o o l, 就 这样,然后放在图片的最上面,我猜测它可能会用到编辑模型的,因为这张图片的话是用 z 生成的嘛。 这里你看它已经在思考了,并没有直接生成,所以说它应该会切换工作流哈,切换到 flex clean 模型,当模型的能力再一次提升的时候,我们现在流程的能力就会再一次提升哈。 所以说现在大家其实可以去接触 open club 了,我觉得因为他们的能力不取决于他们本身哈,取决于他们用到的模型。模型的能力提升呢,不取决于个人, 取决于那些走在前面的那些大厂。好吧,所以说你现在学和以后学都是学一样的。稍微等待一下哈,不知道他现在思考到什么程度?我看一下哈,我们能在 open club 的 后台看到他 思考到什么样的程度啊?哦,他已经加好了吗?我们看一下。靠,他加了一个这样的文字哈,可以看这个,这俩基本上没问题啊,这两张图片除了文字之外的没区别啊。这个文字是他自己加的, 如果说我们有自己的提示词的话,让他去做海报就更简单了哈。比如说像这个,我们直接把这个提示词给他,用这个提示词给我制作一个海报,就这样直接把提示词给他就行了,然后他就会自动给我们生成哈, 等待一下,我推断他加的这个文字啊,是他自己通过脚本加的,并不是用了我们的模型哈,看一下,这是在后台啊,我们跟他交流的过程在后台都能看到。我们看看刚才说的让他加文字这件事情上,他做了什么,哈, 它用了一个工具调用哈,然后在这里可以看到,它是通过代码给我们加的文字哈,并不是用模型给我们加的,它这里用了一个 python p i l 库哈,这个是对于图片设计的,用了一个 image, image draw, 还有 image font 这几个类哈,然后去做了一个图片上面加文字的操作, 所以说呢,它并没有调用我们的 comui 哈,它选了另外一种方式,然后就生成了,所以说我们的 comui 呢,也没有运行。 然后这里他还下载了几个字体文件, ttf 是 字体文件哈,然后就加了几个文字哈,这是他的一个刚才加文字的那个过程,并没有用我们的编辑模型哈, 这里生成了哈,这个怎么说呢,文字排版不太行啊,这个海报如果把这么多中文直接交给模型生成,基本一定会出现错字、粘字、排版乱,所以我还是按更稳的方案来, 先生成了海报底图,然后再把文字排版进去。我说不要这样,直接用提示词生成就行,你看,这就是他自己的一个思考,但是他的思考是不对的,如果直接用提示词生成就会更好,反而他自己写的排版乱了, 对吧?所以说他自己想的,他先生成了一个底图,然后自己又加了一些文字,但是自己加的文字明显排版是乱的,还不如直接让模型生成,所以说这个呢,没办法,你在跟他交流的过程中就会遇到这些问题啊,所以说大家装完之后,最主要的是跟他的配置和交流的过程,可以看这次就直接生成了,这就没什么问题啊, 对吧?这次这个海报就没什么问题,所以大家以后用的时候,你想啊,当你看到了这个问题的时候,你能不能分析出来这个机器人他是在哪里出了问题, 然后让他给你改成合适的。如果说对康复 ui 了解不多的同学,可能看到这里就觉得康复 ui 的 能力也就那样了,对吧?其实是因为模型在中间做了一些事情, 然后导致了这个海报不太好。好吧,现在他的能力确实是有的哈,但是取决于我们给他配置了什么样的工具以及工作流,我来配置一个哈,这里有个图片放大,我觉得是需要的,我们让他直接给我装个插件哈,看这个工作流是不是这个 see the vr two 高清放大我搜一下哈, 我们一定尽量的把指定的插件路径给他哈,让他确定是装的这个插件,比如我们复制给他,然后说帮我安装这个 comui 插件,然后重启 comui, 然后把地址给他就行了,接下来他就会自己帮我们装了哈,可以看一下哦,还是在这里看哈, 一会的话,我这个网速的话就会开始提升啊,说明他已经准备下载了,下载完之后呢,他会处理环境,然后把环境装在 comui 对 应的环境里面,然后呢再给我们启动,可以看现在网速已经上去了,就是在给我们下载插件啊。好吧,他说重启了,我们试一下哈,我们看看这个插件有没有装上啊, 可以看,这里已经有了哈,这个节点没问题。所以说前面的这些呢,是 c 的 vr two 的 插件哈,看一下。所以说还得再装一些插件啊。已经给我们成功装上了一个插件,然后我看一下那个工作流哈,他好像把我的康复 ui 装到了 c 盘里面哈,看一下这个插件里面的视力工作流哈。 插件比较少, seedvr2, 然后找到对应的工作流,这里面缺失几个节点,然后我自己给他装一下吧。手动装一下吧。这是什么?有两个插件装失败了吗?我们重启一下看看啊,好像没问题啊,这几个都是装上的,现在在重启 comui 哈, 这些操作大家应该不陌生了,如果说啊 comui 已经学过一段时间的话。好的,有个插件没有装上,不对,应该不是没装上哈,是这些节点应该过时了哈。 get image size, 这是 c 的 vr two first pass, 不是 这个节点哈。看来这个插件还是没装上,选择最新的版本,看一下后台有没有在下载哈。哦,现在是在正常的下载,等一等吧,我把这个图片放大的工作流也给他,给他之后呢,他就可以批量的去完成图片的放大了哈, 我们刷新一下。好的,已经启动了,我们看看有什么报错哈。哦,载入成功的哈。插件在这里啊, see the vr two video upscaler 在 这里哈,这个节点。所以说把它替换掉啊,这里是 block swap。 然后这个呢,不管它了哈,直接把它从中间给它替换一下就行了。第一个阶段的放大, 这是第一个阶段的图片,第一个阶段有个 block swap 参数,现在不需要了,我们把这个删掉就行了。然后 d i t 就是 它的模型哈,我看看我本地的模型有哪个哈工作流要提前给它配通哈,配通之后再让它去运行 seed v r two 在 这里哈,本地有七 b lp 十六的模型,我是有的。那就直接选这个哈, 选完之后选我们的库达林 block swap, 直接在这里可以设置哈,给个二十吧,不给太多哈。然后这个也连过来 v a e 模型,这是 c 的 vr two 的 v e 模型,然后选上,这是分块放大,我们就按默认参数就可以了,把这个也连过来 v e 模型,那这个时候就相当于我们配置好了模型, 然后来测一下这个工作流的运行哈。等一下啊,我把这个工作流先保存一下,重新命名,然后把刚才这个工作流拖入进来。拖入进来之后呢,我们看看它是怎么做的,参数是怎么连的,做一个替换哈。 open floor 里面, 把 the vance 拖进来看一下哈,这个节点就连出来了一个最短边的参数哈, shortest side longest 最短边的参数应该是连到了这个 resolution 上面啊。好的,那这个工作流基本就没问题了,我们上传一张图片,让他给我们放大一下试试啊,我们就用刚才他给我们生成的这张男生的图片吧, 复制一下,粘贴到这里 set, 因为就给他连过来啊,把这个节点删了,然后第一阶段的话,放大到两千就可以了吧。第二个阶段呢,我们放大到四千吧, 这个指的是它的最长边哈,我们把它的最长边放大到四千,就相当于做了二点多倍的放大哈,二点五倍的放大了基本上,然后我看一下这个参数哈, seed 给它改一下 tailing upscale 放在这里, 然后看一下他的参数有问题啊,也就是插件更新导致了节点出现了问题,所以说我们是需要把节点删除重建一下的,原来他的过程呢,做一个替换就可以了,连到这里,所以说这个节点可以看他已经没有输出了,所以说这个节点对我们当前工作流没用,删掉就可以了, 现在应该没问题了。 new resolution, 把连上放在这里吧,运行一下试试啊。运行吧。好吧,现在这个呢,就是图片高清放大的工作流哈,这个节点有错啊,我们看一下错误是什么? block swap 是 无效的哦,我懂它意思了,它的意思是呢,你的模型放在了显卡,如果你做 offload 的 话,也就是显存卸载,做 block swap, 你 需要把它卸载到另外一个设备上,所以说这里呢,我们得选 cpu, 不 然的话它卸载不了哈,我试一下不做 block swap 它能不能跑哈,因为我想让它尽可能的把我显存占用多一点嘛, 如果我的显存不够的话,那我就去做 block swap。 现在的话可以看在做第一阶段的放大,然后我们的显存占用只有九个 g 是 没问题的,九个 g 占用很少哈,但是等到第二阶段放大就开始大了哈,图片放大对显存的占用很多,所以说这些工作流的配置你一定是要清楚的,不然的话,你没办法把它交给 openclock, 让它给你运行, 因为你需要选择其中的参数,让 openclock 去修改的。你比如说这里的模型的名字,你肯定不能让它修改,因为这个模型是你自己固定好的,放在本地的。还有这些呢, device 这些它没必要修改,所以说你就不要暴露给它,如果你暴露给它了,它就可能给你改,一改的话,工作流就跑不了了, 那个时候问题就大了。但是这个呢,就取决于你康复 ui 学的怎么样。如果说拿到一个工作流,你都不知道提示词在哪写,或者说都不知道你在哪里设置图片的尺寸,那你怎么去让模型配置呢?对吧?所以说这个呢,可能需要就是你学完了康复 ui 之后呢,你再学 openclip 加康复 ui 会更方便一点哈。 好的,放大完了,我们来看看,右边是原图,左边是放大之后的,大家可以看一下哈,看看他的衣服哈,还行吧,衣服质量还不错啊,看这个扣子, 这个扣子原来是扭曲的啊,现在已经到正常了。还行,这个放大质量不错的哈, 对吧,他多少会有点修改哈,百分之九十九相似。还行哈,这个质量没问题,工作流也没问题,那我们就直接把它 导出开始封装吧,导出一下,但是要把它导出成 api 格式哈,图片高清放大命名一下。 api 命名完之后呢,我们就把这个工作流导入进来哈,然后这里有个描述,说明我们要给它写上哈,就是图片高清放大可以,这应该就行了, 这俩节点我们不用管,所以说主要给的就这仨参数就可以了,一个是一百四十八号节点,一个呢是一百零四,一个是一百二十五。 我们先把一百四十八号节点给他暴露出来哈,一百四十八号在这里打开,然后描述一下,就是需要被放大的图片位置,然后生成必须给他勾选上,然后呢还有一百零四和一百二十五啊, 你找到一百零四,一百零四,一百二十五,这俩都给他打开啊,一百零四的话,这是啊 number, 也就是第一步放大的最长边长度 建议在两千以内,然后这是我们的第二步哈, number 二,给他起个 number 二吧,就是最终图片的最长边的长度建议大于第一步放大图片的最长边, 就这样,一个两千,一个是四千,这样的话就应该已经够了哈。第一步放大的最长边长度建议在两千以内,不要超过 number 二的大小。好吧,就这样保存一下, 我们来试一下哈,就像现在我们就已经配置完了,你可以问问这个 openclock 你 现在可以用的工作流都有哪些?可以看到他已经给我们说了他现在可以用的工作流这有八个,然后再加上我们刚才给他配置的这个图片高清放大的, 然后他说刚才装的插件已经装成功了,那我们给他,让他生成一个真实人物,女生在二十五岁左右吧,然后衣服风格,背景装饰,长相你自己设计, 然后分辨率呢在一五三六零二四左右,然后再把这张图片放大到,我们让它放大小一点嘛,不要太大了,最长边放大到三千,不改变原始比例。我们先让他把生成的人物发给我,然后呢再放大发送给我, 然后呢再把这张图片最长边放大到三千,不改变原始比例,放大后再把放大后的图也发给我。 好吧?就这样这个时候他就会去做了哈,然后现在可以看我们的图片已经生成了哈,这个是一五三六乘以一零二四的分辨率吗?然后这是他设计的给我们生成的一个真实的女生,然后包括他的长相啊,然后以及穿着啊, 然后装饰包括背景全都是自己设计的哈,他用提示词设计的。然后设计完之后呢,现在就开始做图片放大了哈,等他把图片发给我了哈, 这确实是放大后的图片啊,这是我们放大前的,这是放大后的 是吧?确实是啊,是放大后的图片。

首先我们打开火山的模型开通管理页面, h t t p s 冒号斜杠斜杠 c o n s o l e 点 v o l c e n g i n e 点 com 斜杠不知道怎么开的同学可以看我前面的教学视频,打开后选择视觉模型,然后找到屌爆 see dream 四点五模型, 未开通的会显示开通服务按钮,点击开通服务,找到 crem 四点五勾上,然后点击确定开通即可。接下来我们点击 cdrem 四点五模型进入详情页,我们点击 api 接入,点击快速接入测试, 然后点击红框框起来的复制按钮。接下来我们转到飞书或者你的 open call 界面,这里两个页面都演示一下。首先是飞书,将视频中的一大串内容艾特你的飞书员工,他就会开始创建 skill 了。这里说一下 apikey, 直接在火山控制台 apikey 管理页面创建即可,然后点击对应 key 的 眼睛即可出现复制按钮,点击即可复制 pip, 填写好后点击回车。如果出现这个问题,则需要检查一下飞书开放者平台的权限是否开通, 直接复制他给出的链接即可到达对应权限页面,开通后如图所示,这样告诉他等待执行完毕即可。 聊天界面是一样的,输入内容回车等待他执行即可。在稍等几分钟后,正常情况你的非署员工会告诉你如下内容,表示 skill 生成成功了,如果还有权限不足的提醒,我们复制他给到的链接,直接浏览器打开授权即可。 完成后我们试一下图片生成,稍等片刻后就可以拿到结果了,之后只需要给他 prompt, 让他执行生图即可。大家如果训练过程中遇到了什么问题,欢迎评论区留言,我基本会逐个解答。训练的 prompt 放在评论区了。

神图模型用啊,这个其实就是 nolan, 把它拿了看一下 later。 哦,有了,还挺快,不又用别的模型跑了。我们现在看一下这个图片审好了吗?还没有审完全审好,但是这个图片总体看的还可以,差一点意思。 这个还行啊,但是这个爪子这个位置有点假。后面这个,这个可以吗?我感觉挺诱人的。可以啊哈,这里头包装很高级。 可以,亚马逊风格电商主图。 nice。 那 比如说搞个亚马逊的电商主图来去模仿别人的品,把它链接给他就好了。要要要, 要个五张还是五张看一下。哇,蛮高级蛮好的一个配色,看第二张。嗯,高级是高级,但是这配色打的是什么市场呀?牛逼哦,好 black man, 呵呵呵。 啊,那不得不说这个配色黑配什么颜色就是显得高级是吧。哦,还给了个细节图可以吗?像我们再问一下他,呃,我能不能给你一个表格链接里面有的不同产品的 u l, 你 每天固定一个点,是 针对每个 u l 生成有张这样的电商产品主图,然后如果生成完了,或者发现某天我没有给你新的, 嗯,产品又来了,你通过我后续后后续给你接的飞书,或者说或者说别的什么都可以当做也就设置一个地址任务嘛,每天都跑,固定每天都跑,那个流程放在那就可以酷酷上你想要的作品了。 啊啊,这个方案掉了,其实可以接飞书也可以接好多,然后我现在比较喜欢用的就是 tui, 虽然握笔会比较清晰,但是你看他这个经常网关断掉,不是很好用,然后你那个下载 app 也可以,然后我这个接了,这个叫什么东西?我也不知道,这个很少用,反正发出来的时候会给他用,就这样。还有一个问题就是有的人会觉得这个头跟很贵啊,但是我这里有很便宜的头跟给你啊,就这样恰口饭。

我们用 cloud 搭建了一条真正能够商用的 ai 生成工作流,我先给大家介绍一下这个生成的流程,这个文件夹是我们用来放商品原图的, 这个文件夹是我们用来放参考图的,就是我们想要生成什么样类型的图片,我们可以把同行那些比较好的风格图片放在文件夹下面,最后 ai 生成的图片会放在这个文件夹,现在我给大家演示一下怎么操作的。 我跟大家说这个,先把文件夹路径复制给他,请把这个文件夹下的产品生成六张送来封主图, 然后你可以再告诉他一些产品的卖点信息,这个卖点信息比如说这个也不是我自己写的,我是直接从图里面复制它的产品标题,还有它详细的描述,比如说它是颜色、材质,还有产品规格,包裹,包裹包括哪些东西,直接把这些付给他 发给客户这里 ai 它就会去读取我们 那些原图的一些细节,以及我们的参考的细节,调用 ai 的 模型去分析这些图片的风格特点,以及结合我们发给发给他的一些产品的描述,提炼卖点,最后会生成六张组图的生图提的词,你看他现在已经开始在读取原图的这些特征了,然后他已经知道它是蓝白条的纹的亚麻桌布。 现在他开始去调用这个生图的工作流了, 他现在现在就在设计提示词的阶段,整个过程大概会持续个五六分钟吧,就能够把六张图给它生成好了。这个速度算是我用过的软件里面算是最工作流程里面是最快的,因为不管是用菲律宾表格还是 kpi, 像 kpi, 我 们生成一张图平均就要三分钟左右,六张图的话至少要十一分钟, 这里六张图片它已经生成好了,它开始读取这六张图片。 好,现在图片已经生成好了,大概花了个三十分钟左右吧。对,应该说啊,这张图片的条纹和留色的细节都精准还原了这张图片的风格特点,他说第四张特别出彩。好,我们现在去看一下,再给大家看一下,这是我们的原图,对吧?这是原图, 现在我们看它是 ai 生成的图片,是在这里吧,看一下,对,这个,看这个流苏精准还原了这个格子的蓝色浅白,这些流苏精准的还原了,这里有一个俯拍的视角,下午茶的场景,海边场景, 你看这些条纹材质,还有这个流苏,这些细节是不是都是做的非常到位的?我以前用过很多的 ai 生成软件,这这这也是让我刻的让我最惊讶的一点,因为这两年市面上那些主流 ai 生成软件,比如说像 linux, 还有 top view 这些我都用过。对于一些普通的产品,如果他对细节要求没那么高,他生成图片,他们生成图片是可以达到勉强能用的水平, 但是像服装类目、家具类目、家纺类这些类目是对产品的一些纹理啊,材质啊,还有轴轴这些要求都很高,用这些 ai 软件生成的图片是基本没法用的, 这是第一点。第二,我们去年还试过用飞速多维表格加上 kpi 去搭建这种生成工作流, kpi 的 一次性相对来说是会做的比较好,但是呢,它成本很高,使用起来也非常的复杂,而且它生成速度非常的慢,平均一张就要三分钟,但这里我们生成六张图片也才花了三十分钟。所以说我们今年其实就早就放弃了用 kpi 的 这种工作流的方案。 这几个月市面上也出现了很多说利用扣子工作流,还有 nbn 这种工作流,结合多维表格来生成方案,我们也用过,就是也属于那种勉强能用的水平, 因为对于我们大部分卖家来说,这种他们这种工作流搭建各种什么节点之类的还是太复杂了,用起来也非常不方便。而且这么多节点,只要有一个节点出错,他整个工作流就没办法运行了, 他的维护成本非常高,但是我们用 ko 的 搭建的这个 ai, 这个工作流是我目前发现的,就是一次性保持的非常好。第二呢,使用门槛也很低,我现在随便让一个员工,只要告诉他把原图放在哪个文件夹,然后给他发一组题词,他就能够生成我想要的效果图片。这个是基本上使用的,靠的是基本上没什么门槛的,这是我觉得这个工作流最有价值的点。 当然也有朋友会比较关心用这工作流的一个使用成本,我这里计算了一下,主要是两块成本。第一是他前面做图片的分析,调用的是靠得的一个模型进行图片分析,生成提词这一块可能花费会比较高, 但如果你是直接订阅的,靠得一个月两百块钱那种基本上不限流量的会员,那你这一块的成本是可以忽略不计的,主要的成本是调用那那那这个模型的一个花费,我们计算了一下平均每张图的深度成本大概是五毛钱左右,也就是说生成六张主图大概是三块钱。 这里我也可以给大家看一下它的一个消耗的一个统计,嗯,这台电脑可以给大家看一下,就刚刚我们是六点四点五十二左右开始生产的当图,那这里主要就是调用的模型花费,然后这里就是调用的是那的 ipad 接口一些花费,所以说整体来说它的花费可能会比国内像吉梦这类的两毛钱稍微贵一点,但它生成的效果是基本上可以达到能够上的水平了,我觉得这点是很多模型他做不到的一个点。 而且 你录了我们现在这种对产品的一个纹理啊,风格条纹的要求这么高的,他能做出几乎可以上用的这种图片,那么其他一些要求这么高的一些评论呢?做起来更简单了,这个是让我最吃惊的一个点。

今天花两分钟啊,给你们讲透一下最近圈内很火的 openclo 龙虾 ai, 它究竟是什么东西,能帮我们干什么?以及对我们普通人、创业者或者是学生党带来什么样的重要影响。 国内的大厂呢?又是怎么布局的?最后呢,我会在结尾告诉大家怎么从零部署这个龙虾 a i。 先一句话说清啊, open core 呢,它不是真龙虾,也不是一个只会聊天的 ai, 它是一个真正能够操控你电脑,帮你干脏活累活的开源本地智能体。 因为图标是个红色的小龙虾,所以大家都亲切的叫它龙虾 a i, 它和 trap, gvt、 千问豆包这些最大的区别就是别的 ai 呢,它只会给你出方案, 但是龙虾 ai 他 是真的能够帮你把这个事情干起来。我举个最直接的例子就是你跟 ai 说帮我收拾一下乱七八糟的桌面, 他只会给你第一步,第二步,第三步,怎么做这样子。但是呢,你跟龙虾 ai 去说这句话呢,他会真的当着你的面先创建文件夹,然后把你这些需要整理的文件放在一个一个文件夹里面, 全程呢都不需要你动一下鼠标。再比如就是,如果你想去发邮箱,或者是汇总你的以下表格,或者是你每天的一些财报, 排查一些呃,最近的爆款文案,发朋友圈,监控数据,所有的东西他都可以帮你完成,而且他是二十四小时无休止的给你做。除了他这个强大的功能以外呢,他真正爆火的原因有三点,第一点就是他的数据是不出门的,不对外泄露, 很多人不用 ai 呢,是因为怕它泄密,龙虾 ai 呢,它是直接在你电脑里面跑的,它是不会往云端去传数据的,你的客户名单,财务报表, 甚至是你的商业机密,全部都在你的眼皮底下。第二点呢,就是这个东西完全是开源的,全球几十万顶尖的程序员天天给它更新, 重点是它不要钱,也没有各种恶心的订阅费,更没有隐藏套路,你就当它是一个不要工资,不要五险一金,二十四小时待命的工具就行了。 那第三点呢,是什么呢?就是你不用翻墙,也不用会什么英文,你能够直接用我们国内的大模型接上去,像 kimi d sib 豆包, 你只需要用你平时说话的指令去跟他说,他就会听从你的指令去做。那对于我们所有人来说呢,他有什么作用呢?首先,如果你是上班族, 每天整理报表或者是写日报这种事情,你就可以让龙虾一键帮你自动化,每天帮你省掉一两个小时的时间。 那对于学生党呢,他又可以自动整理文献汇总笔记,查论文格式,别把青春呢都浪费在你的排版上。那对于我们创业者来说呢,他就是一个顶尖的小团队,他可以随时随地帮我们抓取素材,定时发布统计多平台的数据。 所以我说这一波呢,不是小打小闹,而是全行业的压轴,阿里跟腾讯在搞基建,小米都推出了自己的手机端 mecloud kimi mini, 直接开放免费的额度给你使用。简单来说就是大厂呢,它都让你低门槛的去用到,这个小龙虾,可想而知它就是下一个的 ai 刚需。 那最后呢,就是今天的干货,小白回家按照这四个步骤也能装上你的小龙虾。首先呢,准备好你的电脑,不用高配。那第二步呢,就是到小龙虾的官方去下载一个安装包,然后一路点下一步。第三步呢就是填写你国内盗墓行的 keep。 第四步,你只需要发送你的指令,让他完成任务就可以了。 总结一下就是 open club 呢,是 ai 从动口到动手的拐点,它不是未来的科技,而是现在就能用的效率工具。如果有什么安装上或者是部署上的不懂都可以在评论区提出来,我会及时给大家回复。

我的龙虾刚才在我没有给他配置任何深图大模型的 api, 以及我没有教他深图这个能力的前提下,给我生成了一张图片, 原因是我后天要去做一个组局,我现在已经做出了会议议程,我就想要一个海报,我刚开始是没有海报这个想法的,我没有想着让去龙龙虾去做,我甚至去找了 jpt, 让 jpt 帮我直接在页面上生成,结果就是这个里面全部都是很很多的错字,就是很很多错字,我不满意, 我正想要怎么办的时候,突然看到他在给我溢成了之后他还问了我一句,就是 要不要帮他,他帮我生成海报,我很震惊,因为我知道他是没有这个生图的 a p i 的, 我没有给他,我只是给他登录一个 g p d 的 会员,因为我很穷,我很穷,我只能给他包月的会员,然后我就问他,我说你可以帮我做图片吗?他说可以啊, 这个时候我没有抱任何的希望,我说那你给我做一个减一百的图本海报吧,什么内容我都没有要求他,然后他就给我做出来了,哎呀,在这里, 哎呀,质量不差,质量真的不差,起码他没有错字,而且他讲的很清楚, 我我我感觉这个真的是非常的让我惊喜,刚才太震惊忘拍这一段了,我有问他,我说你没有 a p i 是 怎么出图片的?他,他说他相当于是通过代码来去画的,做了一个 svg 的 文件, 然后再通过消息工具作为本地文件附件发到飞出。 所以我觉得就是普通人对于 ai 也好,对于龙虾也好,你,你最最有用的办法,你就是你去用,你去使用,你在使用的过程中你可能发现 惊喜,或者说是真正可以帮助到自己的一些点吧。不要老听太多的 ai 的 自媒体的博主的分享,不要吃人家咬过的甘蔗,而是真正的去实践出真知,去落地,去尝试把手弄脏。

你的钱包正被 ai 掏空,还是靠 open 可尔日入二百二十九美金。别再给聊天机器人交订阅费了,那是在浪费你的变现窗口这个绰号。空间龙虾的开源项目,在 get up 上已经狂揽超过十一万颗星。 他的创始人是身价上亿美金的连续创业者 peter stamburger。 他 做这玩意儿的逻辑很简单,让 ai 从只会动嘴的顾问,进化成直接动手的员工。 为什么它能让你一个人顶一个团队?核心变量在于本地网关机制,普通 ai 被关在网页里只能聊天,而 openclaw 能直接接管你的浏览器、文件系统和社交账号。 它不仅有大脑,还有眼睛和双手。当别人还在苦思冥想 prompt 怎么写时, openclaw 已经像个老练的数字打工人,自己在网页上抓取数据、处理表格,甚至替你去和海外客户谈生意了。目前的暴力机会藏在认知差里。 最直接的玩法是卖数字员工安装费。根据 openclo 变现蓝图的数据,给小企业部署一套基础系统,单次服务费就能收一百一十九美金。如果加上定制的自动化工作流,价格直接飙到两百二十九美金。 你卖的本质上不是软件,而是帮老板们干掉那些月薪几千块、效率却极低的初级人工岗位。如果你不想搞技术服务,那就去 coo 内容引擎和邮件营销模块,通常部署后一到两周就能产生商业反馈。 你可以像拼乐高一样,把抓取全网热点,生成爆款文案自动发布到平台。这套复杂流程封装成一个二 十四小时运转的赚钱机器,这种技能模块化的特性,让普通人也能靠分发数字资产实现规模化收益。 觉得本地部署门槛太高,现在已经有了 max 这类云端工具,直接干掉了 api 配置和环境搭建的繁琐步骤,让你一键调用龙虾的执行力。 在 ai 时代,只会提问的人注定被收割,而掌握执行力的人正在收割市场。别等红利期过了再拍大腿,现在就去 kloh 认领你的第一个自动化脚本,让 ai 替你把钱赚了!评论区扣龙虾岭避坑指南,执行力才是 ai 时代的硬通货!

摄影师用 opencloud 能做什么呢?我第一件事的话呢,就让他收集灵感采集,我让他找什么呢?让他找一千张马的形象参考图, 然后指定呢?在编辑室的上面去参考,就找他找灵感,并且呢给我建立好文件夹,然后他自己呢就在我电脑上,哎,打开我的浏览器,打开编辑室,然后搜索马的一些形象参考,而且不要重复着一张张插好,插好之后呢,还把图片下载保存到我的那个电脑的文件夹当中, 而且还命名了个名字啊,你看这图片他采集的每张码的话呢,都不是重复的说,这个真的是让我很很吃惊,而且真的很方便。第二件事呢,我说什么呢?第二件事的话呢,我就让他那个帮我收集一下 ai 的 一些资料和 ai 的 一些趋势, 那他呢?我让他干嘛呢?我是先让他指定什么呢?指定他,呃,在推特或 ip 上找知名的专家博主搜索一下什么呢?就近期 ai 关于二零二六的 ai 的 趋势和方向, 然后呢要求呢不少,以一千篇的视频文章在梳理总结给到我,哎,然后就睡觉去了。第二天起来的话呢,哎,他就把东西梳理好了,而且还贴心的做一个网页,网页里面写了一个二零二六的一些提示,以及呢,哎,各种专家 一个圆论方向,他已经呢到二零二三年的话呢,会有什么变化,哎,在这里的话就是他整个网页总结出来的内容,非常权威的一个报告啊,而且树立的商业关系的话呢,也是,呃逻辑上呢会整理非常好,所以这样的话对我们要找些信息的东西,并且这些内容的话呢,这个都是非常非常方便的, 那最后呢也是最重要的,那做什么呢?我让他开始帮我去用 ai 去抠图了,因为抽卡是一个非常重复的工作哈,我,大家希望大家希望什么?就是在吉梦啊,米基尼啊,这种抽卡太重复工作的话让我自己去做对吧?那这种事太太耗时间了。 这里呢就开始让我崩溃了,我先是让他用积木去帮我做四张马云的海报, ok, 这他发给我的,你看丑就算了吧,他还什么呢?还是截图发给我的,都没有下的给我。我告诉他呢,一定要垫图,垫图图的话呢参考了构图,这样的话呢做东西会好看一些,有谁买一些,结果呢? 他不会用我就教他怎么用,教完之后呢他还是什么呢?还是不会怎么去用他,最后呢学习欲望还是很强烈的,哎,再让我教他怎么怎么去做,但是我没耐心,我截图告诉他他还是不会,那算了吧,就赶紧那个让他干别的事去了。 在这里我终于明白那个温凯的创创始人他为什么说为什么说什么呢?就是 ai 像什么呢? ai 就 像什么呢?就像一台百万级的钢琴一样,很多人以为 ai 呢就是你可以按一个键就一键成曲,不是的,钢琴呢还是需要去磨合,要你懂节拍你才能弹出好的曲子, 然后二进的话就像个实习生,你需要教他他才会变得越来越聪明变得越好用。所以说什么呢?所以不要想的什么,想的就是。呃,就是很简单的话让他干一个非常复杂的活, 而是就是当你磨合的足够多的时候呢,你才能把他做的越来越好,他就是你的实习生,你需要教育他,跟他学做,才能创造伟大的作品。

ai 就是 要套壳,套壳就是生产力,那些所有认为大模型套壳产品是垃圾的人都是穷人,没有例外。一八七六年奥拓循环就出现了。什么是奥拓循环?就是现在发动机内燃机的那个四冲程结构, 但在卡尔奔驰把它装进汽车的这个外壳里面之前,它只是一个在实验室里面突突突突的铁疙瘩。你说那个内燃机有什么实际的意义吗? 最大模型也需要套壳,就像是内燃机套上汽车一样,它才跑得起来,它才有场景,它才有生产力,是一样的。 open club 也是套壳对吧?这个时代就是谁套的越好谁越有钱。