没有啊朋友们,我的龙虾管家 qcloud 今天正式开园了,所有想玩想用 opencloud 或者是想基于这个项目继续开发新功能的朋友, github 也已经上线了项目,大家可以看看改改,当然也欢迎大家只是顺手给个心心。 那这期视频呢,我想跟大家好好聊一聊,怎么用 qq 玩龙虾,以及我们为什么要做这个工具,我们又是怎么极限搞出来的?以及大家最近可能特别关心的关于壮民的史末好,大家点好收藏、关注、赞,我们直接开始! ok, 先给新朋友介绍一下什么是 qq, 简单地说, qq 就是 我们开发的一个帮你更轻松更傻瓜式的用上 openclaw 管理龙虾的桌面工具。 因为大家都知道 open club 很 强,很多人很想用,但说实话,我最初本来想出这个教程的时候,我就发现想装上一个 open club, 从环境、安装、配置权限到模型到报错,每一步对小白来说都很劝退。 评论区也有大量的朋友说动手装了,但是一直卡住,甚至有人准备花五九九找人上门安装了,已经放弃了的朋友可以扣个一。 我就觉得这不行啊,这个 ai 时代,大家本来就很容易 formal 了,如果连试一试的门槛都这么高,那普通人该怎么办呢?所以呢, qpl 要做的事情很简单,就是把那些安装、配置、管理的门槛给打下来,让大家直接就像操作传统软件一样,跟着界面点点点就好了。 nice, 我 简单演示一下 qcloud 的 关键功能啊,官网呢?上线了新版的 qcloud, 我 们双击安装,装好了之后呢,它就会自动帮你检测环境,然后你只需要去填写你的 api key, 然后选择你要连接的这个服务,然后扫一个码,你就可以在软件里跟它对话了。 如果你的 qq 号有问题呢,你还可以在面板中进行管理,比如说自己重启网关啦,一键修复啦,这里可以切换模型啦,下载 skill 啦等等的管理功能比较清晰简单吧。 那与此同时呢,我其实也花了很多心思去做一些正经产品基本不会做的事,比如把教程做进了软件里面,比如说装这个 open cloud 的 过程中有很多选项,小白一看就很慌,这啥意思?不敢乱点啊?那我们就在旁边做了这个大白话的解释,卡片。 那再比如,当时连接飞书的时候,大家经常会迷糊,我到底要去哪里去复制这么一大串东西呢?那我就把这些原本要写在外部的一个教程里面的步骤,给它嵌到了软件的交互里面, 大家觉得还应该有什么功能,也可以在评论区告诉我,咱慢慢上。搞笑的是啊,中间有一版,我把所有的报错提示都改成了大白话。内部测试的时候,小伙伴就吐槽, 哪有这种报错,显得咱们产品太不正规了,后面我们才收敛了一点,给他改回去,不知道你们觉得呢,我是应该保留还是应该正经一点? 那所以呢, qq 也确实是一个带有很强个人色彩的产品,他不太按套路出牌,但是呢,目的绝对是想做成一个贴心的龙虾管家。 ok, 那 接下来呢,我们就来聊聊很多朋友在评论区疯狂艾特我的壮明事件。 首先,咱们为什么要叫 qq 老?其实非常简单,老粉都知道,早就有很多朋友叫我秋秋、秋子、 qj qg, 我 私下的这个社交媒体呢,也一直都叫 qq 秋秋, 所以说把大家的称呼跟 openclaw 结合一下,再简化一点,哎,你可能都能想到叫 qq 老吧。 于是呢,基于粉丝朋友们给的灵感,那我们就定了这个名字叫 qq 了,我自己也很喜欢,很大气,很可爱。那本身我们这个频道和这个 qq 了,都是在粉丝的支持和鼓励下才有了今天。 qq 呢,也是为了方便大家才做的东西, 所以我们团队的小伙伴为了保护咱们共同的产物,也非常的认真。那就在这个期间呢,陆续的把商标、域名、社交媒体都注册了, 其实还花了不少钱呢,那为什么这么谨慎呢?不知道大家之前有没有看到过,我们确实是看到过一些博主的新闻,说他自己的名字被抢住了,或者是他跟粉丝特有的一些说法,被人拿去做了盈利的招牌,而且还都是些大博主, 最后呢,要么还得给人家钱,要么又得被逼改名。但老实说,我自己那几天其实是非常忙的,一边开发 qq, 一 边在写文案,一边准备直播,一边准备装修,一边在面试,完全是分身乏术。所以名字这个事呢,我也没太当回事,这个行政来问我,我还觉得他小题大做。结果 我们发布之后,评论区和其他的朋友们都给我们转了一条新闻,某大厂就在我们发视频的前一天,发布了一款名字相似,功能相似,甚至连 logo 都有点相似的产品,我当时就呆了, 还有这种事?那我们团队的小伙伴也都非常惊讶,大家就说,这怎么弄啊?大象和蚂蚁还能撞衫了? 当然了,我们短暂的这个惊讶之后,哎,反应过来我们应该高兴啊,这不正好说明我们在 ai 领域的洞察,我们对产品的直觉和对这个起名,这个 sense 跟巨头都英雄所见略同了。 开玩笑,我们当然还是一个非常非常小非常非常开你的自媒体小团队了。不过呢,大厂做这个是为了他们的生态布局嘛? 那我们来做这个免费的开源软件,只是因为评论区里面粉丝们的龙虾焦虑,而且虽然大厂背靠技术,有渠道有资源,但是作为离小白用户最近的人,我们也有跟粉丝朋友们的默契,有大家的支持,对吧? 因为 qcloud 对 我来说,它确实不是一个冷冰的产品,它也是我跟粉丝朋友之间的一种连接纽带。因为我们开发的时候,大家的评论和脸我都是有画面的,我都能想象到大家使用一些功能的心情和出 bug 的 样子, 像一种非常搞笑也很珍贵的对话,就像有的朋友看我的公众号文章说都能听见声音一样,是吧,咱这个铁铁都是很铁的。然而,就在我们准备开源前夕,发生了一件神秘事件, 我们在大长版的 qq 号发出来之前就注册好了的公众号,突然变成了未命名账号,理由是涉嫌对用户混淆,误以为是其他官方主体, 就是这样。那至于重名这件事后续怎么处理呢?如果有进展,我会第一时间跟你们分享。再顺便说一下,我们 qqlab 核心代码已经完全在 app 开源,大家也可以在官网免费下载使用,也欢迎大家多多来参与我们这次不太一样的开源共建。稍等,我会详细说一下哪里不一样。 ok, 那 我们是怎么在这么短的时间内做出 qqlab 的 呢?先说结论,除了肝,当然就是靠 ai 了。 除了第一版的测试版是百分之七十左右的 web coding, 后续的版本基本上做到了百分之九十九。 light 版本呢,实际是我们一周之内完成了对整个架构的重构,所以整个过程本质上也是一次非常极限的 web coding 和 ai 写作的挑战。龙虾 cloud code, codex 都是主力。再给大家看个好玩的,我们的 logo 真的 就是龙虾生成的。而且我只用了一句话, 因为当时龙虾有我们更多的上下文,他了解我们的项目,也知道我一些倾向和喜好,所以我就说了一句,他就设计成了这个样 子,然后发到群里,大家都觉得不错,哎,就这么定了,他有一个三 d 的 这个虾爪,然后上面有一个开机键,然后我们想到把它倒过来变成了 q, 既可爱又有我们的品牌字母,又有 open cloud 的 属性,又有开机键来代表这个龙虾管家的意向。 我只能说,请把决打在公屏上。不过呢,由于我们的 logo 是 偏替给转的 svg, 所以 中间有一次我们发出去的中间版 logo 是 糊的,还就有人反馈,这咋 logo 都糊了, 的确是五毛钱的 logo, 因为 nasa banana 身图刚好五毛一张 那,但是啊,整个过程它也没有听起来那么轻松,整个开发过程真的也不是说我一句话, ai 就 咔咔咔都做好了,产品的设计,功能的取舍,交互的梳理,架构的方向到问题的排查,我们自己也蛮好算力的, 实际写代码的时候呢,也得跟龙虾斗智斗勇,揭穿 cloud code 和 codex 的 谎言和敷衍,反复的跟它打磨。 而且龙虾也是一个年轻的开源项目,他一直在更新各家的插件,也一直更新,模型也一直更新, bug 也有很多,我们有时候甚至都分不清这是龙虾的 bug 还是插件的 bug, 还是我们自己的 bug, 修完你的修你的,修完你的修你的。 所以虽然是 vip 顶,但是这一个月也还是挺累的。老粉应该发现了,我们最近视频更新的有点慢了,其实我们团队很多人过年都没回家了,中间还熬了非常多个大夜,人事都在帮忙做测试剪辑,都在群里帮人解决 bug, 大家可以看我们非常凌乱的这个战场,而且吃了很多顿宵夜,我感觉我都胖了。而且为了开发这个 qq 老,我们其实也推掉了一些商业合作,专心的做这个可能没有什么收益的实验。不过虽然如此,压力也更大了,但是最后大家还是非常有成就感 的,也真的要特别感谢团队里两位年轻的开发小伙伴,我们大家一起用 ai 做了一件能帮到更多人的事。 好,那开头就说了,今天我们把 qcloud 正式开源了,那我知道很多朋友他不是程序员,所以我也简单科普一下什么是开源。 简单来说,开源就是把自己的代码全部公开,任何人都可以拿去用,拿去改,拿去做自己的东西。比如我们每天用的手机底层,它就是谷歌开源的安卓系统。 那更近一点的 deepsea, 他 们也都一直在开源他们的模型,分享他们的技术报告,全世界的公司都可以去学习,所有的企业和个人也都可以下载他们的模型。那你看现在国产大模型百花齐放,有了更多强大的开源模型,这就是开源最酷的地方, 前人种树,后人乘凉,后人呢,又再种了更多的树。那我作为 ai 博主,原本我的工作就是给大家去宣传讲解这些厉害的开源模型和项目, 那这个过程中我也实打实的收获了大家给我的关注和信任。所以虽然跟这些伟大的项目相比, qcloud 只是一个微不足道的小小工具,但是我们也希望加入这个让我们受益的行列, 从克服者也变成一个贡献者,帮到更多需要的人,甚至影响更多人也成为贡献者。而且说实话,只靠我们团队几个人呢?肯定是还有很多做不到,想不到也来不及做的地方。在开源的这两天,我们都还在不停的修 bug, 并且追这个 openclaw 的 更新和新的这个微信官方插件。当然现在我们已经支持最新的 openclaw 了, 那社区的力量肯定是更强大的。所以我也特别想说我有一个小小的愿望,因为过去大家总觉得参与开源贡献、提 pr、 提 e show 好 像都是专业开发者才做的事情,但是我希望 qcloud 这个项目 不是这样的,我希望所有感兴趣,所有有想法的人都可以参与贡献,哪怕你之前不会写代码,只是在尝试纯歪不扣顶,哪怕你只是用了之后发现了一个 bug, 提了一个建议,只要有价值,我们就会通过审核,或者是社区的朋友一起帮你把它改到通过审核,把你的想法变成现实。 总之,我希望所有不论技术水平的人,在这个项目都可以平等的参与,上到大厂的专业团队,下到第一次尝试 web coding 的 普通朋友。我也很希望有一些朋友通过 qq 老完成他人生的第一次开源贡献。 所以,大神欢迎,小白欢迎, web coding 欢迎,传统手艺也欢迎。那我也要特别感谢这次内测群里面的这些朋友, 我们也在项目的主页对部分朋友表示了感谢,感谢大家提出了重要的反馈,顺便我也要打个广告,欢迎开发相关的人才加入我们。虽然我们可能暂时不能提供和大厂一样的顶级薪资, 但是我们能给你一个绝对纯粹,没有各种汇报 ppt 内耗的一个创作环境,而且 ai 工具不限量,如果你热爱 ai, 并且想和我们一起折腾出更多真正有用有意思的东西,不要犹豫,加入我们, ok, 那 最后我还想说,我之所以这么做,这么希望大家都能参与,也是因为我在做 qq 的 过程中更加相信一件事,在 ai 时代,一个小团队,甚至是一个人,真的有机会做出一些帮到很多人的东西。 所以,如果你过去有什么觉得自己做不到的事,真的请你大胆尝试,哪怕现在他还很小很粗糙,很不完美。没关系,先把第一步迈出去,跟 ai 一 起成长,你会发现这个时代还挺有意思的,你也会发现原来你可以做到一些事。 好了, qq 了已经在 github 上了,去看看吧。用它改它,或者只是点个心心,或者把视频转发给你认为需要的朋友,还有点赞、收藏、关注我们,下次见了。
粉丝116.7万获赞643.4万

哈喽,同学们大家好,今天这是干货战场,很多人装了龙虾, ai 却不会用,那就等于白装,那今天我分享十三个封神的 skill 给你从抓素材,做那种提效率,找技能,一条龙搞定,新手也能直接上手。建议先点赞收藏,不 然刷着刷着就找不到了。 agent 一 键装上互联网的能力,由图片工具、全站搜索、加视频下载、加字幕提取,一站搞定。 这个音乐播放器,用自然语言控制播放音乐,这个词不会读,同学们啊, square map 是 最大的 square 集市,它是社区驱动的 square 聚合平台,支持中文界面。它呢是从吉德哈尔公开仓库啊,抓取和同步的,质量呢,非常的好。 然后呢,这个呢,是宝玉分享的技能级啊,提升日常工作的效率。技能呢,主要分成三个部分,第一个是内容技能,第二个是 ai 生成技能,第三个呢就是工具技能。同学们,这里边内容非常多啊,同学们可以自己多去看一看。 这个开源 skill 目录收入超过九万个 skill, 你 可以把它理解为是 ai 智能体的插件市场,每个 skill 点击进去都有独立的详情页的 find skill, 装上这个 skill 之后呢,可以通过它搜索和安装其他 skill, 可以 称它为原 skill。 这个一键发布 macdunk 文档到 x, 支持完整的 md 格式啊,非常方便好用。同学们, 这个 notebook lm 智能处理器,让你用自然语言把任何内容,比如播客、 ppt, 思维导图等等变成任何的格式。它支持的内容呢,大概有十五种格式,其实就是一个内容转换器。同学们, 这个是乔布斯式的设计顾问啊,深入挖掘表面背后需求的真实用户需求,用你自己的 prompt 来生成 ui 的 设计。 这个是一个网页正文提取器,从网页中提取干净的文章内容,去除广告、侧边栏等等杂乱的元素。这个呢,是一键发布到 java, 你 写完之后,那个 square 啊,你怎么保存呢?你就发到 java 呗。 然后这个是网站生成的,一句话,生成网站告诉 ai 你 想学什么东西,比如说,你想学帮我创建一个心理学的网站,那 ai 呢,自动帮我们完成主题的分析,内容创作,页面设计、部署,全程不需要你写一行代码。同学们, 然后呢,这个龙虾呀, skill 是 龙虾的灵魂啊!同学们,没有 skill 的 龙虾就像一台没装 ipad 手机,你要先想清楚你想让这个 ai 帮你做什么, 再去匹配对应的 skill 技能,才是真的高效啊。然后呢,今天所有工具文档我都整理好了,想要的评论区扣龙虾我直接发给你,我是老尚,持续分享 ai 干货,我们下期再见,拜拜!

先说结论,我选择的是千万三点五三十五 b a 三 b 四位量化模型。大家好,今天这期视频我们来解决一个非常关键的问题,当你买了一台 max studio 后,到底应该怎么选择模型?怎么选择推理框架? 下面介绍三种最主流的模型格式。官方模型格式通常是官方发布在哈根 space 上的模型,采用 pad 加 gpu 训练完成, 这个是最原始的模型格式,特点是精度最高、最完整,适合训练,但不适合推理,并且非常吃显存, 不适合直接在本地使用。一句话,这个是用来训练的,不是用来直接跑的。第二种是 g g u f 格式,这是目前最流行的本地推理格式,它的特点是模型经过量化,兼容性很强,可以在 n 卡 a 卡 mac 电脑上都能运行。 第三种是 m l x 格式,这是 mac 电脑的专属格式,它的特点是专门为 mac 电脑设计, 利用 mate gpu 内存统一调度,在 mac 电脑上性能比其他两个格式更快。再来介绍一下模型的分类, dos 模型和 mo 一 模型。 dos 模型就是稠密模型,意思是每一次推理所有的参数都会参与计算,因此速度会相对比较慢一些,大约三十五 to 每秒。 m o e 模型全称是混合专家模型,特点是每次激活一小部分参数,因此它在本地设备运行时速度会非常快,大约可以达到七十多个每秒。 mac 电脑上常用的大约模型推理框架软件有三个, 分别是 o m l m studio、 o m l x。 这里推理性能最好的就是 m o m l x, 专门用来推理 mx 格式的模型,比另外两个推理软件要快很多,所以在 mac 环境下可以无脑选用。我在哈根菲斯上下载了下面这几个模型,官方版本的千万三点五二十七 b 四比特, 千万三点五三十五 b a 三 b 四比特。千万三点五三十五 b a 三 b 八比特 还有第三方的蒸馏模型。利用 cloud 四点六蒸馏的两个模型,由于进行了针对 os 的 蒸馏, 其推理思考能力应该会更强一些。但是这两个模型不能直接通过参数来关闭 sync 模式,所以每次调用时都会 消耗很长时间在思考。有时候在做简单任务的时候会有一些繁琐,所以在处理简单任务的时候,我会选择官方版本的模型并关闭 sync 模式,这样更快一些。再看一下四位和八位比特以及输入 token 与占用内存的关系。通常在 open craw 或者 cloud code 中,调用 agent 完成任务时都会有很长的上下文,因此输入 token 都会很长,这会影响内存的占用。 通过这两个表我们可以看出, token 越多,占用的内存也就越多。考虑到还需要加载纹身图的图像模型,所以必须控制模型的量化位数,因此最终我选择千万三点五三十五 b a 三 b 四比特模型 或者对应的帧流模型。下面我来实操一下在 max studio 中如何使用 o m l x 这个软件来调用模型。好,我们现在通过远程来登录这个 max studio, 你 可以在这里 点击双击 o m l x, 它就会出现在右上角这个 toolbox, 这里点击右右键就可以 chat chat with, 而且这里就可以直接跟他聊天。当然我们可以看一下左下角有个后台管理,这里有一些可以设置的地方,比如说它当你加载了一个模型之后,你就可以直接通过这些啊, a p i 的 a p i 和 cloud a p i 也可以通过这个命令行直接将它集成到 cloud code 里面,或者 codex open code 和 open cloud, 这都支持。第二个就是模型的管理,我下载这六个 也可以从 facebook 上直接下载,也支持了摩达社区,这里有一个全局的设置,比如这里设置了一个 a p i 的 密钥,设置模型的下载目录或者加载目录。这里有一个地方需要注意一下, 我下载的这个千万三点五的模型是上下文支持两百五十六 k, 所以 这里一定要填这个东西,因为它默认的那个最大上下文窗口大概只有三十二 k, 如果这里不改的话就会报错,所以这个 一定得把它改过来,改成呃你的模型最大支持的那个数。再就是这个模型的设置,比如说关闭这个 thinking 模式,你在这里要把这个添加一个 enable thinking 这个参数,把它设置为 force, 而且最好是强制的, 就可以保存。你下次再调用这个模型,它就不会开始那个 thinking 模式。但是对这两个蒸馏的模型,你关了这个也没用,内部始终是把那个 thinking 模式打开的,所以如果你不想用这个 thinking 的 话,你就用这个官方的把这个参数给关掉。 如果你想用 sync 模式的话,可以考虑用这两个推理的蒸馏过的模型,这里是日制分析,日制可以看一下它的调用,这里是这个性能精准测试, 可以来用来测试你下载的模型的精准。比如我们来测一下这个稠密模型,千万三点五二十七 b 四 b 的 比特的这个模型,看看速度怎么样啊?这里跑完了一次这个稠密模型的基本测试, 可以看到它基本上它的速度是在三十一点八 to, 每秒并发的话可以达到四十, 我们再跑一个 m o e 格式,这也是斯比特的这个跑完了,这个是比较快的,它可以达到七十八 to, 每在本地 使用这个 m o e 来跑这个 agent 应该速度是够的。 ok, 今天就讲到这,下期就讲一下如何在 max studio 上运行这个纹身图模型。好,下期见,关注我 ai, 分享时尚技巧,我们下期见。

ok, 看到这个视频的朋友有福了,专为小白打造的 opencloud 龙虾的安装教程,主打一个解放双手。 这个时候可能有朋友问了,哎,为什么针对小白啊?无它,因为有流量,请允许我暂时做一波流量的。首先 opencloud 的 这个龙虾,它算是一个 ai 产品吧, chibi gmail 是 不是也是 ai 产品?所以我们想安装它非常简单,直接去问 ai, 但是你直接去问的话,他没法操作你的电脑,不是很烦吗?所以我们需要一个中介,直接在你的浏览器上搜索 ai 编程工具,不管使用国内的还是国外的都可以。 我这里简单举个例子,比如说字节的 tree t r a e 或者是阿里出品的 q 的, 你来到他们的官网,直接点击下载,就是在你想要安装龙虾的这台机器上下载一个 a i d e。 我 这里因为电脑上刚好有 tree, 所以 就用它来演示,然后点击右上角的登录这里呢可能会让你输入手机号进行注册,你注册一下就可以了。 登录之后呢,我们就可以开始安装了,然后我们点击这个,打开文件夹,去选择一个路径,比如说我这里新建一个文件夹,嗯,龙虾, ok, 我 这里呢只是给大家演示,你可以取任何的名字点击打开, 这样呢,我们就进入了这个文件夹里,所有的操作呢都会在这个文件夹里去进行。然后我们来到右边啊,直接让他搜索 opencloud, 然后在本地帮我安装他,然后我们直接回车 这里,我们可以注意到他是在沙盒中安装,那这个不是我们想要的,在沙盒中就比较麻烦了,直接在本地安装拉去远程项目到本地不要沙盒, 因为他在沙盒里虽然安全,但是我们后续添加技能的话是没法去正常调用的。在这个过程中他会询问我们很多次,让我们给他允许,不然的话他没法去运行这个命令。 ok, 好, 已经全部拉了出来,大概过了一分钟左右就帮我们构建好了。下面呢,需要我们配置 api key, 就是 你想要你的龙虾接入什么模型,你去聊天的时候用什么模型来进行处理。它是建议我们手动去配置,因为涉及到敏感的 api 信息。那如果你完全不怕,你可以让它帮我们来配置, 那比如说我想接一个 deep secret 的, 你帮我配置,我用 deep secret 的 api, 然后直接发送给他,我们选择第一个填写 api key, 然后下一个,然后把你的 api key 粘贴进去提交。那这个 api key 应该怎么获取呢?你也可以直接问他,他会一步一步的教你怎么去获取, 他干嘛呢这是?跟卡住了一样,我们直接给他中断,你干嘛呢?帮我安装运行。 ok, 现在已经成功运行了,我们点击打开一下,啊,这里有一个错误,我们把这个复制,然后在盖栏这里粘贴到网关令牌这里连接好,这个时候就正常了,尝试一下聊天。嗯,你好, ok, 有 问题复制一下,直接发送给他,说聊天有问题,让他来帮我们解决,因为 ai 相当于我们的外置大脑,有大脑为什么不用呢?我们必用, 现在他说已经修复好了问题,我们再次尝试好,可以正常回复好,这个是没有问题的,现在安装就已经基本完成了。如果你想要让他做更多的操作,你得教他,你可以做什么? 他这里列出了非常多的能力, ok, ok, 让他帮我们安装一些好用的技能, 我这让他停止现在的 opencloud, 因为我怀疑他运行在沙盒里。然后让他给我一个在本地可以启动的命令,然后我们直接点运行, 这里呢,出现了错误,我们复制一下,粘贴给他占用了,我们先清理一下,然后再次运行,我们刷新, 这样就正常了。我给他贴了一个路径,让他在这个路径下创建一个游戏, 我们看一下这他创建的,而且就是我们指定的位置。如果你在安装过程中出现了错误,你就给他复制截图, 然后发给 ai, 让它来帮你修复。需要注意的是,如果你使用的是自己的 tree, 你 会发现它更新了之后,为了安全,它的命令都运行在沙盒里。所以当我们测试完毕之后,你就要像我这样让它把这个给关闭, 然后给我们一个启动命令,我们点击运行在我们的终端里去直接打开它。整体操作下来应该是没有什么难度的。 以上就是本期视频的全部内容了,如果你遇到什么问题的话,可以在评论区进行留言,如果觉得本期视频做的还不错,或者对你有所帮助的话,记得一键三连点个关注。最后祝各位玩的愉快,我是端锋,我们下期再见!拜拜!

先说结论,我选择的是这一 image turbo f b 八图片生成模型。大家好,今天这期视频主要介绍如何在 max studio 中 搭建一套本地 ai 图片生成系统,不依赖于云端,不用二次付费,还能批量生成图片内容。生成的图片可以应用在文章中,作为封面,作为插图,也可以打造个人 ip 形象 应用在文稿或 ppt 中。还可以批量生成分镜图片构成图片视频。目前市面上最常用的图片生成模型包括两大类,云端闭源模型和本地开源模型。 nanobrana 是 谷歌公司推出的 gemini 系列图片生成模型, 是目前公认的理解能力最强大的图片生成模型,在主体、一次性、图片生成质量、稳定性、语义理解上都是顶级的。支持在图片中添加各种复杂的文字,并且支持多种语言。 minnie jennie 早期图片生成王者,艺术表现力最强,画面质感丰富,但是在图片中添加复杂文字的能力相对较弱。开源模型的选择有很多,包括早期的 stable fusion 系列,现在最火的 flux 系列,阿里推出的千问以及系列, 以及更轻量化的 z image 系列。我希望生成图片能更好地显示中文,并且要求速度快,占用内存少,因此 z image turbo 是 非常合适的选择。 官方默认的格式是 f b 十六。我选择了第三方的八位量化版本,既满足了图片质量,也兼顾了生成速度、 内存占用低的要求。可以在我的六十四 g 内存 mac 电脑上运行,大于模型的同时还能运行图片生成模型。经过测试,使用本地 agent 加 skill 来调用这个纹身图模型, 生成一张图片大概五十秒左右,并且没有造成溢出。这里需要建立一个核心认知, 纹身图不等于一个模型,而是一套模型协同的工作流。完整的工作流是这样的,输入提示时经过 clip 模型将文本截成向量 送给图像模型。这里还可以叠加风格控制模型 nora, 然后一起生成图像原始数据,再经过 v a e 模型进行图片解码,得到最终的图片。所以本质上纹身图是一个图像生成流水线, 需要加载室内模型,包括 group 模型、图像扩散模型、 laura 风格控制模型和 vae 解码模型。目前在电脑上运行纹身图工作流主要有两种方案,方案一,使用 hugenface 推出的 diffuser 主键, 通过 python 代码来构建整个工作流。方案二,使用 cfui, 通过可缩化节点来构建工作流,然后使用 cfui 的 api 功能让外部调用。通常来说,如果工作流比较复杂, 除了基础的纹身图功能外,还想增加 ctrl shift、 图片参考、图像放大等节点,使用 comfui 来构建会更加的方便,晚上也能找到大量的 comfui 工作流参考案例。但是对于我来讲,一个最基础的支持 raw 的 纹身图工作流 就可以满足我的需求。因此我选用的是通过 fast api 加 diffuser 组件来构建一个纹身图的后端服务, 只需要在本地,通过网络请求就能进行纹身图服务的调用,这样非常适合本地 skill 的 集成。下面再来看一下 lora 模型的使用, lora 是 一种给基础模型添加各种风格的插件模型,目前在 liblib 或者 running hub 上都能找到 很多适合 z image turbo 的 rola 模型。这里展示了写时光影风格的 rola 效果、粉笔线条的 rola 效果、 jpl 风格的 rola 效果以及儿童插画风格的 rola 效果。另外一个非常重要的内容是 prompts 提示词的编写,可以用来设定图片中的人物 场景文字,以及给人物设定角色风格。比如我这里给女主和男主设定了固定的角色形象,包括衣服样式、颜色、发型。其中男主的服装基本是根据我的头像进行设定的,深层的图片基本上都能保持 角色的一致性,所以写好题字词也是一个需要花时间去研究的课题。通过在本地构建纹身图的后端服务 a p i, 然后编辑 prompt 模板和相关参数文档,就可以构建一个图片生成的 skill, 可以 方便地集成到自媒体制作、 视频制作、故事制作的 s o p 工作流中。好的,下一期我会继续介绍在 max studio 中如何构建语音合成的服务。下期见。关注我 ai, 分享实战技巧,我们下期见。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。

手把手带你安装 openclaw 龙虾必备的 skills。 之前我出过一期 openclaw 保姆级安装教程,但装完之后你会发现它其实还只是一只裸龙虾。你让它查看文件,它说没权限,你让它算下天线,它说没联网,属于一同操作猛如虎,另近一看原地图,所以这个视频带你正确配置龙虾,补齐必备技能, 让它真正从能聊天进化成能干活。但在开始之前,我们先熟悉几个会频繁用到的命令,如果你是 windows 系统,就在 power 里输入这些命令,如 mini 是 micro, 二,系统就在终端 terminal 里输入。要开始用 openclaw, 第一步是先把网关启动起来,对应的命令是 openclaw gateway start。 启动后,我们可以打开 openclaw 控制台,也就是它的可式化操作键。面对的命令是 openclaw dashboard。 如果你暂时不用 openclaw 了,也可以把网关停掉。对应的命令是 openclaw gateway stop。 技巧一,本地文件读写从二零二六点三点二版本开始啊。 opencl 默认对本地文件访问权限做了限制,所以如果你想让它读取甚至进一步操作你电脑里的文件,要先把对应权限打开。操作也很简单,打开 opencl 或终端,输入 opencl config set tools, 点 profile for 命令回车执行。 把 opencl 的 工具权限切换成完整版,运行后还需要重启网关,让配置生效。对应的命令是 opencl gateway restart。 搞定以后,你就可以让 opcode 做各种文件提取和修改的操作了,比如批量重命名、文件整理、桌面分析、磁盘空间占用等等。 技巧二,联网搜索 opcode 默认情况下是无法获取网上信息的,所以你问天气、问资讯、问股价,他通通不知道,但我们可以安装一个负责联网搜索的 skill。 skill 可以 理解成是 opcode 的 技能包,本质上是一套针对某类任务的说明和流程, 用来教他在特定场景下该怎么做。比如这就是一个简单的 skill 的 例子, openclaw 有 个官方技能市场 clawhot, 你 能在上面看到很多别人做好的 skill, 可以 直接拿来安装使用。要事先联网搜索,可以搜一个叫 tablie search 的 skill, 这个 scheme 要求从 tiffany 点 com 获取 api 密钥,我们可以稍后设置。安装方法也很简单,我们可以直接复制 call hop 上 tiffany search 的 页面链接,粘贴到和 opcode 的 聊天里,无论是控制台还是飞书这类通讯渠道聊天窗口都行,然后让 opcode 自己帮你安装。 tiffany search 还会用到 api 密钥,所以我们来到 tiffany search 官网 注册登录后啊,就可以直接得到一个密钥,他每个月呢都有免费额度,而且不需要绑卡。拿到之后,我们可以把 api 密钥一起发给 opencall, 让他安装后自行完成配置。 装好之后,我们可以简单测试一下,比如在飞书里问他茅台目前的股票价格是多少,这时候啊, opencall 就 能顺利返回来自互联网的实时信息了。 技巧三,定时任务欧姆克劳支持通过 com 创建定时任务,不需要额外安装 sku。 比如你可以直接对欧姆克劳说,每隔五分钟汇报某只股票当前的价格,他就会创建一个定时任务, 然后按设定的间隔自动运行,帮我们实现对股价的监控。所以啊,不管是每天早上七点发资讯,每周一九点写周报,还是二十分钟后提醒浇花这类定时任务,你都可以直接交给他。 小四,浏览器操作 opcode 本身自带 browser 工具,不需要额外安装 skill, 就 可以读取网页内容。比如可以对他说,帮我看看知乎上现在有什么热点网址是这个,它会自动用浏览器打开网页,读取页面内容,把上面的信息整理出来。而且不只是读网页, 像点击输入之类的基础操作啊,它也能完成。比如让它去 github 上搜索 linux, 然后把排在前三的搜索结果给你, opcode 也能直接搞定。不过它的缺点啊也很明显,第一是比较稍 token, 因为网页内容因为状态,还有每一次工具调用的结果啊,都会不断进入模型的上下文。 第二是执行速度比较慢,因为 opcode 的 工作方式不像程序脚本或 rpa 那 样,流程确定后一次跑完。而 每做一步,都要先看当前页面,理解页面内容,探讨下一步该点哪里,再执行操作,然后再读取结果,继续推理下一步。所以它更像是一个会操作网页的 ai 助手,而不是一个高效率的自动化程序。另外,如果遇到强制登录、扫码、验证码校验,或者比较严格的反爬机制啊,我不靠也容易翻车。 技巧五技能查找 opcode 的 skills 很多,但真正麻烦的是不知道该装哪个。这里推荐两个实用 skill, 一个负责找 skill, 一个负责审 skill。 第一个是 find skills, 它的作用就是根据你的需求去查找合适的 skills。 安装方法和前面一样,直接把链接发给 opcode, 让他自己安装就行。 装好之后,我们可以对 okl 说帮我查找邮件自动化相关的 skills, 他 就会推荐合适的 skill, 这样你就不用自己去技能市场里一个个翻了。但接下来还有一个问题是,他推荐给你的 skill 真的 安全吗?那么我们可以再安装一个 skill better, 它的作用啊,就是在安装前先帮你做一层安全审查, 重点看看有没有权限问题、可疑行为,平常窃取回销代码或者数据外传之类的风险。我们可以再提醒一下 oppo, 安装每个 skill 前用 skillbetter 检查一下,这样后面啊,他在安装新 skill 的 时候就会先审一遍,再决定要不要装 技巧六,既能创建与改进除乱中别人已经写好的 skill, 我 们也可以直接通过自然语言让 opcode 创建新的 skill。 比如可以直接告诉他帮我创建一个 skill, 把新收到的邮件内容提炼成三句话总结。这样一来, opcode 就 能根据你的描述自动创建一个 skill, 让这套流程可以长期服用, 以后再遇到类似任务啊,他就不用每次从零开始了。如果你还想让他越学越聪明,可以再装一个 skill, 叫 self improving agent。 这个 skill 的 作用就是帮 opcode 把错误纠正和新学到的方法都记下来,慢慢沉淀成经验。 具体来说就是有失败的操作时,他会自动记录到 error state, md, 你 纠正他了,或者他学到了更好的方法,会记录到 learning state, md, 你 提了他一个还不会的功能, 会记录到 feature request, 点 md 一 些真正有价值的内容啊,后面还会进一步沉淀到 memory, 点 md 这种长期记忆文件里。那么安装之后, okl 不 止完成当前任务,还会把每次失误和改进建议啊,沉淀下来,自动应用过往经验,变成一个会复盘的助手。那希望以上这些技能补齐之后,你的龙虾能真正下场干活了。如果这个视频对你有帮助,也欢迎点赞和关注,我们下个视频见。

教学视频确实没什么人看啊,但是我们做事呢,还是要有始有终的,今天我们继续来讲一下如何将 ai 龙虾绑定到飞书,这样我们就可以通过手机随时和 ai 龙虾对话,给他下达各种任务了。 首先我们需要下载并安装一个飞书,然后打开飞书,进入飞书的开发者后台,这里呢,我们要创建一个飞书机器人,我们首先点击创建企业自荐应用,然后给应用取名字,添加描述,选择一个图标应用能力这里呢,我们就选择机器人。 选择完成后啊,一定要记得创建并发布应用,因为只有发布后才能使用创建,发布后会有一个版本号,我们这里填写一点零点零, 发布完成后,我们就可以在凭证与基础信息这里看到应用凭证包括 app id 和 app 密码,这两个信息非常关键,是后续与 open 可乐绑定时要用到的。 创建完成后,我们就可以与 open 可乐进行绑定了,我们输入绑定 app 的 指令,然后它会提示让我们选择对应的 app, 我 们选择飞书,接着它会要求我们输入对应的 id 和密码,我们输入即可。 绑定完成后,我们还需要在飞书开发者后台进行配置。在事件与回调这里,我们选择使用长连接接收事件,然后选择添加事件,选择接收消息这个功能, 并将其添加到我们的事件中,这样飞出机器人才能被授予录取和接收消息的权限,从而正常的与 oppo 可乐进行消息联通, 确认开通权限后创建新版本并发布,发布时要输入新的版本号输入,然后输入更新说明,最后点击发布即可。整个操作过程中,如果有遇到不懂的地方,我们都可以随时询问豆包,不懂代码也没关系。 然后我们可以先与飞书机器人进行一次对话,我们输入你好,它会回复一串代码,我们将这串代码复制到 open colle 中并提交,这时它会显示我们的飞书账号已绑定。 将飞书账号绑定到 oppo 可乐后,系统会显示绑定成功。此时我们可以尝试与飞书机器人进行对话,如果能够正常对话,就说明已经绑定成功了。 oppo 可乐绑定机器人也很简单,我们直接问他如何与飞书机器人绑定,他会告诉我们如何操作。 我们先回到飞书去创建一个飞书机器人,创建成功后给机器人添加对应的权限,添加完全限后发布应用, 接着进行 id 和密码的匹配,匹配完成后,在时间配置中选择长连接,并添加接受消息的权限,然后继续发布新版本。 在飞书中找到我们的机器人后,点击对话,他会给出对应的匹配代码,我们将其输入到 auto 可乐中, auto 可乐就会提示配对成功,然后我们就可以在飞书中直接与机器人对话了。 阿卡拉配对也是类似的流程,首先进入飞书的开发者后台,创建企业自建应用,然后创建飞书机器人,添加权限就在阿卡拉的页面选择消息渠道,在消息渠道这里选择关联已有机器人, 然后把对应的 id 和密码填进去,点击确认,这时阿卡洛就会自动进行配置,我们耐心等待即可。配置完成之后,我们回到机器人页面,继续选择事件与回调,然后选择长连接添加接受消息事件,接着发布。新版本 发布后我们就可以与它进行对话了,它会给我们一串代码,我们选择飞书配对,然后把对应的匹配码输入进去, 这时飞书就会提示配对成功,我们就可以通过飞书与阿克拉进行进正常对话了。好,以上就是今天的龙虾绑定飞书教程,感谢大家的观看,我们下期再见!

最近这个 open cloud, 也就是大家说的这个龙虾 ai 啊,在网上火出了圈,很多人都在问说这个东西到底普通人能不能用?那今天我们就来好好聊一聊这个开源的 ai 智能体啊,看看它到底有哪些优缺点。是这个真的太火了最近,对 咱们就直接开聊吧。我们先来聊第一个话题啊,就是这个龙虾 ai 它的优势到底在哪里?其实这个也是很多人都好奇的说,到底是什么样的技术突破让这个东西一下子就火起来了,最大的不同我觉得就是它可以真的去执行任务, 就你跟他说一句话,他就可以自动帮你打开电脑上的软件,然后帮你操作,甚至是跨软件的操作都可以。比如说我要整理文件,我要发邮件,他都可以一气呵成,他完全不需要你在旁边手动的去干预,这个就很像一个数字的小助手了呀,没错,而且他是可以理解很复杂的一些多步骤的这样的一些指令, 然后他也可以在本地去记忆一些东西,他也可以去适配各种各样的场景,他就不像是以前那种 ai, 他 只会给你一个建议,他真的是可以帮你把这个事情都做完, ok, 就 这个其实是 一个质的飞跃,就 ai 从一个顾问变成了一个真正可以干活的一个帮手。哎,那为什么说这个东西会说他特别适合普通人和一些中小企业去使用呢?因为他的门槛真的超级低,就你几乎不用去学习任何的命令, 然后你也不用去花一分钱,它是完全免费的,你就可以直接用它的核心的功能,你也可以在 windows 或者是 mac 或者是 linux 上面 一键就可以安装,它是全自动化的,你都不用去操心说环境配置什么的,听起来比很多工具都要省心,没错,而且它可以直接就是集成在微信或者是飞书这种大家每天都在用的这种应用里面, 然后你就可以通过一个对话的方式,就可以操控他去帮你做一些事情,比如说帮你整理文件,帮你写一些文案,或者是帮你安排一些日程,就非常适合这种没有什么技术背景的人,也可以去 提升自己的效率,或者是说让一些小团队可以去快速的实现一些自动化。现在大家其实对于数据安全是越来越重视了,那这个龙虾 ai 在 保护我们的隐私这块到底有什么特别的?就他是可以直接在你的电脑或者是手机上面去运行的, 然后所有的你的聊天记录和文件都是保存在你自己的设备里面的,他不会上传到云端,所以就是说你的这个信息泄露的风险就几乎是零哦,这样的话用起来确实更安心一些。对,而且他是还支持这种纱窗的隔离和这个数据的加密,然后所有的操作都是有详细的日制的, 你可以去监控他,甚至可以去回滚他的一些操作,就企业用的话也是完全可以满足这个回归性的要求, 就是你不用担心说我这个敏感数据会外泄。我们接下来要聊的就是这个龙虾 ai 它的一些短板,尤其是它在使用成本上面可能会让大家踩哪些坑?其实它虽然说是免费的,但是它用起来可不是那么免费的哦,因为它是 只要你跟它有交互,它就会不断地去消耗你的这个 token。 对, 哪怕你就是简单的问个好,它都可能给你吃掉五万 token。 然后他后台还有一个什么心跳机制,就是他就算没有人在用他,他也会每隔一段时间就同步一下数据,所以他可能一天下来 你不用他,他也会给你产生上百元的这种账单都不夸张。有,有的人就是说他可能重度使用的时候,一天的账单就直接拉到几千块钱,甚至上万块钱都有,天呐,那这个这个费用确实太吓人了。对,而且他这个你如果是说没有及时的清理他的这个历史记录的话,他还会越用越贵, 就是他的这个头肯消耗是会暴涨的。对,然后再加上你这个如果是说你没有什么高频的这种自动化的需求的话,其实你用他反而还不如自己手动来的划算,因为他不光是说这个花费的钱的问题,他还包括你的时间和精力,所以这个东西大家一定要 有心理准备再去玩他。嗯,那你觉得这个东西在安装和使用上会给普通用户带来哪些麻烦?其实他的这个安装啊就一点都不简单,就他不是说像一个普通的软件,你点下一步,下一步就可以了,他是需要你有一些技术基础的, 就是你要懂一点代码,然后你要会配置一些环境变量,你要知道这个东西怎么去拉取他的这个镜像啊等等之类的,如果你没有这些东西的话,你可能照着他的这个官方教程也会频频报错,你可能折腾个几天都不一定能让他跑起来,听起来门槛真的不低啊。没错没错,那 就算你用了这个所谓的一键部署的工具啊,那你可能在这个适配你的系统啊,或者是说这个权限的配置啊等等这些地方也会卡住。 然后包括你在使用的过程当中,他会自作主张的去干一些事情,比如说他会自动升级,或者是说他会呃自动的去清理一些东西,你可能一不小心你的一些重要的文件就被删掉了,所以这个东西 真的不是说随便一个人上来就可以驾驭的了的。这个东西在安全上面有哪些隐患呢?他因为要去做这些事情,他就必须要有很高的权限吗?对,所以他几乎可以对你的电脑为所欲为, 你如果配置的时候不小心的话,他很有可能就会删掉你一些重要的文件,或者是说让你的一些隐私数据泄露出去,这听着确实让人有点担心呐。然后他这个呃官方也说了,就是他这个呃二零二六年的前三个月已经爆出来有八十多个漏洞, 其中有十多个是最危险的那种,有很多就是因为用户把它的这个开放在公网上,直接就被黑客利用了,包括它的这个 呃插件生态也非常的乱,有超过百分之十的这个第三方的插件是被检测出来有恶意代码的,所以这个东西你在用的时候真的是要非常非常的小心,不然的话很容易就中招。那咱们接下来就来聊一聊第三部分就是理性的抉择了啊, 就是到底哪些人是适合来使用这个龙虾 ai 的? 其实我觉得最适合的就是那种每天都要处理大量的重复性工作的这种职场人,就比如说行政啊,运营啊,或者是财务啊这种, 你可以把一些很繁琐的流程交给它去自动执行,然后你就可以把时间省下来去做一些更有价值的分析啊,或者是决策呀。确实对,就是如果是频繁的在做一些更有价值的分析啊。确实对,就是如果是频繁的在做一些大忙。没错没错, 然后还有就是那种技术极客啊,或者是说这种自由职业者,嗯,他们其实也可以。呃,因为他是开源的嘛,就可以自己去定制他的功能啊。那这个就对于一些重视隐私的,或者说有一些这种 自动化需求的这种小微企业啊,或者是说科研工作者呀,他们都可以用它来搭建一个属于自己的智能助手啊。呃,甚至是说那些喜欢玩新科技的,愿意去折腾的这种尝鲜党啊,也可以去体验一下这种前沿的玩法。 哎,那你觉得有没有哪些人其实是不太适合用这个龙虾 ai 的? 呃,我觉得就是那种电脑基础比较薄,然后也不太爱折腾的人吧,因为这个东西你用起来还是 有点门槛的,你要是不懂一些技术的话,你很容易就遇到一些问题就卡住了。确实,那如果说只是图新鲜,或者说只是偶尔用用,好像也不太划算。没错,对,如果说你只是简单的聊聊天,或者说写一点文案啊,那你用这个就有点大材小用了,而且配置不够高的电脑也带不动它。 然后那些对安全要求极高的这种企业啊,或者是说,呃,业务系统其实也不适合用它,因为它毕竟是一个还在不断完善的一个东西嘛,它可能偶尔会出一些小状况。对,那就说如果有人在考虑说要不要尝试一下这个龙虾 ai, 你 觉得他们最需要先想清楚的是什么?其实我觉得它更像是一个工具, 就你只有当你有一些比较高频的重复的任务,或者说你有一些自动化的需求,然后你又懂一点技术,你也不怕去花一点时间去调试它, 你可能才会真的用的上它的那些强大的功能。就说如果只是图新鲜或者说不太懂电脑的人就要慎重了。没错没错,就是说如果是一个纯小白。

hello, 大家好,我是小军,相信大家对 openclaw 已经非常熟悉,因为它最近火到各行各业,那么在我深度使用了几天之后,我觉得小龙虾确实可以对我们个人带来非常非常大的帮助。好话不多说,我们直接带大家进行一个实操, 那小龙虾的第一个场景应用就是可以帮我们去学习一些长视频内容,这个是我给他的一个小任务,我让他帮我精简一下 视频,说了什么做成文档形式,便于我学习。原版的这个视频呢,它是有五十三分二十五秒的,但是我没有那么多时间看完,那我可以用小龙虾来帮我总结学习,然后在耗时三分五十一秒的情况下,他帮我总结成了这样表格文档,我们来点开看一下 来,你看他不仅帮我把这些总结成了这么详细的笔记,还配套这种链接对不对? 然后在左边的话,这个子目录我可以想学哪一块的时候点击到哪一块,总而言之就是非常的高效。 那小龙虾的第二个场景用就是可以很好的帮助我们去做自媒体抓取热点和选择题,这是我给他的一个任务,我说比 最火的十个视频是什么?点赞量分别是多少?是什么领域,帮我做成选题库,不要给我很糟糕的东西。然后这是他给到我的一个热点视频汇总,让我们来看一下 是不是真的很高效,就很像你的一个私人小助理一样。那第三个应用场景就是可以帮我们很好的去整理一些会议记录,这是我让他帮我把 整理里程非书多为表格,然后我们去看他开始工作了。好,最后我给到他我的一个录屏的链接,我让他需要条理清晰,要有逻辑性,还要有一个课程回顾。最后他给到我的是这样的一个东西, 他先帮我用文字去进行了一个整理,并且他会自动帮你整理成每天的内容。来,我们去看一下他最后的一个输出,他给到我一个文档链接,我们点开看一下, 对不对?你看他帮我整理的非常非常好啊,我感觉就是比我自己去记东西要整理的非好很多,他会根据你的视频内容去整理。那今天的应用场景就是这些,你学会了吗?如果你觉得对你有帮助,我们下期见。

这阵子全网刷屏的 ai 龙虾 openclaw 能写代码,做自动化,搭全流程工作流,堪称全能数字员工。但很多人想上手,要么本地装环境疯狂报错, docker、 node gs 折腾半天搞不定,要么电脑配置不够直接带不动,纯纯劝退, 今天就给你们保姆级教程,用火山引擎官方云服务一键部署 openclaw, 不 用挑一行代码十分钟就能搞定,成本还贼低。 第一步,打开火山引擎官网注册账号,完成实名认证,新用户还有专属福利额度。首页直接搜 open club, 找到官方预制的一键部署镜像运行环境依赖插件全给你配好了,根本不用自己瞎折腾。选官方推荐的入门配置,两核两 g 完全够用。 完成付款后,单机去控制台按钮, 前往实力列表页查看新创建的实力规格信息。第二步,开通方舟大模型服务,并获取配置登录开通管理页面,选择期望为 opencloud 提供推理服务的模型家族,这里我们选都包 c 的 一点八模型。 在左侧目录处选择系统管理 apikey, 管理创建并获取 apikey。 在左侧目录处选择智能广场是模型广场单机,您期望 open class 使用的具体模型进入其详情页。单机复制按钮,获取模型的 model id。 步骤三,创建飞书机器人并获取配置 创建企业自建应用,登录飞书开发者平台,单机创建企业自建应用按钮,添加机器人能力。 在左侧目录处选择开发配置。权限管理,单机批量导入祈导出权限按钮, 在弹窗中确认权限无误后,单机申请开通按钮, 单机配置按钮,设置权限可访问的数据范围。单机确定按钮,完成操作。在左侧目录处选择基础信息凭证与基础信息,在应用凭证模块中获取并记录 app id 与 app secret 信息。单机顶部的创建版本按钮, 点击页面底部的保存按钮,创建版本确认发布按钮,完成应用发布。第四步,配置 openclaw 飞书 ai 助手登录云服务器实历 执行命令、配置模型和飞书集成的参数。 到这里我们基本完成了配置。在登录飞书开发者平台,选择企业自建应用页签并单机您创建的飞书开放应用。在左侧目录处选择开发配置。 c 事件与回调,选择使用长连接接收事件 并单机保存按钮,在已添加事件区域单机添加事件按钮,在添加事件对话框中选择应用身份订阅页签搜索消息并勾选接收消息, 消息被 reaction, 即消息被取消 reaction 三个事件。单机确认添加按钮,你看不到十分钟直接部署完成。 公网 ip 点开就能用七乘二四小时在线不荡机,响应速度比本地快多了,还不用担心兼容和安全问题。教程都给你讲透了,赶紧去试试,觉得有用的别忘了点赞收藏!关注我,解锁更多 ai 干货!

最近这 openclo 真的 就是好多人呀,好多小伙伴也是刚入坑九九八十一难的,第一难就难到了所有人不会安装啊! 那在本期视频,我将会装成纯小白,找人帮忙部署 openclo, 看看不同价位的安装服务到底怎么样。只能说这些安装服务都没有通过代码进行安装,而是用了其他洗救办法,甚至连 openclo 中文版都出现了。 同时我还邀请了一位超级编程高手来评分,那就是 open club, 本虾保证绝对的公平公正。那代安装真可靠吗?让我们开始吧, 傻瓜式安装中文版,各种系统通用,可以对接飞书,无需懂代码就能全平台一键部署龙虾,这谁看了不流口水?关键是 买八块钱买不了吃亏,买不了上当,我就是要看看这个服务到底能不能部署成功。下单后,对方发了一个安装包给我, 好家伙,这原来是 github 上的一个开源项目,能够一键安装龙虾帮你直接部署。这里我就安装好了,下一步就是添加大模型就能与龙虾对话了。 嗯,到这步的时候,我还以为是我 a p i 输入错了,于是我就重新新建了一个 a p i, 点进去依旧显示错误,甚至我用自定义也无法成功添加大模型。 然后我就想着,嗯,我直接去终端部署大模型总可以了吧?当我打开了它的终端,是这样的 啊,密密麻麻的乱码和 bug 判定为完全不能用。 open class 自己是这样评价的,这套东西看着像个 agent, 实际上核心脑子没接稳任务一跑就爆错掉线,纯属披着 u i 外壳的费件 非常尖锐哦,满分一百分,只有二十六分,模型调用不了,也跑不了任务,后台一堆 bug, 只能说八块钱买了个寂寞,鉴定为拉完了。 哎,我就不信了,绝对是钱没给到位,直接翻倍!这次我找了一个四百八十八元的安装服务,他直接就是在详情页写着, 国外给他正版 open club 部署,还包含什么?独家自研机系统独家自研技能存储系统独家自研中央技师,还能让你的龙虾永远比其他龙虾强,这听起来就很高端了,这次绝对赚了。 于是我就联系上了这位小哥,他很热情的跟我说了一大堆,不仅给我安装 openclaw, 还附赠一个 closeclaw, 买一送一,这就是我想要的安装服务,一个字,赚麻了! 所以我和他约好时间,线上帮我远程安装,我则是在旁边偷偷记录学习。按照正常安装 openclaw 的 流程,就是一句,安装代码进入安装程序, 一只好大模型选择想要的 skills, 连接好飞书就可以成功使用了。而四百八十八的服务不同的就是,它是先下载一个 cloud code, 然后通过 cloud code 让它自己去安装 open cloud。 好 家伙,合着这是找了个通天带来啊, 不涉及任何代码层的内容,全篇贯穿两个字,跑通!不管说了什么,就是你只管跑通就行。从开始到安装好,花了四个多小时,终于能从飞书接收到信息了, 这下该我大展身手了。我先是发信息让他质检一下后台情况发给我,然后他跟我说去运行之后就再也没有执行了,一问执行了吗?就跟我说正在执行,半个小时后再问就是抱歉,立刻整理,完全没有形成任务闭环,仅仅只是接收信息,并没有处理。 后面我再让他尝试帮我生成一篇今天的 ai 日报,点开一看, open ai 刚发布 gpt 四点五, 今夕何年啊,把一年前的资讯发给我了,出现了无法联网搜索,只能靠大模型本体的训练库里的知识来输出的问题。 open class 直接给到四十六分的水平,锐评为不是死的,也不是没装上,只是一个并没有完全残废的 agent。 哎,只能说两个安装服务全部宣告失败,没有一个是几个的,有的直接就是用不了,首赚八元, 有的就是帮你部署好了,但是用起来要不就报错,要不就不动再装几把。这坑我先替大家踩好了,专业被坑,请勿模仿。现在大部分的代安装服务都是直接帮你部署了个基础环境,连上飞书就算成功,而并不会重视安全环境或者做到真正好用, 甚至还会让你提供 api, key 等一系列非常敏感的信息,一旦泄露就会造成金钱的损失。 那如何安装?只能说代码安装已经是古法安装了。来点更小白的基础款和斜修款。基础款大家可以下载一个 ai 编程软件,像是国内的 tree, 国外的 anti gravity 和 codex, 像刚刚四百八十八元的服务那样,输入网址,让他帮你先安装好所需要的环境,并且安装好 open cloud, 接着使用后台运行这段指令,自己配置好大模型和 skills 入飞书就可以使用了。这种安装方法有一个好处,就是它能够帮你维修 open cloud, 当你出现问题时,只需要把报错的代码塞给 ai 编程软件,它就能一步一步帮你修复,非常适合小白。那携修款就是现在各大厂商纷纷下场推出的一键 cloud 部署, 像是腾讯的 qcloud、 智普的 auto cloud、 内置暗面的 kimi cloud、 mini max 的 max cloud、 字节的 r cloud 等等等等,它们都有着更加完整的环境部署以及更强的安全性。只需要点击安装环境部署模型配置 选择就会帮你处理完成,并且还不用使用魔法网络,简直就是国内养家户的救星啊!而我也相信再过一个月,你还会有更多更方便的 open cloud 部署。各位小伙伴也不用着急去找什么代安装了,遇到什么安装问题,我们还有好多大模型朋友呢,问问豆包,他也可以帮你解决。 随着 open klo 的 爆火,似乎手头上没有一只虾都有点赶不上潮流了,但随着来的就是更多的安全问题,大家一定要小心敏感信息的暴露以及权限的管理,不要让龙虾真的控制你的电脑了。 哎,说个好玩的,现在都不流行安装服务了,现在更流行的是帮忙卸载龙虾服务。 总的来说呢,安装龙虾现在是非常非常容易的,现在小伙伴们需要思考的是怎么把它应用起来。举个例子,我自己的 open cloud 每天都会发送 ai 日报给我,然后每个热点后面都会有它的视频创意,方便我更好的找到学科。 很多人使用过后也发现了, open club 并不是万能的,什么一人公司,什么躺着赚钱还是很难实现的, open club 的 上限其实是取决于背后人们的脑洞有多大,能给的指令有多清晰。他只是一个机器人,而给他注入灵魂 的是你。好啦,以上就是本期视频的全部内容,喜欢这期视频的不妨给我点一个关注和赞,也可以在评论区留下你的养虾玩法。那我们下次再聊点好玩的,拜拜。

太炸裂了呀,姐妹们,我建议所有做服装的行业的朋友都得把我这条视频好好的看,反复的看, 小龙虾最近爆火,我最近研究了两周,他在我们服装行业能怎么用?首先我告诉你,能替代模特,就你以前花个一万多两三万请了一个模特拍照穿版,现在不用了, 你只需要拿着你的手机,对着你的衣服的款式给他拍一个 这样的一个随便挂着的图,然后你丢给 ai 的 对话框,给他一个指令,他就立马能给你生成朋友圈的九宫格的图片,正面、背面、侧面细节。另外一个方面, 朋友圈会经常会出现折叠,很多客户刷不到,对不对?对,他发出一个指令,你给我生成一套, 嗯,小程序商城。好,你只需要把这指令发出去,五分钟之内,一套完整的微小程序的商城的模板 全部给你出来,你只需要往里面填入你的款式,填入你的尺码,填入你的颜色的信息,甚至所有的这些款式尺码,你只要做成一个数据包,直接扔给他,他会自动给你上架。 第三个,以前的人要做一个款式发到天猫或者是淘宝,做一个款最少也得一个小时两小时,对吧?好了,现在不用你把这些一个图片丢给他,你说给我生成一套 天猫上可以用的商品详情图,好,你看这个结果,一分钟就能给你出来。再有一个,你把所有的深沉的这些某一个款式的颜色 图片,所有的数据,包括这个短视频商品展示的短视频,你扔给他,然后你说给我一个可以获得链接的人都可以查看的飞书文档,也是几十秒就给你生成了这样的一个飞书文档。 所以你看以前我们要做这些事情, ai 来的时候我们也知道能做,但是他没有像现在有小龙虾出现的时刻这么简单,这么易用,你只要会说话,只要给一个指令,咔咔哭哭的, 快速的就给你生成了这样的一个网站,一个小程序,一个文档。 每个服装人接下来都应该好好的去配置好你的小龙虾,你只要使用上它,就等于雇了一个七乘以二十四小时的一个电子员工,就这么简单,就这么直接,再见!

今天教大家用龙虾 open call 把本地文件自动发送到企业微信群聊,只需要配置好 webhook 地址,再用一句自然语言指令就能完成文件的上传和分发,不用手动操作接口,也不用写代码。整个流程分为两个阶段,首先是在企业微信里创建群聊,获取 webhook 推送地址。 一步,创建群聊,打开企业微信,进入机器人的聊天界面,点击右上角的菜单按钮,选择创建群聊,把需要接收文件的成员添加进来,完成群聊的出场配置。第二步,找到消息推送功能。群聊创建成功后, 点击群聊窗口右上角的设置图标,进入群聊详情页面,在设置列表里找到消息推送选项,点击进入, 这里就是配置 webhook 的 核心入口。第三步,添加新的消息推送配置。在消息推送页面点击右侧的添加按钮,创建一个新的 webhook 推送配置。每一个配置都对应一个独立的推送通道,可以给不同的业务场景分别配置,方便管理和权限隔离。第四步, 填写配置信息,复制 webhook 地址。在配置页面填写一个便于识别的名称和简要说明,填写完成后,系统会生成一个唯一的 webhook 地址, 请务必把这个地址完整复制,保存到安全的地方,后续所有的推送操作都依赖这个地址里的批参数,完成后点击保存按钮。第五步,确认配置并完成添加,保存成功后,页面会提示配置已生效,点击完成按钮,退出配置界面,到这里, 消息推送的 webhook 地址就配置完毕了。接下来是第二部分文件推送的使用方法和实战演示。第六步,从 webhook 地址中提取 p 值企业微信的文件上传和消息推送接口都需要用到 p 参数进行身份验证。我们从上一步保存的 webhook 地址里把 p 等于后面的那串字母提取出来,这就是我们需要的 p 值,提前记录备用。第七步,向龙虾下达文件发送指令。文件发送涉及两个 a p i 调用步骤,先通过上传接口把本地文件上传到企业微信服务器,获取一个临时的 media, 再通过消息推送接口把这个 media 发送到目标群聊。整个流程不用我们手动操作 a p i, 只要把对应格式的指令发送给龙虾,它就会理解指令里的逻辑, 自动按顺序完成文件上传和消息推送两个步骤,全程无需人工干预,我们来做一次实战测试。测试前,桌面上有一个目标文件,我们通过企业微信向龙虾发送自然语言指令,要求它完成文件的查找、 复制、重命名和推送全流程。这条指令包含了定位文件、创建副本、重命名文件发送到群聊四个连续的子任务。龙虾收到指令后, 会迅速在桌面上解锁到目标文件,随即创建一份副本并按要求命名,还会清晰地汇报每一步的执行状态。文件已定位副本已创建,正在启动上传流程, 整个过程透明,可追溯。最终桌面上会成功出现重命名后的新文件,说明文件复制和重命名操作都已正确完成。同时,龙虾也顺利完成了文件上传和消息推送。企业微信的目标群聊里 已经收到了推送的文件,文件名称和内容都和预期完全一致,整个发送流程测试,通过用这个方法,我们就能轻松实现文件的自动化群聊推送,大大提升日常办公里文件分享的效率。

龙虾给我拍个短视频, 小强看上了新款一体,可是他买不起,还好有试用版, 小强却接受了。改造完后,他觉得自己牛逼坏了, 他想在小美面前装叉, 但没装明白,可他又买不起正版, 于是他选择了撸网贷, 因为他还不起钱,被追债的人打傻了。 等他治好了小美已经老了。小美对他说,我俏丽娃, 就这破玩意,你烧了我多少头啃这玩意太坑了。

最近 opencloud 真的 是火遍全网,甚至还出现了许多付费安装的服务。一个免费的开源工具,为什么还有人愿意花钱来安装呢?对没有接触过开发的同学们来说,它确实存在一定的技术门槛。 在你打算动手或者是掏钱之前,如果你还不知道给他 id 和 api 是 什么,那么你就算找人帮你安装了,也可能不会用。 你可以看完这个视频,我用最简单的方式让你秒懂。首先我们来理清几者之间的关系,你可以把安装 open curl 想象成在组装一体机。全 github 就是 咱们这只龙虾的零件仓库,它是全球最大的开源代码存放地。开发者把 open curl 上面所有的图纸和零件 都放在 github 上,让大家免费的下载,所以你安装的第一步通常是从 github 上面把代码搬回家。当然 open curl 的 官网上面也有一键安装, 这是你的组装工作台。代码搬回来之后啊,你需要一个地方来跑这些指令 id 或者是咱们电脑的内置终端,就是您跟电脑沟通的桥梁。你要在这里输入安装指令,让电脑自动把零件组装成一只完整的龙虾。 这是龙虾的外挂大脑,也是搭载 open core 和大模型之间的桥梁。 open core 本身是没有智商的,它需要接上一个 ai 大 模型 才能开始思考和对话。新手朋友们推荐用国内的大模型啊,像 kimi g l m, 咱们的 mini max 等等。需要注意的是,用这些大模型的 api 是 需要付费的,这也是你唯一需要付费的地方。建议使用带 coding plan 的 模型,你可以理解为是套餐啊,像日常使用是完全够用的。 那么如果上面的内容你能够理解,恭喜你解锁了新的世界。对于很多人来说,其实不一定非要安装 applecare, 用好 gethelp 加 id 加 api 的 组合就能帮你解决很多实际上的问题。 那么下期内容我会给大家推荐一个非常好用的制作 ppt 的 工具和它的使用方法,感兴趣的小伙伴请给我关注和点赞,或者你有什么问题和想法也可以在评论区和我互动。那么本期内容就到这里,咱们下期再见。

先用管理员打开 power shell, 再输入 openclock configure, 回车打开配置页面, 选择 local, 再选择 model, 最后选择 custom provider, 再把 bash 改为新流的 api, 再选择 paste apikey now, 从新流平台将新增的 apikey 复制下来粘贴进去, 再选择 openai compatible, 接着选择模型 id, 在 新流平台的模型库里面复制你想要用的模型 id 并粘贴进来即可。 后续的配置直接回车,选择默认值,选完后退出就完成配置了。

所以三六零给到什么?三六零拉到爆了呗,哈哈哈,今天瑞平龙虾从杭到拉,三六零拉完了。安全虾成也安全,败也安全。其实所谓的安全就是限制他功能,就是你把他功能限死了,那你还要虾干什么?如果安那样,干脆你就不要装虾了。对, 嗯,腾讯有两个虾,一个 work buddy, 一个 qcloud。 work buddy 就 其实不适合普通用户,它其实也不是一个真正的龙虾,主要适合编程嘛。所以就在龙虾的这个逻辑里边,就给个 npc, 然后我们说到那个 qcloud 也没有出彩的地方,也没有什么不好,但是 qcloud 应该是我个人最看好的一个龙虾, 未来如果他有机会能打通微信,那一定是中国用户的龙虾首选。汤爆了,但是现在就他现在的这个状态,只能给个 npc kimi cloud 就 给个人上人吧。我第一个用成的龙虾也是 kimi 啊,入手成本有点高。一九九,花了一九九,马上这个龙虾就运行起来了,它能帮你找到所有你想要到的信息,帮你做非常深度的一个分析。但是用着用着会死啊, 而且不知道怎么死的,也不知道怎么修。 mini max 的 虾,虽然它是跟 kimi 一 样是一只云龙虾,可配置性要比 kimi 的 虾强,那些配置你都能自己改。 kimi 最低的入门门槛是一百九十九块钱一个月,但 mini max 的 话,你只要买三十九的套餐,你就能用这个 max cloud, 我 就两杯奶茶的钱,我就能马上体验了。 mini max 给个 顶尖网易的 lobster ai, 它就是内置了一些 office 的 插件,快速去做一些 office 的 文件。对于一个不 大会训虾的小白,那一定是好的,同时它也是我们唯一一个受到这个龙虾的创始人在 x 上点赞的 lobster ai 最终给到顶尖富顺的那个三万网红龙虾,主要是要给富顺加分,一 它训得比较好,二它其实真的是在中国的一个最大的一个步道者,就直接给顶尖吧。 open cloud 它最大的一个问题就是 因为安装困难,把很多希望探索 ai 未来可能性的小白挡在门外了。但是它是所有龙虾的祖宗,没有它,其他国产虾什么都不是,最终定位一定是吭。

clo? clo 还是 clo? 你 肯定被各种各样的龙虾刷屏到烦了,几个月过去,热度丝毫没有退去,愈演愈烈。今天这期我们来点不一样的,不是教你怎么安装和使用 clo, 而是带你十分钟开发一个 mini 版龙虾, 一共只有三百行代码,我不想讨论龙虾到底是有用还是没有用,而想带你从用户视角切换到我这样的从业者视角。我们一起完成 mini 版龙虾的开发之后,相信你对于它的原理以及能力边界的理解能够再上一层台阶。看百变不如实践一变,马上开始。 一、接入大模型,赋予大脑我们要开发的 mini 版龙虾 mini cloud, 第一步就是接入大模型。什么是大模型,相信大家已经不陌生了,就是, 总之大模型就是我们迷你版龙虾的大脑,用来指挥这只龙虾的所有后续动作。因为是迷你版嘛,我们不需要支持配置各种模型厂商,就选择一个国内友好的智普模型吧。先用三十行不到的代码连接智普模型,配置我的智普 api key, 然后就是将我们输入的内容以后台接口的形式发给模型厂商,再将响应的内容展示出来,再无限循环。看到代码不要慌啊,你不需要照搬代码,跟着我了解原理就可以,思路永远比实现细节更加重要。验证下效果,先启动我们这个程序,打个招呼,叔叔你好, 他回应我了,再问个有难度的问题,我喜欢吃糖,为什么?一通分析之后,他告诉了我们答案。先不管答案怎么样,这只虾已经有了,大脑也能开口说话了, 你发消息,大脑响应,再将消息转回给你,完美。二、让大脑有记忆在刚才的程序里,虽然可以无限对话,但是每次对话都是一个全新的请求, 这意味着这个大脑不知道你是谁,不知道你之前和他聊了什么。比如我输入刚才聊的啥,不出意外他啥都不知道。我再问你,我喜欢吃啥? 明明刚才我说了喜欢吃糖,但是他也不知道,挺睿智的是吧?作为一个可捞智能体,这样肯定是不行的。那该如何解决呢?非常简单,你将所有的对话记录存下来,每次新对话,将之前的对话记录原封不动的发回去不就好了吗?加个两三行代码就能搞定。我们再验证一下,启动这个程序, 先告诉他我喜欢吃糖,闲聊几句再问他我喜欢吃啥来着。哎,这次他知道我喜欢吃糖了,也就是他拥有了多轮对话的能力。 但这个时候问题又来了,当我关掉这个对话之后,他就忘了我们所有的聊天上下文,但我希望他能持久的记住我喜欢吃糖。该怎么办呢? 好说,我们先新增两个文档,一、 agent 点 md, 赋予他身份设定你是个友好的助手,每次回复都需要押韵。二、 user 点 md, 告诉我我的用户身份设定我喜欢吃糖。然后在代码里要求大模型每次对话前必须读取这两个文档, 同时赋予大模型自主修改这两个文档的能力。也就是迷你龙虾的大脑可以根据和你的聊天记录自己记下来,他觉得重要的东西。好再验证一下全新的对话,问他我爱吃什么? 哎,他知道我们爱吃糖,而且回复还是押韵的,符合我们在 agent 点 md 里对他设置的要求。再告诉他,我们不仅爱吃糖,还爱吃牛肉。回到 user 点 md 文档,发现已经被改了,记录下来了,我爱吃牛肉,完美! 这样一个有记忆、有人格的 mini 虾就搭建完成了,它不仅仅是一个大脑,还拥有了更加充分的上下文,也就是 context。 context 里有历史的对话记录,以及你的人设,虾的人设完美。三、进入 tours, 赋予它动手能力。 这个时候,虽然我们的龙虾已经很聪明了,但他只能对话,不能够操作外部世界。比如我在目录里贴入一张大家爱看的美女图片,然后问他这是个啥,他说他不知道。我再让他生成一个 ppt 给我,主题不重要,他也会告诉我们无法生成 ppt, 他 只能将文字发给我。这就是所谓的钢中之脑。 现在的他虽然很聪明,但就像一个身处在培养民里面的大脑,无法真实的影响外部世界,或者说他没有手,没有躯干,怎么办?讨饭,我们先赋予第一种工具,叫做帮身拷领,说白了就是我们提前写好一些脚本,然后这个刚中之脑会在合适的时机调用并触发这些脚本, 三十行代码就能解决。首先,我们定义了一堆工具,列出文件,读取文件、创作文件、删除文件,读取图片,再提前写好这些脚本,具体如何执行。回到 agent 的 md 里,告诉他现在已经有了这些工具。重新启动。问他目录下有哪些文件,哎,答出来了。 再问他图片里的内容都是啥,也答出来了,我们好好验证一下。金发女子、白色连体衣、过期长袜,这些都对了。下一步,我们再支持一下近期热度很高的 skills。 这个更简单了,在目录里新增一个 skill 文件夹,将我们要的 ppt skill 拷贝进去,在代码里加上大概二十行,让他每次执行前都能找到已安装的 skill。 好 了,再来试一试,生成一个两页的 ppt, 分 析下马斯克最近的言论。你看,很快就生成出来了,我们看看生成的质量,嗯, 嘿嘿,因为这个 ppt 的 skill 是 我随便写的,我们可以替换成一个社区热门的。再试一下,生成一个 ppt, 分 析马斯克最近的言论。好,深圳完成了,我们看看这回的效果,要好太多了。完美到这一步,我们的 mini cloud 已经具备了 toos 执行的能力。 toos 并不是大脑内部的,而是挂载在大脑外部的, 随着 twos 的 丰富,就可以无限变强。完美四定时任务与心跳这个时候我们已经很强了,用了一百多行代码,就模拟了去年 manas 这样的产品架构。但有人会说, cloud 产品的一个特点就是会自主执行任务, 也就是他会主动执行一些任务,主动给你推送消息。这是怎么做到的呢?很简单,看这二十行代码,支持新增和存储定时任务,同时后台有一个进程,在指定的时间点给你推送消息,启动程序试一下,告诉他五秒钟,提醒我喝水,稍等下 一条一条一条又一条。你可能会说,这不对啊,我看别人的龙虾不需要这么死板的提醒,会在某些时候自然的推送消息,看着更智能,这不是很简单吗?我们刚才新增了这一块喝水的定时任务,是你主动要求他保存的, 我们再给大脑一个定时任务,比如每个半小时总结他和你的对话内容,让他自己判断要不要在另一个时间点定时给你发消息不就好了吗?这块我就不掩饰了,但是原理都是很简单的,说的好听点就是自我净化。定时推送说的简单点就是高级一点的定时任务,但是不管怎么样,完美, 嘿嘿。五、接入飞书、叮叮等对话渠道。哎,有人又会说了,别人的龙虾可以在叮叮、飞书甚至 qq、 微信里聊天呢。你这个黑乎乎的是啥?太丑了,不想用。但要我说,这其实更简单,你可以理解,不管是飞书、叮叮还是网页版,本质上就是套路层,消息转发的中间层, 你的消息呢?通过这个中间层进行转发和接收,先包一个网页,现在看看就有点像回事了,对吧?你好哎,可以正常回复,每隔十秒提醒我喝酒。 哎,提醒我喝酒喝酒还是喝酒?你看到这一步,我们的 mini club 包了一层美观的外壳,好像也不算很美观,主要是我懒得去调样式,但至少他已经像个样子了,各种能力也都有,从性价比的角度完美。 最后总结,最后,不知道大家有没有发现,这个 mini 版龙虾的开发过程就是二零二三年到现在整个 ai 的 进化过程,一开始呢,只有一个大模型,只能一问一答,后来发展出了可以调用外部工具,不管 m、 c、 p 还是 skill, 都是工具的一种。 到现在不仅可以调用工具,还有了定时任务,也通过定时任务实现了所谓的自我进化,以及开始涨到你的聊天工具,比如说 qq 和微信里,他更像一个人了。 短短的三百行代码模拟了最近三年 ai 的 发展历程,大家也看出来这三年 ai 的 发展速度越来越快,但是并没有给人减负,而是带来了更多的焦虑,以及让人越来越老。看到这里的我相信也是花了很多业余时间来学习 ai 的, 大家一定能够深刻的感受到 ai 的 发展速度超过了你的学习速度。我不喜欢贩卖焦虑,相反作为一线的从业者,希望以原理科普的方式缓解一点大家的焦虑,很多热点有没有必要追,是不是噪音在大家知道原理之后就能够自我分辨。好了,喜欢我的话,请给我宝贵的三连,我们一起进步。

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。