号称二十四小时免费员工,结果下来一个月比雇两个大学生还贵。最近后台一堆人跟我吐槽 open clock, 就是 那个大龙虾,聪明是真聪明,携带码也还 ok, 但是烧钱是真的烧钱,跑个任务偷开账单,直接原地爆炸。 为啥会这样呢?因为大龙虾有两个致命的缺陷,第一,金鱼记忆大模型,没有脑子,全靠把历史对话一股脑的塞进 promet 来假装有记忆。所以任务异常,上下文异常,这货就疯狂的重复发送相同的信息,偷客的账单呢,也直接起飞。 第二呢,信息污染,跑个事要命令呢?返回了五千托克的报错解锁代码呢?又呼上了两千托克。这些垃圾信息呢,塞进了上下文里,真正有用的信息呢,不到百分之五, 所以就会越跑越慢,越跑越贵,最后直接给你整破产。那怎么办呢?今天给大家推荐两个神级的死 q 神器,一, cloudmail。 这个玩意用了一个渐近式的三层解锁,先给你个超经典的目录,需要的时候才拉时间线,最后才按需加载完整细节, 把百分之九十的废话呢全部挡在了外面, token 呢,直接省掉了十倍。第二个神器呢, open viking, 火山引擎,开源的怪物级的项目。它彻底摒弃了传统的 r a g, 首创了文件系统范式,把龙虾的记忆资源技能全部变成了树状的结构,就像管理电脑硬盘一样,用路径就能管理所有的 ai 大。 最狠的是什么呢?支持 l 零 l 一 l 二分级加载,龙虾之间交接任务,再也不用传全文了,直接传一个路径,指真需要什么,自己顺藤摸瓜去取,又省了百分之九十六的 top。 别以为我在吹牛。官方实测数据,接入 open wiki 后, opencloud 任务完成率从百分之三十五飙升到百分之五十二,输入的 top 成本呢?断崖式的下降了百分之九十六,这个数据直接炸裂了。 所以兄弟们,如果你还在为 a p i 账单心疼或者被健忘的大龙虾折磨的死去活来,赶紧去 get 上扒一扒这两个项目。当然我也会把这个地址放在评论区,大家也可以在评论区说一说你的大龙虾到底有多费钱。
粉丝4701获赞4.7万

我觉得现在最适合用这个 oppo 靠的模型呢,实际上可能是阿里新推的这个服务啊,这个东西叫这个扣丁不烂是吧?呃,为什么呢? 就之前吧,就是续费了好几个这种模型,然后呢?你续的不多,但它其实用量还挺大的,你看昨天晚上我就大概一个小时,我就把 kimi 的 那个十五元的 top 的 额度也就一个小时我就用光了。 我算了算,调用其实也不多,但是因为你在欧风靠的调用和你日常对话的调用是不一样的。今天我想打算试试这个阿里云百炼,简单说一下这个东西怎么回事啊?他其实就是把几个常见的这个模型给打包了,打包了以后有一个专属的调用地址和专属的 api, 来看一下它的指南。它是这样的,整合了这些顶级模型,然后还兼容主流的编程工具,就比如说我们 用的那些 id 类类的工具哈。如果你要是正常调用,他有的时候会限制速度或者限制这限制,那如果你一定想使好的模型,要么你去买会员,要么去升级,是不是他通过固定的费用?其实我算了算,应该是还是挺便宜的,虽然不至于到这个可调用的一折,但还是挺便宜。 然后它现在有几个基础的模型啊?这个千万三点五过年的时候推出的,很牛。据说啊, kimi 呢,也是刚推出不久,然后 mini max 当时那阵刚推出的时候也火了一阵。 glm 那 个五现在可以对标,他说可以对标那个叫什么来着,那个很牛的那个。 然后它有更多的就是千万三的 max 模型,这也是版本挺新的,二六年一月二十三号的,然后加上这些小模型啊,这无所谓,就是我们理论上如果你的调用次数差不多,那么你根据你的任务来选择不同的有特色的模型就可以了, 尤其是千万的这个和 kimi 的 这个都支持。图片理解费用上啊,首月七块九,其实你看的挺便宜,对不对?然后这个高级套餐呢,是三十九块九,就真的是特别便宜,但是价格上你看啊,首月七块九,次月呢是二十,也就是说他的正价是四十块钱,第一个月呢是便宜,然后第二个月呢是五折,第三个月就是正价。 呃,我猜两个月以后可能在这种东西上可能会有更多的爆发。呃,其实现在我我印象里火山就有这种类似的这种打包的这种服务,但是呢,一呢他的价格不便宜,二是他好像我查了查,他没有明确的说他支持那个 oppo 扣,这个呢是明确的说了他支持这个 oppo 扣,然后即使是最贵的这种 两百每月,那也真的是不算贵,因为你如果真的深度用了,你把两百的额度都用光的时候,那我认为你值得在这个上面花更多的钱。然后那个那天我还看到论坛上就有一个人说我除了租房子吃饭和日常开销,我把所有的钱都用来买陶坑上,哈哈哈,其实这是很有意思一件事啊,我觉得真的挺贵的。 我,我查了查我的用量限制,我觉得我用的不算多,但是其实也不算少,我其实在很多工作上都是在在那个詹妮的那个网页上去完成的,因为很多时候你要做调查呀,做一些文本的生成啊,那些东西他那个 pro 的 版本就完全能搞定了,因为我有个 pro 的 版本,但是如果按照他这个标准, 每五小时一千两百次请求,我现在是达不到的,但不知道我买了这个套餐以后会不会达到哈,我回头再测一测。那我认为新手呢,你就花七块九加上二十块钱,先用两个月, 对吧?然后当你发现不够的时候,你去升级那个就可以了,你就直接干到二百一个月呢。其实也没啥,二百块钱一个月也就是个电话费吧。我现在已经买完了, 买完了以后呢?他现在剩余天数二十八天,我不知道他为什么是二十八天,明明买的是一个月对不对?这个是不是他的 bug 按照当月天数计算的?那你们要不要搞到下个月再买二十八天?你看他是按照这个算的,上个月的二十六号到下个月二十七号对不对? 这个就不对了,这个非常过分啊,明明是一个月,所以我打算提前使光呢,呵呵。然后我们获取了这个东西啊,它有专属的 api key, 然后呢,怎么配置啊?这里面说明,我们来找说明配置, 看 open 框中配置这些东西,实际上不要被它这种东西吓到,如果你的 open 框现在正好用的状态, 你就把这段命令考下来。怎么写啊?我这就写了,我现在咱说说怎么配置哈,就首先呢,第一步就是修改配置文件,哪个配置文件呢?就是这个东西啊,但是呢,我们在 open 里可以直接跟他说,这是我上面已经配置完了,我重新演示一遍怎么配置,就跟他说修改配置文件啊, 然后呢?把这句 copy 过来啊,这这段啊,把这段 copy 过来,然后你可以把你的 apk 呢替换到这,我懒得打码,我也就不替换,放到这。然后呢?就这样呢,这个命令就搞定了,你回车, 回车以后就是我刚才的配置,那我已经配置完了,他现在就告诉我有这些可以用的了,然后同时它底下呢,还有一段,你可以直接考过来, 然后站到这,然后回时它就会自动把你这些东西都改好。看到没变更的载药就是什么呢?它其实就是告诉你默认模型变成这个,主模型 变成这个,然后移除了原先的什么什么,这些,就移除了原先其他的所有模型,然后把其他都移除了,我还有钱在里面。其中我认为比较好的几个,特别好的四个主流四个模型就是 kimi 的 二点五,对吧? g m m 五, 然后迷你 max 的 二点五,这个也不错,迷你 max 二点五。我发现他好像在写程序上更有优势。也是这样的,我的感受上啊,因为他的代码他理解的更快更好。然后这个是个多模态模型。嗯, kimi 应该是多模态吧,我记着这两个是多模态模型,如果你需要用到图片处理,尤其是处理本机的图片的时候,这两个模型非常好。 到了这步你的七块九已经发挥作用啊。至于接下来怎么用,那其实还是靠大家去想象。我之前因为这个模型的用量问题,我现在想都给他背地里的任务, 我现在都给他加回去,加回去以后我看看他这个调用的数量到底能撑多久啊?我每天会监控他的用量,我把他这个用量记进去吧, 非常好。我觉得整体来说这下就算完事了,至少我这个月应该不会特别为掏坑的续费吧?因为每次他如果出问题的话,你很难发现,除非你里面充特别多的钱。

当你不小心安装了个 open curl, 然后发现 token 消耗刹不住了,而且非常健忘。你直接给我去 guitar 输入 cloud man, 你 会发现这是一颗能给你的龙虾赋予持久化记忆的插件。以后你就能像看朋友圈一样,实时看到你的 open curl 到底记住了些什么,而且还能节省百分之九十的 token 消耗。之后你又不小心输入 open viking, 更牛的来了,这是一个专门为你的龙虾设计的开源上下文数据库,它能让你的多个智能体之间共享信息,直接结束那种无法协助的智障模式,而且还能让你的书 token 成本降低大概百分之九十六,任务完成率直线上升。有了它们,你的大龙虾会越来越聪明。这么好的东西,不给你的龙虾配一个吗?

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

我已经用了一亿的免费 tokyo 来养龙虾,可以看到这是一点五九亿的 tokyo, 然后四千四到用零元。我用的是这个新送的三点五 flash 的 模型,是用的 open rota 的 平台。对,前几天那个给大家分享免费养龙虾视频火了,然后今天做一个具体的视频之上,很多朋友在后台私信我。 呃,那首先呢,其实是我们去呃搜索这个今日星辰的三点五模型,找到这个 free 有 免费版。呃,进去之后可以看到它这里有个模型 id, 这就是它的模型 id, 我 们要复制下来。呃,其实要给弄一下。呃,可以看到就是它现在在 opcode 的, 就是调用排名非常高。呃,看到就是。呃, 昨天是第一名。对,昨天是第一名,今天是第二名,前几天也拿过。可以看到这排名非常高,前几天也拿过很多第一。然后我们回来之后呢,其实是在自己的这个。呃。 api k 这里。呃,进入到 api k, 嗯,去新建一个 api k, 你 可以填银行卡,然后再去填这一个信用额度,可以填一个零点一美金。 看到我,哎,我这里填了一个零点一美金项链,一旦有付费的行为,那就最后花七毛钱,这个 api 就 断掉了。嗯,对,然后再过一期时间去设置一下。然后呢,这个 api 呢,是一次性只能复制的,相当于这个也要给到龙虾,然后把 openroot 的 这个地址,就是直接把网站扔给他,然后再把魔仙 ak 扔给他,再把你 app apk 扔给他。对, 假如你当前有那个本地 l m 驱动的话,就是把这个配置上,它自己会去连接上新的模型。那然后你再去那个龙虾里面去调用这个对话的话,就可以看到自己的一些调用数据了,对,有某一天的用量特别大,都是免费。

你如果用这个 open cloud, 肯定会消耗很多 token, 那 最好的方法就是用免费的模型,这里它就会支持 onigravity。 千问还有 open code, 咱们这里就教一下怎么设置这个 onigravity。 用它里边的免费模型装上了之后就 out bought config, 这里边就点选 logo, 这里边儿选 model, 这个再选里边儿的模型。因为 onigravity 是 谷歌的,所以这里边儿选谷歌,选 onigravity。 当然你可以选这个 google gemini c l l, 这个也是因为 gemini c l l 也是免费的,但是 onigravity 它有更多模型,包括 cloud code 的 模型,还有 gemini 的 模型,所以这个 咱们选 onigravity, 它会跳一个网页让认证,所以这里你就选你的谷歌账号儿就可以了。 三音这很快就认证成功了,就可以选模型了。这里它选的模型比较多,所以就会需要一直往下拉, 它在谷歌 on the gravity 里边往下走,走走走,这是 coco 的 get up, 对, 这里就是大家可以看到谷歌 on the gradient。 我 这里边是把谷歌 on the gradient 下边的模型全都选了之后选,直接按空格就可以选和反选, 选完之后按那个回车就可以选定了,这里话直接跟 t 钮,然后它结束之后就可以自动地使用 anti gravity 模型了。这样 clubbot open cloud 就 可以免费使用 anti gravity 里边的 cocoon 了,就不用自己买 cocoon。 当然你可能配置完之后想选自己的首选模型,因为 integrative 里边儿有很多模型,咱们可以在这里边儿配置。在这个尼加目录点 cloud bot, cloud bot, 点 jason, 我 这里边儿直接打开,咱们就往下走,这里边儿你可以看 a 阵词,下边儿这有一个 default, 这就是你默认用的模型,这里有个 primary, 就是 它首选的模型。就是啊, google on the gravity 里边儿这个 color whoops, 四点儿五 thinking, 这个比较慢,所以我想要把它改成 gemini flash 这个模型,咱们呢? sun flash 对 这个模型会比较快,所以我想把它改成这个模型,当然你可以自己改,它就会首先尝试的模型是这个,如果不行,它会用 fallback。 这边的模型我现在已经改好了,之后我就可以保存重启一下 clubbot, 它就可以 clubbot play the gateway start, 我 又拼错,然后这就重启了,就可以开始用我新设置的这个 drama 三 flash 这个模型了。咱们看一下它具体的情况, 你就会看到你的模型已经开始用。呃,首选模型,这个有时候它算比较慢,但是总体来说它会遵循你的配置的。今天就到这来谢谢大家,希望可以帮到你们。

就在今天凌晨, oppo i 刚刚发布了 gpt 五点四,本来是准备入睡的,那我养的小龙虾给我推了一条更新消息,于是乎直接把睡衣换了,直接开干。那今天的话,花几分钟时间讲清楚它到底升级了什么,再附带一个编程实测。 好,下面我们看一下它的五大核心升级。第一个是上下文窗口,由原来的五百 k 变成了 em, 这一个的话对于你去做一些 长任务,复杂任务有很大的帮助。那第二个的话就是操作电脑的能力也增强了,那这个的话桌面端的 q d agent 也会有很大的帮助。第三个的话,就在恰点 g p 它这个聊天应用中原来的思考过程嘛,就它的 sync 你 是不能去中途去修改的,现在你可以随时打断 补充需求,调整方向。第四点的话,它是有一个更高的托管效率以及更快的响应,响应这块的话我刚刚用 q d x 去实测了,确实是有提升。 那第五个的话,就是它把 codex 的 能力直接合并到了这个 gpt 五点四这个模型里面,什么意思呢?意味着后续是没有 gpt 五点四 codex 的, 直接是 gpt 五点四一个模型就搞定了, 不要像原来那样搞得比较乱。而且现在它新增了一个 fast 的 mini, 我 刚也试了,这个 mini 让你的整个编码速度提升的特别快, 但是你的消耗也是成两倍的一个增长。下面我们来看一下它整体的一个跑分情况,跟几家模型对比来看的话,提升不是特别明显,但是也有一些排到了第一。那跑分的话,其实我们就稍微去看一下就行了,因为 你真实的,不管你在编程实战还是他接触到 a 技能里面,还是在看实际中的表现嘛,对不对?我们直接到编程实战环节,还是同样的 prom 哈,如果熟悉我的老粉都知道这两个项目,在这一次不管是国内的顶尖模型还是国外的顶尖模型,我们都拿这两个项目去做测试同样的 prom。 然后这一个项目是稍微比较复杂的,国内的模型的话它没有做到一次性去把整个任务完成,那国外的模型的话, cloud off 四点六以及 g p 五点三, codex 它做到了,但是 jimmy 三点一 pro 它没有做到,第二个它会稍微比较简单一点。好,我们来开始实测,这次我用的是 codex 这个 app 上去做实测啊,提示词也是跟之前测试是一样的, 并且我们开启了这个 fast 模式,也就说它的整个速度是比较快。对于这个比较复杂的项目啊,就是我们把这个图片 a 帧的项目加上一个认证体系,从另外的项目里面迁移过来,并且做了一个落地页,也是之前那几期视频有测过的。我们来看一下它一个完成结果, 总共是做了三十二个文件的一个修改代码,行数是三千多行,从这个也能看出来,整个任务其实是比较复杂的,他的上下文都快跑满了。我们来看第二个项目,就是给这个 skills agent 是 一个终端 ui 嘛,给他加一个呃,外部 ui 也是一个考验他权重的能力,这个的话他改了十八个文件,大概是两千多行代码, 下面我们来看评分结果,我们来看第一个项目是跨项目迁移认证体系,也就是说给这个图片 a 镜头加一些功能嘛,从另外一个项目里面迁移过来,整体的评分标准是来自于两个,第一个是我人工去看它整个功能的完整程度,第二个是我们把它四个项目所做的代码 用顶尖模型去互相 review, 最终得出来一个评分。那整体看的话,这一次 g p t 五点四,它在这个项目上它的表现是比 oppo 四点六要好的,但是在 g p t 五点三 q max 的 时候的话,它是没有 oppo 四点六好的。 ok, 那 接下来三点一 pro 的 话,它是最差的。 好,我们来看第二个项目的一个评分,就是给这个 skills agent 加上一个终端 ui, 考验它权重的能力,那这块的评分的话,其实它给的有点保守了,为什么呢?因为 给我的一个体感哈,就是它这块的一个 ui 比上一次还要好,但是因为它这块没有去体现 ui 嘛,所以说它的评分的话稍微有点落后,但体感的话是更快, ui 更好了,那代码质量的话, a l u 之后的话是没有这个好的好。我们回过头来进行一个总结,我觉得这次最大的亮点哈,就是第一个, 这个上下文窗口变长了。第二个就是他这个快速模式非常非常有用,如果经常用 codex 的 朋友的话,就应该知道他之前是特别慢嘛,那你用这个 fast 这一个命令之后哈, 他的速度确实比之前快了,但是你的消耗也更快了,那这样子就会对 codex 的 会有更大的冲击,因为之前我几期视频就说过, codex 的 不再成为我单独的一个 coding 的 选择,现在就是我在 codex, 然后 codex 的 互相来回去切换,甚至有时候我还会用那个 open code 再加上欧曼 open code 结合起来去做扣顶开发。好,这就是本期视频的全部内容了,如果你觉得视频做的不错,可以给我一箭三连,大家拜拜。拜拜。

最近这个 open cloud 不是 很火吗?大家都说这个东西很烧 talk 啊,我昨天找到了一个对于我们普通用户来说几乎接近免费而且又好用的一个模型 talk, 这就是一个千万呐。 嗯,千万的贪。新人注册每个模型他下面有一共两百两百多个模型,每个模型都送一百万托克,对我们测试而用的话应该是很够用的,如果不够用找亲友借一下也是非常不错的。看一下他这个速度怎么样,你是什么模型? 这个回复也是很快,大家如果有需要的话,可以后台私信我给大家说一下这个加入模型,加入这个代码之后就自己连接。

分享一个超级省钱的配置方案, openclaw 加 i flow, 只要三步获取 api key。 对 openclaw 说,配置 i flow 粘贴 api key 就 这么简单,模型切换也超级方便,想用哪个换哪个。

openclaw 到底能不能使用本地模型来完成各种任务?今天我就把实际测试的结果和大家分享下。本地模型我使用的是最新发布的千问三点五量化版本,目前已经发布的有二十七 b、 三十五 b 以及 e i 二 b 三个量化版, 各位可以根据自己的显卡状况选择合适的版本。我这里选择的是三十五 b 的 量化版本,模型大小为二十四 g, 实测在我的双显卡环境下速度可以达到一百二十 t 每秒,性能上已经可以完全满足使用需求。 本地的模型工具使用的是羊驼欧拉玛,需要注意的是,欧拉玛软件必须是十七以上版本才能够支持千问三点五这样的新模型,目前官网最新版本是十七点零点四。而最令人惊喜的是,新版的欧拉玛已经集成了 open claw, 你 只需要在命令行输入 open claw 这一行代码,就可以直接部署你的龙虾机器人。 此外还需要注意的是,新版本的欧拉玛把上下文长度设置为了二百五十六 k, 这可确保连续多次和模型的对话不会被中断,但这会占用更多的显存资源,所以一定要选择适合自己硬件性能的量化模型。在将千问三十五币设置为 openclaw 的 主模型之后,我进行了多个功能的测试,包括 skill 技能的安装和配置、 股票代码的抓取和市场行情分析,以及 ai 新闻的搜集和定时任务的配置。结果超出了我的预期,本地模型基本顺利地完成了所有任务,没有死循环或是失去响应的状况发生。但需要注意的是,量化版本的模型由于能力限制, 如果是较为耗时且有多个分支任务的对话,你需要再次输入提示词,要求模型检查当前的任务执行状况,以避免任务没有被百分之百完成。在耗时一天的深度体验后,我认为使用本地千问模型配合 open claw 来执行基本的信息搜集和数据分析等无需复杂逻辑的任务是一个非常好的选择, 但前提是要确保你的硬件有足够的性能来支持本地模型的运行。同时建议另外再配置一个线上大模型来配合完成其他复杂项目。 通过这样的组合,应该可以有效避免 token 过度消耗造成的大额费用支出。以上就是我使用本地模型配合龙虾机器人的使用心得,如果你也有类似经验,欢迎在评论区分享你的使用反馈。

嗯,大家好,我是欧巴同学,专门搞 ai 的 欧巴同学,那今天给大家分享的是我花了几百块,并且啊已经摸索了差不多一个月啊,搭建出来这个 open core 的 一个啊,一些经验,然后分享给大家 啊,然后大家可以看到啊,这个就是我的啊,首席牛马官啊,这只猫猫啊,然后剩下那些呢?是我的一些牛马,包括啊,做市场的呀,啊,包括啊,怎么去做开发的?那整个视频结束之后呢?啊,在最后会把完整的这个文档分享给大家啊, 那首先最近很火的这个 open core 一 人公司啊,包括最近腾讯可能说什么楼下有几千人在排队啊,去安装了 open core, 对 吧? 那我先保证在呃,整个视频最后我会教你怎么把啊自己的这个团队搭起来,并且到手就能用啊。这个你可以理解,这个 ai agent 就是 我们的牛马员工啊的一个管理工具,那并且可以它可以直接操作我们电脑, 并且啊,就举个例子,以这个妹为例哈,他就是我的手气牛马惯,那他可以指挥所有这些啊 agent, 然后去干活,那具体的效果呢?啊,可以给大家看一下啊, 例如这是我在飞书里面的效果,那他可以去指挥啊,什么开发呀,运营啊,并且他可以形成工作流。举个例子,我有一个任务,然后他让他们串起来去工作啊,并且最后啊去返回内容给你去做审核,这个流程是完全可以打通的, 那大家可以看到我目前用来做什么呢?第一个每天让他们给我去做每天的一个技术的栽药啊,那还有就是啊,包括因为我做产品经理的嘛,那所以相关的这种痛点的分析啊,我让他们从 ready 里面给我抓下来啊, 那另外还有可以看到啊,我会让他们去帮我去做一些竞品的分析调研,我在飞速里面其实定义了自己的啊工作流,包括自己的员工, 那整体的话,其实我的主工作流是两块,第一个是啊,会让啊整个脑报,然后去让他给我输出公众号文章,以及给我直接输出小红书的图文,这个流程我已经完全跑通了。 另外还有就是我自己因为也会去搭建一些做些 ai 小 工具,那种 ai 小 工具呢,我也会去让我的那个市场大师去看一下,哎,我做的怎么样,就在上线之前让他帮我去做分析。 ok, 那 现在给大家去看一下怎么去搭建自己的 ai 团队哈,那首先给大家看一下, 第一个是我们这个 opencloud, 当你设置完之后呢,它其实没有那么复杂,例如这些是呃,我的一个, 呃,各个 agent 的 一个啊设定,例如这个是脑报的,大家可以看到上面有几个文件哈,就是啊 agent 啊,还有就是他的 hobby, 还有他 identity memory 啊, so, 这个文件我等一下会快速给大家讲一下什么含义,刚开始如果你不知道也没关系,你只要知道说 啊,这里有不同的工作区,然后不同工作区呢,当他给你给他去设定他是不同的角色之后呢,他就可以去按照咱们的要求去做啊, 举个例子哈,那以我们现在这个缩文件为例啊,以需求分析大师为例,大家可以看到啊,他是可以直接去看到啊,他觉得设定还有啊他的思考这东西你看他可能觉得,哎好复杂好复杂,对吧?其实没有那么复杂, 因为这些东西其实都是啊,当我思考完,哎我每天的工作流是怎么样的,那我再让 ai 去帮我写出来的 啊,这些东西我基本上是没有怎么去碰,我只会去微调啊,举个例子里面的这种啊技能我希望他怎么去写啊这些我自己啊,到时候在文档里面做微调就 ok 了,所以这里并没有那么复杂, 自己只要记住啊,一个啊 agent 他 看起来很高大上,但实际上他并没有那么复杂啊,他只是有不同的这种啊文本文件去写出来啊,原来这个东西是有什么用的啊,然后他的上下有什么的,例如他的领 灵魂文件,对吧,其实就定义了哎到底他做什么事情的那像 to 文件就是,哎定义他可以使用什么工具什么 skill 啊,所以这东西其实 ai 去都可以帮你去写,然后下面有跟他呃主要是要理解他怎么设定的哈, 那刚刚咱们有说 a 四文件是它的核心的灵魂啊认规则那 identity 呢?主要是他人设,那 agent 呢,主要就是刚刚我们说到如果你要用非书啊去做一些工作流的话啊,那这里主要就定义它的上下底是什么啊,那 two 就是 一个工具箱, 其他一些啊,记忆后面我们在越用这个小龙虾的时候让它越来越去啊,理解我们怎么去用那这个 happy 呢,其实就是,哎啊像我们人的心跳一样,就它怎么时候去醒,然后什么时候去做相应的交互啊,大概这么理解一下就 ok 了 啊。那最关键的就是我们描述清楚的需求之后呢,可以让 ai 去帮我们啊优化相应的这个文件。 那例如下面这里大家可以看到啊,例如这里我是用了一个 skill 啊,去让他帮我把本地所有 agent 的 这些文件啊去调调一下啊, 因为啊,我自己去写是很麻烦的,那我只要去告诉他我的痛点,因为之前的痛点,我发现,哎,这些牛马并没有很好的执行我的指令,所以我就让他,哎通过这个一个技能帮我把所有的这些牛马啊,可以高效的写作,并且遵循我的指令啊,去做好复盘。 所以啊,大家到时候可以去通过这种方式去优化自己的这种啊牛马啊啊,做到飞书之间多 a 准的协同打造一间公司呢,可以参考我这个提示词哈, 就之前的朋友写的比较好。那我这里有一个经验是什么呢啊,直接把这个文章发给 ai 让他去参考啊,你自己的思路去配置你的 open core, 那 举个例子,像 首席牛马关啊啊,我的自己的啊,携手啊,那怎么去绑定群 id 对 吧?这些啊,只要把文章发给他,然后让他去帮我们把这个本地的 agent 搭起来就好了啊。那这里主要要关注的是,如果你是用飞书的话啊,我现在会建议你用这种群 id 的 方式去把它绑定上去,这样是最简单的啊, 如果说你还想用 a 让 ai 有 更多的积极性啊,设计一些有主动性的技巧, 跟刚刚上面的技巧也是一样的,等下直接把这个链接发给 ai 说,诶,我们想去怎么啊?让 ai 去做这个事情就好了。这里主要我觉得要说明一点, ai 只是工具哈,那如果想,呃,让 这个 ai 能做好事,主要还是我们自己的想法,我们自己的设计。那如果说你有一个固定的流程,让 ai 去做,这是最好的。 那关于那刚刚我们有说到,哎,我是不是用到一些 skill 啊,或者有没有什么好用的 skill 呢?那也是非常简单的。那这里有啊,我自己在用的一些 skill 的 库啊,你包括我自己在用的清单啊,包括一些比较好用的,已经放在这里了。那如果有需要的话,到时候直接去啊,参考我自己去网站去搜去安装就好了。 那思路还是一样的啊,在 ai 时代,大家只要想得到,然后让 ai 去做就好了。我们把需求描述清楚,然后扔给 ai 好 了。 那最后就是一个安装指引啊,那最简单最简单版的话,你可以安装这个 cherry studio 啊,那它有一个啊,一键安装 opencore 的 更简单方是什么?那你就直接拿 opencore 的 一个 app 地址,然后扔给 ai, 让它帮你安装到本地就 ok 了,只是说有些配置向你后面是要去弄的。 那这里一些安装指引呢,我也直接立到大这里给大家了,大家直接去看就好。刚刚我们说了很多,哎,怎么让 ai 去装,那这里我会推荐一个 ai 工具,就是啊字节的这个 tree。 那如果大家还没有用过的话呢,直接去这官网去下载就好了,这也非常简单,当然我推荐国外版,因为它的模型会比较好一些啊,那链接也放在这里了啊, 那最后呢就是,呃,因为我们在做这个 open core 的 时候呢,消耗的 token 是 比较大的,那经过我自己几百块的这种测试啊,我买过啊,火山啊,还有 kimi 啊,还有各种的 kind, 包括我也是啊,买了 open ai 各种的这个 kind, 那 性价比最高的话,其实我会推荐阿里百链, 那它也会有各种问题啊,但是这是目前来看性价比比较高的选择了,或者说你可以买 jamie 或者啊那个质朴的官方套餐。 ok, 那 具体的配置指引呢?到时候大家买完之后啊,可直接去让 ai 去帮忙去配置啊。这里有一个小细节哈, 如果你是用阿里的话呢,因为它的势力里面它默认把这个推理啊,它是设定为 false 的, 那如果你让 ai 去帮你配置这个模型,到 opencore 的 时候呢,就会让 ai 说,诶这个设定为 true 就 好了,不然这个模型会很笨。 那最后一步其实也就是对接,那 opencl 其实支持很多的这种对接方式,那我个人会比较推荐飞书对接哈,因为啊,在国内如果你没有啊,那个很好的网络环境的话呢,其实飞书是比较合适的,但飞书包括各种的配置,大家可能会觉得是不是很困难呢?那这里给了大家一个链接哈。 那啊,这个是啊,它其实也是做类似 opencl 的 工具,如果你只是想体验一下的话呢啊,去安装这个工具就好了。 那啊,这里有很详细的这个飞书配置的教程,这里我就不详细多说,直接按照这个去配置就好了,不会出错。那另外还是有一个小细节只有你玩过才知道的啊,因为飞书每月的这个接口调用量是有限的。那 open core 本身呢?又有一个啊,小 bug 吧,可以算是啊。那 你到时候再把这个链接发给啊 open core, 或者发给这个 tree, 让他去帮忙去优化 open core 的 调用,那你的接口调用量基本上是不会超的。那以上是所有的这种啊分享,那如果大家如果有什么疑问的话,随时在评论区可以去问我啊。那整份文档呢?啊,借等一下我也会分享给大家啊,在评论区里面,好吧。

超算互联网宣布, opencloud 服务再度升级,正式打通飞书企业微信,用户可以根据任务规模灵活选择多种模型的 api 调用服务,并直接接入飞书企业微信客户端使用。目前,超算互联网 opencloud 已预制各类打模型,提供高性能、低成本的推理算力, 显著降低 token 消耗成本。据了解,与传统对话式 ai 不同, opencloud 是能够执行任务的数字,员工 只要用 token 一直喂他,就会越长越好。通过自然语言指定驱动,在本地或私有云环境中完成文件操作、浏览器自动化、 api 调用、多步骤任务链编排等实际操作,实现从建议到执行的跨越。

小龙虾我用了几天我就把它卸载掉了,原因有两个的哈,一个就很费钱是吧?很烧这个头壳,第二个的话他真的没有想象中的那么智能,是吧?我叫他去做一些一个色表啊,握啊,是吧? 他做出来的那个结果啊,都是乱七八糟的,不是我想要的那种结果,还不如人工做是吧?呃,他的那个技能啊,是 q 啊,那些现在还是不成熟的,等以后成熟的话再使用吧。 就是机这几点我就用了一段时间,我就把它卸载掉了,而且这个软件也不是很安全的,各种 bug 一 大堆,是吧? 然后如果真的你想自动化办公的话,我推荐你用阿里的那个 coldwork, 那 个还可以,我用了,我现在也在用那个,虽然说没有小龙虾那么火,但是它使用起来比较安全简单。

白嫖党的狂欢 opencloud zero token, 平时跑 ai 智能体 api 费用如流水,对吧?这个项目极其疯狂, 它通过浏览器自动化技术接管你的网页绘画,直接利用网页版的登录状态去调用 cloud deep seek、 gpt gemini 等主流模型,完全不需要 api token, 一 分钱不花就能让你的本地 agent 跑得飞起。开发者的福音啊兄弟们!

最近我看到网上有很多对于 openclaw 的 误解,说它太贵了,不安全,或者是没有什么用处,只是用来装逼的。虽然我也不是什么龙虾专家,但是呢,我是实打实的 openclaw 用户,所以我会有一些对于产品的一手提。 也正是因为我本人亲手安装了 openclaw, 并且也是在亲手的用它,所以我才会觉得这些都是对于 openclaw 的 误解。那么今天我就来给 openclaw 证明了。首先呢,很多人说它太贵了, token 烧的太快了,如果你每天二十四小时都在跑 opus 模型,并且给它很复杂很难的一些任务的话,那确实 头壳烧的会很快,但是我觉得大部分人应该用不到这个程度吧。并且如果你用量比较多的话,你其实可以考虑很多性价比高的模型,例如很多我们的国产模型,包括 kimi, minimax, 智普,这些模型的价格都很亲民。如果你担心的是费用的问题的话,那我觉得可以这样,你先选一个国产的模型,充个一两百块钱进去, 注意这是一次性的充值,不要让它自动续费。然后你就先用着,你每次用的时候,你回去看一眼这个任务花了多少钱,时间久了,你就会有个概念,就是这个模型的 token 它大概烧的有多快,那从这里开始呢?如果你觉得你的用量会很多, 你也可以考虑换成一个 coding plan, 或者是你觉得质量不够好,你也可以换成一个更贵的模型。但是无论如何,最差的结果就是我们会失去我们一开始 充进去呢,一两百块钱,在此之后,如果我们就是不用了,就不会有更多的损失了。顺便说一下我个人呢,现在用的是智普的 g l m 模型,然后我应该算是一个比较轻度到中度的用户, 我一个星期大概会花八美金左右,也就是五十六块人民币。第二个呢,就是太危险,特别是最近新闻上也很多人看到啊, mata 的 一个高管,他的信箱被删除了怎么怎么样的,或者谁谁谁的钱被偷了等等。 这里我想提一个概念,就是没有什么事情是零风险的,我们现在的电脑就算不安装 openclaw, 随时也可以被黑客攻击,特别是在银行工作过的小伙伴可能都知道,银行追求的从来都不是零风险,而是管理风险,就是我来控制和管理这个风险到底有多大,并且提前做安排,这样一旦出事呢,我是可以 接受最后最差的后果的。这里举一个简单的例子,你不要给他你自己的电子邮箱,你给他单独设置他自己的账户,自己的电子邮箱,有什么事情你就把信息转发给他,让他来看,你也不要把自己的私密信息银行账户给他,有什么事情你可以做一次性的充值,或者单独给他打一部分钱。 假如 openclaw 被攻破了,那么你失去的就是这个机器人,他的这一套账户和你在里面存的一些钱,而不会去影响你本人的这些东西。 那么这里关于安全性呢,还有很多其他防范的操作之后我会单独出一个视频来更系统性的讲一下。那么第三个也是让我为他最打抱不平的,就是很多人觉得 openclaw 没有用,它只是一个社交属性用来装逼的,或者是它只是噱头让网红来讲而已。我可以理解,网上不免有很多人,他们其实没有用过 open, 没有去安装,去部署,或者去动手去试一试,只是在传播一些信息而把这个概念炒起来了。这一类的信息我也会避免去看,但是这个并不妨碍有那么一群人仍然觉得 openclaw 超级好用,例如我自己。 那么我看了一圈下来呢,有一种感觉就是,如果你是一个个人使用者的话,可能对你来说价值不会很高, 因为我看到很多人用它来查自己的 email, 去看天气预报,会提醒自己喝水,甚至去刷自己的社交软件。这些事情我作为一个个人,我都可以自己做,我不一定需要一个 agent 来做它,所以 agent 在 这里能体现的价值是非常有限的。但是呢,你但凡有一点业务,那 openclaw 真的 是太好用了。不管你是音乐老师,还是地产经济,还是健身教练,还是博主,但凡你有一些这种助理或者秘书需要做的工作,它并不是你业务的核心。你其实都可以尝试用 openclaw 来解放你的双手,因为工具说到底它本身是没有价值的, 它的价值来自于它的用户怎么去用它来创造价值。举一个不是特别恰当的例子吧,你把 excel 给一个厨师,他可能觉得就还好。 但是你把 excel 给一个金融分析师,让他来搭一个金融模型,然后用模型来帮他做投资的话,那这个分析师他一定会觉得 excel 超级好用,超级有价值, 一个产品或者一个工具,它的上线仍然是它的用户和这个人而已。所以今天我们提到 openclaw 的 费用和它的安全性,还有它到底好不好用?讲这么多呢,我只是想让大家知道,当一个新的事物出来以后呢,网上一定会有很多人去传它的好和它的坏, 里面可能会有一些噱头,有一些泡沫,也有一些真实的案例。这时候呢,我们作为观众要注意辨别真假。然后呢,是更好的在自己可控的环境中去真正的动手去试一试它, 而不是被谣言和误解提前的就挡在了门外。如果我们只听别人的话,而不愿意去体验或者尝试新的产品的话,那最后耽误的还是我们自己。