哈喽,我是静姐。最近啊,好多人在养龙虾,但都在吐槽一件事,就是偷看太贵了啊。有人跟我说,静姐,你知道吗?我就跟他打了个招呼,说了一句你好,结果一查账单,好几块钱就没了。这个为什么呀? 因为每次对话,他都要先把你之前几十万字的记忆全都读一遍,你就看着是说了两个字,他却先过一遍你所有的历史对话,所有的设定的规则,这个头肯可不就哗哗的烧吗?那今天我们就聊聊怎么把养龙虾的费用降下来。 嗯,很多用户呢,从一天两百多美金,直接降到了几十美金,甚至就十来美金。其实就三个技巧啊,我们看第一个技巧,学会用暗号。龙虾里面啊,其实藏着有几个特殊的秘密,这些秘密不经过打磨洗,也不消耗托肯,而且比什么都好用啊。 比如说,嗯,你聊着聊着,发现他跑偏了,你跟他说停,他还在那噼里啪啦的乱扫钱,这个时候你用斜杠 stop, 他 立马就停手,一分钱都不用花。 哎,你要想重新开始聊,怎么办呢?用斜杠 new 清空之前那些啊乱七八糟的上下文,他就不用再背你那些陈年旧账了。就好像啊,我们这个换了一个新的本子,写字又清爽又省钱。 还有一个命令呢,叫斜杠 compress, 你 让他去压缩这个记忆,他会帮你把大事留着,小事精简,还既能记住该记的,还能省头肯,就相当于我们给他这个记忆做了一个瘦身嘛。把这些命令记下来,其实光这一项就省不少。 我们看看第二个技巧了,就像能写代码的,就别让他动嘴,有的时候啊,你让他干活,他会自己在那边琢磨半天,各种尝试,疯狂的烧头啃,这怎么办呢?我们把让他把这个任务啊写成脚本, 这脚本是什么呢?就是啊,你给他一份代码,你让他直接运行就行了,只消耗蒜粒,他不消不消耗头肯的。那我们来举个例子啊,就是有人想让这个龙虾帮他盯着油箱啊,每五分钟给我看看我有没有什么这个新的邮件。结果龙虾特别老实, 每五分钟他就调用一次大模型去检查,结果一天下来烧了一百多美金,其实这完全没必要,对吧? 我们应该让他先写一个脚本,这个脚本自己每五分钟去查,有了邮件了以后,你再叫大模型来处理,这个就像呃,你让人帮你去等一个电话,其实你不需要每五分钟自己跑去看一眼,对吧?呃,所以呢,遇到重复性的任务啊,比如说像 每天整理新闻啊,然后定时的啊,提醒啊,检查邮件啊,你就先问他,你能不能写成脚本, 而让他生成自动化的程序,就这一招,我们就能把重复烧钱的地方变成零成本。而第三个技巧是什么呢?好钢用在刀刃上,我们不用大炮去打蚊子。 其实现在这个大模型非常多,分三六九等,最贵的那批确实很聪明,但是其实我发现说我们很多的任务根本都用不着他们,对吧? 比如说像写代码呀,处理复杂的逻辑呀,确实要用聪明的好模型,但是像一些整理资讯呢,然后啊,简单的调研,看新闻啊,这种用国产的便宜模型就够了,跟我说白了就是人自然就省下来了。 这三个技巧用好了呀,养龙虾其实真没那么费钱,该省省该花花啊,然后说到底呢,呃,技术是好东西,但是咱们得学会啊,用聪明的方式用这个,就像我们过日子一样呀, 我们知道钱该花在哪才花的值。我是静姐,陪你一起把 ai 这件事用的明白,也省的明白,下期见。
粉丝85获赞275

当你不小心拥有了一个 open class, 但你总感觉它傻傻的,不好用于事。聪明的你钻研了一番后,明白了,小龙虾只是这个智能体的一双手,大模型才是它的大脑,决定了它是否聪明,而 skills 是 它的工作技能,决定了它是否有能力处理各种任务。 而大家总提到了 token, 就是 智能体的能量。使用智能体需要让大脑运转并调动小龙虾的双手并使用技能, 所以会消耗 token。 这也是为什么我们需要向大模型厂商付费。然后聪明你开始尝试使用不同的国内大模型来给智能体安装不同的大脑。这个时候你发现了接入了 cloud code 的 时候,这个智能体他是最聪明的,任务的完成质量最高,但是费用也最高。 然后你又发现接入了国产模型的时候呢,他也能完成很多任务,花销也很划算。于是不想当冤大头的你,想着好像可以让不同的小龙虾安装不同的大模型, 简单的一些工作,比如每日发送日报,这种工作就可以直接交给接通了国内大模型的小龙虾去做,赶紧去这么做吧。然后聪明的你为了让小龙虾能更快更好的完成任务,打算教给他各种 skills, 也就是技能。于是你在 skills 后面加上了 s h, 发现这里有七万多个 skills, 你 又了解到 open club 官方 skills 也有一万多个。不要慌,我已经给非技术背景的你准备好了十个基础 skills 和五十个进阶 skills, 咱们放心使用。这个时候呢,不想当月大头的你,感觉还是有方法能降低 token 的 成本?没错,这里我给你准备了三个方法,让你的 token 花费能降低十倍。一是多使用订阅而非 api 的 用量模式。 二是建立本地的 markdown 知识库, opencloud, 每次读取的时候只读取锁瘾。三是部署一个小模型来在本地跑。 opencloud 的 心跳模式,就是那个让你们感觉小龙虾火起来的关键机制,实际上是小龙虾内置了一个每过一段唤醒自己一次完成任务的机制。 除了以上三个方法呢,你还可以给你的小龙虾建立体检机制,及时的找到那些高消耗的任务并及时优化。别慌啊,以上方法听起来有点复杂,我已经帮聪明的你把上述方法的详细的文字版也整理好了。我是拉菲儿,这是 openclaw 实战系列的第二期,后面会有更多实操,咱们下次见。

没有设置这个心跳,所以我损失了几百道,那么我建议你去检查一下你的心跳,就是这个 heartbeat。 为什么?因为如果你不设置它默认的心跳就是三十分钟轮询一次,你看到没有?因为配置里面没有任何心跳相关的设置, 所以它每三十分钟就会给我用我的主模型 ops 四点六去跑,二十四小时三十分钟一次,就是每天四十八次,我的几百刀就这样没有了。看了一下我最近的情况,想五百刀里面到底有几百刀是这个心跳给我消耗的。

前两天有粉丝跟我吐槽说用龙虾太费偷啃了,平均一小时就要烧掉一百块,问我有没有节省偷啃的方法。今天就会分享我们在跟龙虾对话的过程中常用到的三个命令,把这三个命令用好,能帮你合理的节省偷啃用量。第一个命令就是杠 status, 这个命令的话呢,是用来指示检查偷啃消耗情况的,当我们发送了这个杠 status 这个命令之后呢, 他就会回复我们这几行信息。请重点看一下这个 context 当前上下文占用的比例,如果你发现下文已经快满了,就要让他去总结和记忆,那让他进行总结的话呢,我们就是会使用到第二个命令放 compact。 这里先给大家普及一个知识点,当我们在聊天界面跟龙虾对话的每一条消息,龙虾都会记下来,存到一个叫 scissor 的 文件里,当你输入一条新的消息给他的时候,龙虾就会把最新的一条消息加 scissor 里面保存的历史消息一并发给大母星,这样的话就会导致我们 to call 的 消耗会增加。那你使用 compact 这个命令是来压缩历史对话的,它压缩的话就是龙虾在 scissor 里保存的历史消息。 你看,当我发送完这条指令之后,他五九 k 的 对话内容压缩到了二点六 k, 就是 节约了很多上下文的空间。那第三个命令就是杠六,清空上下文,开启全新的对话。这个适合的场景就是当你的龙虾完成了任务一以后, 你又给他布置了任务二,这个时候的话呢,是其实是需要自己评估一下,如果任务一和任务二没有任何关系,你就可以使用杠六这个命令来清空一下上下文。 我不清空一下,龙虾在做第二个任务的时候,就会混着你任务一的对话记录一起传给大模型,那这样其实也是一种偷啃的消耗,浪费了你的偷啃,同时速度也会变慢。 当我发送了杠六这个命令之后的话,他给我反馈了这样的一条提示,就是告诉我可以开启一个全新的对话了。一个杠六的话,大家可能会担心,这样做我的龙虾不就失忆了吗?重要的信息我要让他保存下来,怎么办呢?那这个就需要 memory。 当我跟我的龙虾说了这样的一段非常重要的消息, 加上这样的一句话,以上内容存入 memory, 这样这条重要的消息呢就会存在 memory 里。存进去之后的话呢,你再使用前面的杠 compact 杠 new 命令,也不会对它产生任何影响了。最后建议大家还是要选择一个 ottoman 模型套餐来用,像是阿里云百联的 ottoman, kimi 的 ottoman, 评价都不错,性价比也挺高的。

今天聊个核心问题啊,就是怎么样很便宜的使用佣价,就是很多朋友装了 open crawl 之后呢,最大的问题不是说不聪明,而是花钱如流水,太贵了对不对? 今天我把我的经验分享给你啊,就是我是怎么样同时调动一二三四五六七八九,我调动九个 agent, 然后是全天干活,但是我非常的便宜。这个设置呢,全网应该没有人把它讲明白了。正常情况下,就是我大概一天啊,就是比较保守的去用的话, 大概花五百块钱。在算力方面,三十天是一万五千块钱,但我很开心的告诉各位,我现在一个月大概算力费用不会超过两百块钱,根本用不完。好,先看一下几个套餐的选择啊, mini max 这个极速版的阅读套餐,它是真的很抗用,但各位看一下,我的消耗是零。 之前我的智能体是全部跑在 mini max m 二点五上,因为它的性价比非常高。高到什么程度呢?我觉得 kimi 二点五已经是很良心了。 mini max m 二点五,它的价格是 kimi 的 一半一半,我以为我已经是巅峰了,但我发现我依然是个孩子, 因为我现在把我所有的模型全部调成了各位看一下, g p t 五点四, 意味着本人现在用着全球最牛皮的模型,然后一个月其实算力费也只有不到两百块钱,而且我是把所有的我的 bot 全部调成了五点四,看到没有, 我的数据,员工,我的财务,我的设计师,随便看一个吧,比如说,打开我的设计师,打开小易,哎,不好意思啊,这这这这这这这这这个,纯粹是为了那个为了艺术啊,就是我我我要试下那个图的模型啊,你不想太多啊,这个这个这个,纯粹是工作需要啊, 看一眼吧。哎呀,这个这个这个,就现在,你不得不说,这个,这个人工智能,它确实是它很到位啊,它很到位啊,对吧? 哎呀,这这这,哎呀,算了,不看了,不看不看了啊,我们讲正事啊, opencloud 他的创始人 peter 被 openai 给招安了,现在就是 openai 里面的那个个人智能体部门的负责人,是全量参与 openai 的 工作,所以他其实已经把 opencloud 完全交给了 openai。 而现在,此时此刻,全世界我觉得编程也好,调用电脑也好,最牛的模型是 gpt 五点四,我现在就长期就挂在五点四上面,没有任何的问题,根本用不完。我实话实说啊,就是你不能要求 mini max m 二点五跟 gpt 五点四的能力是一样的吧,这俩差着还是有点 距离,它会体现在哪里呢?就是你看啊,我现在是用 telegram 去控制我所有的机器人和智能体。你会发现一个问题,就是当模型没有足够聪明的时候, 它很容易犯一些错误。就算你做了很多的记忆设置,包括很多的 crown 设置,你会发现还是不行。你可以这么去想啊,这是我家真实的公司对不对? 你会需要先招一个职业经理人,先招一个总经理,这个总经理他要是深思熟虑,他是很聪明的。但与此同时,我其他的员工,比如他是个大学毕业生, 他还没有更多的工作经验。相当于什么呢?就是我给他配的可能是稍微便宜和一般一点的模型,很多时候因为用模型太贵了,我,大家看一下会贵到什么程度啊?今年二六年的 三月九号这一天,这是我的消耗对不对?到这边看一下,呃,就是三十个美金,三十美金成期 就是大概两百多块钱,这只是我用了很短一段时间的消耗,我没有上大的项目就已经这样了,对吧?那如果我再上点大项目,比如说,哎呀,我出点好的图,对吧?我在 webcoder 做个网站什么的,那个消耗就不是这个级别了, 就是我拿起手机,我去讲我真正需要做的事情,然后这边连到我的 telegram, 他 就能够把这个问题给解决掉,就变成了我以后做所有的事情。我就是拿起手机想想,我就说一句啊,有什么问题需要他解决, 我的电脑端就全部自己去跑去解决。以往的问题就是因为算力消耗太大了,大家用不起,就不敢这么去想,这么去玩,但当你有了几乎无限算力的时候, 就没有这个问题了啊。大家都知道我现在用的是那个语音输入法嘛,就是用我这个麦克风,然后结合键盘的快捷键就可以直接进行输入嘛,我现在直接给你们试一下看看啊。 好,我在这边点击 ctrl, 然后调用我的麦克风啊 slash models, 然后点击结束, ok, 在 这边它会出来。好,这个时候它会让我切换不同的模型。供应商第一条路径呢是我的默认供应商,真正走 codex 的 gpt 四的这个用量它几乎是用不完的。 第二个呢就是 mini max, 我 很推荐的 m 二点五的模型,而且你可以选择这个呃, high speed 的 这个模式,它基本上就是比平时你用 m 二点五要快快两到四倍,真的是很爽的。 然后我同时还是保持了这个 kimi k 二点五我觉得是个好模型,因为它的上下文足够长,一百万字上下文真的很好用。然后第四个我依然保持一个用 openroot 去调用。我觉得现在世界上最好的几个 深度思考的模型,包括 cloud open 四点六, so nice 四点六,稍微便宜一点。然后呃, google gemini 现在最好的模型三点一 pro。 各位有什么跟龙虾相关的问题都是可以问我的。在非专业程序员领域里面,对龙虾研究最深的那一波人里面肯定有我。我希望帮助各位都能搭出自己的龙虾和一人公司的 ai 团队。

大家现在各种龙虾养不起啊,但是都在说一件事, ok, 太贵了,太费钱了啊,有的小伙伴说跟他说了个你好,五块钱都没了啊,但是我们还是有些技巧能够让养龙虾的费用给降下来的,我自己从一天两百多美金,三万的费用已经降到了几十美金之间,我懒的时候就剩个十美金左右。 好,下面是三条养龙虾省 token 的 技巧啊,一定要点赞加收藏啊!接下来第一个呢,叫善用命令行,那什么叫命令行吗?就是这个龙虾在设计的时候啊,它是有几个特殊的命令行的,这个命令行是不经过大模型直接发挥作用,它是直接跟龙虾驻留在电脑上程序发生交互的,所以首先它本身不消耗任何 token。 第二呢,他的优先权是高于大模式,所以啊,你看我为什么打的你好啊,有时候就会一下子消耗那么多。因为龙虾每次在跟你聊天时候,他要把各种的记忆给装起来,比如你是谁,这个有什么规则要他遵循的?还有刚才你们聊了什么,都装在他的这个 memory d m d 记忆里,所以他记忆就会越来越庞大。你一跟他说个你好,他几十万字先来想一遍,再跟你说话,每句话都想一遍,你说这 top 不 就飞起来了吗?所以呢,这个斜杠命令符呢,有几个大家一定要记住啊,一个是斜杠六,斜杠六是干嘛呢?就是横写对法, 之前的很多对话里的上下文他都不要了,就是他不用想那么多事,只要知道主人谁,我在干嘛,所以这是很能省筹难。那还有什么斜杠 restart, 那 这个秘密就厉害了,经常有的龙虾不理你,你也不知道他在干嘛,或者说个你好就消耗上下文太多。斜杠 restart 相当于把整个龙虾给重启了,不管他在干什么, 这个命令是特别高优先级的,他只要把这个 user 点 m d 还有搜点 m d 读进来,就可以可以开始对话了,随时有大量的节约。还有个叫斜杠 stop, 就是 有时候你跟他布置的很长任务,还是来回想,我觉得他想错了,想错了怎么办?那么你打个斜杠 stop, 他 停下手头任务来响应,把前面刚才要划的头很线省下来。还有个斜杠 compress 对 你的记忆啊,不管怎么样,他他还是要记啊,用 memory 点 m d 当记了很多以后,这个一说话就是几百 k 几十万字在里面的时候,但记了很多以后,这个一说话就是几百 k 几十万字在里面的时候,但他压缩一下他的记忆。 至于怎么压缩,你不用管了,大模型帮你压缩好,压缩就大事都记得,小事不记得再说,再去找之前的记一下。所以这几个斜杠命令用好了哈,是能够帮你非常有效的省很多。 tok 的 第二个技巧叫什么?叫做能用程序搞定的不要用大模型搞定,啥意思呢?就有时候你布置给容下一个任务, 他就开始给你想了,噼里啪响一堆,然后给你自言自语,那燃烧的都叫 tok 的 最好办法,什么就有的事你让他做完一遍以后,你马上让他写成代码,说你下次先运行代码,代码代码不行,大模型再上。 代码是不消耗托盘的,在你很多重复任务的时候,你首先问大模型怎么问的,就是你能不能把它写成段代码,写成脚本,写成点 python, 让他去写成代码去帮你干件事, 这代码一旦形成,你再跟他说继承 skill, 这样的话他下次就直接掉代码。那我举个例子,在外有一天没怎么跟他聊天,花了我一百多美金,我说这怎么花的,大哥给我看看, 有他去看说,哎呦,当时我们有个团团邮局,就是他们那个龙虾煎饺的邮局,互相学习东西,我为了快速学习,我五分钟检查一次邮件,就每次检查消耗好多 top, 今天的 top 全消耗在这。我说大哥,你检查邮件为什么要你自己亲自上呢, 对吧?你是个大模型啊,检查邮件让脚本上啊,脚本发现有新邮件,你才上没五分钟,拿大模型去跟着邮箱接口对一遍,读读有没有新邮件,这完全没必要啊,我说这个能用脚本就不要让大模型自己上, 我都变成了这个我们家三万的一个规则。这也是你和你家龙虾达成一个工作默契啊,因为程序代码写好了,他跑只消耗 cpu 资源,不消耗它,尤其在这种多次重复的任务里面, 对吧?你一定要跟大漠星商量,怎么能够用脚本去检查,比如刚才那个邮件检查,包括有的人喜欢看新闻简报,对吧?其实很多地方都是用脚本去完成的, 你跟他多讨论讨论啊,帮你省钱,头肯就省住了。第三个秘诀啊,叫用好不同版本的大模型,各司其职,什么意思呢?就是今天对吧?真正贵的是那些海外大模型,顶级大模型那真叫贵啊, oppo 是 真好用啊,那一说话我也心疼啊, so, mate 也很贵啊, 但是呢,你的很多任务是不需要这么贵的模型。其实我们今天的国产大模型便宜又好用,价格低,量又足,在完成大部分任务时,他们足够用。 比如说你要看份新闻简报,要做一个什么网页模板,那怎么办呢?有几个方法,一个方法就像我们家三万呀,形成一个叫多 a 镜的团队,就从一个龙虾变成多 a 镜。怎么变成多 a 镜呢?我们三万龙虾日记有奖,也可以去我们的三万点 a 啊,去看多个 a 镜的,就相当于你一只龙虾变成多个角色。有的任务那必须贵的上,比如说今天写程序,写代码,可能 还是某些模型好,但是在整理简报啊,搞一个报告给你啊,做一份调研啊,甚至搞个 pdf 文档啊,让他用国产模型。我跟三万就商量了,我说每天我在网上看资讯,这资讯我们起一个叫爬虾,用最便宜的模型, 国产模型几个都不错啊,随便上一个,每三十分钟给我检查一遍。哎呦,这个费用从几十美金一下到一天就几美金,便宜太多了,效果也很好。所以这是一种就是多 a 件,然后在不同的任务中给他分配不同模型。还有一种是什么呢?就是说其实我家三万,我们公司很多人跟他聊, 后来我发现,哇,每人一聊,我的头壳就就烧起啊。后来我跟三万聊了以后,知道他在不同的对话里面是可以用不同模型的。 哎呦,我听着这可太搞笑了,我说这样三万,除了跟我聊啊,你用这个最好的模型,你跟我们同事聊,用一个便宜又好用的模型就行了,因为本章是收集同事给我的建议嘛,对吧?你只要把这个应用带回来就行,传递员,这个不需要那么高文化程度,只要把话如实带回来就可以。 所以跟不同人聊起不同模式,这里面还有第三条路是什么呢?就是你要知道我们的龙虾在调用这些任务时候,他是可以启动贼镜,他自己就可以启动,你说我配置多一件,他很麻烦,那没关系,你就可以指定某一个任务用什么模型,比如说我现在要一个什么关于三幺五主题晚会的简报,你现在启动个贼镜帮我干,你用什么什么模型,直接给他起定, 他就用那个模型去干,对吧?所以你有多种方法用多个模型会用的方式来降低你的托克,好吧,这就是我啊,这个滑雪,这个摔伤,在家半个多月啊,总结的各种这个沈托克的秘籍啊,你听懂没有?点赞收藏啊,以后给你们带来更多的养龙虾技巧。 刚刚那段沈托克视频是我一个人坐在轮椅上面。坐在轮椅上面啊拍的,我现在是一个人轮椅走天下,正好体会一下残障人士,虽然我是临时残障人士这个无障碍通道整个社会给予的关爱, 整体来说,我现在觉得还是很 ok 的, 人间处处有真情,人间处处充满爱。我会把一个人轮椅走天下的过程到时候也剪辑出来跟大家一起分享,敬请期待。养龙虾就用 ecclo。

看到富盛在分享怎么让小龙虾整 token 的 视频,基本上我听完这条分享之后, 其实我的小龙虾就已经拥有了节省 token 的 能力了。我不知道大家能不能理解这件事情,当你看到知识的时候,其实你就已经拥有了知识,很有意思,这是可能在 ai 时代新的一种学习范式。其实这就是一个建 skill 的 过程, 我给大家演示一下,你现在这个界面是我自己 cloud 的 命令对话框,我现在就把不剩的视频的文案发给我的小龙虾,让他自己学,就用魔法打败魔法。现在我用的是 kimi, 我 们看一下,他现在已经学完了 脚本替代,我们现在是在用的多模型在用。我要问他,你能不能建 skill? 对 我而言,其实它应该属于一个简单任务, 米干活很糙的,就是他建好之后他也不跟我说个结果,所以我决定还是要让 cloud 看一下,我会更放心一点,怕是已经查出来一个严重 bug。 我 刚刚也是试测了,其实写 skill 这种事情还是需要博士生上的,现在 他问我要不要帮我来修复这些问题,那我就告诉他说,别,你先别干,因为不像很多人说你有了小龙虾你什么都不管了,不是那样子的,我觉得在定规则这个阶段还是要管的,他得了解你的工作习惯,了解你的标准。所以呢,我现在就会告诉他 不行,因为首先第一,我需要看到完整的规划,第二,你得明确告诉我,你什么时候来提醒我这个上下文需要 compress 了?你的标准是什么?你是到一百万 tock 的 时候,那钱都烧的不知道到哪去了,包括他要帮我去优化怎么选择模型,那我也会告诉他你都不知道我要处理什么任务,如何去分配。因为一开始那个 kimi 也是写的很离谱, 说让 kimi 帮我写代码,让 opas 帮我看图片,然后就神经病啊哈哈哈。相当于就是你找了一个错的人去干他不擅长的事,即使是 opas, 我 得需要让他 很清晰的把他准备怎么干他的计划先给我看,不然那完全就是一个黑箱子,他在里面搞东搞西你都不知道。所以我们把这个命令发出去,好像我们的反馈已经开始出来了。首先,必要的和不必要的可选的是什么?你看 他会告诉你压缩上下文出发条件是什么,提醒的形式是什么样的,你看这就很好,执行后费用可降低百分之五十到八十,包括责任务的分配,他会给我看到整个的执行流程,调度机制是怎么样的, 那我就心里很有数,现在这个 skill 已经开始在工作了,就刚就是我问他这个 talk manager 的 skill 有 没有已经在开始运作了,那你判断这是一个复杂问题还是简单问题? 你看 ai 就 咔咔咔咔就给我回答了一串,我套了一下他的话,我就套套说这个对话,你已经有开始按照我们的 token manager 这个 skill 开始判断模型了吗?就我的言下之意就是你是不是还在让我再烧 opus, 用很贵的模型在处理简单任务?刚刚还在讲,哼,你这个 skill 都没有好好工作, 结果你看人家说你说的对,但是我刚刚查了一圈,你现在用的模型其实已经是二点五了,也就是我们的这个 skill 其实已经在起作用了。它没有提醒我,但是它悄悄地已经把那个模型给我从 opus 换回了二点五。 接着提醒,现在这个对话窗口的上下文已经超了,那就问我要不要开始执行压缩,他已经开始按照 skill 制度自己在开始运作了。那我刚刚也看了一下后台的 a p i 的 消耗量,确实止血了,不像前几天那样真的让人血压飙升,所以 我们的这个 token manager 就是 谢谢富顺老师的贡献。如果你对这个 skill 感兴趣,也可以留意评论区,那我们下次分享见,拜拜。

万万没想到,让当下最火爆的 open clone 帮我们赚钱,结果他却要我们先花钱给他充 talking! 本期视频就来教你白嫖上千万 talking 的 神操作!首先打开这个网站,下滑找到这个输入输出都是零元的 deep secret, 轻轻一点它就会弹出详情页,点击打开这个 a p i 文档后,直接在 post 栏下复制这串网站的域名 url, 然后我们打开电脑自带的命令提示, 以管理员身份运行后,我们下滑找到龙虾的 api 配置页面,把刚才的 url 域名复制到下面后,回车,龙虾就会问我们索要 apikey, 此时我们再回到刚才的网站,找到 apikey 秘钥栏,新建一个自己的 apikey 后,我们点击复制,然后粘贴到龙虾的 apikey 索要栏下,继续回车, 等它提示我们输入模型 id, 再回到 deepseki 的 详情页的最顶端,点击这个复制符号,模型 id 就 已经到手。 此时只用粘贴到输入窗口,然后回车,一个无限 talking 的 龙虾就已经配置完毕,此时随便给他发布什么任务,等他完成后,我们进入消耗后台,可以看到我们已经消耗了十二万的 talking, 却没有花一分钱。

当你不小心安装了个 open curl, 然后发现 token 消耗刹不住了,而且非常健忘。你直接给我去 guitar 输入 cloud man, 你 会发现这是一颗能给你的龙虾赋予持久化记忆的插件。以后你就能像看朋友圈一样,实时看到你的 open curl 到底记住了些什么,而且还能节省百分之九十的 token 消耗。之后你又不小心输入 open viking, 更牛的来了,这是一个专门为你的龙虾设计的开源上下文数据库,它能让你的多个智能体之间共享信息,直接结束那种无法协助的智障模式,而且还能让你的书 token 成本降低大概百分之九十六,任务完成率直线上升。有了它们,你的大龙虾会越来越聪明。这么好的东西,不给你的龙虾配一个吗?

啊,现在有些人装了这个 openclaw 又后悔了,说这个 token 花的钱很多, 还有人说一个月工资两万块钱都不够这个玩龙虾的,这个就是属于基本的原理搞错了吧?你去看看 peter steinberg 的 采访,他说的很清楚啊,就是说当然是自己整一个,比如说 mac mini 这样的,或者说 mac studio, mac studio 更好, 他可以下载一个相当足够的一个大模型,然后这个大模型你就在本地调用吗?这个一分钱不花,然后呢,又可以从你的本地的文件系统里头抓一些东西,然后如果说你想 让他帮你到网上,对吧?帮你做这些什么回复啊,或者群之类的,那你也可以做,反正这些都是免费的,那这样子才用的爽嘛 啊,所以说一定要搞清楚这个原理,不然的话你这个花老多钱了,你就看着别人这个一键安装觉得爽,结果安装完了以后,你还得用他的这个大模型 去给他的投肯交钱,那你这个实际上是免费的,是最贵的。另外一个呢,就是说你要搞清楚你究竟的应用场景在什么地方,如果说你真的能挣钱, 那你可能交点投肯费也可以,对吧?你比如说你一个月能进二十万,那你花个两万块钱可能也还行。 所以说很多人就没有这个应用场景,他也搞不清楚他究竟这个龙虾能给他干嘛,就知道什么跟龙虾说我要赚钱,然后给他三千块,他给你挣三万块,恐怕你这个有点那个 一厢情愿了,对吧?我们说一定要找到自己的一个比较好的应用场景,你比如像我就找到一个我自己觉得非常好的应用场景,就是 你比如像我一个班呢?比如有七十个学生,那这个七十个学生我改作业都改不过来,而且说你改完了只是给他一个分数,你能不能给一个学生一个更加个性化的一个评语?包括他哪道题做错了, 甚至他做错了以后,你跟他说看样子你这个地方基础不行,你去有针对性的补强,给你一些附加的资料,这些啊大模型都能够比较轻松搞定,特别像我们计算机,对吧?你给他相应的代码,包括 他教一个程序,大模型能够很轻松的把这个程序给读完,读清楚,包括测试,然后啊给打分,这些基本上都是十拿九稳的。那么如果是这样的话,你看你就要有个龙虾,只要你把这个文件下载到你的机器上, 然后他就调用当地的这大模型就给你去改作业,那你这几十个学生都没问题。而且学生拿到这个报告是不是觉得很开心?这个老师很详细的告诉我 哪些做错了,为什么做错了,我应该在哪些方面提高,然后注意注意要预习复习哪些内容, 这是一个非常高质量的一个教学个过程。所以说搞清楚应用,本地部署,你这个就是一个非常好的养龙虾的一个方式。

我的龙虾已经吃了我三点七亿的逃坑了,昨天我充了那个一百,又充了一百元,然后他很快用完了,我越想越不对劲,然后今天我解决掉了,找到问题了,就他后台有些程序他会一直是循环的在崩溃, 然后我做了一个监测系统,一直在调用问题,我怎么发现的呢?啊?我用魔法打败魔法,我用那个 open call 的 那去帮我做了个检查欧文扣的这工具真的很好用,他和欧文扣结合起来,因为他是有极强的编程能力的,所以他能够检查你文那个欧文扣的这个文件夹包括你的日期,能够给你分析,同时他可以帮我解决掉,你知道吗?他帮我找出问题,这个很香,这是一个消耗我掏款 非常多的一个一个一个因素。另外还有个因素就是我的文科,他是每次他会读取上下文,他会精准的命中我的缓存,就当你对话越来越多的时候,项目越来越长的时候,那他就得一直翻一直翻。兄弟们,这个是重复性工作 啊,这个也得修复,最好是有个解锁的机制,让他精准的有个需求的时候,或者有个问题的时候,他需要解决的时候,他能够先查一下去哪里找这个问题,而不是 去翻所有的记录,这是很慢的。这两个坑,兄弟们你们要避一下啊,能帮你省掉百分之六七十的头坑,妈呀,这玩意你你要是我 去好多坑。兄弟们,模型是一大坑,然后设置是一大坑,工作流是一只大坑,继续研究。

怎么样子节约?第一种就是说你在命令行加上 compact 就 压缩你的上下文,只要你在输入内容的时候加上斜杠,再加上这个 compact, 这样子系统它就会自动去把你的 历史的内容进行压缩,然后减少上下文的长度,那从而它是可以降低整个的 token 的 消耗。 第二就是说你需要把长的对话总结成短的栽秧,然后再进行对话,那这样子就可以把可能你让他去帮你做一件事情,你通过这样的方式 扔给他,那他最终就是消耗的托克到可能从原来的十几万压缩到只有几千这样的一个级别。 这是第三种就去用一些云平台,他们会推出比如像阿里云、腾讯云,还有像那个 mini max 云, 再还有 kimi 的 云,还有像华为云,意思就是说用这些云平台他们会推出这样的一个 呃综合的价格低的算力成本,因为它是综合采购商,它集中像 kimi, 还有像 mini max, 像 deepsea, 像 cloud 人,以及其他这些有想法的人,在数字世界中需要它来给你做助手的这些人的工具, 你在数世界可能有百分之二三十甚至六七十的事务性的工作,就那些重复性多,又是一些常规要去做的这些东西,你就可以扔给他,扔给他之后他会消耗很多的托管双利费,就像我过年前的时候,我在用这个的时候, 一天最高的时候就是说托管费,他高的时候有七八百甚至上千,后来调调调调调到现在 一天就几十块钱,就是二十块钱不到。我现在是三个在用,第一个是用的是富盛的 原质 ai, 我 原来买的是月费,我现在改成年费了,因为它后面用的是 cloud 的 四点六 oppo 四,它之前直播的时候,它讲的第二个我用的是乌班图, 我在改造过之后,我用原切 a r, 原来我是用 cloud, 酷狗就用 a r 编程,让他去帮我按照我的想法去改的,后来完全一托于原切 a r, 让他去给我改, 改完之后我扔上去就测,特别是安全问题,以及根据我的情况,我的诉求的问题,我有很多事务性的工作,我就扔给他做。第三个我是在测 mac, 我 也在看有没有更好的东西,其实这个本身来说是一样的,因为 mac 相对 windows 和步班图来说,它的安全性会更高,还有 windows, 所以我会很注重这个安全性。当然我这三个都是在我的统一的 windows 的 bm 虚拟机下面,并且我这三个上面都装了相应的安全。 windows 有 windows 的 三六零体式安全,也无端的 linux 下面的一个安全 mark, 它本身就已经也很安全了,我又装了一个对应的安全应用,这样子在,并且我的龙虾,我自己也也让 ai 以及参考了别人的帮我安全包了几层,这样子我就相对来说它要突破三四层, 用我的自己的 windows, 我 又用三六零加 windows 防火墙,就做了极致的安全,这样子我的安全基础的就已经有了 产我的 ai 时代下的产品专家已经上线了,它是包含三个部分,一部分就是说它通过一个又一个的技能,最终把这些技能形成一个体系,让这些体系内化成你的叫做手感。 第二个,你的你的产品如果是一个软件类或者是 ai 应用类,那么用教你用 ai 编程, ai coding 的 方式让它怎么样子完成,并且把你的这个产品上线可用。第三就说如果你在数字世界中需要有 就是这样多智能体,类似于你要去用 opencloud 或者是 nano cloud, 就 用龙虾这样的工具去做多智能体的去处理的,那么会教你用 ai 编程的方式去手搓这个东西,去按照你的意志,去你的想法去打造你的专有的龙虾。

openklo 三十天烧掉二十亿 token, 这个消耗是不是太吓人了?如果不要慌,我发现两个超实用的 skill, 可以 直接帮你把浏览器的 token 砍掉八成。我直接说重点,第一个就是 b b's bro, 能用的话优先用它,实在不支持的咱们再用 agent brower。 为什么?因为这两个 skill 核心就是干一件事情,只给大模型为最惊艳的信息,所以偷看自然就省下一大截啊。 bb brower 特别牛,他直接把这个网站当 a p i 用, 更厉害的是它能附用你的登录状态,省得你反复登录比较方便。不过它目前只次固定的平台大概有三十六个左右。那通用的网站咋办呢?交给 a j b r 的, 它会模仿这个真人 操作网页,该点击要输入就输入,遇到多页的内容还能自动翻页。所以这两个组合起来黄金搭档嘛,专门解决登录麻烦和偷听爆炸的问题。

龙虾最好,但三句话花掉一百万,拓客实在烧不起,这可怎么办?别担心,两个方法教你免费用龙虾。第一个方法,那就是去找免费模型啊。在这里就给大家介绍一个网站, openroot, 它相当于是 ai 大 模型的超市。申请 apikey 之后呢,去 opencloud 重新配置,选择 openroot, 输入 apikey 之后,就可以任意选择想要的模型了。 接下来我们去找免费模型,把价格从低到高排序。哎,先别急着用啊,这里有两个原则,一是选择上下文比较长的模型,免得龙虾忘事。二是选择托克用量大的模型,毕竟大家都在用的嘛,总不会错。比如近期比较火的届月的 dev 三零五 flash, 我 给大家试了一下,虽然在操作电脑时没有主流的旗舰模型聪明,但是完成一些基础操作也没毛病。 除了长期免费的模型之外呢,还经常有未发布的新模型匿名测试,比如小米的 vivo vr pro, 万亿级的参数百万上下文就以 hunter alpha 的 身份免费测了一星期,直接出上了榜单第一名,甚至发布后呢,还能免费用一周,不用白不用。所以希望以后啊,每周都有新模型的匿名测试,这样我就能一直白调了。 我知道你们不少人已经开了 chat 的 gpt 或者 gmail 的 会员,那可千万不要重复付费啊。第二个方案就是利用会员赠送的额度,比如 chat 的 gpt 额度,足够龙虾吃上亿头层了。 只要去 opencloud 选择 oof 方式接入,取浏览器登录一下,就可以实现龙虾自由,让你每月二十多的会员费物尽其用。那谷歌 gmail pro 的 会员呢?也可以去领取每月十美元的 a p i 额度,但可别想着钻空子,用 anti gravity 的 额度很可能会被封号, 毕竟 opencloud 的 原作者入的是 openai, 而不是谷歌。最后再次提醒大家,龙虾最好,但千万不要在自己的独立电脑部署,安全是最重要的。这里是金州 ai, 点开关注,为你分享更多的 ai 资讯以及实用教程!

龙虾真的太烧托根了,我在本地部署了一个龙虾之后呢,只见了两个文件夹,五十万托根就没了,后来我又用这个企业身份去认证了,获得了五百万的这个免费的托根,结果呢,也只是整理了两次文件,五百万的托根也没了。 看来要想让这个龙虾完全自由的工作,要实现脱坑自由的话,必须得本地化部署一个 ai 模型才行。那么要本地部署的话,我们就需要装一个这个叫做欧了吗? 他打开这个网址之后呢,下载安装,安装完成之后他非常的简单,你只需要选择一个模型,然后发起绘画,那么他就可以 自动的安装你所选择的对应的模型。安装之后我们再和龙虾进行对接,那么我们就可以实现这个托肯自由了。嗯,如果你在安装的过程中有任何的疑问呢?请查看这里。

我现在刚下班啊,龙虾机器人拉爆 token 的 问题啊,我给大家写了一个 skill, 正常情况下的话,应该可以降低百分之四五十的 token 消耗啊,如果说你经常处理大文件或者写代码的话,可能会降低到百分之七八十的 token 啊,还是非常有用的, 它是怎么实现的呢?就是首先弄清楚龙虾机器人消耗 token 的 核心原因是在于它在处理任务的过程当中去首先通过关键字去搜索到对应的文件, 然后呢把整个文件加载到了它的对话里面,这样就导致它的透明消耗特别大,其实它可能只需要取走某一个片段就行了。那么这个 skill 呢,就是通过用户的问题去解锁到对应的片段,去加载到对话就行了,它不需要去读取整个文件。 而这个 skill 呢,分为了这个基础版和 pro 版本,然后基础版呢,已经开源到这个 gitlab 上面了,然后 open curl hub 呢,上面也有,大家去搜一下,非常的有用。

这几天烧了一个多亿的抽空,我的小龙虾从左边进化成了右边,这样养虾体验真的大幅提升。如果你刚装上欧文壳,强烈推荐和我一样开启这五个设置,搭配这四条快捷指令,让你的龙虾更听话更好用,还能省下一大笔抽空费用。 在设置之前,推荐大家把对话插件一定要切换到非主流官方插件,这样小龙虾能做的事情更多,直接发个小龙虾链接,让他自己给你安装切换就可以了。 前三个要开启的设置是流逝回复、耗时和状态展示,直接发给小龙虾这段指令欧文克勒默认是不开启流逝回复的,导致我们要等小龙虾输出完所有的内容才能看到消息,等待时间很长,而开启之后就能像我们平时和 ai 的 对话一样,看到实时输出。 接下来要开启的两个设置是思考过程和工具调用,默认这两项都是关闭的,我个人觉得这两项还是很重要的,如果模型执行任务出错了,我们通过看他的思考过程也掉了哪些工具,能帮助我们更好的去纠正他的行为,不然有的时候模型骗了我们都不知道开启方式,就是发送给模型这两段指令即可。 先给大家介绍一下这个快捷命令,这是 open call 官方内置的聊天命令,每一条背后都是提前设定好的程序,直接控制小龙虾的行为,不会调用 ai 大 模型而消耗 token。 第一个是 stop, 这是我用的最多的指令,因为小龙虾在执行复杂任务的时候,它偶尔就会卡死,很长时间我们都等不到它的回复,但实际上一直在后台燃烧我们的 token。 这时候如果你发消息叫他停下,你会发现他不会停。这是因为 openclock 有 消息队列的机制,我们的上一个消息没处理完,新消息就会在那排队等着,所以这时候就要用到这个命令,输入 stop, 然后强制停止他的推理,就可以继续跟他对话,把他给纠正回来。这个非常重要,如果你不会 stop 的 话,你的账单可能就爆炸了。 第二个是 status, 能查看小龙虾当前的各种参数,我经常用来去看 context 来判断现在上下文的长度。因为现在很多的大模型虽然号称上下文是两百 k, 但实际上用起来到一百五十 k 以后,模型就变得很笨,而且回复很慢了。所以我们不需要用到两百 k, 我 会差不多在 context 一 百多 k 的 时候,就搭配另外一个指令 compact 来主 动压缩上下文,它会让 ai 对 上下文做总结摘要,不仅节省了成本,又不会丢失关键信息。这个我也用的很多,因为小龙虾用起来上下文增长真的很快。第四个是 new, 我们要给龙虾一个新的任务的时候,可以用这个指令直接开启一个新对话,这样就没有之前的上下文干扰了。但我个人其实更喜欢用 compact 来压缩这个看大家的使用习 惯。为了方便使用这几个快捷指令,我把它们固定在了我的聊天界面,直接去飞书开放平台,在机器人自定义菜单这里添加这几个快捷键,展示形式选择悬浮响应动作选择发送文字消息,设置完成后修改并发布就可以了。那这期视频就到这里,所有指令我都放在了视频下方,希望能对你有帮助,也可以分享干货,我们下期见。

龙虾机器人耗费偷啃的原因啊和解决办法,我终于找到了,这是我花费了两个晚上研究出来的一个结果,现在呢免费的分享给大家,对于那些想要组建数字人团队的人来说啊,尤其的重要啊,记得点赞收藏啊。首先分析一下为什么龙虾机器人他是一个偷啃的吞金兽,而且主要有两个原因, 第一个呢就是他的特别庞大的系统题词啊,他的大系统题词大概是我们日常使用 ai 的 十五倍以上,主要是因为呢,他加载了大量的 skill 数据啊。第二个呢就是他在处理任务当中,他会去读取大量的文件,他会把这些文件的全量的加入你的绘画啊,会导致你的呃头壳消耗就鬼血球似的越来越大。早就基于这么两个原因, 那怎么去解决呢?也有几个办法。第一个就是对于 skill 啊,那无非就是我通过懒加载的方式啊,去间接式加载呃他的数据,这个呢是目前企业级对于 skill 的 一个通用的解决方案,都是通过间接式的加载去解决的。 那第二个呢,就是文件的处理,那文件怎么去处理呢?那么我可以去只需要去加载我处理这个任务过程当中需要的内部内容,把它加进去,我并不需要把整个文件加进去,这个呢我就可以通过瑞克的方式,或者通过一些上下文的重叠把它加进去就行了,我们啊这样就可以解决呃这个投屏消耗的一些问题。 这个呢当然是从系统本身的层面去分析解决的,当然还可以从架构层面去更高维度的去解决这个问题,那么比如说我可以本地去部署模型,本地部署模型那我就不需要去考虑这个问题。 第二个呢,就是我可以通过我的数字人团队,根据他的分工的不同去做模型的路由,让呃处理复杂任务的这个 a 技能呢配配出高智商的这个模型,处理简单任务呢?配出低智商的模型啊,这样来解决,这样一整套下来啊,你的数字人团队的成本就会明显的下降,所以赶快搞起来吧,一人公司真的不是梦想。

所以说最后的结论是,它其实不是百分之九十九,它大概是百分之九十五左右。所以呢,上述的那三个决策又导致了我们,呃 input 输入的这个 token 就 直接消除了百分之九十九, 这就是那个百分之九十九的来源,就是因为输入的 token 蒸发掉了,我不需要这么多 token, 我 原来平均一条消息的平均 input 一 输入的 token 是 二十七万,我现在几乎忽略不起。为什么? 原因在下一页,在下一页还是下一页?原因在下页,原因在下一页,下一页给你们揭晓谜底,下一页这是为什么?峰值刚开始从一百二十八万,现在降到了低于一千,说降低了十倍,一百倍,一千倍降低了一百二十倍, 从一百二十万到低于一千 cash read 一个投分从五到了每次大概二十五万到八十五万,这其实就是我们的音库,我们的输入从二十七万降到五,那他去哪了呢?那海量的那些上下文记忆去哪了呢?他,如果, 如果你只是输入五到十个 token 给模型,那他给你,给你吐出来的这个结果不会是想要的。如果你每次输入就输入十个 token 给他,这个什么就大概就是五六个字,你每次就输入五六个字给他模型,你能指望他模型能够给你? 显然是不现实。那怎么我们的那个 excel 透根输入大概就是十一点?那就是因为这个外加个底子膜,因为我们用的叫做一个叫做 prompt cash 的 一个一个缓存,这是一个提示词的缓存。 那其实什么呢?他其实是如果你有那些固定的背景文件,比如说你的角色设定文件啊,你的售啊,你的,或者说是你的行为准则文件,你的一进就这个售点 m d 和这是你的角色设定文件,一个 a 进去点 m d, 这是你的行为准则文件。所有的龙虾机器人都是这两文件,这两文件有的人会写很大,写什么上千什么, 但你每次都把这个几百万上线往我心那扔,那肯定我心每次吃都吃很饱,但你每次如果都扔同样的文件进去,那其实你从第二次开始,那就是浪费。 所以呢, top 就 设计了这样的一个机制,他就是能够将这些固定背景的这些文件去进行长期固化,变成一个缓存,它的触发是什么?它触发是如如果它识别到了前缀是完全相同的,那么它会自动的去命中,命中福气上面的缓存。 意思就是说你这个稿子我见过,就说我不需要再读一遍,我只要看到你的稿子的那个标题,跟我之前你存在你上次给我看的标题一样,我就做就是同一篇稿子完了, 所以这种发送出去就是我如果是一个二十七万头更的这样一个基础知识文档,那是让我也只需要存一次,哪怕我,我的售文件和我的 a 级文件非常长, 你在场,你到我这里来,你只需要存一次,你放进来,我只需要单独处理那一次。你从第二次起你跟我对话的时候,你用同样的这个 so 文件和这个 ag 文件,那么每一次我去读你那个缓存的时候,它的价格其实只有我直接去触及七万投款的价格的十分之一,这就使得 我们最终的价格能够被打下来。所以说最后的结论是,他其实不是百分之九十九,他大概是百分之九十五左右。他百分之九十五是因为在这里有一个固定的百分之九十的成本, 百分之百分之十的成,百分之十的成本,百分之九十的节省。你在前面的 input 节省了百分之九十九,你在这个缓存上节省了百分之九十,所以说中间大概拉平了之后大概百分之九十五。要注意,百分之九十五的节省是多恐怖的事情,非常恐怖。 如果你每每个月要消耗两千块钱去在 top 上,那百分之十五的节省就是你能够把你的 top 成本除以二十。就说你从原来每个月要花两千块钱,变成你以后每个月只花一百块钱,但是你干的事情其实跟原来两千块钱, 你负责干大事,内容交给龙虾。