第四集呢,我们来科普一下关于 token, 也就是前面我讲说喂龙虾要喂的饭,很多人不理解说,哎,这个到底是怎么算的?我怎么感觉好像都不太够用。 所以我今天我来讲一讲这个 token 的 底层逻辑,同样是用说人话的方式,一次性讲清楚为什么要有 token, 它是什么都有,谁在用。 首先先讲为什么要拖更,你平时对着电脑用手机打字的时候呢?文字对我们来说是很直观的,但是计算机完全看不懂啊, 计算机他只认识什么呢?认识数字。于是大家就定了一个规定,把字词、标点和符号切成一小段一小段的,然后这个每一个小段给他编一个唯一的编号, 这个被切好的文字的小段,再加上这个对应的编号,合在一起就是头梗。 好。第二个,头梗到底是什么?头梗其实是 ai 世界里面的文字最小单位,它不是字,也不是词,而是模型能够直接读的最小的片段。 呃,比如说一段中文或者一段英文,会被模型自动切成很多很多个头梗。举个例子,恭喜发财。呃,这句话对于 ai 来讲呢,它像一个完整的土豆, 哎呀,是没有办法直接啃的,没有办法直接吃的,必须要被先切成土豆丝。这一根一根的土豆丝就是头梗,为什么要切呢?就吃不下一整段话,所以他只能一段一段的处理,这就是计算机。目前计算机都是这样, 必须要有统一的大小,统一的格式, ai 才能算得快,算得准。有了统一的单位呢,才能限制长度啊,算价格,算算利。 所以呢,你发给 ai 的 字,呃,加上 ai 回给你的字都是要算透肯的,你就当是你给 ai 干活,那你就要给他发工资啊,你说的越多,他回复的越长,工资就越高。就是这么个道理 啊,谁在用 togg 呢?所有你正在用的 ai 大 模型,只要是处理文字的 ai, 底层全是 togg。 好 呢,我们前面有讲到说龙虾,上一节有讲到说龙虾 它是一个需要不停的去砸装备升级技能的这么一个工具,那么会不会导致消耗很多的头梗,需要喂很多的饭哦,发很多的工资呢?这取决于,呃, 取决于他的干多少活吧,本身 skill 他 是不占用 token 的, 但是你给他加的 skill 越多,比如说他现在身上有一百个技能对不对?我又会算数,我又会英语,我又会翻译,我又会这又会那又会查天气,又会帮你买机票等等, 他本身的这些所有的技能是不会消耗头梗的,什么情况下会消耗呢?你给他发一个指令,你说,嗯,帮我查一下今天去北京的机票。好,他这个时候他是会消耗的,他查完了以后给你,也就说你在第一个指令 你没有很明确的给到他,你想需要什么?你在同一个问题上面反反复复的去问他,他给你发了这几盘,说,啊,不行,这个时间好像有点早了,你能不能找个晚一点的给我,那就会导致他不明白你的需求的情况下,他在后台他会 用很大的这个算力去找,也就说当你的指令越模糊,当你给他提出的需求越来越多的时候,那他后台消耗的吃的饭那肯定会越来越多。什么样的情况下我们可以去节约托克呢? 就是刚才我举的这个买机票的这个例子。你在发出指令之前,你需要自己清楚的知道你要给他下达什么命令, 所以你不要只管着。哎呀,自己迭代,我觉得县级段也好,呃,未来也好,我们最重要的技能一定是自身的一个知识系统的迭代,你脑子里面思维的迭代, 你自己首先要足够厉害,因为不管是什么样的工具,从零到一的过程一定是你自己,你才是最终的总指挥。
粉丝1206获赞7992

号称二十四小时免费员工,结果下来一个月比雇两个大学生还贵。最近后台一堆人跟我吐槽 open clock, 就是 那个大龙虾,聪明是真聪明,携带码也还 ok, 但是烧钱是真的烧钱,跑个任务偷开账单,直接原地爆炸。 为啥会这样呢?因为大龙虾有两个致命的缺陷,第一,金鱼记忆大模型,没有脑子,全靠把历史对话一股脑的塞进 promet 来假装有记忆。所以任务异常,上下文异常,这货就疯狂的重复发送相同的信息,偷客的账单呢,也直接起飞。 第二呢,信息污染,跑个事要命令呢?返回了五千托克的报错解锁代码呢?又呼上了两千托克。这些垃圾信息呢,塞进了上下文里,真正有用的信息呢,不到百分之五, 所以就会越跑越慢,越跑越贵,最后直接给你整破产。那怎么办呢?今天给大家推荐两个神级的死 q 神器,一, cloudmail。 这个玩意用了一个渐近式的三层解锁,先给你个超经典的目录,需要的时候才拉时间线,最后才按需加载完整细节, 把百分之九十的废话呢全部挡在了外面, token 呢,直接省掉了十倍。第二个神器呢, open viking, 火山引擎,开源的怪物级的项目。它彻底摒弃了传统的 r a g, 首创了文件系统范式,把龙虾的记忆资源技能全部变成了树状的结构,就像管理电脑硬盘一样,用路径就能管理所有的 ai 大。 最狠的是什么呢?支持 l 零 l 一 l 二分级加载,龙虾之间交接任务,再也不用传全文了,直接传一个路径,指真需要什么,自己顺藤摸瓜去取,又省了百分之九十六的 top。 别以为我在吹牛。官方实测数据,接入 open wiki 后, opencloud 任务完成率从百分之三十五飙升到百分之五十二,输入的 top 成本呢?断崖式的下降了百分之九十六,这个数据直接炸裂了。 所以兄弟们,如果你还在为 a p i 账单心疼或者被健忘的大龙虾折磨的死去活来,赶紧去 get 上扒一扒这两个项目。当然我也会把这个地址放在评论区,大家也可以在评论区说一说你的大龙虾到底有多费钱。

智能体无线 token 的 完整版视频来了,这次我们让网页智能体控制本地智能体执行技能。网页智能体访问大模型是不需要消耗 token 的, 这样我们就可以实现真正意义上的无线 token 对 话。 本地智能体负责生成提示词,通过 c t p 协议将提示词发送给网页智能体。网页智能体接收提示词,调用大模型生成回答,将回答通过 c d p 协议返回给本地智能体, 本地智能体根据回答执行相应操作。好,下面我们来看一下演示,我们给本地智能体发送测试 test skill 技能的指令,这个技能主要完成屏幕上展示的六项任务, 这里有个关键点是要要求网页智能体按照我们的格式输出,每次发送提示词都要新开一个绘画在本地智能体里管理。上下文 可以看到,本地智能体调用子智能体获取了当前时间,并执行了技能目录下的拍损脚本。 大家有什么想法或疑问可以在评论区留言或私信我将为大家解答。

当你不小心拥有了一个 open class, 但你总感觉它傻傻的,不好用于事。聪明的你钻研了一番后,明白了,小龙虾只是这个智能体的一双手,大模型才是它的大脑,决定了它是否聪明,而 skills 是 它的工作技能,决定了它是否有能力处理各种任务。 而大家总提到了 token, 就是 智能体的能量。使用智能体需要让大脑运转并调动小龙虾的双手并使用技能, 所以会消耗 token。 这也是为什么我们需要向大模型厂商付费。然后聪明你开始尝试使用不同的国内大模型来给智能体安装不同的大脑。这个时候你发现了接入了 cloud code 的 时候,这个智能体他是最聪明的,任务的完成质量最高,但是费用也最高。 然后你又发现接入了国产模型的时候呢,他也能完成很多任务,花销也很划算。于是不想当冤大头的你,想着好像可以让不同的小龙虾安装不同的大模型, 简单的一些工作,比如每日发送日报,这种工作就可以直接交给接通了国内大模型的小龙虾去做,赶紧去这么做吧。然后聪明的你为了让小龙虾能更快更好的完成任务,打算教给他各种 skills, 也就是技能。于是你在 skills 后面加上了 s h, 发现这里有七万多个 skills, 你 又了解到 open club 官方 skills 也有一万多个。不要慌,我已经给非技术背景的你准备好了十个基础 skills 和五十个进阶 skills, 咱们放心使用。这个时候呢,不想当月大头的你,感觉还是有方法能降低 token 的 成本?没错,这里我给你准备了三个方法,让你的 token 花费能降低十倍。一是多使用订阅而非 api 的 用量模式。 二是建立本地的 markdown 知识库, opencloud, 每次读取的时候只读取锁瘾。三是部署一个小模型来在本地跑。 opencloud 的 心跳模式,就是那个让你们感觉小龙虾火起来的关键机制,实际上是小龙虾内置了一个每过一段唤醒自己一次完成任务的机制。 除了以上三个方法呢,你还可以给你的小龙虾建立体检机制,及时的找到那些高消耗的任务并及时优化。别慌啊,以上方法听起来有点复杂,我已经帮聪明的你把上述方法的详细的文字版也整理好了。我是拉菲儿,这是 openclaw 实战系列的第二期,后面会有更多实操,咱们下次见。

最近发现一个工具,专门解决 ai 编程烧 token 的 问题,叫 r t k。 先说痛点,你用 cloud code 也好, cursor 也好, codex 也好。每次跑一个 git status, 输出十几行,全部塞进上下文窗口,跑一个 cargo test, 两百行测试日记全吃进去。这些输出大部分是废话, 进度条空行通过的测试重复的警告,但 l l m 不知道哪些是废话,它全都读,全都算钱。而 t k 做的事情特别简单,就是在命令和 l l m 之间差了一层。你敲 get push, 它帮你跑成功了只返回一行, ok men 你 跑测试一百个通过,三个失败,它只把失败的给你看。日制里同一行报错出现四十二次,它折叠成一行,加个数字,原理不复杂,但效果很猛。 有个用户跑了十五天的真实数据,七千多条命令,原始 token 接近三千万,压缩完剩不到五百万,省了百分之八十三。而且它不挑工具, cloud code, cursor codex, windsurfer, gemini, c l i idler, klein 七个主流 ai 编程工具都支持。装完之后,它会注册一个 hook, 命令被自动改写,你正常用 ai 也感知不到,区别就是上下文变干净了。安装也简单,一个 rust 二禁制,没有任何依赖,启动开销十毫秒以内。他说,我觉得它不够好的地方,它是用正则和规则做的过滤,不是真正理解内容。 g a t div 被截掉的部分可能正好是你要找的 bug。 注,是被过滤掉了,但里面可能有关键的 to deal, 成功的命令它不保留原始输出,过滤错了没法回看。 另外,它每个命令都要单独写一个过滤模块,源码里已经四十多个文件了,新工具出来就得加,长期维护是个问题,但整体来说,日常开发够用了。 g i t n p m cargo docker 这些高频命令的输出确实大部分是噪音,砍掉之后上下文窗口能多做很多事。感兴趣的可以搜 r t k gitlab 开源的。你平时 ai 编程一个绘画大概用多少 token 评论?

一分钟教会你部署最近大火的 open claw。 本期视频要说的方法是本地部署,可以直接把 open claw 部署到本地,并且可以使用千万的免费模型,无需担心出现 token 消耗过多的情况,可以说是最经济的部署方法了。话不多说,我们直接开始操作。 首先我们打开带有部署工具的齐油加速器,先点击右上角小方块,找到口令入口,输入口令领会员,然后搜索 openclaw 一 键部署。找到后点击右边的一键部署工具,选择好安装路径和工作路径,然后直接进行一键部署即可。 接着只需要等待十分钟左右, openclaw 就 会自动部署完成了。部署完成后,我们配置一下自己需要的模型,点击开启极速配置即可。配置完成后刷新状态,如果状态是健康,就代表配置完成了。接着我们需要接入大模型千问,点击右边的这个授权, 等待千问授权后登录自己的账号,授权成功后,点击开始对话,就可以和 openclaw 进行对话了。本期视频到此视频我们说说怎么给你的 openclaw 添加技能。

ai 消耗的 toc 是 什么意思?简单来说, toc 就是 ai 阅读和处理文字的最小单位,你可以把它想象成乐高积木里的基础零件。 ai 在 理解一段话时,并不会像人类那样直接看整句话,也不会拆解成一个个汉字或单词,而是通过算法把内容切碎成一粒粒 toc。 在英文里,一个 token 可能是一个单词或前缀,而在中文里,它通常是一个汉字或常用词组。因为 ai 本质上是在进行数学运算,它必须把语言信息转换成这些数字零件才能工作。为什么我们要关心这个概念呢?因为 token 既是 ai 的 油耗,也是它的内存。 当你向 ai 提问或者让它写代码时,它消耗的不仅是你看到的字数,还包括了背后转换逻辑产生的 token 总量。 如果你把整个项目的代码库一股脑塞给 ai, 哪怕只问一个小问题, ai 也需要重新扫描并计算所有代码转换后的 token。 这种载重会导致计算成本飙升,也是为什么工具会对超长文本收取双倍费用的底层原因。 基于这种 token 成本,编程工具厂商包装出了一套大家都能听懂的计费逻辑,也就是使用次数。在主流的 ai 编程工具中,使用次数通常分为两类, 第一类是自动补全次数,就是你写代码时跟随光标出现的灰色提示。因为这类补全消耗的 token 极少,所以专业版通常会提供无限次使用,让你在写代码时完全没有心理负担。 第二类是高级对话或 agent 请求次数。当你要求 ai 解释复杂报错、重构整个模块或者跨文件改代码时, ai 会动用最聪明的模型,这会瞬间消耗大量的 token。 为了不亏本,厂商会限制这种高级请求的次数,比如一个月给你五百次快速响应机会。 一旦你在单次提问中塞入的代码超过了规定的 token 上限,哪怕你只提问了一次,系统也可能会扣除你两次请求额度。 所以,理解 token 和次数的关系,能帮你省钱省力。简单的小修小补,可以放心交给不限次数的自动补全,而要把宝贵的高级对话次数留给真正复杂的难题, 同时养成及时开启新对话的习惯。可以清空累积的 token 缓存,让 ai 的 思维更敏捷,也避免因为上下文太长而白白浪费额度。

ai 太烧钱?一招教你白嫖!最近大家都玩上了开源的 ai 智能体,确实能帮你干活,但这玩意偷看消耗简直就是废钞机啊!为啥?因为系统出厂设置默认给你配的都是最贵的模型, 就算你接入了谷歌的免费通道,他还是会偷偷去掉那个最慢的,这怎么忍?今天教你从底层改他出场设置,不用怕代码,找到配置文件夹里,然后这个后缀 jason 的 文件打开往下滑,找到 default 下面的 primary, 这就是他默认烧钱的大脑。把后面这串贵的要死的代码删掉替换成什么? 直接换成 jimmy flash 保存重启。这是目前响应速度最快而且完全免费的模型。以前他思考半天还扣你钱,现在他秒出,结果一分不花。这就叫把钱放在刀背上,不懂底层逻辑是韭菜,掌握配置你才是老板。

那为什么说那个像 opencloud 这样的龙虾这样的多自动体的编程,它会这么的一个消耗 token? 它因为它里面预装了非常多的技能,就 skills 和文件。每次我们跟它对话的时候,龙虾这个系统就 opencloud 这个系统, 它会去做三件事情,第一件它会去扫描所有的技能,第二它会去提取技能相关的文件,第三它会把这些上下文一起丢给大元模型。 所以我们每次消耗 token 的 时候,其实不是说消耗输入的那几句话,而是整个上下文,所以它消耗的是非常高,非常快的。所以我们可以知道用这三个方法可以十分显著地提升,就是降低我们 token 的 消耗 编码。第一种就是说你在命令行加上 compact 就 压缩你的上下文,只要你在输入那个内容的时候,加上 斜杠,再加上这个 compad 这样子系统,它就会自动去把你的历史的内容进行压缩,减少上下文的长度,呃,从而它是可以降低整个的 token 的 消耗。 第二就是说你需要把长的对话总结成短的栽秧,然后再进行对话,那这样子就可以把可能你让他去帮你做一件事情,你通过这样的方式扔给他,那他最终就是消耗的 top 到可能从原来的十几万 压缩到只有几千这样的一个级别。这是第三种就去用一些云平台,他们会推出,比如像阿里云、腾讯云,还有像 mini max 云,再还有 kimi, 意思用这些云平台,他们会推出这样的一个 啊,综合的价格,低的算力成本,因为它是综合采供商,它集中像 kimi, 还有像那个 mini max, 像 deepsea, 像 cloud 像, 确实是 ppt 君呢。当然我的 ai 时代下的产品专家已经上线了,它是包含三个部分,一部分就是说它通过一个又一个的技能,然后最终把这些,把这些就是技能形成一个体系,然后让这些体系内化成你的,嗯叫做手感。 第二个呢就是说,嗯,你的你的产品如果是一个软件类或者是 ai 应用类,那么用教你用 ai 编程, ai 编辑的方式,让它怎么样子完成 把,并且把你的这个产品上线可用。第三就是说如果你在数字世界中需要有 就是这样多智能体,类似于你要去用 opencloud 或者是 nanocloud, 就 用龙虾这样的工具去做多智能体的这个啊去处理的,那么会教你用 ai 编程的方式去手搓这个东西,去按照你的意志,去你的想法去打造你的专有的这个龙虾。

昨天我们的清华团队刚刚搞定了 oppo 可乐小龙虾的一键安装包,那么今天全公司上下人手一只虾了,正式开启养虾模式,给大家分享一些养虾的技巧吧, 因为这个痛很消耗的很快,主要是他这个 oppo 可乐的技术原理带来的,在他的身体里安装了非常多的技能,每次对话 都要先把这技能扫一遍,再带着所有的上下文去请求大模型,最后才告诉你下一步怎么做。拓客自然消耗的非常快,建议大家去做一些记忆压缩的一些开源的方案,对历史对话进行压缩处理, 减少每一次未给模型的文本长度,我们剩下来这个效果非常的明显。那么第二个用法呢,是在日常对话时,可以用斜杠加空 part 手动压缩当前文本,让文本长会变小。这两招基本上就可以把托管的消耗降下来,也推荐养虾的同学们试一试,还没有安装的也可以来找我,直接可以教你。

这是一款让你不用任何 a p i t 就 能让你电脑流畅运行 openclaw 的 开源工具。记住这个项目名字,它通过浏览器自动化技术,完全不花一分钱,让你的 openclaw 直接利用网页登录去调用 gpt、 cloud、 jammer、 币豆包等等主流模型,完全不需要任何的 a p i t, 让你零消耗,用上 openclaw 就 非常顶。

大龙虾 openclaw 确实用的很爽,但是头壳消耗就是太快,怎么办?今天教你怎么使用,一句话就能帮你减少头壳,使用至少一半。直接带你上手看一看。首先打开你的终端,输入 openclaw, 如果它能给你返回一段内容,说明是正确安装的。 然后输入 openclaw skills, 调出来你已经安装了的技能。在这里左边有对好 ready 的,是安装好了的 missing 是 没有安装好的。在你安装好的里面,确保你能读得懂每个 skill 它是做什么的。然后第三步,当你在你所有的任务之后,加上一句话,就是 使用你指定的 skill。 比如在这里,我让他编辑 pdf, 我 告诉他用 nano pdf skill 做这个任务,这样会避免他使用错误的技能去干这个任务,同时也避免在寻找新的技能的过程中消耗了头壳。如果你正确本地已经部署了 oppo pro, 赶紧去试试,这个方法也可以转给你正在用的朋友和同事。如果你还没有开始使用 oppo pro, 也想上手去试一试。 我们正好在 ai 工具小组里面提供手把手的安装教学以及进阶的课程内容。如果你感兴趣,可以看视频主页介绍,第一行专人给你提供更多的信息和介绍。

现随着 ai 应用的遍地开花, ai 的 talk 消耗量越来越大,甚至有人开玩笑,今天赚了多少个 talk, 还有一个应用场景,大家每天在使用 openclo 的 时候, 它的消耗量也是非常惊人,今天为大家分享一种方式,可以白嫖 talk, 而且它不是那种小模型,而是我们国内的 gim 五, 接下来我们看一下如何使用。哈喽,大家好,这里是二 pop openclock, 相信大家现在已经人手一只了吧,但是它的 talk 消耗量就非常大,今天我们分享一种可以免费获取 talk 的 办法,这就是互联网大善人英伟达免费开放的, 之前我也在公众号分享过,今天我们来手把手实操一下。我们打开英伟达官网的模型列表,大家可以看到这里有各种各样的模型,像千万三点五,还有智普五点零, 还有 kimi 二点五等等,这些都是可以免费试用的,使用方式也非常简单。我们先点击这里的注册,当然在这里注册的时候,我们要注意一点,我们要使用海外的邮箱,就比如 gmail 或者是微软的 outlook, 不要使用 qq 邮箱,这种是没法通过的,我已经给大家试验过了。 我这里粘贴我的谷歌邮箱,点击下一步,这里输入你觉得合适的密码,我们点击创建一个账户,这里他会给你的邮箱发送一个验证码,输入验证码,点击继续。这里是按选择是否接受通知,我们直接提交就可以, 没有任何影响。这里输入一个名字,这里也没有任何限制,直接输就行,这时候我们就注册完成了。回到了这个页面,大家可以看到最上边有一行,请验证你的获取 api, 我 们这里点击一下验证, 这里验证是需要输一个手机号的,这个手机号我们也试验过,输入国内的手机号,也就是加八六的,前面我们选择中国 china, 这里我们输入八六,这里我们选择中国。以后输入一个我个人的手机号,点击提交,这时候你的手机就会收到这样一条验证码, 是优速通发的,我们输入进去,点击验证,可以看到这里基本上是秒通过的,我们在这里随机选择一个模型,就比如智普的这个五点零, 然后点击这里的 welcome, 这里获取 api k, 可以 看到已经能拿到了,接下来我们验证这个 api k 到底可不可以用呢?在之前我分享过一个很好用的工具, cherry studio, 就是 这个樱桃的,它是一个开源项目,我们可以在 github 上直接下载到,然后在这里测试一下这个 api k 到底可不可用,我们点击左下角这个齿轮, 这里选择添加模型供应商,我就添英伟达下面供应商类型,我们选择 open ai, 点击确认,这里需要填密钥还有地址,我们粘贴 api k, 粘贴 url, 添加模型,这里要注意这是英伟达自定义的一个模型名称,就这个 z 杠 ai glm, 我 们拷贝过来,点击添加,这时我们打开对话试一下, 这里要注意模型切换,我们切换成刚才添加的,因为答的这个 z a i g m i 五,我们问它是什么模型,看一下它的反应,这里因为我的网络问题,可以看响应速度稍微有点慢,但是它是完全没问题的,可以看到它是由 z 点 ai 训练的大约模型,然后是 g a m, 这时我拿到这个模型大家就知道怎么用了吧,比如我们把它绑定到我们的小龙虾,或者是绑定到我们的 agent 上,这时候就可以无限的耗羊毛了, 而且我还没有碰到过说使用限流或者是 taco 被用完的情况。大家如果需要更多的账号,完全可以按照我这个方式注册几个谷歌账号,然后并且做一个手机绑定就可以了。更多 ai 和变现的方式我们一起来研究。