听说大家写代码都很好, tokyo 我 分享一个很好用的 skype 给他,就是基本上可以不怎么花钱就能把项目做完,给大家看一下我的 skype, 呃,这个 它的实际原理是什么呢?它是说它会读出的 task, 就是 我会建一个 task 慢的格式的文档,然后我会去 去循环读出我的一个文件,去循环去执行我的一个任务。所以说,哎,这个威士扣的人他是按次收费的,按次收费就是说他一次就是这个消耗, 一次就是他可以十美金是可以请求三千次。那么这个 oppo 十点六呢?他就贵一点,就说相当于是要他每一次消耗就会消耗百分之一百次。 那一百次,呃。那一百次我每一次我会问他做多少事情呢?我会问他做 看我的这个 task, 我 会做他这么多事情,就比如说帮我去把这个修复一下这个 task 啊,这个修复一下创建文,创建文档需要文件,需要中文,然后这一个全包架的需求文档, 然后去网上去,比如说像这个去全球网络上找找哪些好用的钱,但是又找到了里面进来,并且连条测试,测试按照顺序的连条询报价及这每每块的验数据验证。就这样的一个 skill, 他 做完之后他会有标记,像看我这另外一个项目他会这样子的,他是会 做完之后他就会这样子去给我标记出来他是怎么做的,你看他会这样标记勾怎么做的。然后我们,我们还会用到什么时候用到一些?嗯, 公司的规范呀,比如说建数据库啊,然后会怎么去命名啊?看公司规范啊,然后啊,很多的一些第三方的一个插件引用,好想要的可以分享给。
粉丝6594获赞7.2万

这个叫做原始人的神秘 skill, 能让 ai 省下最多百分之八十七的 toc。 是 的没错,原理也很简单,就是让 ai 像原始人一样少说废话。比如这项修复任务,正常 cloud 需要六十九个 toc, 而在原始人把很乐意帮助您让我看看之类的客套话通通删掉之后,只用了十九个 toc, 怒省四分之三。疯狂!原始人在狠狠压缩自然语言输出的同时,保持技术性内容原样通过,从而减少 token 用量。目前适用于 cloud code 和 codex, 还贴心设置了三档调节,想省多少就省多少。 插件出自国外一位十九岁小哥之手,开发仅耗时十分钟,但这套大刀质检的工作逻辑出奇地受欢迎,短短三天内,纯靠口口相传在 github 揽星四千加 实际效果吗?小哥在真实的 cloud a p i 上进行了可复现测试,十个任务节省 token 从百分之二十二到百分之八十七不等,平均下来也有百分之六十五。不过争议也不少,有网友关心强迫 cloud 像原始一样说话,会让他变笨。还有网友注意到,节省的百分之七十五仅限于输出的 token, 但真正的成本在输入的上下文、 聊天记录文件这些每回合都会被反复读取,所以实际能不能省百分之七十五很难说。作者小哥在评论区疯狂叠加,只是减少不必要的用于自然语言的 token 代码输出之类的,应该不会变笨。 以及目前这个 skill 更多是个有趣的想法,具体效果还得看更精确的精准测试。说了这么多,这原始人到底咋样?感兴趣的同学还是亲自试试吧。

当前 openclo 的 痛点, token 限行爆炸,新绘画忘掉昨天解决过的 bug, 装了几十个技能模型,选不对。我们实测七轮对话, token 从一点五万涨到九点五万, 消耗增长六点四倍。阿里最新论文 skill router 解释了一个问题,技能池越来越大,光看名字和描述,选技能基本靠猜,完整代码才是决定性信号,但技能选对只是第一步,对话越来越强。 token 爆炸,新绘画忘掉上次解决过的问题, 这些怎么办?来看 graph memory, 一 句话,一个 open class 上下文记忆插件,把对话自动提取成知识图谱,压缩百分之七十五的 token, 还能跨绘画。记住之前的经验,它做四件事, 第一,主动知识蒸馏,不等上下文爆炸才压缩对话过程中实时提取三元组。第二,持续图谱加双层召回,不是,通过社区剧类和 page rank 精准找到最相关的知识。 第三,个人知识资产,你的知识图谱存在本地 sq lite 里,换设备只需导出一个文件,数据属于你。第四,知识白盒,它能看到每个知识节点关系,让记忆不再是黑盒。 插件源码已经在 get 不 开源,我们结合源码一起分析它的数据流泉炼录一条消息从进来到下一次绘画被召回,经过五个阶段, 打开 index t s 文件。第一阶段,每条消息进来,直接存 s q like 数据库,零 l l m 消耗。 第二阶段,组装上下文,把图谱节点生成 xml, 注入系统提示词,同时裁剪进轮对话也是零 l l m。 第三阶段,每轮结束后一步提取三元组,每 n 轮跑一次,配置 rank 和社区检测, 这里需要 a l a m, 但不阻塞用户。第四阶段,绘画结束时, evant 提升为 skill, 然后跑全量维护去重 page rank, 社区检测加摘药。第五阶段,下次开新绘画时,双路径并行召回, p p r 排序后注入上下文,这就是它的数据流泉炼录。 下面我们来看它的核心机制,四层锁影加三层召回。先说四层锁影,就是它存知识的四种方式。第一层,向量锁影,你问一个问题, 它把问题变成向量,去搜语义最接近的知识,搜不够就补关键词,权威搜索。第二层,社区锁影,举个例子, 比如你这两天一直在搞 docker 部署,装镜像,改配置,调端口,这些知识会自动聚成一个 dok 社区,你问前两天做了什么,关键词搜不到,但社区能找到。第三层,进轮对话,最后一轮完整保留,包括工具返回结果, 前面两到五轮只留用户输入和 ai 文本回复。第四层,溯源片段,排名最高的三个知识节点,会附带当时的原始对话,让 ai 不 光知道结论,还知道当时是怎么得出这个结论的。再说三层召回,就是找知识的时候怎么找?举个例子,你问安装 m c p 出错, 第一层,精确找,直接搜到上次安装 mcp 出错时记录的那个节点,然后顺着这个节点的关系往外走,发现同一个社区里还有一个 npm 代理配置的节点, 可能也有关,一起拿出来,最后按配置 rank 排个序,最相关的排前面。第二层,模糊找,假如你的问题比较笼统,比如最近解决过什么问题,精确搜,搜不到, 这时候他会把你的问题和每个知识社区的家要做匹配,高客社区匹配度高,就把这个社区里的 top 节点拿出来, 两层同时跑,精确的结果全要模糊的结果去重后补充。第三层合并注入两条路的结果合在一起,按相关性排序 塞进系统提示词里给 ai 看。简单说就是能精确找到的精确找,找不到的模糊找,两条路同时跑,最后合在一起。实测数据,七轮对话,安装 m c p 工具加登录加查询 无插件 token 从一点五万限性增长到九点五万,用了 graph memory r 四开始 token 就 稳定在二点四万左右,不再涨了,压缩率百分之七十五。安装配置演示原码在 get 部开源 m i t 协议 插件已经上架科乐 hop, 直接在科 hop 上搜索 graph memory 就 能找到我们的插件。安装就一行命令,我的 openclaw 是 三点二四,目前最新版本,执行安装命令,等待插件安装完成, 然后执行命令检查 安装成功。步骤二,激活上下文引擎,这是容易漏掉的关键步骤,不设的话插件装了也不会工作。打开 opencloud json 文件,找到 context engine 部分, 复制视力代码,替换原来的这几行,然后填入 l l m 模型和嵌入模型的 a p i 和 u i o r, 保存后配置全部完成。如果大家想学习原码,可以去 get 部上克隆项目文件,顺手点个三二,希望本期视频对您有所帮助,我们下期视频再见!

朋友们晚上好,今天这个视频呢,只有一件事情,就是从零到一的教会你们使用 cloud code。 那 很多人听到 code 这个单词啊,就会想到写代码, coding 编程,对吧? web coding, 但实际上以 cloud code 为代表,这种 ai coding agent, 它并不是只能写代码,而是一个万能的工具,并且就在昨天飞书刚刚看完了,他们的 coi 就是 command line interface, 也就是我们说的命令行接口。那么这意味着你可以使用 ai agent 帮你做表格,回消息, 发通知,定会议和安排日程。那么它代表的什么呢?它代表的其实是一种新质的生产力,你可以不用它写任何的代码,但是你要学会使用它。就像在远古时代,一个人是转不去火,而另外一个人直接拿着打火机就把火点起来了。 那么 cloud code 除了编程,它还能帮你做什么呢?首先它可以帮你做数据分析,管理文件,其次可以帮你爬取你的这个每日信息流,每日资讯,还可以帮你修图升图,生成播客,剪辑视频, 甚至你也可以根据你自己的工作方式来搭建属于自己的 skills。 那 么这个视频我将全面的讲解,不需要你有任何的预备知识,从基础到高阶,循序渐进,包括安装和设置,那么基础操作和这个最佳实践,以及 hooks agents, skills, plugins mcp 我都会教给你。那么同时像一些不常见的非常好的命令,比如说 simplify insights, a loop 我 也会教给你。以及我还会分享一下我的经验,比如说如何避免在长时间开发中的莫名其妙的 bug, 以及如何优化 token 节省成本。最后我还会告诉你如何设计你自己的 skill, 点 m d 来让自己的工作效率最大化。 那话不多说,我们直接开始。那首先呢,我们先来安装 cloud code, 那 么这里我们直接进入它的官网,然后我们下滑,我们可以看到这里有好几行命令,那我们只用根据你的电脑,比如说你是 micro s, 或者你是 windows, 选择相应的命令就安装就好了。 那这里呢?如果,如果说大家是 windows 的 话,我推荐大家使用这个 power show, 而不是 cmd。 因为这个 cloud code 的 它的底层是 unix 风格的命令,所以说使用 power show 的 话会更好。那比如说这里我是 micro s, 我 们只复制条命令,然后我们打开我们的终端, 然后我们粘贴上命令,然后再回车就好了。那么它就会帮我们自动地装好 cloud code。 由于这里我已经装好了,所以我就不再演示了。 ok, 那 刚才既然我们已经安装好了 cloud code, 那 现在我们该怎么使用呢?那很简单,我们只用打开我们的终端,然后输入 cloud 就 好了。 我们敲击回车,那这里它会选择说你是否愿意选择当前这个呃,文件夹做你的 workspace, 那 我们点击 trust this folder 就 好了。 ok, 进来之后我们就来到了这个界面。 ok, 那 现在趁着 cloud 在 安装,那现在我们需要安装另外一个非常重要的工具,叫做 c c switch。 我 们知道。呃,我们在国内想要使用官方的服务,比如说 opus, sonnet 或者是 hikube 是 非常麻烦的。那所以说我们就需要使用我们国产的模型,比如说 mini max, 呃, g o m, deepseek, 或者说百炼等等等等。 呃,还有像 kimi 这样的模型,那我们该如何使用呢?那很简单,我们使用这个工具就可以方便的帮我们配置,那么这个工具呢?叫做 cc switch, 那 么它的作用呢?就是允许我们配置多个模型,并且可以快速的切换。那么安装方式也很简单,我们只用往下滑。 好,这里有个快速开始,然后如果说你是 macos 用户,你直接复制这行命令,然后打开终端,像刚才我们安装一样,把这行命令复制过去,然后回车,它就会自动安装了。那如果说你是 windows 用户,那就比较麻烦了,我们需要点击 release, ok, 那 这样我们来到它的 release 界面,那我们一直往下滑, 那么我们可以看到它的一个 contributors, 然后它有个 assets, 那 我们点开这个 show all, 然后我们找到这个 cc switch v, 三点十二点三, windows 点 msi, 注意一定要是 windows 点 msi, 然后我们下载这个就好了。 ok, 那 既然我们已经安装好了 cc switch, 那 这一步我们要做的就是配置我们的模型,那么在这里呢,我选择的是我们的 mini max。 二点七,那配置方式也很简单,我们点击一下这边这个加号, 然后我们可以这里可以选择你使用的是模型,比如说你是智普,就选择这个,那么你,你是 deepsea, 选这个,对吧?你是 kimi, 就 选择这个,那我们这里是 mini max, 那 我们只能选择 mini max。 这,我们往下滑,那这里它已经帮我们填写好了这个 base url, 那 我们需要做的指示填写,我们好我们的这 api key 就 好了,那 api key 怎么获取? 那很简单,我们打开这个,呃, mini max 官网,呃,这里有个订购套餐的界面,好吧,那在这里呢,我建议大家就选择这个四十九元的这个套餐就好了,呃,目前我用下来是非常的够用。购买了套餐之后,我们点击我们的这个账户管理,我们选择 tokenplay, 在 这里我们把这个 api key 复制一下,然后我们粘贴在这里就好了, 这我们点击添加就 ok 了,就配置完成了, ok, 那 现在既然我们已经把 cloud code 安装好了,然后我们把 api 也配置好了,那现在我们就直接开始使用,那使用方式也非常简单,我们打开终端,输入启动命令,我们回车之后就进到第一个选项,那这里我们选择 yes, ok, 我 们就来到我们的工作页面,那可以看到刚才我们已经配置好了 api, 所以 说它这里显示的是 mini max 二点七,然后这里是 api use, ok, 那 么首先呢我们来讲讲 cloud code 的 三种模式,那么第一种模式呢叫做 default mode, 也是现在这种模式就就是这里什么都没显示。那么第二种呢叫做 plan mode, 那 就是规划模式。那么第三种呢叫 bypass permission mode, 那 这就是,呃完全执行,也就是相当于 full access 这种模式。那么首先我们来说第一种,第一种模式的话,那它的呃这个特点就非常简单,就说,嗯,它执行就是 cloud code 执行任何一个操作,比如说它读写文件,编辑文件,都需要你明确确认之后它才会执行,那比如说现在 我们让他在桌面上创建一个文件,看看是什么效果,那这里呢?我推荐大家一个工具叫做闪电缩,那他就是一个语音输入法,但是他这个语音输入法是会使用这个拉玛,也就是我们的大模型去整理的语音输入,并且他是可以学习的,所以说他这个识别准确率是非常的高,那么包括我看到抖音,他们也做出了自己的这个 豆包输入法吧,那么我看我身边有朋友体验也非常不错,那大家可以去试一下,总之一切是免费的。那云输入法的话很简单,我们只用给他说我们的想法,呃,帮我在桌面上建立一个文件夹吧,然后里面给我放一个文件叫做 test 点, md, ok, 我 们回车看一下他会怎么执行, ok, 那 首先他会问我们文件夹是什么名字,对吧?叫做 test 就 好了, 这里呢它就会让你选择是否执行这个命令,那我们可以看到 make d r, 就是 就是新建一个文件夹嘛,然后在这个位置,好吧, 那我们选择 yes 就 好了,因为现在我们是 default mode 嘛,就是它每个插座都会问你是否要执行,我们选择 yes, ok, 他 说已经成功创建了,刚才我们已经讲解并演示了 default mode, 那 么它就是每执行和命令,好吧,都需要我们手中确认一次,那我们想刚才只是一个非常简单的任务,对吧?我们创建一个文件夹,所以说执行一次,选择一次,点击一次就好了。那如果说现在我们在执行一个非常复杂的任务,那我们每次就要点嘛, 那我们还怎么玩手机,对不对?那怎么摸鱼对不对?非常的麻烦,所以说我们就要使用这个危险模式,那危险模式该怎么进入呢?危险模式的话,我们需要呃用一个单独的命令进入,刚才我们是输入 c l a u d cloud 这个命令来进入的,对不对?那现在如果说我们想要使用这个危险模式,也是这种 full access 全自动的模式,那我们就需要在后面加上参数,加上这个 dangerously skip permission 就 许可嘛,对吧?就是无许可模式嘛。 ok, 我 们点击回车 啊,一样的,我们选择 yes, 相信这个。呃 folder 做我们的 workspace, 那 ok, 看到这里就有了这个 bypass permission 啊,就说现在它执行和命令不需要我们的这个批准了,好吧,它会直接自动执行。那同样的,我们说帮我在桌面上建立一个文件夹,然后名字叫做 test 二吧,然后里面给我放一个这个 md 文档,名字随便取就好。 ok, 我 们看看它会怎么做, 你看它这里直接执行了这个 bash 命令,好吧, macd 直接创立了这个 test 二的这么一个 folder, 然后在下面呃,创立了一个 untitled 的 点 md 文档。 ok, 他 现在直接给你说我们完成了这个任务就非常方便。所以说,呃,我更推荐大家使用这个 dangerously keep permissions 这个命令来起到我们 cloud 吧。那我们继续讲讲规划模式,就是这个 play mode, 那 play mode 它其实有两种的,呃,这个应用场景嘛,那么第一种就是当我们在做产品的时候,做项目的时候,在初期,呃,我们想知道这个 ai 会怎么执行,对不对?是不是按照我想的方式执行? 那么我们可以用这个 plan mode, 让他规划书写一个 plan 出来,我们看一下,没问题。 ok, 那 就会按照这个 plan 去执行。那第二种应用场景呢?就是针对一些比较宽广的任务,就是广度比较大的任务吧,就比如说现在我让他把我桌面上面所有的这个文件全部给我迁移到我的这个硬盘里面去,那他会操作很多文件,对吧?可能呃几百个,那这时候我们就用这个 plan mode 就 比较好。 那还有一种场景就怎么说?就比如说现在我们我需要让他去 re-use 我 们的代码,就去审查我们的代码吧,对吧?那这时候让他用这个 client 就是 一条条干,先干嘛,后干嘛,那这个场景是比较好的,那这里我们来体验一下这个 client, 我 们还是用 shift 加 tab 切换一下。 那我想想我们列个什么计划,那很简单吧,现在我要整理我的桌面文件夹,现在请你帮我列个计划,我看看该怎么整理。 ok, 我 们回车看看他会怎么做。那么我们要注意啊,就是 plan mode, 他的权限是只读权限,就是他只会进行读操作,不会进行写操作,只有你看过没有问题之后,那么他才会进行写操作。 ok, 我 们可以看到很快他就给了我们一个 plan, 那 同时他给了我们三个选项,第一个选项就是 yes and bypass permission, 这是什么意思?就说无条件执行,不要来问我了。那么第二个是什么意思?第二个就说 yes, manually approve it, 就是 执行这个计划,但是需要我手动来批准每项这个编辑,那么第三个选项就说你可以告诉他,你觉得这个计划有什么不好的,你直接给他说, 他就会按照你的这个要求去更改这个计划,然后再让你看一遍。那比如说你再帮我把垃圾箱清理一下吧,把这个计划加入进去,然后让我看一下。 ok, 我 们可以看到他刚才又在我的要求上增加了一部清空垃圾箱的这么一个任务,那你觉得没问题,那我们就选择 yes 这个 bypass permissions, 它就会自动执行的。 ok, 那 现在我们来讲讲 cloud code 的 一些命令,那首先第一个命令就叫 enit 命令,那么现在我已经打开了一个项目,这个 voice input 是 我让 codex 做的一个语音输入法的项目, 那一定题命令很简单,就是初设化嘛。那么他这个命令呢?首先会把我们整个这个项目的代码看一遍,看完之后他会根据他理解生成一份 cloud 点 md 文档,那这个 cloud md 文档有什么作用呢?就是,嗯,每次绘画的时候,他都会首先加载这个 cloud md 文档,那里面就是一些最高的原则,相对于类似于机器人不能违背的三条法则那种感觉。 ok, 我 们这里可以看到他成功创建了一个 cloud md, 然后这是他给出的一份资料,那即使想要写好一份好的 cloud md 文档,也是需要花很多功夫的,那我们就不在这里多说了,但是 唯一一个原则,大家需要记住的就是不要让你的 cloud md 写得又臭又长。如果说 cloud md 写得非常长的话,那每次上下文稿加载它就会一个是会消耗我们大量的 tool, 另外一个就是会让这个 嗯 a 键是变得非常笨。那一种解决方式就是我们把那种长的文件拆分出来,我们新开一个这个 md 文档去存放,那比如说我们可以开一个 get 点 md, 对 吧?然后我们把这个 get md 的 这个路径,我们记录到这个 cloud md 中,然后并且我们想指示说如果你需要这部分的知识,那么请去查找这个文件,这就是,嗯, cloud 客户团队非常喜欢的这个叫渐行式批录。 ok, 那 我们什么时候可以使用这个 init 命令呢?那我的答案是你任何时候都要使用这个 init 命令。比如说你从 github 上面下载了一个新的项目,你使用这个 init 命令,那就可以让这个 agent 快 速的了解整个项目,然后生成一份 cloud 的 md 文件, 然后 cloud 点 m d 文件是相当重要的一个文件,它相对于这个 ajax 的 一个最高指示,所以说你可以在里面写一些你自己喜欢的,你觉得非常重要的一些原则,比如说开发规范,比如说千万不能执行 r m 杠 r f 等等等等。那 cloud 点 m d 呢?一般会随着你项目的迭代,开发过程迭代呃来完善。 ok, 那 大家肯定听说过 marty agent 或者说 agent team, 那 其实想要创建一个多 agent 的 这么一个团队也非常简单,那像 cloud code, 它就支持我们创建这个 agent, 并且可以用这个自然语言创建,那我们只用执行 agent 命令,可以看出来,我们点击确认,那它就会说第一个选项 create new agent 就是 创建一个新的 agent, 那 么这就是 user agent, 就 代表说我们已经创建好的 agent, 可以 看到我这里创建了一个 codex review agent, 还有一个这个 marty agent coordinator。 ok, 那 现在我们来创建一个 agent 来看一看。那首先很简单,我们直接回车选择这个 create new agent 就 好。 ok, 它这里就会让我们选择这个 agent 的 location 在 哪里,就说选择你这个项目级别,就是它这个权限级别嘛,那我们就选择这个 project 就是 这个项目级别就好了。 然后它现在又给了两种方式,第一种方式就是 generate with cloud, 就是 说让你跟 cloud 一 起创建这个 agent。 第二种方式呢,就是你自己去写它的这个配置文件,那我们肯定选择第一种,对吧?因为毕竟它后面都说了这个 recommended, 那现在他就说让你去描述一下你这个 agent 要做什么,你看他这里说的 describe what this agent should do? 吧啦吧啦吧啦一大堆,对吧?那我们很简单,现在我要创建一个这个 technique co founder, 这么一个 agent 就是 一个技术合伙人的 agent 吧?那我把我准备好的这个 prompt 发进去, ok, 那 现在我们点击回车就拿创建这么一个 agent, 然后他现在就在 显示,他说 generating agent from description, 就 说现在根据我们这个描述在创建这么一个 agent。 那 当然本次教程提到的所有提示词会放在我这个文档里面,那具体怎么获取文档请看我的这个主页,好吧, 在我的公众号里面获取。 ok, 那 现在出现了这个界面,这个界面就是说让你去选择你新建的这个 agent 允许他使用哪些工具,那他根据我们的这个描述,现在给他全部工具权限,那当然你也看到这里写了是 enter to talk selection, 那 就是 talk 切换状态嘛,那很简单,如果你想 不让他使用这么多工具,对吧?那你就小键盘嘛,上下左右。然后你假如说不让他使用全部工具,你再按一下这个 enter, 那 你看全部都没有选中了,现在是零个工具这里显示的。 那如果说你要全部工具选上,那就返回去,然后再按下 enter, 现在是 auto selected, 然后确认没问题,我们就 continue 就 好了。 那这里他就说让你去选择你新的这个 app 的是用什么模型,那比如说你是用 sonet 或者 oppas 或者是海库,要不然的话,你就说它是继承它的这个负类的模型。那很简单,因为我们用的是 mini max 二十七嘛,那我们其实不用选,我们直接选择这个 inherit 就 好了。 然后这里就说让你选择这个 agent 的 颜色,比如说你选择红色、蓝色、绿色、黄色,对吧?选择选择一个你喜欢的颜色就好,那我们选择一个黄色吧,然后他这里就说这个 agent 这个 memory 它在哪个范围,那我们选择这个当前项目级别就好。 然后现在它就会让你再再次确认,然后你可以浏览一下这个,你的这个 description, 你 这个 memory, 你 的这个 system prompt 等等等等。 ok, 确认没问题,我们选择 enter 就 创建好了,你看它这里显示的 creative agent technical founder。 ok, 那 我们想要调用我们创建的 agent 也很简单,直接使用这个自然语言去交互就好了。 那这里我们就说帮我调用我新建立的这个 technic founder, 这个 agent, 我 要做一个项目, 那我们看看他会怎么做? ok, 可以 看到他成功唤醒了这个 agent, 你 看他正在初步化,花费了二十六点六 k 这个 tokens, 然后现在他说 technical founder 这个 agent 已经启动了,现在你可以说你要做什么项目了,那我们就开始巴拉巴拉巴拉说我们的一堆项目,对吧?他就可以帮我们完成。 那我们什么时候该新建立一个 agent 呢?那很简单,就是当你发现你会重复地做同一类任务的时候,并且这类任务需要很长的一段 prompt, 需要你定很多的规范。那这时候你应该专门创立一个自己的 agent, 比如说你可以专门建立一个产品经理的 agent, 一个后端开发的 agent, 一个前端开发的 agent, 一个专门做这个测试的 agent, 甚至呢你也可以专门建立一个 codex agent, 那 这个 agent 其实就只用干一件事情,就是在你的终端去执行这个 codex 命令,相当于唤醒了 codex, 那 这样就可以实现 cloud code 的 写代码 codex 进行 review, 并且不需要你人工去传递他们的 prompt, 传递上下文,直接让他们两个对接就好了。 一个单独的 agent 还有一个非常好的点,就是它可以帮助我们节约我们的上下文。那假如说现在我们要去执行一个非常长的文件的写操作,或者说一大堆这种抓取的操作,那我们可以单独开一个 java agent, 让这个 a 键去执行的操作。我们并不关心他到底获取了什么样的数据对不对?我们只关心他到底完没完成任务,那 x a 键就帮我把中间上下文给省略了嘛?最后他完成任务返回一个 ok, 那 我们就知道任务完成了,那 a 键这个命令就讲这里了,那同样有很多玩法需要大家自己去探索, 那现在我们来继续讲讲 m c p skills, 以及最近新出的 plugins, 还有我们的 hooks。 那 首先我们来讲 m c p 跟 skill 吧,因为很多人会把这两个词搞混,那其实很简单, m c p 中文翻译过来叫做模型上下文协议,那么 skills 呢?翻译过来叫做技能能力,对吧?它们之间的差别 有一个就是 m c p 是 告诉你能不能做,就是你有没有这个能力做,而 skill 是 告诉你你如果有了这个能力,你应该怎么做。那我举个例子,现在假如说我是一个残疾人,我没有这个腿,但是我想去骑自行车,是不是我就不能骑?那假如现在给我一个骑车的 m c p, 相当于就能帮助我长出这个双腿,那我有了腿是不是就可以去骑车了? 但现实就是很多人尽管他四肢健全,他还是不会骑这个电瓶车,对吧?不会骑这个,呃,这个自行车,摩托车的。那我们再给他一个 skill, 就是 给他一个骑车指南,就是教他怎么骑这个自行车的,对不对?那这样二者一结合,是不是我们就会骑车了?大家应该可以很好的理解。 然后我们再举个例子,那假如说现在我们在进行一场开卷考试,开卷考试我们肯定要带复习资料对不对?肯定要带书对不对?那么 m c p 就是 说你带了这个书,带了这个资料,那如果说没有这个 m c p 就 相当于没有带书,那么 skill 是 什么呢? skill 就是 说你脑袋里面组织你怎么看这个书,怎么看这个材料,对吧? 比如说有些人会很快的找到这个答案在哪里,有些人要找很久才能找到,所以说 skill 是 教你怎么看书的,那么 m c p 是 你本身带不带这个书,带不带这个资料?那现在我们想看我们 cloud 的 安装哪些 m c p 很 简单,我们直接在这个命令行里面输入这个 slash m c p 指令就好了, 就可以看到现在我这里只安装了三个这个 skill, 一个抖音的,一个 pencil 的 playwrite。 那 现在你想看你安装哪些 skill 也非常简单,我们输入这个 slash skills, 就会看到你安装了这 skill。 当然这里的误区就是 skills 并不是越多越好,而是越精越好,就是 你如果是个小白的话,你可能会安装很多 skill, 对 吧?摸索一些你比较常用的 skill。 然后那我给你的建议就是你在这个使用过程中,你要不断去精简这些 skill。 因为 skill 过多会造成一个什么现象?就是模型有太多的工具调用了,导致他根本不知道什么时候该调用什么工具。这句话怎么理解呢?就有点相对于类似于选择恐惧症了, 就是一个人有太多的选择,就导致他一下子迷茫了,不知道自己的路该怎么走,那如果说他就一个选择,那就逮着往死里干就完事了。 那什么是 hooks 呢?嗯, hooks 用中文翻译过来叫做钩子,这个可能比较难理解,其实他本质上就是一段脚本银行代码,然后呢,在特定的事情发生的时候,他就会自动触发执行。 那么 hooks 呢?大家按照它的执行顺序,可以把它简单地理解成两大类,第一类叫做在工具调用前执行的 hooks, 第二类叫做在工具调用后执行的 hooks。 那 我们看一下, 那现在我们想象这样一个场景,我们知道 cloud 它是可以操作我们电脑所有的文件,对不对?但是你不想你的某些私密的信息,一些密钥文件,或说你不想让 ai 知道的文件被它读熟了,那怎么办? 那你就可以制定一个 hook。 这个 hook 怎么定义呢?就说每当这个 ai 进行读操作之前,或者说之后执行这个 hook, 这 hook 就 会检查你当前要读取哪一行文件,读取什么东西。如果说发现你读取这个路径和你这个私密文件的路径重复了,那就直接拦截, 懂了吧?这就是 hooks。 那 再比如说,现在我们在我写一个项目,那么项目写好之后,我们会把它推送到 github, 进行这个代码托管。那么我想的是每一次只要我执行了这个 review 操作之后,就自动地给我推推送到 github, 那 么也可以定一个 hooks。 那 么这个 hooks 呢?就是这个 post tool use hooks。 简单就说,当它监测到我们执行的这个 review, 那么它就会自动触发这个 hook, 把代码推上 gitlab。 那 hook 是 怎么创建的?也非常简单,我们只用告诉 a e i 说帮我创建一个 hook, 然后它这里就显示了你想配成哪一种 hook 啊,然后你再把你的需求给他说,他就会根据要求帮你配进一个 hook, 很 简单。 那同样的我们该如何创建 skill 呢?那么 skill 其实不建议大家在一开始就创建好,除非你很明确自己的这个流程是什么样的,场景什么样的。我更建议大家在使用这个 cloud 的 过程中来创建,因为你在使用的过程中才会发现哪些工作流是可以重复的,对吧?会大量重复执行, 那这时候你就可以建立一个你自己的 skill, 那 比如说我自己就建立了一个记录素材的 skill, 每当我给他发一个抖音链接,或者说小红书的链接,或者说呃, youtube, bilibili 等等视频网站链接,那么他就会执行一个动作,他会把这个链接的这个字幕也是在这个脚本这个竹子稿,然后保存到我本地我指定的位置,非常的方便。 那什么是 plugin 呢?这是最近新出的一个东西啊,那么 plugin 本质上就是说它把你的 hooks, 把你的 skills, 把你的 m、 c, p 全部打包封装在一起,那这样你在进行团队开发的时候,大家都可以附用这个主键,就非常的方便,非常的好,所以这就是 plugins 紧急抄波一条啊。刚才 codex 官方出了一个 plugin, 叫做 codex plugin c c, 就是 允许我们在可拉钩中直接调用 codex, 那 么安装非常简单。首先我们执行这行命令, 那么再执行这个命令,然后我们再重载一下 plug in, 这我们再准备这个 set up, 那 它就会自动调用你这个桌面上面的这个 codex 的 配置,然后写入,那就准备就绪了。来继续讲讲几个非常好用但是很不常见的这个命令,我基本上没有看到任何人讲过。那么第一个命令就是这个 simplify, 我 们把它敲出来, 那就是这个命令。这个命令命名是什么意思呢?那么叫 simplify, 它的中文翻译就是简单简化,对吧?那么 simplify 它其实就是一个代码的一个呃,检查命令,一个进行 code review 的 一个命令。就说当你完成一段代码的修改之后, 你运行这个命令,它会自动地对你所有的变更进行全面的审查。那么它的工作流程就是它会同时派出三个 sub agent, 那 么第一个 agent 它会检查这个代码有没有重复造轮子, 那么另外一个 agent 它会看这个代码或者命名这个格式不规范。那么还有一个 agent, 那 么它会直接查这个性能影 换,那就比如说重复计算,内存泄露等等问题。最后呢,他们会把发现的问题直接修复掉。当你的代码写完了,你直接运行这个命令,让这工具帮你检查一遍,进行这个 code review。 大家要注意就是我们想运行这个命令,我们必须把这个代码上传到 github, 进行这个代码托管。那 github 什么呢? github 是 全球一个最大的开源的一个,呃,代码托管的一个社区,那你如果没安装 github 的 也非常简单,你直接给你 ai 说帮我把代码上传到 github, 它就会协助你完成。好吧,那现在我们运行一下这个 sql 发命令,看一下是个什么效果。 ok, 我 们可以成功看到他已经把这个命令运行完了。由于我这个代码仓库刚才只是更改了这个 readme 文件,然后做一个演示,所以说他这里给出这个发现是你的代码非常干净,好吧,没有任何需要更改的。 那我们可以看一下他这个命令的运行过程,首先他执行的是 git diff, 他 看一下你当前这个代码和你之前提交在 gitlab 上面的代码,那有什么差距,对吧?那他这里说这个 only change is readme dmd, 那就说我们只修改了我们这个 readme 文档,那他还会走他接下来的流程,那接下来的流程就是他开了三个稍不一点的,那么第一个可以看到他进行了这个代码的附用的这个检查,第二个进行了代码质量的检查,那么第三个进行了这个效率的检查,那发现全部做完成之后,那给出了结果,然后给出了发现, 那这就是这个命令。 ok, 那 现在我们来讲第二个命令,第二个命令叫 rewind, 也非常简单,我们把敲出来看看,那这个命令它作用是什么呢?这个命令它作用就是时光倒流,就是当你把这个项目做歪了,或者说你想换个方向的时候,那么它可以回归到之前这个 checkpoint, 就是 回归到这个检查点,然后同时它会恢复这个代码和上下文。非常简单, 因为刚才我只执行了两个命令嘛。首先第一个命令我执行了 clear, 第二个执行了 simplify, 对 吧?所以说这里就只能选择两个,那我们选择一下这个 clear, 那 进来之后呢?我们可以看到这个命令给了我们三个选项,第一个选项就是 restore conversation, 那 我们看到它的解释是这个 conversation will be fork, 就是 说当前这个对话那会保持不变,但是我会在 clear 这个 checkpoint, 就是 在 clear 这个检查点这个地方,我们先看一个分支, 然后继续我们的对话,好吧,那我们看第二个选项是什么?第二个选项是 summarize from here, 就 说我们会把从 clear 这个检查点到现在这个检查点之间的所有对话进行一个压缩,进行一个总结,生成一份答案,然后再继续。那这个 nevermind 就是 我们直接取消的意思,那我们直接选择 restore confirmation, 你看那他就新开了一个对话,这个命令就到这里结束了。那接下来我们讲讲 in size 这个命令,这个命令非常简单,顾名思义就是洞察,那么他会根据你的 sql 的 对话,就是你所有的 session 来生成一份这个报告,那么他会统计你使用 sql 的 模式,比如说你会在哪些项目区域花的时间多,在哪里容易卡住,那么帮助你了解自己的一个写作习惯。那么使用方法也很简单, 我们直接输入这个 in size 命令就好了。那我们使用方法也很简单,我们直接看到这个报告非常详细, 那最后这个命令叫做 loop, loop 也很简单,顾名思义就是循环的意思嘛,那它就相当于一个定时任务,但是一个定时任务是在三天之内的,那我们怎么使用呢?比如说现在你想每一个小时帮我查一下当前的时间,那你可就可以这么执行,我们先选择 slash, 然后输入 loop 命令,然后你看它这里说了 interval 就是 间隔的意思,那我们选择 one hour, 就是 e h, 然后干嘛帮我查询一下当前的时间,那回车我们看看它会干嘛? ok, 那 我们可以看到它成功帮我们设立了这个定时任务,并且查询了当前的时间。 ok, 那 这个 loop 还有个非常好用的地方,就是它可以和 skill 一 起赋用,因为我们知道 skill 本质上就是一段 prompt, 对 吧?所以说我们可以这么使用,那比如说现在我想让他每隔一个小时帮我查询一下当前这个 ai 新闻,那我们该怎么执行?就是 loop, 然后执行一下哪个 skill, 执行下 ai news 这个 skill, 我 们看看它会怎么做。然后我们可以看到它成功执行了我的这个 skill, 并且把内容保存到了这个位置,然后它也创建了 cron。 ok, 那 现在我们来讲讲如何解决在长对话中莫名其妙出现的 bug。 那 我们知道如果说我们一个对话进程很长,那它肯定会压缩我们上下文,就是那个 auto compact, 那 压缩上下文的时候,那如果说最开始前几轮还会好,它只会压缩一些内容,一些文档,不会压缩一些关键信息。但是我们发现随着对话的进行那么多轮压缩之后,它第一点就是它的关键角色信息会丢失,早期价格约束将会被遗忘,那就会导致我们多人写作的时候 bug 越来越多了,好吧,所以说一些莫名其妙的 bug 出现, 那我们该怎么解决呢?那我们就是要让这个 cloud code 不要遗忘那些关键的决策,对吧?那比如说我们就可以在 cloud md 里面加入加入这个方案,或者说我们让他写一份这个 handoff 文件,那 handoff 文件怎么写?首先第一步我们要说清楚当前的进展是什么?我们的目标是什么?已验证的有效方案是什么?那么已验证的无效方案是什么?写清楚之后, 再打开下一个对话,让他进行交接,这样就会没有问题了。 ok, 那 现在我们来继续讲讲一个被很多人忽视的就是工具调用所产生的这个上小文的噪声。那我们知道,假设调用工具,比如说你测试代码,它会给你输出一长串的配索键,或说你查找文件的时候也会给你输出一长串的那种信息,那这东西是 cloud 是 根本不需要的,他只需要知道你完成了没有, 对吧?是 ok 还是不 ok? 所以 说我推荐大家安装这个 skill 就是 一个 r t k, 那 么他就会帮我们把这个信息压缩,只用返回给 cloud 的 最关键的信息就好了。 ok, 朋友们,那么看完了这期视频,我相信你对 cloud code 的 掌握已经超过了国内百分之九十九的 ai 玩家。但是说实话,工具只是工具, ai 时代最重要的并不是你会多少个命令,而是你的想法,你的 idea, 你 到底有没有真正想要做的事情。那么 ai 就 像一盏阿拉丁神灯,你提什么愿望, 它就会帮你实现什么愿望。所以说做一个有趣的人, dream bigger。 那 么下期视频还想提什么?你们决定评论区打出来,我们下次再见,拜拜。

今天给大家分享一个呃罐头自己写的一个 skill, 能够让你的龙虾提高搜索效率。 今天给大家分享一个 skill 哈,这个 skill 呢,能够让你的龙虾提高搜索效率,并且还能帮你省钱。首先我们先要明白你的 openclaw 小 龙虾在搜索的时候都在干什么,比如说让它搜索这一个页面,这个页面呢就是 openclaw 的 官方文档。如果说 想让你的小龙虾从这个页面中获取消息的话,他实际上看到的不是我们这个比较好看的 u i 界面,感觉内容很少是吧,但实际上他看到的是你点击查看源代码,然后呢是这个页面,你看 里面充杂着非常多的脚本和各种 html 标签,实际上有效内容非常之少,那这样会浪费它很多的 token, 并且它的理解速度会非常慢,像这种标签和脚本的这种链接,实际上对于它的语义理解是没有帮助的,并且还会污染它的上下文。 其实呢,有很多呃网站已经在做一些 agent 的 基建,也就是可以能够帮助你去把这些标签给过滤掉,让 ai 直接让 agent 直接拿到一个清晰的一个上下文,一个清晰的文档,比如说还是这个 厄本格拉的官方文档,我们就可以把它丢给我们。这 skill 中提到了三个网站,哎,比如说我们就拿这个 gina, 这个 gina 是 对于中文语义理解最好的,我们就拿它来试一下, 使用也非常简单,你只需要在你要访问的这个网站网址 u l 前面附带上 gina 的 这个前缀即可。好,直接回车, ok, 我 们就能看到这个就是 gina 返回的一个很清晰的专门给 agent 阅读的一个文档,你看它实际上内容很少,对吧?而这些能节省, agent 拿到这个上下文之后, agent 拿到这些内容之后,其实能节省非常多的 token, 而且它非常的详细,并且干净清爽,能帮你解决,能帮你去省下,能更好地帮助, 能更好地帮助 agent 去理解这个 banana 内容。好,接下来我们就来讲一下该如何去安装这个 skill, 你 可以直接在克拉哈巴上进行搜索 去找到它,然后直接把这个链接发给你的小龙虾,让它自己去安装即可。 这个 skill 我 给大家讲一下,实际上它就是专门用来替代它内置的 wi fi 这个工具的,并且能够自动通过清洗服务,然后获取干净的 macdun 文件,也就是我们刚才看到了这些信息。比较干净清爽的 它有一个四级降级策略,也就是它先会尝试使用 gina, 然后如果 gina 或许内容为空,或者是有异常,则使用后面的,如果都不行的话,再返回一个原始内容。那这样的话有个好处,就是它清洗后的内容比原始的 atm 还能节省百分之五十到百分之八十的 token, 这个无论是对于它的回复速度还是它的上下文的这个大小都是非常有帮助的。好,安装完成之后呢, 实际上你就可以直接去跟他测试一下,像我之前就测试过了,呃,我让他去获得一下 remote 这个工具的一个详细的文档,然后给一份深入总结, 那实际上他就会直接去去掉这个我的这个 smart webchat 这个工具,然后呢他,然后他就会拿到了一个 content, 你 看这个 content 呢,实际上就是优化过后的 content 呢?去找到里面 更有用的下一集的 u i l 的 信息,然后继续去获得。你看他每次回来的这些内容都是非常干净的。好,然后我们就可以看,他给了一个深度解析,我直接是把 remote 的 文档就直接扔给他的哈, 然后他直接返回了一个非常详细,甚至连视力都有,那说明他真的是去真正学习并且理解清楚这些东西了,并且没有受到其他标签的干扰,才能做到这么一个相对简洁并且又详细的一个文档的输出啊,非常详细哈, 练了大概得有十几点,还有精品的。对,那这实际上对于 a 阵呢,去了解互联网上的各种信息是非常重要的,让你的小龙虾装一下,如果还有什么问题可以在评论区下我们一起讨论一下,如果这视频有帮到你,请不要吝啬你的一箭三连。好,我们下期再见。

skills 的 审 talk 能力被大家忽略了,今天我给 agent 配置了几十个 skills, 消耗的 talk 大 大低于预期,远低于配置几十个 m c p。 为什么呀?就是因为 skills 的 渐进加载能力。先说旧方案的问题,比如配置一个 m c p, 在对话的时候需要把 m c p 的 说明完整的加载一遍,非常的消耗 talk。 你 以为这只是省钱的问题吗?省钱其实还是小事儿,关键在于消耗的 talk 会轻沾你的 agent 的 上下文,会让你的 agent 的 效果变差,会让它效果变差。但 skill 不 太一样,它有一个比较聪明的设计, 一个 skill 首先会包含一个 skill 点 md 的 一个说明文件,文件里面会区分目录和指令。什么是目录?比如一个 pdf 总结工具,这就是目录, 只有一个 name 和 description, 五十字以内就能搞定。而目录以下的指令只有在触发的时候才会加载。除了 skills 点 m d 以外,还会有其他的资源和代码,这些也都是按需加载。你看,先用极小的篇幅告诉 agent 我 能做什么, 确定要做了,再逐渐渐进地加载剩下的篇幅。这么一个小小的优化,可能会让我们的 agent 效果往前走一大步。

看到富盛在分享怎么让小龙虾整 token 的 视频,基本上我听完这条分享之后, 其实我的小龙虾就已经拥有了节省 token 的 能力了。我不知道大家能不能理解这件事情,当你看到知识的时候,其实你就已经拥有了知识,很有意思,这是可能在 ai 时代新的一种学习范式。其实这就是一个建 skill 的 过程, 我给大家演示一下,你现在这个界面是我自己 cloud 的 命令对话框,我现在就把不剩的视频的文案发给我的小龙虾,让他自己学,就用魔法打败魔法。现在我用的是 kimi, 我 们看一下,他现在已经学完了 脚本替代,我们现在是在用的多模型在用。我要问他,你能不能建 skill? 对 我而言,其实它应该属于一个简单任务, 米干活很糙的,就是他建好之后他也不跟我说个结果,所以我决定还是要让 cloud 看一下,我会更放心一点,怕是已经查出来一个严重 bug。 我 刚刚也是试测了,其实写 skill 这种事情还是需要博士生上的,现在 他问我要不要帮我来修复这些问题,那我就告诉他说,别,你先别干,因为不像很多人说你有了小龙虾你什么都不管了,不是那样子的,我觉得在定规则这个阶段还是要管的,他得了解你的工作习惯,了解你的标准。所以呢,我现在就会告诉他 不行,因为首先第一,我需要看到完整的规划,第二,你得明确告诉我,你什么时候来提醒我这个上下文需要 compress 了?你的标准是什么?你是到一百万 tock 的 时候,那钱都烧的不知道到哪去了,包括他要帮我去优化怎么选择模型,那我也会告诉他你都不知道我要处理什么任务,如何去分配。因为一开始那个 kimi 也是写的很离谱, 说让 kimi 帮我写代码,让 opas 帮我看图片,然后就神经病啊哈哈哈。相当于就是你找了一个错的人去干他不擅长的事,即使是 opas, 我 得需要让他 很清晰的把他准备怎么干他的计划先给我看,不然那完全就是一个黑箱子,他在里面搞东搞西你都不知道。所以我们把这个命令发出去,好像我们的反馈已经开始出来了。首先,必要的和不必要的可选的是什么?你看 他会告诉你压缩上下文出发条件是什么,提醒的形式是什么样的,你看这就很好,执行后费用可降低百分之五十到八十,包括责任务的分配,他会给我看到整个的执行流程,调度机制是怎么样的, 那我就心里很有数,现在这个 skill 已经开始在工作了,就刚就是我问他这个 talk manager 的 skill 有 没有已经在开始运作了,那你判断这是一个复杂问题还是简单问题? 你看 ai 就 咔咔咔咔就给我回答了一串,我套了一下他的话,我就套套说这个对话,你已经有开始按照我们的 token manager 这个 skill 开始判断模型了吗?就我的言下之意就是你是不是还在让我再烧 opus, 用很贵的模型在处理简单任务?刚刚还在讲,哼,你这个 skill 都没有好好工作, 结果你看人家说你说的对,但是我刚刚查了一圈,你现在用的模型其实已经是二点五了,也就是我们的这个 skill 其实已经在起作用了。它没有提醒我,但是它悄悄地已经把那个模型给我从 opus 换回了二点五。 接着提醒,现在这个对话窗口的上下文已经超了,那就问我要不要开始执行压缩,他已经开始按照 skill 制度自己在开始运作了。那我刚刚也看了一下后台的 a p i 的 消耗量,确实止血了,不像前几天那样真的让人血压飙升,所以 我们的这个 token manager 就是 谢谢富顺老师的贡献。如果你对这个 skill 感兴趣,也可以留意评论区,那我们下次分享见,拜拜。

open 壳三十二天烧了二十亿 token, 这两个 skill 直接帮你把浏览器的 token 砍掉百分之八十。 先说结论, bb browser 能用就优先用,不支持的再用 agent browser。 为什么呢?因为这两个 skill 啊,它核心就干一件事,就是只给大模型最精简的交互信息,所以 token 可以 直接砍掉一大截。 其中 b b browser, 它直接把网站当 a p i 用,还能附用登录状态,但是它只支持固定的平台,大概三十六个。那通用的网站怎么办呢?交给 agent browser, 它负责像人一样操作网页,点击输入翻页。所以啊,这两个组合起来,专门解决登录问题和偷看爆炸。

open curl 看个新闻直接消耗几十万头肯,很多人以为是模型贵,其实是搜索方式没用。对 open curl, 它默认的搜索链路是什么样的呢?它会启动浏览器,打开网页,输入搜索词,抓内容,再让模型解析网页的最后新闻页,跳转页,一层一层读,网页里头很多的导航栏,各种的标签,其实都是没用的东西,这些东西肯定又慢又费头。肯解决方法就是用 tabl, 它是专门给 ai agent 用的搜索 api, 返回的结果呀,非常干净,不需要把整个网页塞给模型。而且啊, tiffin 注册就有免费额度,每月一千,基本够用。 用法呀,非常简单,你直接对 open kerlo 说,我的 tiffin api key 是 叉叉叉。我想用啊 tiffin 做搜索,给我创建一个 skill 之后, open kerlo 就 能用走接口的方式去查新闻,更快更稳,而且还省 token。 如果你之前也被几十万 token 看一条新闻坑过啊,把搜索换成 title 点,立竿见效。


如何快速的消耗掉你的托肯?最近托肯这个词非常火,现在已经有了中文名叫词源,很多人还没有听说过,但是没关系,你迟早会听到的,因为现在有很多公司已经把托肯的消耗量 当成员工新的考核指标了,甚至有不少 ai 圈的大佬每天都在焦虑如何消耗掉多余的托肯。那这条视频就来分享一下我的经验。当然,首先声明,这期视频就是为了纯消耗托肯,并不代表实际的工作价值。 首先,假设你跟 ai 聊天,一个汉字大约只能消耗一个托肯,效率非常低下。但是如果你让 ai 生图,一张图片可能也就消耗几百个托肯很多了,但是也不算是特别多。但是如果你让 ai 生成视频或者处理视频,一条视频就能够消耗几万个托肯, 而且画质越高,消耗的越快。今天我就用酷带斯帮我剪了两条短视频,结果直接烧掉了我一周百分之十的赔额。这个是马斯克的一个采访视频, 大概有四十五分钟,我让 codex 帮我剪出两条短视频,我跟他说的要求如下,首先要保证这两条短视频的故事完整性,第二个要加上一个字幕,第三个必须得是竖屏格式,第四个要把生成一个封面,我们来看一下效果。 and then we obviously want to go beyond the moon to mars, and will they self sustaining city on mars i do think that at that there is a fork in the road of human destiny where if we can establish a self sustaining city on mars with the key test being if the resupply shifts from earth stop coming for any reason does mars continue to prosper or does it die out my guess is that i think that we might have ai smarter than any single human at anything as soon as next year wow, and then and then probably within five like say 20, 30 probably ai is smaller than the sumo here。 我 觉得效果还不错。如果把这个提示词再优化一下或者做成统一的 skill, 其实能生成更好的效果。但我一个星期的额度就只能剪出二十条短视频, 其他的事情就完全不能做了,那还是有点恐怖的。这可能就是 open i 下架 solo 的 原因吧。因为视频生成实在是太消耗 token, 所以 结论很简单,如果你想单纯地消耗 token, 就 让 ai 疯狂地输出视频处理视频的工作,而且要画质拉满,数量拉满,你的 token 余额就会以肉眼可见的速度归零。

在我了解了这个通会是怎么被消耗的这件事之后啊,我最大的直觉是,我觉得未来的程序员很可能会两极分化, 分为有钱的程序员和没钱的程序员,分为富程序员、穷程序员。你想啊,有钱的程序员,他能够使用最先进的工具,使用最先进的模型,然后去创造出更好的产品, 然后去赚更多的钱。而没钱的程序员,他分为两类人,一类呢是打工人,他使用的是公司提供的免费 ai 工具,一般都不咋地。第二类是创业者,他需要是自负盈亏,如果他的商业模式跑起来了,他就是一个有钱的程序员, 如果他的商业模式没跑起来,那么他需要承担 ai 编程的高额费用,很有可能会入不敷出。 因为 ai 编程和我们平时使用拆一批聊天不太一样啊。一百万头肯,如果你聊天的话,你可以聊个几百次,能用很长时间,但是你 ai 编程,你让 ai 去分析一个功能模块,就有可能会消耗几千到几万头肯, 如果你让 ai 去分析一个完整的项目,全量代码几十万,上百万投坑代码还没开始写,几十块钱就没了,玩不起。我希望我这个直觉是错的,你觉得呢?说说你的看法。

openklo 三十天烧掉二十亿 token, 这个消耗是不是太吓人了?如果不要慌,我发现两个超实用的 skill, 可以 直接帮你把浏览器的 token 砍掉八成。我直接说重点,第一个就是 b b's bro, 能用的话优先用它,实在不支持的咱们再用 agent brower。 为什么?因为这两个 skill 核心就是干一件事情,只给大模型为最惊艳的信息,所以偷看自然就省下一大截啊。 bb brower 特别牛,他直接把这个网站当 a p i 用, 更厉害的是它能附用你的登录状态,省得你反复登录比较方便。不过它目前只次固定的平台大概有三十六个左右。那通用的网站咋办呢?交给 a j b r 的, 它会模仿这个真人 操作网页,该点击要输入就输入,遇到多页的内容还能自动翻页。所以这两个组合起来黄金搭档嘛,专门解决登录麻烦和偷听爆炸的问题。

大家都在用,要开发,但是会遇到一个问题,就是拓客耗的很快,一下就用完了,做一点点活耗拓客耗的非常快,就顶不住有点。那今天我分享一个,我做, 呃,我这项目怎么是省拓客的,就怎么节约拓客,然后一个项目用了百分之一二三就能够把它上线。看我有个 skill, 大家都知道 vs 是 按次收费,按次收费的话就说你只要绘画不断,他就会一直给你工作,一直给你工作,直到把所有的,把所有的问题都问完。那么所以说你问一个问题,一个个问也是收一次的费用, 问一页问题也是收,就是你那个做一个 task 的是,你看做个 task, 那 么这个 task 放一百个问题,他也是按一次收费,所以说这里就有点卡 bug 了。 那么我是这样做的,首先对话,对吧?读出 task, 然后执行,按标记这个中括号的,如果做完就标记,再选中图层,查找到下一个,再选循环,再全部完成,再进入优化模式,我还要它优化,做完之后它优化, 我怕我的任务他做完了,他没告,我还没反应过来,没往里面加,他做完了他就断绘画了,所以说我让他接着优化,再分析项目,记录优化点,并重新读去他这个如果检查了有新的任务,再接着做我的一个优化的一个执行任务, 所以说我一天这个绘画就不会断,这样做的话就不会断,你看我这个,他是个手看,我会接着写你看做的做的任务,对吧?啊? 他就会一直给我写,一直给我写,所以说我一天我开个三四个项目做,然后每一个都会 根据我的一个写的 skill, 所以 说我四个项目一天用下来都不会超过百分之十的消耗啊,一个账号用一个十多天吧,关注我,下期分享。

你给龙虾装 skill 其实也是这样,装了十个,七个躺在那里只用那三个,剩下的那七个可能堆在了你根本不知道的一个文件里 啊。 tools 文件和 skill 到底有什么关系?你可以这样理解, skill 是 你下载的一个 app, tools 就是 这个 app 的 说明书,这工具叫什么?怎么用?配置是什么?每一次启动,每一次启动,龙虾都会把这个 tools 文件读一遍,所以说你 skill 装的越多,这个 内存就会变得越厚,堆太多了之后会怎么样?文件越长, toki 消耗的就越多。因为龙虾每次启动都要把 toki 文件从头到尾的读一遍,一天只要启动个几次, toki 就 变我的钱。 你如果要想学会控制你的 toki 用量, toki 文件里面的内容精简是必然的。正确的做法是什么呢?就是不用的扔掉,装过一个 skill, 后来不用了,把它的配置删掉,别留着占地方。就是工具在精不在 多,希望你能明白。好吧,现在去让龙虾帮你叫取出来吐槽一遍,看看你有没有舍不得扔的东西。

大家好,今天我们来聊聊如何在使用强大 ai 时,聪明地节省你的偷看开销。 ai 模型越来越强大,但使用成本也水涨船高。最新的 cloud 模型非常昂贵,一句简单的问候都可能消耗大量阅读额度。 有人尝试用文言文对话,以为能节省 tock, 但测试表明这并不可行,因为模型按语义划分, tock 压缩字数效果不大。 一个有效的方案是使用 k man 技能,它能强制模型说话简洁, 去掉客套化和模糊词汇,可节省约百分之六十五的输出。 tock 研究也支持这一点, 强制模型简短回复不仅能节省 token, 还能提升任务准确率,简洁反而让模型更聪明。此外,还有十个实用诀窍帮你高效管理 token, 比如编辑原消息而非新增。定期开启新对话以及合并问题一次发送。 利用 projects 缓存文件,预设你的记忆与偏好,关闭非必要的附加功能, 并根据任务选择不同模型。低成本的处理简单工作,将使用时间分散到全天, 尽量避开系统高峰期。对于付费用户,可以开启超额使用功能, 作为额度耗尽的安全网。总之,在这个 token 宝贵的时代,养成高效的使用习惯务关重要。用最精炼的语言沟通,把每一个 token 都花在刀刃上。记住,少急事多。 希望这些技巧能帮助你更经济、更聪明地使用 ai。 我 们下期再见。

好家伙,现在人都 talk 化了吗?这两天一批新型的 skill 火出了圈,就是人 skill, 包括什么前任 skill 啊,同事 skill 啊,老板 skill 啊等等,我们 来看看这些 skill 到底是什么?我就来啊,前任 skill。 举一个简单例子,首先这个前任 skill 呢,就是提供两人美好的回忆,就能让 ai 魂穿前任,然后用他的口头禅的一个方式说话,用他的一个方式进行聊天, 使用起来也特别简单,也就三步,第一步既能安装,你就直接告诉你的 open code, 让他安装一下就可以了。第二个,人格创建名字,性格,恋爱状态,他的一个说话习惯,生活方式,你简单的一填,一个数字版的前任就诞生了。第三个积极投位, 就是你可以上传你们的聊天记录,社交媒体的内容,又或者是上传一些文件,又或者是直接口述的方式。这三步完成后,这个 skill 就 生成了,然后我们就可以通过这些命令进入这个 skill 的 一个性格模式,回忆模式,列出所有的前任等等的一些功能。 但是最后作者也表示了,这个 skin 呢,只是用于个人的一些回忆或者是情感的一个疗愈,但是我发现它其实也可以用一些其他用途,比如我们的回忆不是特别的美好,那就直接开喷就行,你觉得这个 skin 还有什么用处?

最近有人问我说 open curl 只打一个 hello, 直接花了五毛钱,而且康派克的还没有用。今天教你两个命令,直接查出原因。先说原理,因为模型看到的并不是一句话,而是一整包的 context 上下文。 上下文包括三部分,分别是系统提示词,二是历史对话,三是你的这句话以及上去的工具结果。 第一个命令啊,叫做 context list, 它可以直接看到 token 的 分布,包括啊,你的系统提示词大小, skills, tools 以及 list 等等。这么一看,一轮至少要两万个 token 起步。那为什么 compact 没用呢?因为它只压缩 history 部分,系统提示词部分根本没动。 第二个就是 context detail, 它会把所有的工具 skill 文件注入全部列出来。最后一步就是你直接丢给 open crawl, 说 这是我的 context detail, 给我设计详细的降本方案,这时候它就会帮你经典 skill 和 work space 的 文件。所以你的小龙虾还遇到哪些问题?

一个二十五岁的韩国大学生,一年烧掉了一百二十五万人民币的 ai 费用。我是杨乐多,大白话讲 ai。 这个小伙子啊,长得跟普通大学生一模一样,乱糟糟的卷发,脸上还有青春痘。但是他是 athropica 的 榜一大哥, 一年在 cloud 上烧了二百五十亿个 token, 也就是磁源,折合人民币一百二十五万,什么概念呢?够在北京的五环外啊,买一套小两居的首付了。但烧钱不是重点啊,重点是他拿这些 token 干了什么? 三月底呢,有一个事是 cloud code 的 原码泄露了,五十一万行代码被人挂到了网上,几个小时内, github 上冒出了八千多个拷贝。阿瑟罗夫的法务团队连夜发了八千多封律师函,挨个要求全部下架。 这个榜一大哥呢,也被电话震醒了,他女朋友打了好几个电话,怕他电脑里也存了泄露的代码,惹上官司。然后呢,这个小伙子就做了一个疯狂的决定, 一行泄露的代码他都不看,从零开始写。他启动了自己搞的一个 ai 调度系统,让好几个 ai 同时开工,有的写代码,有的做审查,有的跑测试。几个小时以后,一个叫 cloud code 的 项目被推上了 gethoop, 两个小时就获得了五二 star, 现在快十八万了。咱们想想这件事啊, autopic 发了八千一百封的律师函,把所有搬运者都给告了, 唯独克拉蔑的安然无恙。因为他是一个字节都没抄啊,完全是 ai 重写的,而且免费的。整个过程呢,有点像翻拍一部经典的老电影,主线和灵魂都没变,但是台词啊,演员啊,背景啊,全都换成了自己的那一套, 他自己说了一句话,我觉得特别狠啊,他说这是用二百五十亿个 tucker 换来的直觉。你看他花的这一百二十五万,其实不是在烧钱,是在训练自己对 ai 的 理解。当机会来的时候,别人还在下载泄露的代码,他已经能指挥 ai 从零重新造一个出来了。 在 ai 时代呢,最贵的不是 tucker, 是 敢去用 tucker 和花 tucker。 从这个角度来看,这个榜一大哥,二百五十亿的 tucker 呢,烧的不是钱, 是一张通往新世界的门票,你觉得花钱体验 ai 值不值?评论区聊聊,持续用大白话带你看懂 ai 走到哪了,变化很快,关注我,带你一起跟上!