如果你现在还在花大量时间研究 skill 点 md 该怎么排版,那你很可能已经在一个快过时的问题上越卷越深了。 google cloud tech 转的这篇文章,表面上是在讲五种 agent skill 设计模式, 但它最值得先听懂的一句话,其实不是任何一个模式名,而是格式。问题。已经差不多结束了,作者说的很直接,现在已经有三十多个 agent 工具在共用同一套 skill 点 md 规格,像 cloud code gemini c l i cursor 这些工具,外层长得越来越像, 也就是说,你再去纠结 v a m l 怎么写目录,怎么摆 references 和 assets, 怎么命名,这些事情已经不再是分水岭了。真正的分水岭变成什么是内容设计, 也就是同样一个 skill 点 md 外壳里面到底放什么逻辑,用什么资源,怎么让模型只在需要的时候加载对的内容? 作者举了一个很典型的例子,一个将模型写 fast api 的 skill 和一个四步走的文档流水线 skill, 外面看都长得差不多,但里面的设计完全不是一回事,一个更像知识封装,一个更像流程控制, 问题根本不在格式,而在内容结构。接着文章先回顾了 google adk 的 skill toolset 三层结构,第一层是 list skills, 只给模型看到 skill 名字和 description。 第二层是 load skill, 模型需要的时候再把完整指令拿进来。第三层是 load skill resource, 只有真正要读参考文档模板或资源文件时,才去按需加载。这个设计背后的核心逻辑很重要,叫 progressive disclosure, 也就是渐进式批录, 先给少量信息,让模型自己决定什么时候再往下拿更多内容。作者甚至直接给了一个量化判断,每个 skill 在 启动时大概只多带来一百个抽肯左右的描述成本。真正重的部分,不应该一开始就全部塞进上下文,而是按需再读。 你看到这里就会明白, skill 设计的关键从来不是把所有规则一口气塞满,而是先把入口做清楚,让模型能找到它,再在需要时拿到更深的内容。所以文章一上来,就先抛出两个最常用也最容易上手的模式。第一个叫 tool wrapper, 它本质上是给某个库、某个框架、某个内部系统封一个即时专家包,比如 fast api、 terraform、 数据库查询规范、安全策略。 这些东西模型不是完全不会,但你希望它在处理这个领域问题时稳定遵守你团队的那条规则, 那你就把这些规范放进 references 里,让 skill 在 需要时加载。这个模式最值钱的地方是把专家经验从系统提示词里拆出来,变成按需调用的知识包。第二个叫 generator, 这个模式不是让模型变专家,而是让模型稳定产出固定结构的东西, 比如技术报告、 api 文档、 commit message, 或者你们团队自己的 agent scaffold。 它通常会同时用到 assets 和 references, assets 里放模板, references 里放风格规则, skill 自己负责把流程串起来,先加载规则,再加载模板,再补齐全的信息,最后按固定格式吐结果。你会发现它和 to rapper 的 差别很大,前者解决的是按什么规则做,后者解决的是按什么结构产出。 所以第一集真正要记住的结论只有一个,现在做 skill, 别再把精力放在格式上了。真正拉开差距的是你能不能先判断这个 skill 到底是在封装知识,还是在稳定产出。如果这一步都没想清楚,你后面写的再规范也大概率只是一个看起来很标准的空壳。 下一集我讲剩下三个更狠的模式,因为从第三个开始, google 讲的已经不是怎么给模型补知识了,而是怎么让模型按标准审查先问再做,甚至被强制卡在一个不能乱跳步的流程里。
粉丝657获赞2244

如果你的 android skill 安装了,但是发现并不好用,比如说总是不触发,大概率是 description 没有写对。今天分享六个呢, skill 创建的技巧,全部是从 ospec 官方仓库里面扒出来的实战经验。第一个 skill md, 要有黄金结构。很多人写 skill md 呢,就是一坨文字糊上去, cloud 其实根本看不懂。 正确的写法是分块, purpose, when to use process, decision, logic, output。 每一块呢,都用标题和列表写清楚。 cloud 呢,一看就知道该怎么执行。 第二点啊, description 的 写法是否正确,直接决定了处罚率,这是最容易踩的坑啊。你写帮助用户处理 excel, 这太模糊了, ai 不知道什么时候该调用你,你得写清楚两个关键信息,第一个呢,叫做能做什么?第二个呢,是什么场景来调用?比如正确的写法呢?是这样的 好,你看前半句,列出了四个具体能力,提取数据,执行透视表,生成图表。后半句呢,写明了处罚的场景,分析表格数据或者自动化工作流,具体化,以 才能被精准触发。而且第二个信息点更关键,因为很多人会写干什么,但是常常忘记写什么时候来触发这个 script。 第三啊,重复的活呢,封装成 scripts。 比如说你经常要抓取网页内容,每次呢,让 ai 现写代码又慢又不稳定,直接写一个脚本呢,扔进 scripts 文件夹,然后在 s q m d 里面呢,告诉 ai 调用脚本就行。注意啊, scripts 文件夹里面的内容再多都是不加载到上下文里面的,而只是执行,因此 intoken。 而且由于是代码逻辑呢,是前后一致的,完全是稳定的。第四个, reference 文件夹要按需加载, qmd 里面超过了多少字就要拆分呢?从时间来看呢,最多不要超过五千字啊,如果超过就 把详细文档呢放进 reference 文件夹里面,在 qmd 里面写上需要时读取某某文件,这样 ai 不 会一次性的塞满上下文,只会在用到它的时候呢才加载。第五个, 直接抄官方的优秀案例, ospeak 官方的 skills 仓库呢,有六万多的 star, 里面的 m c, p, builder, web app, testing, internal, commerce 这些呢,都是生产级的 结构,怎么组织,指令怎么写,资源怎么分配,全部呢,都是现成答案,抄完改成你的领域就行。第六个,打包分享出去, skill 则遵循开放的标准,一个 skill m d 呢,加上 scripts, reference, assets 三个文件夹,打包呢就能给别人用。你做的 skill 呢,越专业,附用的价值呢就越高,对你带来的影响力呢也就 越大。总结一下, description 决定了触不触发,触发率是多少, skill m t 的 结构呢,决定了执行的质量, scripts 和 reference 呢,决定了效率的上限。 ok, 这一期呢,讲到这儿,觉得不错的点个赞,后续呢,还会拆解更多的 skill 的 实战的玩法。

这是我用 skills 在 家 google 的 stitch 生成的一个电商的工作台的系统,大家可以看到这边有一个叫做,请根据以下 skill md 规范帮我做一个电商萨斯后台的工作台的概览页。这个 skill md 文件是我自己今天写的一个 ui 设计规范的 skill。 那 还有一个案例,我让它通过我的 skill 来帮我重新的去复原了一下钉钉前端的页面。 而且 stitch 最近真的更新特别牛逼,它这里可以开始 modify 了,可以开始改了,之前都是不能改的,必须要导出 fake 码。我是怎么做的呢?给大家先看一下我的整体流程本上分为三步, 第一步是打地基,我通过一个 google 的 开源的这么一个前端的组建框架,再加上 material 的 这个网站,让 ai 帮我总结出这个里面的一些设计规范。同时我找了一个我们过去用做生产级的一些设计规范的 screen 文件,做出来了以后, 我再通过 mcp server 去打通了 stitch 之间的一个联通,它就会在 stitch 这边帮我创建一个新的 work space, 然后帮我把对应的这个设计稿给我做出来。 那具体是怎么做呢?首先第一步我们去 github 上叫做 google style guide 这个网站,我们把这个 http 的 这个网址复制下来,到你的 ide 这边去克隆下来,那很快它其实就会把这个 google 的 这种设计规范给我克隆到本地,这里全部都是 google 定义的一些设计规范。克隆好了以后,你可以让 ai 帮你总结这个 style guide 里面具体内容, 原则, component guideline 等等,你要基于此抽象出做一个设计规范的 skill 文件,供后续出设计稿使用,那它就会给你出第一版本的 skill。 那 接下来第二步去到这个网站,叫做 m 三 materialio 的 这个网站,这个里面大家看到其实也有很多很多的一些组建,以及对应的一些设计和交互规范,那我们直接把这个链接 copy 下来,同样也给到 ai, 让他学习一下这个网站,从而进一步优化 skill。 那 接下来我给到 ai 一 份我们过去做的比较好的一个后端的 size 的 这个 fig 码的原文件,然后让 ai 用这个 fig 码的文文件,在之前我们已经生成的这个 skill 基础之上,再抽象化 第三版本的 skill, 它就很快的就能帮我把这个 skill 给做完了。接下来我们就要去使用这个 skill 的 文件,来依据我们的需求来生成我们的前端的这种交互原型。首先第一 我们在这里 mcp, 我 们可以去搜刚刚的 stitch, 因为我已经安装过了,所以如果没有安装的同学这里就点安装就好了。那这个时候我让他用这个 skill 做一个电商后台的萨斯系统,我让他先用我之前已经装好的一个 pencil 的 一个插件 mcp 去帮我做一份,同时呢又让他帮我通过 stitch m c p 帮我出这个设计稿。所以这里你就可以看到他把我的整个的 skill 文件放在了他的提示词里,在 stitch 里面去帮我输出了这样一份设计稿,是 pencil 出的设计稿,是不是差别还挺大的?后来呢,我们又换了个 case, 让他帮我去做一个办公软件,钉钉的根据我的 skill 规范帮我生成设计稿, pencil 也做一遍, pencil 也做一遍, pencil 做出的就是这种特别乞丐版的 stitch, 做出来的就是相对来说质量比较好的。那在 stitch 里面,如果本身你对于这些前端的要求并没有那么多,修改的时候,其实你就可以直接的点这里的 modify 字都是可以改的,这是最近上新的功能, 你也可以去利用 ai 修改,然后在这里跟它口喷对话。当然如果你有更多的一些高精细化的要求的话,你可以从 stitch 里面再导出 html, 然后再导入 fake 码去做后续的修改。好啦,今天的分享就到这里,希望对你有帮助。

如果你也在用 openclaw, 先别急着研究 skill, 一定要把 so、 user agent 这三个文件配置好。我之前视频里也分享了关于 openclaw 的 安装和使用技巧。在跟一些粉丝互动的过程中,我发现一个特别明显的问题,就是很多人把龙虾安装完之后,就在研究给它装什么 skill。 但是如果你真的想让他帮你干活,最重要的不是装多少个 skill, 而是先把这三个配置文件写好。如果你现在还不知道这几个文件在哪,特别简单,在这里直接去跟龙虾说一句,把你的受点 m d 文件展示给我,并解释一下,你看他直接会告诉你。那咱们先说第一个, 受点 m d 这个文件,你可以理解为你在定义龙虾的价值观。很多人写这种配置,很喜欢写一句很空的话,比如你是一个高效的 ai 助手,请认真回答问题, 这种基本等于没写,因为他太虚了,龙虾根本不知道你到底想要什么。你真正应该写的是很具体的一些要求,比如我这里会要求他收到任务后,先自己去判断任务类型,再决定怎么处理 简单明确的问题,直接给结论,不要铺垫在回答方式这里,我希望他有自己的判断,如果不确定就直接说不确定,不要给我瞎编一个答案。因为 ai 最大的问题大家都知道,就是容易一本正经的胡说,所以你不给他定规则,他就会按照他自己默认的方式来。 但你一旦把这些要求写清楚,他整个回答质量会马上不一样。写完之后也很简单,直接跟他说一句,按照以上内容更新 so 点 md 就 可以了, 他就去会更新你的这个文件。第二个是 us 点 md, 这个文件其实就是在告诉他你是谁,要说清楚你的名字,你所在的时区,他应该怎么称呼你,你主要的工作内容,平时主要处理哪些事情,以及你的一些核心偏好,更喜欢什么样的输出方式, 这一点非常重要。如果没有 user 点 m d 这个文件,说明他每次都像在跟一个陌生人说话。如果有了这个之后呢?他真的会慢慢地知道你是谁,你要什么。那最后一个文件,这个文件你可以理解为相当于你给他的一个工作手册, 也就是你要告诉他收到任务之后要先做什么,出的标准是什么,哪些操作必须要跟你确认,这些都很关键,因为他决定的不是会不会回答, 而是他会不会按照你的方式做事。所以我自己的体感是,你把这三个文件认真的写清楚,可能真的比你装一百个 skill 更有用,因为 skill 解决的是他会什么,但这三个文件解决的是他怎么做事,怎么理解你怎么越来越像你的助手。

the skill 点 md pattern 如何编辑真正有效的 ai 代理技能?这篇文章由 beback pod 拷写,介绍了编辑 a 阵的 skill 的 最佳实践。如果你的技能没有触发,问题几乎从来不是指令本身,而是描述。这是大多数人经过一小时的挫折后才意识到的。 你编写了一个 skill 点 md, 放在正确的文件夹中,让代理使用它,结果什么也没发生。你重写了指令,仍然没有反应。 问题从来不是你在技能中写了什么,而是代理用来决定是否激活它的顶部两行内容。技能不是插件,也不是连接到 api 的 脚本。把它想象成为新团队成员。编辑入职指南, 你不用在每次对话中重新解释工作流程和偏好,而是将它们打包一次。当你的请求匹配时,代理会自动获取它们。唯一必须的文件是 skill 点 m d, 其他都是可选的。 skill 点 md 格式是 antropic 在 二零二五年十二月发布的开放标准,适用于 cloud code, open ai codex 和 open cloud。 在 编辑任何内容之前,你需要知道把它绑定哪里。每个平台从特定位置加载技能位置定义了范围。 cloud code 使用用户目录下的点 cloud 斜杠 skills 作为个人技能。点 cloud 斜杠 skills 作为项目级技能, open ai codex 使用类似的路径。 openclaw 使用用户目录下的点 openclaw 斜杠 skills 作为全局技能。当一个技能与另一个同名时,项目级技能会覆盖个人技能,这是大多数人跳过的部分。它解释了几乎所有的技能问题。技能使用渐进式批录三级加载系统, 第一级是原数据始终加载,每个技能约一百个 token, 代理只读取 yaml 前置内容中的名称和描述。第二级是指令触发时加载少于五千个 token, 代理读 skill 点 m d 的 完整内容。第三级是引用文件和脚本按需加载,实际上是无限的,这就是技能可扩展的原因,空闲时的透坑成本为零。最常见的错误是描述字段不是给人类看的,它是代理在决定是否激活你的技能时使用的触发条件。 糟糕的描述只说帮助处理文档。同样糟糕的是指描述了什么,以及何时使用,包含具体的触发短语。 有效的结构是既能做什么,加上何时使用它,以及具体的触发短语。让我们从简单到复杂构建四个技能。 readme writer 是 基础文件输出, get commit writer 展示多个触发短语, code reviewer 展示多文件结构, linear sprint planner 展示 mcp 集成 从 get 和 commit writer 开始。需要文件输出时使用 readme writer 模式。技能太长时像 code review 那 样拆分,需要外部工具协调时使用 linear spring planner 模式。技能一, readme writer 关键模式是收集上下文, 编辑保存到磁盘。第一步,收集项目上下文检查 package jill 或 pie project tom 查找 a n v 视力检查 s e a s e a 文件。第二步,使用标准结构编辑 readme 特性先决条件安装使用许可证。第三步,写入磁盘。 第四步,质量检查没有占位符文本命令准确。技能二, get commit message generator 关键模式是覆盖用户可能提出的不同方式的多个触发短语, 包含这些触发短语,编辑提交消息,帮我提交,总结,我的更改,我的提交应该说什么?起草提交。输出格式使用 conventional commis 规范类型,括号范围,冒号。简短描述类型包括 fit, fix, doc, refractor 等。技能三, code reviewer 展示多文件结构,关键模式是将内容拆分到多个文件中。 skill 点 md 保持约四十行,包含主流程。详细审查标准放在 reference 斜杠 criteria md 中,只有在实际审查时才加载。 输出结构包括摘药,堵塞问题,建议和积极评价。引用文件包括安全性、正确性、可读性、性能和测试的审查标准。技能四, linear sprint planner 展示 m c p 增强模式, 关键模式是技能加 m c p 服务器等于强大的自动化。在前置内容中声明 m c p server lina 流程包括从 lina 获取当前周期和代办事项,分析团队容量,优先处理代办事项,提交计划,供用户批准创建周期并分配问题。 一句话就能触发整个工作流程。 allow tools 自断限制技能,激活时代可以调用的工具,这对于止读技能很有用,防止代理意外写入或执行任何内容。例如日制分析器技能只允许 read grab club 工具。 激活此功能后,代理无法执行 shell 命令写入文件或进行外部调用。这是为观察技能添加安全保证的简单方法。当技能没有触发时的调试步骤,第一,检查你的描述,添加更多具体的触发短语。 第二,检查文件路径,确保 skill 点 md 在 正确的位置。第三,检查 yaml 语法前置内容必须从第一行的三个短化线开始。第四,重启绘画技能,在绘画开始时快照。 第五,使用显示调用测试,如果显示调用有效,但自动触发无效,说明描述需要改进。安全注意事项,技能可以捆绑可执行代码,这种力量使它们变得危险。 实用规则,永远不要安装要求你粘贴密钥的技能。安装前始终阅读 scripts 文件夹。对进行出站网络调用的技能持怀疑态度, 优先使用来自官方来源的技能,如 entropix, open ai 或你的团队。 clawhub 有 virus total 集成,可在安装前检查技能。关键要点总结,第一,描述等于触发条件,不是解释。第二,三级加载原数据质量引用。第三,从简单开始, 逐步增加复杂性。第四,将大型技能拆分为 skill 点 md 加 reference 文件夹。第五, skill 点 md 是 一个开放标准,可跨平台移植资源链接 agent skills 规范在 agent skills 点趟按抽象技能仓库在 github 点 com 斜杠按抽象斜杠 skills open ai 技能仓库在 github 点 com 斜杠 open ai 斜杠 skills 原文链接在 baggy podd 的 page 播课,感谢观看。

大家好,今天我想和大家分享一篇来自 antarctic 工程师 ferrick 的 技术推文, how are you skills? 这篇文章详细记录了 antarctic 团队在 clock hole 中使用 skills 的 实战经验,干货非常多。 我把核心内容提炼出来,分两部分跟大家聊一聊。首先,为什么我们要关注 skills? 文章开头就指出, skills 已经成为 cloud code 中最常用的扩展机制之一。它具备三个核心特性,灵活,能适用于各种开发场景, 异于创建上手门槛非常低,便于分发,团队之间共享起来也很简单。但灵活性本身也是一把双刃剑。正因为 skills 什么都能做,反而让人不确定什么类型的 skill 值得做。 怎样才能写出一个好的 skill, 什么时候应该把它分享给团队,这些问题不是空谈。 osrapec 内部目前已经有数百个 skills 在 日常开发中活跃,使用它们踩过的坑,总结出的经验对我们非常有参考价值。 在进入具体分类之前,我们先澄清一个常见误解。文章特别提到,很多人以为 skills 只是 markdown 文件,其实不止于此。他说,最有趣的 skills 都巧妙地利用了配置选项和目录结构。 skills 本质上是一个完整的文件夹,以左边的目录结构为例,一个 skill 包含必须的 s、 k、 l、 l、 md 原数据文件,以及可选的 scripts 脚本目录、 references 参考文档目录和 assets 静态资源目录。 在能力方面, skills 有 几个关键特点, agent 可以 主动发现并操作 skill 中的文件,支持注册动态 hooks, 也就是钩子,有灵活的配置选项以及创造性的利用目录结构来实现渐进式信息批录。理解这一点非常重要。 skills 不是 一段静态文本,而是一个有结构、有行为、有状态的工具包。这个认知是理解后面所有内容的基础。 接下来是文章的重头戏, skills 的 分类体系。他们团队在梳理了公司内部所有的 skills 后,发现他们自然地聚集成了九大类别。 他特别强调,好的 skill 应该清晰地归属于某一个类别。如果一个 skill 横跨多个类别,往往会让人困惑。我们先看前五类。第一类,库与 api 参考 这类 skill 用于说明如何正确使用内部或外部的库。 cai 或 sdk 通常包含参考代码片段和常见陷阱列表。 比如 building lab 就是 专门说明内部计费库的边界情况和易踩的坑。第二类,产品验证。这类 skill 描述如何测试和验证代码是否按预期工作,通常会搭配 playrite to max 等外部工具来完成验证。 典型事例如 sign up flow driver 能在无头浏览器中跑通整个注册流程。第三类,数据获取与分析。这类 skill 连接数据和监控工具站,比如配置好特定的数据库凭证、 dashboard id 等。 例如 final query, 帮助回答从注册到激活再到付费该关联哪些事件表。第四类,业务流程自动化,将重复性的工作流用一条命令搞定, 比如 stand up post, 可以 自动聚合 ticket github 活动和 slack 消息,生成格式化的站会摘要。第五类代码,脚手架生成特定框架的样板代码特别适合那些有自然语言需求,不能纯靠代码模板覆盖的场景。 继续来看后四类。第六类,代码质量与评审在组织内强制执行代码质量标准。比如 adversarial review, 会启动一个新鲜眼睛的紫 agent 来挑刺,然后自动修复,直到问题降级为吹毛求疵的 nitpick。 第七类, c i、 c d 与部署帮助获取推送和部署代码 abcpr 这个 skill 很 有意思,它能监视 pr, 遇到 c i 失败会自动重试,碰到合并冲突会自动解决,还能开启自动合并。 第八类,运行手册。根据一个症状,比如一条 slack 消息,一个报警或者一段错误签名,自动进行多工具调查,最终生成结构化的排查报告,这对于 uncle 场景非常实用。 第九类,基础设施运维,执行日常维护和运维操作,有些涉及破坏性操作,因此特别受益于安全护栏。 总结来看,这九大类型覆盖了从开发到运维的完整生命周期。作者建议大家对照这个分类来审视自己团队,看看还缺少哪些 skills。 这不是一份死板的分类标准,而是一个帮助你发现盲区的思维框架。 最后,我们深入看三个作者特别强调的重点类型。第一个是产品验证,作者认为验证类 skills 对 确保 cloud 输出正确较为有用, 他甚至建议值得让一名工程师花一整周来专门打磨这类 skill。 推荐的技术包括让 cloud 物质输出视频,这样你可以看到它到底测了什么。在每个步骤用程序化断言检查状态。 在 skill 中包含多种验证脚本。第二个是业务流程自动化,这类 skill 的 指令通常比较简单,但可能依赖其他 skills 或 m c p 工具。 关键技巧是保存执行日记,让模型能回溯之前的执行记录,保持一致性,并支持反思和改进。第三个是运行手册, 工作流程是输入一个症状或报警,经过多工具联合调查,最终输出一份结构化报告, 这对于缩短拥靠响应时间、沉淀排查经验都非常有价值。这三类 skill 覆盖了从质量保障到效率提升再到故障处理的核心场景,是 siri 建议优先建设的方向。 以上就是第一部分的内容,主要帮大家建立起对 skills 的 整体认知和分类框架。第二部分我们会聚焦在如何写好一个 skill, 以及如何在团队中高效分发。

skills 确实好用,你有没有发现自己花了很大功夫写的 skills? cloud code 有 时候根本不用,你写得很认真,每个步骤都理清楚了,结果他跑任务的时候自顾自的干,你的 skills 就 那么静静地躺在那里,像从来没存在过一样。 lincoln 最近把这件事测出来了,他们给自己的工具写 skills, cloud code 全程一次都没调用,但同时他们发现有 skills 没用,是根本没被用上。 lanchain 搭了个评测管道,思路很简单,先跑没有 skills 的 基线,再跑有 skills 的 版本,对比完成率, 结果出来,没有 skills 完成率百分之九。有了 skills 且正确调用百分之八十二,这不是小涨,这是重生币。但这里有个大坑, skills 不是 你写了就自动有用。他们明确告诉 cloud code 去找 skills, 调用率也只到百分之七十三次里还有一次 agent 直接当 skills 不 存在,自己上了。 所以问题的核心不是我写的 skills 质量够不够好,而是它到底有没有在用我写的 skills。 这两件事你得分开看起 long chain, 找到了两个根本原因。说出来你可能会心一笑。第一个 skills 太多了, agent 选错了二十个相似的 skills 放进去, cloud code 会挑错,缩到十二个就能稳定选对。 就像菜单太长,服务员不知道推荐什么,随手一点点了。到最不合适的十二个,大概是上限超过了就开始乱。第二个 skills 放错地方了, skills 是 动态解锁的,但 agent 的 流程有时候直接跳过解锁,你的 skills 就 这么被晾在那里,没人请他出场? 最可靠的位置是 agents md 和 cloud md 这两个文件, agent 它启动必读,不会漏。你要把什么时候用哪个 skill 写在这里,不能只靠 skill 等着被人发现,那就像手册锁进档案柜,还没告诉任何人里面有什么。 还有个意外发现, skill 内容格式的影响其实没那么大,真正决定 agent 调不调,用的是 skill 的 名字和描述够不够准,这才是关键。 三条结论, luncheon 踩了一堆坑才总结出来的。第一, skills 总数控制在十二以内,相似的合并,别让 agent 在 一堆相似选项里迷路。第二,使用指导写进 agents md 或 clod md 不要只靠 skill 自己等着被发现。 第三,用 xml 标签给 skill 内部分 section, 可以 单独替换某一段最有效,不用每次改了全扔重来。 还有条零号。结论也是最关键的。先测基线,你不知道没有 skills 时完成率是多少,就没法知道加了 skills 有 没有涨。 lincoln 要不是做了这部,还以为自己写的 skills 挺管用的呢。 你写的 skills 有 没有被用上?测一下就知道了。 lincoln 测出来百分之九和百分之八十二差了九倍,不是 skills 没用,是没被用上 skills 总数别超过十二。使用指导进 agents md 先测基线,关注我,每天一个技术深浅。

家人们, skill 真的 太好用了,我用它解决了我工作上一项重复性高又很好使的工作,而且可以说是超额的完成了任务,现在一整个就是很兴奋。 事情是这样的,我有个例行的工作,我需要每季度做一次业务的架构规划方案评选,动不动就是上万字的十几个的规划方案,每次都会看到我头昏眼花,最重要的是还容易看漏啊!最近我就在学 skill, 于是临官一线就想要不要写个 skill 试试,看看能不能解决这些问题。 因为架构方案评选其实已经有很规范的方案内容。还有一个评选的输出模板,很适合做成 skill。 话不多说,直接开干, 先用最常用的问答大模型,比如 deepsea 之类的,梳理我的需求,然后让它帮我输出 skill 文档。当然,我们也可以直接在 word 底下调用 skill create 的 功能去做 skill, 不用担心自己描述的不够好,大模型会帮我们完善细节。不到二十分钟, ai 就 帮我搓出了一份格式严谨,内容非常齐全的 skill。 然后呢,我把它存为 md 格式的 skill 文档。 最后呢,再把这个文档导入到 work body, 拿出我最近需要平顺的一个规划方案,效果非常的好,甚至超过了我人工平顺的准度,毕竟有时候人眼还会看漏嘛。 而且基于 skill 的 方案审核,还给我输出了一些业务规划方案的总结,还有问题,比之前的评选方案其实还更清晰了。 以前可能我评选十几个方案要需要花到两周的时间去完成,现在可能只需要两天就可以超额完成任务。强烈建议大家,如果在工作中有流程比较固定且有固定输出模板的,这些任务都可以通过 skill 去完成,相信我非常惊艳。

skill 的 基本构成在 open core 中,一个 skill 实际上是一个结构化的目录,通常存放在 一个完整的 skill, 由四个核心部分组成, skill and d 技能核心说明书包含原数据与操作规则。 scripts 可执行脚本文件固定任务逻辑封装 references 参考文档、按需加载的专业知识,支持 s s 资源文件,服务于最终结果输出。命名规范 skill 的 目录名称必须符合规范,否则无法被识别,只能使用小写字母加数字加连字母视力。 这个规范虽然简单,但在实际开发中非常关键。很多 skill 无法加载的问题往往就出在这里。 skill 安迪详细解释 skill 安迪是整个 skill 的 核心,可以理解为说明书加行为指南。它由两部分组成,前置原数据 madeada 主要用于定义 skill 的 基本信息,这些信息的作用是帮助 openclaw 识别 skill, 提供语义匹配。 skill 触发关键词视力 征文征文部分就是具体的操作指导手册,可根据需求灵活组织。以我们提前编辑好的 pure land control 下的 skill 按 d 简化版为例, 在实际编辑时可根据需要扩展,例如增加判断逻辑、核实执行、增加错误处理、增加参数说明、增加视力输入输出等。除了核心的 skill and d 之外,其余三个目录属于辅助结构,各自承担不同角色。 scripts 目录 主要用来存放可直接运行的脚本文件,适合那些执行逻辑固定、无需频繁改动的任务场景,例如控制 led 灯的亮灭转换等。这类脚本可以被直接调用运行, 从而减少重复生成代码的过程,提高整体执行效率与稳定性。 reference 目录用于整理各类参考资料,例如 ipi 文档、数据库结构说明或操作手册等。这些内容并不会在一开始全部加载,而是根据实际需要按需引入上下文, 既避免了无关信息占用资源,也能在关键时刻为 vi 提供更深入专业的知识支持。阿斯艾斯目录用于存放各类资源文件, 例如模板、图片等。与 references 不 同,这里的内容不会参与模型上下文推理,而是服务于最终结果的生成,例如报告模板输出所需图片等,用于提升 skill 输出的表现力和完整度。

hello, 大家晚上好,今天在看一些 skills, 在 看 skills 的 过程中就突发奇想说自己能不能建一个 skills 的 skills skills father 就是 建一个 skills 来更好地去分析和拆解这个技能是怎么样去被构建的, 于是通过 cloud 先建立了一版这个 scales。 那 具体介绍一下这个 scale expert, 那 么它其实是专注于做分析结构和解释任意的技能内部架构的一个智能题, 就特别适用于当用户希望去理解它某项技能的这个工作原理,或者是去审核这个技能的设计有没有什么问题,或者存在什么样的优势, 以及去逆向推导这个技能的工作流,来对比技能架构,或者是说从现有的这个技能中去提取可塑的模式来去创建自己新的一个技能的时候,就可以通过使用这个技能来去做。 具体来讲,这个技能它有一些功能,它其实就是通过去接受任意的 skills, 然后去生成一份结构化的一个结构报告,那么内容主要包括结构解剖,也就是 去说明它包含哪些文件,以及文件的作用是什么。还有就是去明确这个 skills 它的触发逻辑是什么,也就是说这个技能是在什么时候,以什么方式被激活。第三个呢,就会介绍这个技能完整的一个工作流的普普是什么样子的,也就是说这个技能是怎么样去执行的。 第四就是他的设计模式,也就是说他有没有可以附用的技术,或者是他的设计原理是什么。第五个就是他的实现逻辑,包括他核心的一些脚本工具和使用方法。第六去描述这个技能的一些独特创新点, 特别是比如说区别于其他技能的一些巧妙的设计。第七是扩展点,也就是说技能可扩展与一些适配的方向和方式。 那其实这个 scales 也很简单,它只有三个文件,一个是 scale md, 那 么这个 scale md 它就是一个主的入口文件,那么它其实是把整个流程分为了四个阶段。首先是做定位和盘点,也就是说去按名称或者是一个路径去查找这个 scales, 去列出所有的相关文件,还有包括这个文件它的规模以及角色。第二步它会深读阅读,去每一层, 也就是去逐层级地去阅读这个 y a m l 前置的一些 meta data 元数据,还有这个 scale 的 中文,它的脚本,它的参考文件 reference, 还有它的 source, 并且去按照指定的维度去逐点分析。第三就是去生成一个结构的报告,那么它会有一个十个章节,当然了这个十个章节不是说 所有规模的 scales 都会产生十个章节,如果是很小的 scales, 那 就也没有必要去用十个章节去讲述对不对?那其实它这十个章节更针对于那些比较大规模的 scale, 那 它会包含它的结构出发的分析、工作流、设计模式、实践逻辑、 创新点、依赖扩展点,还有一些客观的评价,那其实这里就会有提到它可能存在的一些问题和不足。 类似同时它也会去做一个按需的深入分析来去支持后续的一个扩展模式,比如说可能会去追踪一些特定的输入,去对比两个技能,或者是去审核 skills 它的出发逻辑是否是合理的,是不是存在,比如说出发不足或者是过度出发的问题,以及去生成一些压力测试等等。 进一步在 reference, 呃, references 里面的话,包括两个 markdown 文件,一个是 parton cutlog, 还有一个是这个 trigger, 那 么这个 parton cutlog 它主要是 有十五种命名式的一个技能的设计模式,包括像什么渐近式批录啊,路由调度表,懒加载引用等等。那么与此同时它会去描述每一个模式的定义,特征,原理,然后以及提供一些示意, 那么这些都是来自于公共技能库的一个真实的案例,然后在分析需要的时候呢,就会做一个懒加载。那么同时这个最后一个这个 trigger 的 话,它主要是专门用于去审核 描述字段的,也就是这个 skills 的 description 这个字段的一个参考文档,那么它这里就会包含就是对于这个 skills 它的触发条件的描述,以及去明确和分析它是否会存在触发不足或者是触发过度的问题。 那么同时呢,这里就会提供一个触发不足或触发过度问题的一个判断的标准,并且它还针对一些特定的技能类型,然后做了一个专属的一个判定规则。那么这个就是在用户需要触发这个 这个 skills 的 审核时,就会加载这个 references, 那 么我自己其实也去试了一下, 在这边就是我今天有看到一个 marketing skills, 这个也是比较有名的一个专门用于广告营销领域的这个 skills, 然后也能看到它有特别特别多的 skills, 我 的就 我就觉得,哇很多 skills 我 还是很想去知道每个 skills 它都搭,它到底是怎么样去实现,它的工作流是什么样子的?所以呢我我这边就是提问,那就直接用这个 curser, 我是 用 curser 的, 然后 curser 的 这个 agent, 然后你直接跟他说请你调用这个 skill expert 的 这个技能,然后对这个比如说选举一个,我想去了解一个 a i s e o 这个技能,然后做分析和拆解,然后我们能看到在这边它就已经就罗列出了, 就输出出了对于这个文档的一些分析,其实也可以去看一下,在这边它会去读取这个 scale expert 的 分析框架,并且呢还有会去读取这个 a i s u 这个技能的完整的一个内容,进一步的话就会按照这个分析框架的要求, 然后去输出这样子的一个分析的报告出来。然后你看它这边也是包含了这几个章节。首先 at a glance 就是 简单地去介绍 一下这个 scales 的 一些基本的情况,然后呢还会去格式化它的一个就是整个的路径框架,这个 scales 的 框架是怎么样子的,以及它会看一些触发的原则和逻辑, 还有去详细的列出它的一个完整的工作流。然后这第五部分呢,其实就是关于它的设计模式,这里就是看到它采用了如下的包括一些监听的加载,然后职责边界、 表格、驱动、接单、拆分、评测及规格这些设计模式。然后第六部分的话其实就是他的一个附用的逻辑,第七点的话就是他的一些独特的这种创新, 第八点的话是他的相关的一些依赖啊,还有他的兼容性等等。然后第九点的话就是他的一些未来怎么样去扩展的一些建议。 然后第十点就是去总结分析他有的做得好的地方和一些存在的薄弱点。好,这就是关于这个 scale expert 的 一些介绍,然后也希望能看到大家的一些建议吧。

现在不管你是 open core 还是 cut core, 想要做一个你自己的 skill, 非常的简单。举个例子吧,比如我平时做视频的时候经常会写一个竹字稿,发完视频后我需要总结成文章,在其他平台进行发布。但是我每次想要把这个竹字稿转换成公众号的文章的时候,需要调整很多的样式,比如段间距、章节、标题、颜色等等, 虽然不难,但是会很浪费时间。于是我就尝试让 cut core 帮我做这个事情,他会记录这个文章的样式、 结构、风格,然后我让他将我的竹字稿转换成相同样式的文章,并且支持一键复制。那么下次我就可以直接粘贴到公众号中,并且包含了所有的样式。当我在一次对话中不断进行微调,达到了我想要的效果之后,这个时候我让他总结以上的所有内容, 然后整理成一个 skill, 一个专门为我转换格式的 skill。 这时候就很轻松地将一个自己的 skill 给创建好了。你看它这里的规范包含了之前我们经过多轮迭代优化后的所有规则,在全区 skill 文件夹中也是可以找到它的。当我下次只要提到将文档转为公众号排版的时候,它就会自动调用这个 skill 去自动生成对应的文章了。 这种创建 skill 的 方法真的非常方便,而且完全不用多复杂的描述。当你发现你在做相同重复且有规则的事情的时候,你就可以让他将你所有的操作总结一下,整理成 skill 就 行了,是不是非常简单?所以现在每个人都可以轻松做出自己的 skill, 不 管你是 open curl 还是 cut curl, 都非常实用,赶紧试试吧!

open cloud skill 进阶系列四,制作自己的 skill 扳手 终于到这期了,我想自己做 skill 很好,先想清楚你的 skill 要解决什么问题? 我想做一个一键生成小红书文案的 skill。 好 目标。第一步,创建 skill 文件夹放在哪里? open cloud skills in hunch generator 文件夹里要有哪些文件?至少一个 skill md, 这是核心配置文件。 skill md 怎么写?分两部分,开头 y a m l 原数据,后面是中文, y a m l 里的 name 就是 skill 名称。 description 是 触发条件。要写清楚在什么情况下调用 description 很 重要吗?非常重要, ai 用它来判断是否调用这个 skill。 那 我写生成小红书文案笔记推文太宽泛了,要具体一点,比如生成小红书风格的种草文案,包含标题, emoji 标签,正文,明白了还需要什么? 如果 skill 需要脚本,在文件夹里建 scripts 目录,脚本用什么语言?任意 python, shell, node js 都可以。 写好后怎么让 ai 知道脚本怎么用?在 skill md 里写清楚用法,示意 ai 会照着执行。 有现成案例可以参考吗?看 wechat video 或 video frames 的 skill m d 结构 做好了怎么分享给其他人?用 clark package 打包成分发文件,其他人怎么安装?发布前要审核吗? 我能发布到 clawhub 点 com 吗?可以, clawhub publish 就 能提交到市场。 发布前要审核吗?要审核,确保没有恶意代码才能上线。整个流程总结一下,第一步,想清楚 skill 用途和触发场景。第二步,创建文件夹,写好 skill md。 第三步,添加 scripts 脚本。如需要第四步,本地测试,确保能正常调用。第五步, clojab publish 发布到市场, 太全了,我这就去试试,有问题随时问,做出来。

上集我们说了, skill 就是 让 open cloud 干活的关键,好消息是社区里已经有几十万个县城的 skill 可以 直接用。这一集,先推荐几个好用的,再告诉你怎么做一个自己的。第一个 call review, 装上之后发一句,帮我看看这段代码。 openclaw 会按你团队的规范逐条给你列问题,不用每次自己翻文档,该改哪里一目了然。第二个,公众号携手 skill, 把一段笔记扔进去,他按固定排版帮你改成开头抓眼球,结尾有互动的格式,从整理素材到输出成品,省去了最烦的那步。 还有一个叫 pua 的 skill, 名字你没听错,用激将法,最 ai 更认真干活,社区里用过的人都说有效,当然不是真的在骂他,你懂的。安装这些 skill 就 异形命令,国内网络直接用腾讯推出的 skill hub, skill hub in store 装上开心绘画就能用了。好了,重头戏自己做一个 skill m d。 第二步,开头写名字和描述,下面用中文说清楚规则。第三步,放到 skills 目录,开心绘画 slash 命令马上出现。做 skill 本质上就是给 ai 写一份你的使用说明书, 动手是一个比你想象的简单。下一集 open cloud 怎么让多个助手同时干活,不见不散。

我跟你们说,我之前用 cloud code 简直就是在受刑,每次我让他帮我更新周会表格,我都会像个老妈子一样跟他反复交代, 你还记得吗?上次我跟你说的那个链接,帮我再更新一遍,然后他就开始漫长的回忆,加载,找数据,一通操作下来,每次生成的格式还都不一样,真的超级崩溃,感觉自己像花钱雇了一个每天都在失忆的实习生。但是最近我打通了他的两个隐藏技能,简直是打开了新世界的大门,真的太爽了! 第一个就是 m d 文档,说白了就是你给 ai 做的一份专属的入职手册,你是谁,你喜欢什么样的风格,你的任务有什么样的规矩,全都写在里面。 ai 每次开工前都会强制的先去翻一翻这个手册,你再也不需要跟他废话去交代背景了。 第二个就是 skill, 这个更牛,相当于你给 ai 定制的一件 s o p。 比如我们经常要搞封面和视频的爆款拆解,以前每次都得先输一大段咒语啊,风格是什么样儿的,用什么字体等等,都需要去跟他交代很多内容。 现在我写了一个 skill, 我 只需要一句话,封面生成,它就全都自动搞定,生成封面了,真的太省心了!给你们看一下我的文件目录,这里就建了几个专门的 md 周会更新封面生成视频分析,我给你们演示一下现在有多夸张。以前我让它更新一个周会表格,我交代加等待的时间可能要十几分钟, 现在我只需要输入杠周会更新,哎,他就开始自动更新了,看分毫不差的更新好了,一句废话都不用多说,你牛不牛?当然,肯定会有人说啊啊,我不会写这种规则文档啊什么的。 别慌,我教你一招,你不用一开始就自己写,你先跟 cloud code 进行正常的一个聊天。呃,你告诉他你平时是怎么干这个活的,你反复的跟他沟通、打磨,等他能生成一个正常的结果,就说明他已经能完全理解你的流程了。这个时候你直接跟他说, 把我们刚才沟通的内容生成一个 skill, 它就会乖乖地自动帮你生成。好了,压根儿不需要你自己写。用魔法打败魔法,真的太绝了!姐妹们,听我的,今天赶紧跟着搞一遍,明天你就会有惊喜哦!

大家好,我是土豆,今天想跟你分享一个我最近一直在用的东西,一个面向测试工程师的 cloud skill。 它可以做什么呢?很简单,你丢给他一份需求文档,他给你吐出一整套。测试用力 不是那种泛泛而谈的势力,是真正能直接用,能对起你公司模板的那种。我知道,你可能会想,又是标题党吧, ai 生成的用力能靠谱吗? 别急,今天我不仅会告诉你它怎么用,还会把完整的配置文件、提示词、模板都整理成一个 md 文件,放到最后, 你可以直接拿去用,或者自己改。先说说我为什么要做这件事。做测试的都知道,拿到需求文档之后,最耗时的环节是什么,不是执行,是拆解。你得把文档里那些业务规则、接口、约束、边界条件一条一条拎出来,写成正向、反向异常的用力。 文档短还好说,赶上那种五六十页的需求,翻来覆去看,生怕漏掉一个点。而且最烦的是,不同人拆出来的风格还不一样,有的人只写正向,有的人边界写的细,有的人异常想的全,最后合到一起参差不齐,反攻改到想摔键盘。 所以我就想,能不能让 cloud 帮我干这件事。我给他设定了一套固定的测试设计策略,什么意思呢?就是不管扔进去什么文档,他都会按同一套逻辑来拆解。 第一,正向流程主路径必须覆盖。第二,反向异常输入错误,流程阻断、权限不足都得想到。第三,边界条件,数值的上下线列表的空余满时间的临界点一个不漏。第四,场景组合多个条件同时变化时有没有冲突?而且我让他区分接口、功能、性能三种类型。接口用力, 他关注参数、错误码、返回值,功能用力,他关注加载并发响应时间。 最关键的是,他可以对齐你公司的模板。你在配置里告诉他,我们的用力格式是用力编号模块、前置条件、步骤、预期结果类型,他生成出来就是这个格式, word 也行, excel 也行,直接复制粘贴,不用二次整理。你可能想问,真的能直接用吗? 我拿最近一个真实的项目试过,需求文档大概三十页,有接口描述,有业务规则,有交互说明。我把文档贴进去 cloud, 大 概用了几十秒吧,生成了六十多条用力。 我一条一条看下来,正向的都覆盖了反向的他想到了手机号已注册这种场景边界的他,列了密码,最短六位,最长二十位这种临界点 漏掉的,当然也有大概百分之十左右需要我手动补充。但你想啊,本来我要花两三个小时从头写,现在只用花十几分钟过一遍补一下, 效率翻倍不夸张。所以,这个 skill 的 本质是什么?不是让 ai 替代你,是让他帮你干那些重复耗时但又必须做的事情。你把精力解放出来,去做更有价值的事,比如复杂场景的设计,比如质量体系的搭建,这才是一个测试工程师该有的成长路径。好了,今天的内容就到这, 我把这个 skill 的 完整配置、提示词模板,还有我用的测试用力格式范例,都整理成了一个 md 文件。需要的同学可以在评论区回复六六六,或者私信我,我直接发给你。

上个视频介绍了 open class 最核心的整体设计能力是四六点 m d, 那 四六点 m d 其实它是一个 markdown 格式的一个文件核心就包括四维度的一个内容的书写,包括 skill 的 一个定义,描述出餐和入餐,因为它其实你可理解为人的一个技能, 比如说我的技能是数据分析啊,写报告啊,画画等,那我比如说数据分析和写报告,我可以再封装为一个大的技能, 如果进行数据分析之后,均数分析结果生成对应的报告,那当然每一项他又可以作为独立的个子技能, 那我刚才说涉及到技能就是这些,那我们都可以用 skill 去实现 skill 点 md 文件的四大要素格式来写。 首先名称和描述,其实名称这个定义就好了,描述这个是我们要重点去介绍的,我们要介绍我们的这个智能体,他能做什么?不能做什么?他的边界在哪?比如说哪些问题他是可以回答,哪些拒绝回答的,比如说超出他的范围的。 本来说我是想设一个数据爬虫和分析报告的一个知识点,但是你突然问了我一个医疗上的问题,或者是其他方面的问题,就是拒绝回答的。以前我们可以通过提示词去写,那现在可以存储到对应的知识中,让 skill 去直接调用对应的知识库 去作为约束条件。实际的工程化业务中去应用的时候,它核心就是我定义出来一个技能的时候,你要去调些工具去辅助,比如说我要减肥,这个生成对应的解决方案, 我就要知道这个人的身高、体重、年龄、性别这些基本要素,不同的性别、年龄,它对应的 bmi 值是标准值是不同的,而这些标准值我们可以用知识库去让 skill 去调取,所以 skill 它想实现这个结果, 它是具备调用工具库的能力的。而这个兔你可以认为是某个知识库,比如刚才说的 bmi 的 一个标准文件, 也可以是数据库数据集,比如说我刚才我说到的我的基本信息,身高、体重、年龄这些基本信息,以及我要使用一些 a p i 或者 m c p, 它都可以调用。六、实现完整技能,我们需要产品经理给定出来的,所以使用这个东西我们基于它的四要素的模板来设计, 而每部设计中我要的什么技能,需要的什么工具是要定义出来的。如说是一个复杂的业务逻辑,它是否需要这个技能,根据用户的意图来去匹配最适合匹配的一个 skill 是 什么?来最后给用户回答这样的问题, md 文件怎么去写的?写了这个文件,那我们再做成设计中点型,又写的是这个文件,那当然可能我们上了这些手搓点 skill 的 md 文件,就是我们业务来我们的业务逻辑之后, 人产品经理人工手搓六点 m 文件可能有难度的时候呢?那我们完全是把这些的各种约束条件,它的一个思路,出餐、入餐可以写成对应的需求文档,把这个需求文档直接扔给 大模型,让大模型生成对应的 s 六点 m d 文件之后我们拿过来再改,然后把改好的改好的去应用就可以了,就这个思路会更简单一些。 那其实这么看来,能够基于欧欧根克拉的这种模式的 nba 设计,整个逻辑思路就通了。那么刚才讲到 skill 它可以调用 a p i, 又可以调用 mvp, 那 skill 本身它又可以封装成 mcp, 而这个逻辑怎么去理解呢?我们下个视频。

怎么去从零去写一个你自己的 skill 啊?今天我们就来做这样一件很多人一直想做,但是不知道怎么去开始的事情,就是去写这个 skill。 你 看,你装了 superpowers, 装了 front and design, 装了各种别人做好的 skill, 用着确实很爽啊, 对不对?但是你有没有想过,你工作里那些每天都在重复的事情,是不是也可以去打包成一个 skill? 答案呢,是可以的,而且比你想象的要简单得多, ok, 那 首先呢,我们先搞清楚一个 skill 到底是长得什么样啊?一个 skill 的 本质呢,就是一个文件夹里面最核心的是 skill 点 md 的 这个文档啊, 这个 skill 点 md 的 文件呢,相当于是这个 skill 的 一个大脑,里面写了两部分内容,上面呢是原数据,告诉 ai 我是 谁,我能干什么。下面呢是操作指南,告诉 ai 我 具体应该怎么去干。那除此之外,根据你的 skill 具体的需求, ai 还会自动的帮你去匹配 相应的文件夹。比如说,如果你的 skill 需要去独立执行的脚本,就会有 scripts 文件夹,如果需要放模板文件配置事例等参考材料呢,就会有 reference 文件夹。一个 skills 的 本质就是这样一组文件, ai 呢,像操作电脑一样去调用它,整个过程都是由 ai 去引导的,你负责做决策和判断就可以。 ok, 那 搞清楚结构以后,我们去走一遍从零到可用的一个完整流程,总共呢是有六步。第一步你要去想清楚你要解决是什么问题,这一步最关键,很多人一上来就写啊,写到一半发现自己都没想清楚这个 skill 到底是做什么, 可以问自己一个问题,我这个工作哪个环节是重复超过三次的,那这个环节呢?就值得去变成这个 skill。 你 看我之前做每日 ai 新闻速递,每天都要去好几个网站去爬这个新闻,去翻译,去整理,去排版,这个流程呢非常重复性,我做三天就受不了了, 那这个就是我认为的一个完美的 skill 场景。 ok, 好, 那到第二步就是告诉 ai 你 要去创建这个技能,那你可以在对话框里面去说,帮我创建一个新的技能,或者说我要做一个某某的 skill。 那 前提条件呢?就是如果你的 cloud code 已经安装好了 skill creator 这个工具,你可以直接去说,如果没有的话呢,你先在对话框里面说帮我去安装 skill creator, 那 ai 呢?会自动的去为你安装,那安装完成以后,你就可以去告诉 ai 你要去创建什么样的技能好,那到第三步就是去回答 ai 给你的问题,接下来呢, ai 就 会像产品经理一样去问你细节了,你只需要一一回答就可以了。 ai 会先问你一个基本的需求,你希望从哪些网站去抓取 ai 新闻?深层的日报包含哪些内容,要标题,要栽,要还有链接吗?以及日报的输出格式是什么样的,包括日报文件保存在哪个位置。 你回答完这一轮以后呢, ai 会基于你的需求进行更深层次的提问,比如你需要每天抓取多少条的新闻,需不需要自动翻译成中文提到的自定义网站或是哪些。通过这样的一个多人对话, ai 就 会逐步的完善你的 description, 确保深层的 skill 能够去精准匹配你的需求。 那为什么 description 这么重要?因为 ai 就是 靠这段描述来判断,用户说的这个需求跟我这个 skill 是 匹配的, 你的 description 写的越精准,那 ai 匹配的就会越准,这整个机制就叫做按需加载。 ai 不是 去把几百个 skill 全部去读进来,它会先看原数据目录,发现匹配了才会去读详细内容,所以这段描述相当于图书馆的目录卡片,写得好, ai 才能匹配的上你。 ok, 那 到第四步就是 ai 自动的去生成这个技能文件,这一步呢,完全就是 ai 在 做,你只需要去等几秒钟, ai 就 会根据你的回答自动去生成这样的一个 skill 文件。 你可以看到 ai 生成的文件呢,包含了完整的原数据和详细的操作指南。 ok, 第五步呢,就是去做测试,去做调试了。那技能创建好以后,你可以直接试着用一下。 你看,这就是我最后制作出来的 daily ai news 的 样子,你可以看到日报包含了标题,包含了摘药,包含了链接,还有自动翻译的中文内容。我只要说出触发词, 看 ai 是 不是自动调用了我的 skill 执行结果对不对就 ok 了。那如果出问题呢?看 ai 的 执行过程,找到偏差地方去修改点不点文件,再试一次,改个两三轮,基本上就稳了。 ok, 那 到第六步,也是我觉得最最关键的一步,你要把你的 skill 给分享出去,如果你觉得你的 skill 别人也可以用呢?可以部署到 github 或者 投到 skills m p 这个平台,那 skill 呢,也不是写完就完了的,它是会自己长大的,比如说你用着用着发现,哎,我可能需要再去调整一下,那你随时去改点 b 文件就行,改一次永久生效, ok。 所以呢,从零写一个 skill, 核心呢就三件事情,想清楚问题,告诉 ai 需求测试、调试、迭代,没有任何代码门槛。所以我的建议就是,你现在去打开 cloud code, 想一个你每天都在重复的事情,花二十分钟把它变成你的第一个 skill, ok, 那 今天的分享就到这里,如果大家对 ai 的 学习感兴趣呢,也欢迎去搜索江学长 ai 学习圈,我们呢,有两千多位的兴趣朋友一起去学习 ai, 包括我们也开设了好几期的实战打卡以及嘉宾分享,感兴趣呢可以评论区留言。

为什么很多 skill 第一次看着很完整,真跑任务时还是翻车?这篇文章讲写 skill 的 部分,非常像在打很多人的脸。第一条建议就很狠,不要说显而易见的事儿,因为 code code 本来就懂,代码也已经有很多默认判断。如果你的 skill 只是把常识再说一遍,它几乎不会带来真正争议。 那什么内容最值钱?作者给出的答案是 gotcha, 也就是踩坑点章节。这是全书最关键的实操建议之一。一个 skill 里信号最强的内容不是愿景,不是介绍,而是 cloud 过去最常犯的错。你要把这些错误一个个积累下来,变成 skill 的 核心知识。 换句话说, skill 不是 一次性写完的文档,而是把失败经验持续沉淀进去的系统。谁能把 gotcha 写好,谁的 skill 才会越用越准。 第二个重点是把文件系统本身当成上下文工程工具。作者反复强调, skill 是 文件夹,不是单页文档,所以你完全可以把详细 a p i 拆到 references 目录,把输出模板放到 assets, 把脚本放到 scripts。 先在 skill 点 md 里告诉模型这里有哪些东西,需要时再去读,这就是渐近式。譬如这样做的好处非常现实,既省上下文,又让结构更清楚, 模型也更容易按需取用信息,而不是一开始就被一大坨说明砸晕。第三个重点是不要把 cloud 限制得太死。 skill 的 附用性很强,所以如果你把流程写得过于僵硬,它一换场景就失效,你应该给它关键信息,但不要把每一步都锁死。 再往下文章还提到初始设置,比如某些 skill 需要先知道 slack 发到哪个频道,这种配置最好存在 config 点 j n 里,如果没配置再让代理去问用户。还有两个很容易被忽视,但其实非常重要, 一个是 description 字段,不是给人看的摘要,而是给模型看的触发条件,模型会扫描 description 来判断这个请求该不该调用这个 skill, 所以 这里写错触发率就会直接出问题。 另一个是能给代码就给代码,作者说的很直接,给 cloud 最强大的工具之一就是脚本,让它把时间花在编排和决策上,而不是每次重造样板。 最后还有按需 hooks, 像 carf 这种 skill, 可以 在需要碰生产环境时临时注册拦截危险命令的钩子, freeze 可以 在调试时只允许改特定目录。 这一段其实说明了另一件事,好 skill 不 只是告诉模型怎么做,它还可以在模型做事的时候动态上护栏 写法。说完真正的问题就来了,这些 skill 一 旦做出来,团队到底怎么分发,怎么治理?怎么避免满天飞的低质量重复 skill? 下一集讲这篇文章最后一层,也是很多团队最容易忽略的一层。