粉丝63获赞287

有请艾玛大家中了艾玛 skill 后,你的龙虾产品就可以帮你用艾玛直接记笔记,查笔记,查笔记的目录。芝士酷的 skill 也马上上线了,配置很简单,按两个按钮就好了。 第一步,复制提示词到你的龙虾。第二步,获取 a p i t 给你的龙虾。有什么用?帮你记笔记,帮我把会议袋袋记到艾玛笔记里。已经帮你加入笔记, 帮你查询笔记。帮我查一下艾玛里的周会秃度是什么?你的周会土度是帮你查目录。我的艾玛里最新三篇笔记是什么?你最新的三篇笔记是 举些例子。帮你找咖啡店,我帮你找到了在爱玛笔记里的咖啡店。帮你查攻略,帮你整理了一份国庆自由行攻略。

openclaw 现在这么火,但是如果你还不知道 skill 是 什么,你可能至今都无法理解 openclaw 它为什么会爆火起来。 今天我就用一个案例带你看看有了 skill 的 openclaw 它到底有多强。首先,我们直接用豆包试试,告诉他去哪里找新闻,找热点,还有我的代办事项,我的日程在哪可以看到。嗯,豆包思考了很久, 但最后只给了一个模板,只能说他除了口嗨,好像什么都做不了。好,现在我们拿纯净版的 openclaw 试试新闻,他用内置浏览器找到了热点,他好像只看到了第一页的热点内容,我的代办事项他也能拿到, 日程还是没办法拿到。比起豆包的口嗨, openclaw 具备了浏览器搜索和文件读写的能力,确实比豆包强了不少。这一切都要归功于 内置的工具托。什么是托呢?它的定义非常技术,我们不用理它,它其实就是能帮你完成对电脑的基础性的操作,例如浏览网页、读写文件、日制管理, 还有执行脚本的能力。你可以把它想象成车库里面的那些工具,扳手、螺丝刀这些。但是会用扳手就代表你一定会换轮胎吗?不是的,工具方法 和流程加在一起才是一个完整的换轮胎的 skill。 好, 现在我们给 openclaw 装上一个成熟的 skill, 专门抓 reddit 热点的,我们再看看效果, 你可以看到现在数据是抓全了。而这里这个 skill 就是 利用了 openclaw, 它能执行 note 脚本的特性, 直接通过 a p i 去获取了全量的数据。但是我们的日程列表还是没有在社区上找到成熟的 skill, 所以 我们就自己开发一个。这里我建议大家直接用 ai 来生成 skill。 我 们可以看到大户型帮我们生成的 skill, 它是通过 macos 特定的脚本来读取了系统里面的日历数据,我们看看效果。嗯嗯, 这下我们日程也获取到了。但是仅仅调用接口获取数据的 skill 我 觉得没有灵魂,因为它不够专业。一个专业的日程 skill 应该有自己的处理逻辑流程,以及知道什么时候该重点提醒我。这个时候我们就可以给 skill 输入 sop 了,这才是从能用走向专业的关键一步。 现在我们所有的功能都已经齐全了,那我们整体的看一眼它的架构图,而这就是常见的 agent 和 skill 的 关系。 agent 负责串流程,先调浏览器查网页,再用热点的 skill 查热点,用日程的 skill 查日程,最后再整合输出,而 skill 则负责干实事。 嗯,每个 skill 都有自己专注的领域,这样才能把事情给做好。当然,这个例子不能掩饰 skill 的 所有作用,但也八九不离十了。作为抛砖引玉,再结合网上其他资料,相信一定能帮助大家更好地理解和使用 skill。

小白也能看懂的 skill creator 教程来了,厉害!哈喽,大家好,我是姚路行。之前我给大家详细介绍了什么是 skills, 以及在哪找好用的 skills, 其中提到了一个神器, skill creator。 先简单说一下什么是 skill creator? skill creator, 其实一个 cloud 官方推出一个创造技能的技能,听起来有点绕哦,简单说,你想让 ai 有 什么新本事,直接告诉他,他就能自己给自己装上技能包。是不是听起来很牛? 那咱今天就来实操一把,手把手教大家如何用这玩意创建一个自己专属的 skill。 可能有同学要问了,我自己手动创建 skill 不 行吗?当然行,但问题是手动创建得懂目录结构, skill markdown 怎么写对新手不太友好。标准目录结构如下, 而 skill creator 就 不一样了,你只管说需求,剩下的全交给 ai。 接下来我们直接上手,以 cloud code 为例,来创建一个专门创作 ppt 的 skill。 第一步,安装 skill creator, 拿到上面提到的 skill creator 的 文件,放在你自己的目录下。 第二步,直接跟 ai 提需求,打开 cloud code, 直接对 ai 说,我要创建一个 ppt 的 助手的一个 skill, 你 帮我看一下如何创建,就这么简单。 ai 一 看就懂,会自动调用 skill creator, 开始帮你分析。第三步,跟着 ai 的 引导走, 接下来 ai 就 会变身需求调研员了,会开始问你各种细节,这个时候你就别客气,把你的想法都说出来。 第四步,坐等 ai 干活。细节都确定好了, ai 就 开始自动创建了,这个过程大概十分钟左右,具体要看 skill 的 一个复杂程度。 第五步,检查成果创建完成后, close skills 文件夹里就可以看到你新的 skill 了。如果有什么不满意的地方直接改就行,要么手动编辑文档,要么直接跟 ai 说,这里改成叉叉叉,让他帮你优化。 第六步,测试使用。你可以直接说用 ppt 助手帮我写一个关于 ai 编程的 ppt, 不 一会儿就写完了。这里我为了演示 skill 提示词描述的比较简单,你在写 skill 提示词的时候一定要尽量描述清楚, 而且我没有加 ppt 模板,所以说 ppt 没有样式,只有内容。后面我也会继续迭代这个 skill。 总结一下,今天教大家用 skill creator 创建自定义的 skill, 整体流程就是提需求,回答 ai 细节追问、 ai 自动创建,测试使用,随时迭代优化,新手也能分分钟上手。 好了,今天就到这,赶紧去试试创建自己的一个专属 skill 吧!感谢大家,三连谢谢大家,记得关注再走!

哎呀,今天啊,我的龙虾差点没把我气死呀,我看那个艾玛出了一个 skills 啊,可以让龙虾去调用它的知识库了啊,然后我就去安装了一下,也很简单啊,只需要这两个步骤,然后呢可以实现笔记和知识库的这些功能。 安装完了之后呢,我就让我的龙虾去试一试,我说你创建一个知识库,然后呢把这两个文件给我上传上去,然后他鼓捣了十几分钟吧,结果没鼓捣出来,然后呢跑过来还问我说,哎呀,严老师啊,我找了半天啊,好像发现我没有创建知识库的能力啊, 哎,然后我去看了下,哦,确实啊,他知识库呢,只能去解锁,只能去上传啊,他确实不能去创建,我说我的我的,我给你创建一个,然后我就创建了一个,但是我不知道他心里是怎么想的,然后我紧接着说,我说那我创建好了,你把这两个文件啊给我上传上去吧,这,这是你有的能力。 然后我就看他在那吭哧吭哧又鼓捣了二十分钟,还没鼓捣完啊,最后他他就就跑过来找我说,他说严老师啊,我现在上传的时候啊,就发现他是各种乱码,我实在是搞不定了,要不要你给我帮帮忙吧, 那我说好啊,怎么让我帮你呢啊?他说啊,第一呢你打开文件夹,第二呢找到这两个文件,第三呢你把这两个文件哎拖到这个知识库里哎,就传上去了,我一听我 这这这,谁给谁打工呢?谁给谁干活呢?我勒个去,反了,真反了反了,真反了。

朋友们,今天安利一个超级牛逼的开源项目,用了它小白秒变文档专家,告别浏览器和编辑器来回切换的折磨。这个项目叫 notebook lm cloud code skill, 让 cloud code 直接和 google notebook lm 对 话,非常牛逼!超级好用的 cloud 插件,三大核心亮点, 第一,智能笔记本管理,保存多个链接并打标签, cloud 自动选择查询。第二,大幅减少 ai 幻觉, notebook lm 只基于上传文档回答。第三,浏览器自动化,整个流程在命令行完成,无需手动操作。 打个比方,以前用 cloud code 开发时,查文档要打开浏览器复制答案,粘贴编辑器循环,网速效率低到爆炸。用了这个 skill, 直接在命令行说一声, cloud 自动向 notebook lm 提问,瞬间拿到答案并帮你写代码,效率直接翻倍。 首次使用自动创建拍摄环境,安装 pro, 登录 google 账号后,把 notbooklm 链接分享给 cloud, 它会保存到本地图书馆。以后问文档问题时, cloud 自动加载 style 脚本,访问 notbooklm 提问并返回精准回答,全程自动化,还会自动追问,确保信息完整。 想要告别复制粘贴的繁琐操作,这个工具绝对为你量身定制。关注我,带你发现更多提升效率的 ai 神器,从此告别低效板砖。

为什么你的 openclaw 一定要安装 notebook lm skill? 我 最近想系统学习 openclaw 官方文档,整整五百二十四页,要是靠人肉投喂给 notebook lm, 手都要断了。我装了这个 skill 之后,直接给 openclaw 下个令,不到半小时,三百多个核心文档全部整整齐齐地躺在了我的 notebook lm 里。 有了这个知识库之后能干什么?第一个维度,自己学,快到飞起。我不再需要翻文档,而是直接通过对话挖掘核心原理,还可以基于海量素材一键生成了笔记、 ppt 和视频教程。 第二个维度,让 openclaw 替我干活, notebook lm 成了 openclaw 的 外挂大脑。我只需要提出需求。我想给社群出一份每周 openclaw 避坑指南, 或者给新人做一套七天零基础入门路径。我只需要下个指令 open call, 自己就会去翻阅 notebook l m 里的知识库,瞬间把内容产出来。 ai 不 再只有临时记忆,它现在拥有了你的整个知识体系,从人肉搬运到自动化处理,这才是真正的效率自由。

hello, 大家好,今天来教大家如何去写一个 skill, 那 如何呢?将我们的业务经验和流程灌输到 skill 里, 那点击设置工具拓展,里面有个 skills 的 技能,点击,然后点击右上角的新建技能,在这里面的话可以填四个字段,主要是技能的名称,然后以及技能的描述,技能的分类,以及这个技能的实质的内容。 那因为我们这边已经有创建好了一个,就不从头开始,那这里面的话,我给了一个叫做续保业务数据分析标准流程的 skill, 然后它的描述呢,就是说是专注分析四 s 店的续保订单,那这个两个字段的话, 也就是它的名称和描述的话,会原模原样的去带给大模型,由大模型在做任务的过程中决策它是不是应该用这个 scale 以及怎么用,那分类的话就是一个分类的管理,接下来最重要的就是这个 scale 点, md 这个内容, 那这里呢,我们用了一个 markdown 的 编辑器,可以方便我们用写文章的思路来写 scale。 其实大家可能看到网上的一些 skill 要写很多的脚本啊,资源引用啊,觉得很复杂,那其实在我们这呢,完全可以用这个写文章的思路来写这个 skill, 那这个 markdown 的 编辑器呢,就更加的方便我们可以去写好我们的这篇文章,比如说第一个,我可以在这里面用写好我第一件要干的事,我的分析流程,那我们可以选择用这个标题三它,它会自动出来这个三个井号,然后右右侧区域呢是我们, 嗯实际预览后的效果,那在这里就直接要渲染成了一个呃三级标题, 然后我们看我们的整体的分析流程,这里面我希望它第一步先要用这个 file inspector 的 工具去理解整个 excel 的 实际的内容内容,那那这个工具呢?实际上可以通过这里点击插入工具, 那这个工具核心就是对 excel 的 数据表的结构进行分析跟预览,能够让 ai 理解这个 excel 的 实际内容究竟是什么。 那其实这一步不写的话, ai 它也会自动去调用啊,我们写了的是写了的话是为了让 ai 非常的明确,它一必须要用这个工具去理解这个 excel。 然后呢,我们希望它就是先去做数据清洗,把销售主管张丽的所有的订单要给剔除掉,同时的话还要剔除掉保单金额大于一万元的异常保单。 然后数据清洗完成之后,那我们就希望他从车型分布、保险内线分布跟销售人员三个的维度去分析这个数据的分布情况。那最后我们还希望他将所有订单的电话号码导出为新的 excel, 把他的命名命名为这个续保客户电话集合点。 excel 那最后希望它放在哪个目录下面,那这个目录的话就可以点击这个插入目录的工具,可以实时的去选择插入目录的路径啊。但如果说你要去指定某个文件的话,可以选择这个插入文件, 那第二块的话就是我们希望它有异常处置的规则,在这里面的话插入第二个标题,异常处置规则就是我们告诉他如果遇到异常数据,那那么你一定要先提出告知给我,不要擅自处理。那其实 这样的话,围绕着我们一个业务的 skill 就 已经写好了,一点都不复杂,就是用我们写文章的思路,平时做事写稿子的思路,直接去写这份 skill, 然后我们保存,保存好了后我们就可以直接去用了。那在这里的话,我们有两种方式啊,第一种的话就是直接,比如说我们指定的这样一个订单,我们就直接告诉大魔仙说你给我分析一下这个数据,给出结论, 那这样的话他会自己去判断这个文件我们的问题,他是不是跟匹配的相关的 skill, 他 是不是应该用这个 skill 来回答,那这里面的话可能带有一定的不确定性,他可能不知道这是一个四 s 店的订单。 那我们可以在这里面比如说加一个,就是告诉他,哎,你用续保业务分析流程的技能来分析一下数据并给出结论。就这里面的话,这个技能呢,你不是说名字要跟他一模一样,就是用我们的口语化的描述大模型也能够理解的,我们直接点击发送, 我们可以看一下它的执行过程。哎,他发现的话,他先去加载这个 skill, 就是 我们的续保业务分析流程,加载完成之后呢,他知道我们这个要求他干什么,然后他就开始去去规划相关的步骤。哎,第一步骤 他先调用了这个 file inspector 数据表结构分析,分析出来这个 excel 究竟有一些什么样的内容。 然后第二步的话,他应该是开始去执行数据清晰, 哎,看一下 啊,还没到这啊,到这步的话是他执行的数据清晰清洗,清洗完成之后, 然后开始去分析车型、保险类型。哎,这些数据的话,那他都已经分析出来了,最后的话围绕着我们的问题生成了一份总结报告,哎,这份答案非常的准啊, 这是讲订单车型分布,这是讲保险类型分布,这是讲销售顾问的订单分布。 最后的话,把我们要求他的一百个续保客户的联系电话给生成了一个,按照我们的命名格式生成了一份文件放在这,那可以直接去打开文件,或者说打开所在的文件夹 好了。其实写一份 skill 是 非常的简单的,在这个 skill 里面,我们就可以把我们工作中各种各样的业务流程,各种各样的要求都转化成 skill 给存起来。

用 cloud 一定要装这三个技能,效率直接拉满 qcloud 内测码,应该不少人都收到了,这两天自己用下来啊,挑了三个非常实用的 skill, 不 管你是 qcloud 还是 opencloud, 都能一键导入。 第一个,飞书 calendar, 现在很多公司都在用飞书,装上这个能直接快速查找你当天的会议日程,不用来回切软件。第二个, macos calendar, 我 自己是 iphone 和 mac, 一 套健身生活记录都在苹果日历上面,这个技能可以查看创建日历设提醒,很方便。 第三个是 file processor, 能自动识别各种格式的文件,文本提取、内容识别、格式转换都能搞定,效率很高。这几个都是我实测下来日常使用率很高的技能,刚需不花哨,直接用就行。

今天给大家介绍一个强大的 ai 工具 skillseekers, 它是 ai 系统的数据层,可以将文档、网站、 github 仓库、 pdf 视频等多种数据源转化为结构化知识资产,为 cloud landing 等 ai 系统提供动力。 安装只需要一行命令,功能却相当完整。构建 ai 技能,搭建 r a g 流程,配置 ai 编码助手,这些工作都需要大量的数据库处理,以前要花好几天手动整理文档,现在只需要十五到四十五分钟。 skillseekers 解决了这个痛点,支持十七种数据源文档网站 github 仓库、 pdf 文档、 jupiter notebook 视频、 confluence、 wiki notion 页面、 word 文档、 e p u b 电子书、 powerpoint 演示文稿、 open api 规范、 rss 订阅、 slack 聊天记录无所不包。第一步,安装 skillseekers, 用 pip 命令一键完成。 第二步,用 create 命令抓取任何文档或 github 仓库。第三步,用 package 命令导出为你需要的 ai 平台格式, 只需三步就能获得完整的 ai 技能包。对 github 仓库进行深度分析,包括 a s t 解析、 api 提取函数和类的识别, 还支持获取 issues 和 pr 信息,自动提取版本。历史三层流架构,让代码和文档分析更加全面。除了文档,还能从 youtube 视频和本地视频中提取知识。 自动识别屏幕上的代码、字幕和图标。 gpu 自动检测,支持 nvidia 库达、苹果 nps 或 cpu 模式。 第一次运行自动安装。依赖同样的知识资产,可以导出为 cloud 的 技能, lamb chain 文档, lma index 节点, bahang kong 向量数据库格式 支持的平台包括 cloud ai、 google gemini、 open ai chat、 gpt, 还有 cursor、 windsurf client 等编码助手, 十六种平台格式,一个流程搞定。处理 pdf 文档不只是提取文字,还支持扫描件 ocr 识别密码保护文档复杂表格提取。采用并行处理技术,速度提升三倍。 智能缓存让重复运行快百分之五十。直接导出为 luncheon document 格式, lama index textnote 的 格式或者 pinecone 专用的 markdown 的 格式。 智能分块技术,保留代码块结构,原数据丰富,便于精准解锁。自动为 cursor 生成 cursor rules 文件。为 winserve 生成 windows 文件。 ai 会自动了解你的框架和代码规范,每次都能给出正确答案,无需重复提示,效率大幅提升。

二零二六年最值得学习的技能呢,就是 cloud skill, 现在 osopik、 谷歌 openai 已经全部支持 skill 了,分享七个。最近一个月呢,在开元社区热度上涨最高的 skill 项目。第一个是 obsidian ceo, 他 自己写的一个 skill, 非常牛的用法是 直接绘制格式化的 canvas 画布。比如说,我让他创建一个 canvas 来解读刻意练习这本书,它会自动识别出需要调用 jason canvas 这个 skill。 大 概呢,花了两分钟啊,运行完成,生成一张 canvas 图,它直接把刻意练习书里面的内容和相互之间的关联化 出来,整本书的逻辑呢,一目了然。以前看书呢,容易迷失在细节和特定章节里面,现在用这种彩色的画布,让你瞬间纵览全书。再比如呢,让它创建一个读书的阅读管理系统,跟踪目前我读书的进度啊,它会自动识别并调用 obsidian faces 这个 skill, 然后生成一套读书管理系统, 显示了每本书的基本信息以及阅读的情况,并创建了子文件夹,对每本书进行总结。你还可以自行进行扩展,添加更多书籍笔记到书籍文件夹里面。地址呢,在这里。 第二个是 ospec 官方 skill, 里面有非常多的 skill, 比如说对 word, pdf 进行处理的 skill, 可以 从 pdf word 里面提取文本。再比如呢,前端设计的 skill, 最重要的是这个 skill creator, 它可以指导你创建自己的 skill。 地址呢,在这里啊。第三个是 gitup 上二点二万 star 的, 它可以指导你创建自己的 skill。 地址呢,在这里啊!第三个是 gitup 上二点二万 star 的 star, 它可以指导你创建自己的 这套 skill。 什么用呢?第一个,他懂得三思而后行,普通的 ai 拿到需求呢,一般直接开干,但是装了 superpowers skill 之后,他会先按住暂停键,会启动头脑风暴这个模式。 反过来问你这个功能的具体场景是什么,有没有边缘情况啊?他会先和你把需求聊透,把模糊的想法呢变成清晰的文档。第二呢,他是一个不折不扣的计划通,需求确定之后呢,他不会乱写,而是会生成一份详细的 实施计划。他会把大任务呢拆解成一个个两到五分钟就能完成的小任务,就像一个靠谱的架构师,把蓝图呢都给你画好了,你点头呢,他才开工。第三,他强制执行测试驱动开发,这是很多高级的程序员才有的习惯啊。他会先写测试用力,如果测试失败再去写代码让测试通。 最后呢,还要重构,这意味着它写出来的代码呢,其实会更加的健壮。这个 skill 库呢,还有很多功能,地址呢,在这里啊,大家可以去进一步的探索。第四个是模仿 manners 的 skills planning with fields。 这个 skills 借鉴的 manners 的 设计理念,将上下文窗口类比为内存,一时 有限。将文件系统类比为磁盘,持久而且无限。而核心的原则是重要信息均写入磁盘,而不是待在内存里面。 针对每一个复杂的任务呢,需要创建三个关键的 markdown 文件。第一个 task pen md, 用于跟踪任务阶段和进度。第二个 finding md, 储存研究内容与发现结果。第三个文件 progress md, 记录绘画日记和测试的结果。这个 skill 非常适合 多步骤的任务,三步及其以上研究类任务,以及需要多次调用工具的任务。地址呢,在这个地方,第五个是自动上传内容到 notebook l m 的 skill。 这个 skill 呢,也可以让你通过 cloud code 快 速获取带有来源引用的打 答案。对于每一个从 cloud 发出的问题呢,会先通过 notebook lm 进行一次答案的综合,然后再用 cloud 进行回答。这个技能借助 notebook lm 的 预处理能力,让 cloud 仅需要发送查询指令,接收精准答案,大幅地降低了 token 的 消耗。地址呢,在这个地方,第六个啊,是 skill prompt 检测 rater。 这个呢,是用来生成图片提示词的,内置了十二个专业领域的 skills, 比如说人像提示词专家,艺术风格专家、平面设计专家等等。它会根据用户的输入呢,自动匹配 对应的专家来帮助生成图片提示词,从而实现精细化生成的效果。比如说我让他生成生成电影级的亚洲女性张艺谋电影风格。使用豆包得到的图片呢,是这样的,而这个呢,是没有使用这个 skill 的 生成结果。我们可以发现呢,如果没有使用这个 skill, 生成的结果呢,更加的发散和随意。第七个是用来做内容营销的 skill, 可以根据多个关键词来生成文章,适用于 s e o 的 场景。地址呢,在这个地方, skill 呢,将 agent 和工作流的门槛呢,又降低了一个级别。二零二六年注定是各行各业 skill 的 爆发年。 现在看完这个视频呢,你就可以立刻去用起来,有什么不懂的可以评论区告诉我,想系统化学习呢,也可以加入我们的社区,下一期呢继续。

最近两年新 ai 名词的数量比我老板给我画的饼还要多。从提示词工程到智能体 m c p a 二 a, 再到 a 二 u i, 而最近又来到了 dosq 时代。 skill 机制解决的痛点是什么?提示词越攒越多,自己都忘了写过哪一版。每次把所有提示词都塞给模型,会浪费大量 token。 无关提示词太多还会干扰模型理解当前问题。 skill 机制的解决方案是别全塞给模型,但又能让他自己挑到该用的那一份。 skill 的 最小定义是什么?它是一个可附用的能力包。提示词资产、可执行脚本组合在一起就是一个能力包。 discovery 阶段,只发简短介绍,不发权威,节省 token。 客户端扫描可用 skills 提取 mate data, 然后发送给模型。核心目标是让模型知道有哪些能力可用,但不把每个 skill 的 权威塞进上下文。当模型选中某个 skill 后, 客户端在补充完整内容,模型用短描述作匹配,用权威拿到细节约束。 execution 阶段,从会写到能交付 skill 携带脚本产出真实文件,不再是模型说它生成了海报,而是真正产出可交付的 html 页面。 为什么用文件夹来组织 skill? 因为能力包会不可避免地增长。需要多套模板,固定结构,需要规范,固定风格,需要脚本转换输出。把不同类型的东西分开装,按需加载、按需执行。 三段式流程总结 discovery 发现阶段,让模型知道有哪些能力可用。 activation 激活阶段,客户端把完整 skill and 补进来。 execution 执行阶段,模型按约束调用脚本产出可交付的产物, skill 加 execution 等于可交付的自动化模型,不仅知道怎么做,还能真正生成出来。

刚下载好的 open club, 别急着去研究那些炫酷的高级玩法,过来人告诉你,先静下心来,把这十个基础的技能安装齐,它就像房子的地基,少一个都不行,后面跑的所有流程都可能因为你前边没有装齐的技能而反攻甚至翻车。 今天这个视频,我把每一个技能都拆开,讲清楚它到底解决什么问题。没有它,你会遇到什么样的坑。第一个 skill voting, 它就像一个安检员,对新进来的陌生代码进行扫描,防止有问题的技能悄悄潜入你的系统,搞崩你的 ai。 第二个就是 cellphone proving agent, 它相当一个会记笔记的助理,你踩过的坑,提醒他做过的事情他都会记住,下次主动帮你避开。 第三个是 obsidian direct, 它负责把你的资料和结论自动归档到你本地的笔记库里。如果你没有装,它可能辛苦调试半天,结果窗口一关,数据和思路全部都丢掉了。第四个就是 playwright, 它是专属的网页搬运工,告诉它需要抓取什么样的数据,它就会按照你设定的流程,把网页信息搬下来,自动填入表格。 第五个呢,就是 kit, 这个技能是你的工程节奏器,它能把你零散的开发任务,比如审查代码问题、追踪交付物,全部串联在一条线上跑,让混乱的项目变清晰。 第六个就是 take view, 这个专治你的开工困难症,你只要丢给他一个模糊的任务,比如说写个周报,它就能自动帮你拆解成打开文档、汇总事项、生成报告这一系列的具体动作。 第七个是 agent malentranceion, 这是邮件分仓管理工具,当你同时跑多个任务时,它就能让你用不同的身份发邮件、互串线,万一哪个环节出问题,排查起来特别快。第八个就是 notion 和飞书插件, 这个很简单,就是把 ai 跑出来的结果自动同步到云文档,你和团队的小伙伴随时都能看到最新的进度。第九个就是 mac native, 如果你是苹果用户,装上它,你的 ai 就 能直接调用系统的日历和提醒事项,到了时间,它会直接在你的电脑上弹窗提醒你。 最后一个,也就是第十个, chrome back up, 这是你的后悔药,哪天系统配置乱了,或者你的 ai 失忆了,它能一键恢复你所有的对话记忆和插件设置,相当于给你的 ai 上了个保险。 看清楚了吧,在 opencloud 里,模型决定你 ai 能力的上限,但技能决定了它运行的稳定性。这十个技能装齐,你的 ai 能力才算真正的站住脚跟。 想知道最不容易出错的安装顺序,或者是每个技能最佳提示词的模板怎么配?万一报错了怎么排查?关注我后台,把这份新手技能安装顺序加提示词模板加排错清单,全套资料给你,帮你一次搞定,永不返工!

很多人问 agent skills 到底去哪儿找?今天分享两个 agent skills 平台,能帮你快速武装你的 ai 智能体。 skill mp 是 目前最大的 agent skills 聚合平台之一,收入了超过十三万,加个 skills。 当你有一个模糊的需求,比如我需要处理 pdf, 可以 直接在 skill mp 搜索 pdf, 通常能找到现成的解决方案,类似 app store, 它还将 skills 按功能进行了详细分类,比如工具开发、商业等等。大家可以根据自己的需求去寻找特定的能力,点进去有详细的技能介绍, 也可以在右边点击安装的命令,或者下载下来安装。另一个是 skill 排行榜,它可以看到大家都在装什么。 skills 一 共收入了四万个 skill, 这个排行榜通常默认按照下载量排序,非常安利。这里排名第一的神器 find skill, 它是一个找技能的技能。安装这个 skill 后,你可以直接问你的 agent, 帮我找一个能画流程图的 skill, 它会自动解锁数据库,把最合适的 skill 推荐给你,需要的话还可以直接一键安装。我是 ai 知识派,关注我,带你挖掘更多好用的 ai 工具,下期见!

技能为什么非得叫 skill? 还有 agent, m c p rat token, 听着就头大。很多 ai 黑化都是装 x 用的, 知道这些 ai 黑化是什么意思,算半个 ai 从业者了。 one agent, 别听它叫什么 agent, 直接叫干活 ai 就 对了。以前的 ai 只能跟你聊聊天,你问一句,他答一句。现在的 agent 不 一样, 他能主动帮你干活,比如帮你查资料、写代码、订机票,甚至能自己调用各种工具,把复杂任务一步步做完。像 kimi 的 agent 的 模式,豆包的超能模式,都是这个东西,得手动开才能用。 二、 context 的 上下文这个最简单,就是聊天记录加你发的文件,比如你跟 ai 聊了半小时,还发了文档、图片, 这些都算上下文。有的模型说自己上下文支持 em, 意思就是它能记住你这 em 常录的聊天内容和文件,不会聊着聊着就忘事,说白了就是 ai 的 记性有多大。 free api, 你 就把它理解成电脑上的 usb 接口, 想把 u 盘插电脑,得用 usb 口。想把别的服务接到 ai 里,就得用 api。 比如让 ai 帮你搜网络、查知网数据,背后都是靠不同的 api 接口在干活。 四、 mcp 这是更懂 ai 的 接口,比 api 更高级。 api 还得让 ai 先写断代码才能调用, mcp 就 省事多了, 直接让 ai 用就行。比如某个论文网站出了 mcp 服务,你不用写代码,直接跟 ai 说帮我查这篇论文的引用数据,它就能直接访问数据库给你结果。 skill 技能库就是 ai 的 工具箱加技能清单,一个 skill 里可以打包好几个 api 或者 mcp, 把一整套业务逻辑都封装起来,比如小红书内容生成技能,抖音评论技能、代码审查技能。 ai 点一下这个技能,就能自动完成一整套流程, 不用你一步步指挥。 the number 呢?你可以理解成 ai 的 精准搜索技术,不光能搜你跟他的聊天记录,还能搜你发的文件内容。比如你之前跟 ai 聊过很多资料,现在问他一个问题,他能从之前的聊天和文件里精准找到相关内容再给你回答,而不是瞎编。七、抽卡 这个叫法太形象了,就是指 ai 升图升视频的过程,你输入提示词,点一下深圳出来的结果完全不确定,有时候惊艳到你,有时候又离谱到笑,跟抽盲盒抽卡一模一样,全是惊喜和意外。 eight token 直接当 ai 的 积分用就完事。 你跟 ai 聊一句话,发一段文字,生成一张图,都会消耗 token, 就 像扣积分一样,它本质是个数字,代表你用了多少计算资源,跟你对话的长度、内容多少成正比。那这些听起来高大上的 ai 黑话,翻译成人话,是不是就瞬间懂了?根本不是用来装 x 的, 只是行业里的简称而已。