你是否也好奇过,像 capassi 这样的 ai 大 脑是怎么用 ai 管理知识的?他最近发布了一个叫 l l m wiki 的 框架,火爆全网。我读完技师上的原文后发现这不是什么复杂的新技术,而是一套理念和行为准则,也没有什么高深的技术门槛,每个人都可以借鉴到自己的工作流里面。 嗨,你好,我是 blink, ai 加知识管理的实践者。接下来我就来解读 capacity 的 这套框架,并展示我在 opposite 中搭建的实力。最后再聊聊我发现的三个容易被忽视的盲点。这套框架其实可以简单的总结为三种文件,三个日常的操作和三种查询题校的工具。 我们首先来看三种文件,第一种叫原始资源,也就是 raw resource, 这里呢就是存放你收集到的原始资料,比如 pdf、 文章、视频等等, 它们构成了你知识库的原材料仓库。第二种叫维基文件,也就是 the wiki, 这些文件主要是由 ai 主导生成和维护的, 它会读取你在原始资源里面的资料,然后提取资料中相关的实体或者概念。比如实体就可以是人公司、项目或者课程,那概念的话可能就是一些方法论、技术名词这样的一些东西。 ai 为每个概念或者实体创建一个 wiki 页面,并且在它们之间添加相互之间的引用关系,这就是由 ai 主导生成的 wiki 文件。第三种文件就是规则文档 the skin 码, 它就是你和 ai 共同约定的规则,告诉 ai 从 raw 到 wiki 加工资料的结构、流程和规范,这个规范随着实际的使用,你也需要与 ai 一 起持续去维护和优化它,这三种文件加在一起就是 kapi 的 ai 知识库的基石。 好,接下来我们来看三个日常操作。首先是摄取 ingest, 就是 把新资料喂给 ai 后,让 ai 读取它,之后更新 wiki。 一 篇原始资料进来, ai 就 会根据前面生成的 schema 文档去提取 并提取出相关的实体概念,去新增或者更改现有的 wiki 页面,以及去更新缩影页面和记录日制。第二个日常操作就是问答 query, 就是你日常的问题,让 ai 基于深层的 wiki 去提问,同时给出来自于 raw resource 的 来源引用。这样的话就是避免了每次都要去读取原始资源, 因为 wiki 都是原子化关系化的,查找起来效率会更高。如果在问答的过程中产生了高质量的回答,那又可以让 ai 把它添加到新的 wiki 里面去。第三个操作是审查 link, 也就是定期让 ai 给你的 wiki 做体检。例如让 ai 扫描所有的 wiki, 查找页面间有没有明显的矛盾,有没有被新的资料推翻的,旧的表述,有没有孤立的页面,也就是没有与其他任何页面建立双向链接的页面,或者有没有提到了概念但是没有创建链接。 也可以让 ai 生成一些建议清单,例如哪些页面建议合并拆分等等。 好,那我们再来看三个查询体校的工具。第一个是 index, 也就是让 ai 自动维护一个叫 index 的 页面,上面会列出全部的 wiki 页面的名字和它的一句话摘要的介绍。这样的页面是为了方便 ai 快 速解锁。 当你向 ai 提问时,它可以首先来到 index 的 页面去浏览一番,找到可能最相关的一些 wiki, 然后再进入到 wiki 笔记里面进行进一步的查询。 第二个是 log, 就是 ai 自动按照时间记录他的每一次操作,例如几点几分他读取了某个原始文件,然后根据这个文件生成了哪些实体,哪些概念,然后又为他们之间创建了什么样的双向链接等等。 这个记录就是为了方便让 ai 知道你在某个时间段是研究了什么话题,做了什么行为。第三个是 rag, 当你的 wiki 页面大于一千个时, ai 还是用 index 页面的方式去进行浏览,解锁的话效率就会变低。卡帕索就建议使用更专业的本地搜索工具,例如它推荐的 qmd 就是 一个支持 bm 二五和向量混合式搜索的本 地工具,也也支持 c l i, 这意味着 ai 可以 直接调用这个工具进行查询。 好,接下来就直接展示我在 obsidian 上搭建的实力。首先按照 capacity 的 理念,我创建了一个 raw 文件夹,里面是存放我的原始 资料,然后又创建了一个叫 wiki 的 文件夹。根据 capacity 的 建议呢,这个 wiki 里面还分几种类型,包括实体概念、总览、对比 以及对原始资料的概述。然后创建一个 index 页面,里面列出所有的 wiki 页面,方便 ai 解锁。再创建一个 log 页面, 存放每时每刻的操作记录。那接下来就是最重要的 the schema, 那 我是 ai 辅助,结合自己的一些使用习惯创建了 schema, 里面就定义了我的整个文件结构,比如 raw 里面存放的是原始资料, wiki 里面又分几个子 文件夹,每个 wiki 上面需要增加一些 front type, 这也是我自己的习惯,特别是这个 type 要区分哪些内容是 ai 生成的,哪些是我自己创建的, 这样也会方便以后的一些管理好。然后这里就约定了我们的三个工作流,也就是前面提到的社取问答和审查。最后就是约定一些风格,比如说怎么命名内部的链接,要使用 obsidian 的 双向链接的,这个规范涉及到笔记之间的关系,查询时需要优先使用 obsidian c l i 的 这个视力的 skin 其实也并不复杂,但是它产生的效果怎么样呢?我们马上来体验一下。首先我在这个 raw 里面放了两个原始资料,一个是 openclaw 陈皮书,这是一个一百多页的 pdf, 介绍了 openclaw 怎么安装,怎么使用。第二个呢,就是 youtube 上一个介绍 pai 的 一个视频, 就是 ai 人生管理系统,这个视频也是讲的非常的精彩, blink 也是受到了很多的启发。然后这个页面是这个 youtube 视频的文字转录稿,那我是使用的 notebook l m 去转录的,然后粘贴过来。好,现在已经万事俱备了,就差开始了。 来到我们的 skype 页面,打开 cloud 点插件,当然你不用 cloud 点,用其他任何的 ai agent 也是可以的,我们就可以直接开始口述,请根据 skype 的 规范,针对我弱文件夹下的两个文档进行分析拆解,并创建出相应的 wiki, 然后以及建立这些 wiki 之间的关系。 接下来我们就来看一下当时震撼到我的 ai 自动生成 wiki 的 录屏回放。 好,现在经过了十几分钟, ai 把这个 wiki 已经创建完毕了,我们可以来看一下它的成果。首先看一下概念,创建了这么一些,比如 ai agent, 这里介绍了 ai agent 的 一些摘药,然后相关的文档加上了链接啊。然后比如说 skill 系统,这里也提到了 openclaw, skill 也有相关的 其他的页面的链接。我们可以通过查看一个页面的局部关系图,你就可以看到这篇文档还链接到了其他的哪些文档,可以在筛选里面去开启这个深度,也就是链接到的文档还链接到哪些文档,关系还是挺复杂。比如说 skill 连接到了四层记忆,他又关系到了向量记忆搜索, 那我们又可以来到向量记忆搜索这个页面,也可以看他的相关的介绍。你看这里还提供了一些。呃,一些代码段,那我们可以再来看一下实体, 比如说人物,这边有 peter steinberg, 龙虾的创始人啊,这边就是他的一些介绍,包括他的一些核心理念,京剧,对吧?一些哲学,呃,包括他的一些项目历程, daniel mister p a i。 的 作者, 那项目上也有,比如说龙虾,还有一些组织,比如 open ai 啊, sorbike。 对, 然后这有些栽药,比如说对于 open core 的 安全风险,这里还专门进行了一个总结。 open core 生态系统,感觉这个生成的质量还是挺高的,就是它把很长的一个 pdf 的 文档拆解成了原子化的概念实体, 以及它们之间的这些错综复杂的相互之间的关系。 source 就是 对原始资料的栽,要帮助你快速了解这个资料是讲什么的,这 这就是 wiki。 然后我们就可以基于这些 wiki 来进行提问,那你就可以用 ai 告诉他,在 wiki 这个文件夹里面,请基于这里面的笔记来回答我的问题。 例如我的问题是龙虾 open colo 里面有一套记忆机制,人生管理系统 p a i 里面也提到了一个记忆机制,那么它们两者的记忆机制之间是有什么样的区别?那 ai 就 会基于这些资料给到我答案,如果觉得回答的质量不错的话就保存下来。比如说我把这个记忆机制的对比整理成了一篇新的 wiki, 就叫做记忆机制对比。 p a i vs openclock, 先讲解了 openclock 的 四层记忆机制,然后讲解了 p a i 的 文件系统优先的记忆 机制,然后进行了两者的横向对比,应该说非常的具有实用性的好。然后我们刚才演示了怎么样摄取,就是从我的一个 pdf 文档,一个 youtube 的 视频文字稿拆解出了这么多的 wiki, 然后问答,就是我基于这里面去询问他两者的记忆机制有什么区别,然后他给到我一个回答,然后我又把这个回答添加成了一个新的 wiki。 那 么关于审查的话呢?就是如果我之后再添加新的资料进去,可以让 ai 比对前面生成的 wiki 啊,如果有新的孤立页面出现,那要怎么去处理这些孤立页面等等。 然后关于 index 和 log, 我 们可以再看一下实际的例子,那这个就是 index。 呃,这里面就是 ai 自动维护的一个页面,所有的 wiki 页面都分门别类的列在了这个地方,然后有链接可以直接点过去。一句话的简要的摘要,如果 ai 生成了新的 wiki 页面,就需要补充新创建的 wiki 页面的 index。 因为 index 相关的要求我是在 schema 里面提到过,每次摄取新资料的时候都要去维护 index 和 log。 然后我们再看一下 logo, 我 进行了两次的摄取,第一次是针对 oppo cola 的 这个 pdf, 然后他做了什么操作,创建了哪些相关的页面,创建了二十个概念,创建了五个对比等等,然后最后有一个统计汇总,他都把这些东西记录在案 好。然后这个资料的话,后续更多的是给 ai 看的,那 ai 就 能知道。先扫描这个目录,如果我想知道你五天内干了什么,前天干了什么,那我就可以去找这个日记。 好的,刚才我们已经从零到一,搭建起了一套知识图谱,你是否觉得这样的一个方式很酷呢?确实很酷,但是我要给你泼一个冷水,毕竟我不是一个炫技博主,我要分享的是真正能够给你带来实际价值的知识管理。 我会提出三个建议供你参考。首先,如果我们本来就要学习某一个领域的知识,那么原始资料可能比深层的 wiki 更适合你学习。 比如 opencloud pdf, 它本身就是一个教程,它的章节目录就是从浅到深的结构,那你按顺序去学习的话,是最适合初学的方式,就比你一个一个的去看单个的 wiki 的 文档,是更加适合初学的。又比如这个 youtube 视频, 视频的作者本来就是用视频的方式循序渐进,娓娓道来的给你讲述它的系统。如果你是从零开始想学习这个概念的话,那你先耐心的完整的看完这个视频,应该是效率最高的一个学习方式。 如果你已经对原始资料进行了一个完整的学习,学习完以后你再来回顾这些 wiki, 再来去找他们之间的联系,这就是更适合回顾复习或者总结的一种学习方式。也就是说你是一个从零开始的人, 你可以先去看原始资料,是更适合入门,更适合初学。那初学之后 ai 生成的这些 wiki 的 知识图谱,它是结构化、原子化的文档,它更适合你在后续进行回顾和总结。那 第二个建议我觉得也很关键,就是 ai 生成的 wiki 你 需要去验收,不要无脑的囤积,只有在验收了这些文档以后,发现了问题, 并且持续改进,你才能生成越来越多的真正对你有用的,能够指导你决策的内容,而不是持续的囤积了一堆很完美的东西。但是你从来不用也不看啊,如果只是囤积的话,就犹如你请了一个替你健身的机器人,每天在跑步机上跑步,但是你自己的身体有变得更健康吗? 我举个例子来说明就知道了。我现在生成的这个微克里面,我对这个地方就不太满意,就是他在每个页面的底部就会有一个相关页面,我练了一些别的页面,那比如说像这些地方的链接有一个上下文啊,就说这里是因为什么什么相关,所以详见啊,什么文档,这里是有一个叫做 呃,上下文关系的描述,那这里就没有描述了,为什么要念到这个文章?不知道,对吧?他们很多地方都有, 那所以我接下来我可能就会去改这个地方。我就说你每当链接到其他文章的时候,你都得有一个链接原因的一个描述,对吧?比如说你上面说了一个什么什么东西,然后你说详见什么,那这就是一种,呃,为什么要链接到它的一个关系?对,那像这些相关页面,你要么就补充链接它的关系,因为什么? 要么你就不链接?对,我觉得这个就是说你要去持续的去跟 ai 去一起改进之后生成的这个内容,这样才能产生真正的价值。 那第三个建议就是现在已经有一个事实就叫做你创建的内容不是只是给你自己看了,而是现在是要给 ai 看了。比如说 capacity 这套系统里面的 index 和这个 log, 其实它的设计初衷就是拿来给 ai 看的。 那又比如我自己喜欢给笔记加上一些属性,例如清楚地注明它的 type 是 concept, 就 为了后续去区分哪些内容是我主导编写的,哪些内容是 ai 主导生成的啊?这个很重要,我是很担心这两类混在一起。 这个 summery 也是为了方便 ai 去解锁而创建的一个自断,我们会需要有越来越多的日常的琐碎的操作要让 ai 来帮助。比如说我们要定去去检查文档 这种就是又日常又琐碎,但是对于 ai 来说又比较容易的事情啊,那它可能就很适合交给本地大模型去低成本的去处理。这个我也在探索,后面也会进行相关的分享。记住,流水的 ai 工具,铁打的个人知识库。我是 bullet, 我 们下期接着聊。
粉丝6435获赞2.2万

最近爱尚的大神 kathy 呢,发了一个帖子,叫做 l l m knowledge base, 这个呢,其实就是被大家誉为的 l l m wiki 的 一个项目的想法,可以理解成是一个个人知识库的 harness, 你 harness 很 火么?总的来说,什么逻辑呢?就是它表达呢,自己在使用大圆模型时候,现在越来越少的写代码了,更多是在控制知识, 希望用 l l m 呢为各种研究的兴趣构建自己的个人知识。这样呢,在过程中呢,他这些知识呢,可以自我进化,变成一个系统性的 wiki, 就是 把自己的随时随地的学习的各种信息呢,通过大元模型组建成一个有系统性的上下文体系。 我能把这个就称为个人知识库的 hollis, 那 他把这套方法论呢发表到 github 上,把方法论呢开源给所有人。那这框架是什么样子呢?这框架呢,其实是一个七十五行的 markdown 的 文件,也称为 idea, 就是 他的想法的文件。里面 andrew captain 呢,重点介绍了他的所谓个人知识库的一个需求和实验方式。首先,为什么需要维护一个个人知识 库的内容,修正主题的摘要,标注新旧知识之间的矛盾,不断的强化。已有的综合分析 认为呢,每次在问询中,在去学习新的工具中呢,每一次都是在做一次翻译,翻译之后呢,要保持新鲜,而不是每次查询都要重新推导。所以呢,他用了一套自己的方法叫 l l m wiki, 其中分成三层,底层呢就是原始的资料层,就是 raw data, 是 只写不改,各种学的东西,研究的方向随时随地可以丢进去,让 l l m 帮他去消化。第二层呢叫 wiki 层,是由大圆模型去自我维护的,这里面呢,包括了各类 topic, 各类话题, 从概念到人物到技术到项目,互相的链接的 markdown 的 文件,是结构化的一个气息。最上层呢是 sima 层,相当于规则和规范定义了。 wiki 应该怎么写?所以呢,他是用一套这样的体系呢,把大元模型从通用的聊天机器人,变成了专业的个人知识的一个维护者。 怎么样去让这个知库转起来呢?首先叫贯入,把新的资料丢入 raw, 就是 最底层的这个原始内容目录里面告诉大模型去处理。大模型呢,读完之后会跟你讨论要点, 写一页摘要更新。所以然后呢,跑去更新 wiki 里面所需要的实体页跟概念页,就所谓的它里面的什么人物啊,概念啊,技术啊,项目等这些,每一个 entity, 大 部分人自己去对比分析,做综述,自己去创建和维护,形成一个自我净化的体 系。第二步呢,就是提问,向 wiki 呢,不断的问问题,每个问题呢,如果是好的问题,有新的产出,新的知识的进化跟蒸流,就会自动归到到 wiki。 我 们每次问完问题之后,他会问我是不是把这个知识 插入到知识库里面,每次探索都在为知识库添砖加瓦。最后呢叫巡检,定期让 l l m 对 大模型,对整个的微信知识库做体检,找矛盾,补缺失,发现新的关联标记,深入研究的方向。因为里面很多的关联也好,知识之间的联想也好,大模型做起来比人类会快很多,让大模型做的事情会很轻松,同时大模型还会帮助你联想研究下一步研究话题。 andrew cobbsey 用自己的经验呢分享,他在一个研究方向上累积了大约会有一百多篇文章,四十多万字。原本这 rek 呢,是很耗时的用一个大模型的这样的缩影,通过中阶层的不同的实体 entity, 去整理成不同的分门别类的结构化,再去通过缩影不断的优化这样的体系呢,会比直接用 rek 会容易很多。 有一个博主叫做雨辰鲸,用 cloud agent 呢画了一个整体的价格图,总结这套模式,可以看出,它的价格图里面呢是分成了三个模块,分别是 raw source, wiki 和 schema。 最核心的模块就中央的 schema, 它有多个 entity 组成, raw source 呢是它的丢进去的素材,而 schema 呢,是它的规则。在这样体系下呢,通 通过 index 输入 raw data, 通过多次的 query, 人工的去提问,包括大模型自己的提问,再加上大模型的不断自我修正,自我去整理,就形成了这套人与 ai 形成的一个 similes 共生的支付的体系。 人负责选择题判断和思考,大元模型负责剩下的一切。当然我这个内容讲完之后呢,我还是想分享一下,现在进入了一个 hollis 的 时代,所有的大模型呢,都在寻找符合自己场景的 hollis, fans 呢,就是像江神。原来呢,所谓叫 contact engineer, 现在呢,有一个更稳定的一个架构,把大模型这些野马很好的驯服在一起。这样呢,追求整个系统的稳定性,包括他的记忆,包括他的主动性,包括他的角色、身份和个性。在此之上呢,应 通过 agent loop 的 run time 或者是 virtual machine 虚拟机呢,来实现整个系统的稳定性。那这个呢,已经变成了所有的未来的一个智能系统的很重要的中间键了。我们过去一段时间看到的 harness 的 代表,包括了 open clock, 包括了已经被泄露代码的 clock code, 包括这次 captain 分享了自己 l l m wiki, 都是所谓的中间层的这个 harness。 我们认为呢,未来的 ai 的 系统的升级不只是模型层的,而是一个 end to end, 端到端的四个层级的。整个系统的升级,从底层的模型到中间层的 inforce, inforce 呢,就是我们所谓的 harness。 再来上层的 api 以及应用,每一层呢,都形成一个互相依赖但又互相进化的一个体系。上层的应用呢,是用户和系统进行不断的交互, 人类去影响,包括 guide, 包括引导模型的进化。而 a p s 呢,是把 harness 跟模型有效地整合在一起,形成一个相对稳定和独立的整体。 harness 跟模型之间呢,又是一种环境跟发动机的一个共生关系,通过模型加上 harness 的 这种 agent, 再加上 use, 再加上人机交互的多层的互动,最终呢,让整个的 intangent system 就是 智能系统自我进化,这是我们看到一个非常前卫,也是非常具有前沿共识的一个智能系统的整体架构。

andrew kappa 的 openai 的 创始人之一,最近在 twitter 上分享了他的笔记方法,引爆了整个 ai 笔记圈。他说把 l a m 也就是大模型指向一个文件夹就搞定了,他管这种方法叫做 l a m knowledge basis, 用大模型来管理个人的知识库。 我顺着他的思路把自己的笔记系统重新搭了一遍,用 obsidian 加 cloud code 打造了我的第二大脑。熟悉的朋友们都知道我是一个 notion 重度使用者,那么今天这一期我会结合 obsidian 和 notion 来给大家演示一下 以往我在 notion 中使用的功能。在 obsidian 里面结合强大的 ai 是 如何来实现大神的这套方法论的。 那我们在早期一直在探索的个人知识库管理的赛道上呢?我们一直在做的努力就是让知识看起来更有系统一点。不管是早期的收藏夹分类,还是我们试图把 啊画面用看板看起来更系统一点,我们都只是在分类知识上下功夫。而卡帕西呢,主张把人从知识分类的这个环节上去把它抽离出去,把这个环节交给 ai, 人呢只需要去囤,不管是网页、 pdf 或者是你的随手记把它囤积起来, 那么中间这一个管理的层面都交给 ai, 它会像给一本书编钻一个目录一样,给你的所有知识编钻一个串联起来的一个图谱。 到第三层就是我们的输出的时候,就是人和 ai 的 一个互动,就是人去问问题,然后 ai 在 调用这个知识库的时候去回答你的问题。 那么因为调用整个知识库它会非常的好, token 耗时也会非常大,所以它会基于我们刚刚它编钻的这个 wiki 层去做相关的搜索,过后再进行进一步的解答。这三个层面的应用我都会一一为大家演示。 我们的知识不是经历过刚刚的一次循环之后就存到我们的知识库里了,而是会被动态的维护。那我们可以去给 wiki 做一个定期的一个 设置,比如说会需要让他定期为我们做一个健康检查,检查里面的知识有没有相背的,检查里面有没有一些空缺的,这些都是 ai 会定期去做的一个维护。 那么随着这样的逻辑呢,他最终会产生一个知识复利的效应,因为你的好的回答好的问题都可以让 ai 在 帮你存到你的本地,时间越长,你用的越多,那么他就会越来越了解你。 每一次和 ai 的 互动,不仅仅是当时的那个对话框,而是成为 ai 越来越了解你的上下文。那么这一部分呢,我会带大家用实操来看一下这个过程是怎么实现的。 然后这里呢,我选举了同一个主题下的不同的几个知识在体,有文章,有视频,有播客。然后我们先来看一下这篇文章,这是一个公众号的文章,然后像以往的话,我会用 september 也是 chrome 的 插件去保存在文章这个类别,这些都是我提前设好的哈,然后它下面有很多字段, 当时的我就需要手动的去稍微关联一下。那么现在呢,你用 obsidian 的 话,也是在 chrome 里面有个插件,直接点击 chrome, 然后它就会自动的帮你匹配好,你只需要先预设好你要存储的路径,然后直接 add to obsidian, 它就会直接帮你 把整个文章都抓取下来,然后它的一些概要啊都是自动的,那么如果你是视频的话,像 youtube 视频,它都可以直接把这个视频的啊这个字幕都能够抓取下来。然后也是同样的,直接无脑的直接 add to obsidian, 保存到你的这个 inbox 的 这个或者是其他的路径就好了, 它也是比较完整的,整个都抓取下来了。那么如果你是像海外的一些文章,你使用了这个翻译的功能, 当下是有中英文的,然后如果你选择保存到 obsidian 的 话,它也是会保存你的中英双语的,比如说像这样子保存下来, 那么关于这篇播课呢?它本身它的中文字里面就有比较完整的知识概要了,所以你也可以选择用这样子的插件形式把这个页面的内容摘取下来。 当然还有另外一种形式就是我之前分享过的,你可以设置一个 skill, 然后通过 notebook lm, 然后这个工作流去让 notebook lm 里面去提取一些关键的信息。那么现在这里呢,我就只用减藏的功能把它先保存下来,那么现在它所有的内容都会在我的这个 inbox 里面, 那你就完成了臀的这个人工动作,那么接下来就是交给 ai 的 时候,那么因为我已经在 opc 里面插入了我的 call code, 所以 我直接点击左侧的直接输入, 请你帮我清理一下我的 inbox, 我 发送给他,他就会去扫描我 inbox 下面的所有的内容,进行以我的标准下的知识划分, 那么为什么说是按照我的规则呢?因为大家可以看到他在清理的时候,我是默认要保存我的灵感库的,因为这个灵感库就是我自己随手写的一些东西,所以我就告诉他,我的灵感库你不要清理,你只需要清理除灵感库以外的东西,那么他每一次清理的时候就保留, 那么在经过刚刚大概两分钟的等待的时候呢,这个清理就已经完成了,大家可以来看一下,他基本上把我刚刚的六条比较碎片化的信息,然后通过一个主题的关联去做了相对应的整理,然后他本次也发现了跟我之前的某一个方法论或者 知识是相关联的,所以他会推荐我进行补充,然后后续的话以及有一些卡片呀概念啊,他也会对应问我是否需要补充。 那么大家应该还记得之前我在搭建楼层的时候,就有单独的把文件夹这个分类标准, 把它单独定义出来,然后把进行各个类型的知识在底的关联,然后我觉得现在 ai 能够帮我大幅的缩小去整理的这个过程,因为它本身就抓住了内容的核心去对我的内容进行分类, 所以以往在 no 圣里首搓的这部分,我也外包给 ai 了,给他展示的他刚刚整理完后,我更新后的 viki 层,他给我做的一个像目录一样的东西, 然后这些他都是带双链的,比如说我点进去他会有具体的内容,然后这些都是来自于我会给他的知识库本身,我给这个知识库也放了很多我自己个人的东西,包括我的 啊,学历背景和职业发展。所以他会结合我的目标和我的背景来筛选出我值得学习的内容。 他每次更新过后,他会着重的跟我说,我需要注意里面的哪些东西,怎么迁移到我目前的工作或者生活中来。 notion, ai 是 有限的。 notion 的 工程师定义了 ai 的 功能可以做什么,你只需要触发预设的功能就好了。但是 obsidian 加 ai 是 无限的,你可以自己写自己的 playbook, 定义 ai 的 行为。 换句话说,用 notion, 你 是用户。用 obsidian, 你 是构建者,但我觉得工具只是影子。这套 role wiki 方法论真正解决的是一个很实在的问题。知识积累和调用之间有一道鸿沟。 大多数的人的知识管理存了不用,用了再找,找了又忘。但如果你真的按这三层走下来,每一天积累的东西都会沉淀到你的 wiki 里。每一张概念卡片,每一个主题的缩影,都是你过去思考的痕迹。 时间长了,这套系统会越来越懂你。你想做什么事,你在关心什么,你有哪些盲区? ai 都能基于你的整个知识网络给出判断依据。 知识复利就是这么来的,不是某一天突然变得更厉害,而是每一篇笔记都在为未来的某一次决策积攒弹药。工具会变,但你想清楚一件事的需求永远不会变。我们下次再见。

ai 大 神 capace 最近分享了一个构建个人知识库方法,我照着试了一版,直接拿它搭了一个投资研究知识库。这套方法的核心是先搭一个自己的知识库,再让 ai 围着这套知识库继续研究。 做法其实很简单,先建一个 raw, 把文章、论文代码库、数据集这些原始资料都收进去,再让 l l m 一 步一步把这批资料翻译成 markdown wiki。 你平时就在 obsidian 里看 raw, 看 wiki, 继续提问,每次问答再慢慢归档回 wiki, 后面再让 l l m 定期做健康检查,补缺失,找矛盾。继续提新问题。 我先把 ai 行业、 google、 microsoft 这些公司资料放进去,再让它慢慢长出公司页、财报招标页、比较页和关键指标页。做到这里,原来那堆散资料就开始变成一个能继续研究的系统。比如可以直接提问 google 的 ai 价值,先会在 cloud 兑现,还是会在设置被重新定价,然后把这个问题单独做成研究卡, 后面每来一份财报,每多一条外部资料,就继续往上补。这套方法能用的场景其实很多,读书笔记,长期研究一个主题团队资料沉淀等等,只要你手里有一堆会越积越多的信息,想把它们慢慢整理成一个能继续迭代的知识库。我是 ai 知识派,关注我,带你发现更多好用的 ai 工具。

朋友们,这个视频你必须要收藏好!刚刚 ai 教父 and duchess 公开了一个神级方法,只用了五分钟,就能把你散乱的知识变成一个会自己长大的 ai 知识库。重点是,这套方法超级简单,不需要什么 rap, 一个文件夹加几个 macdunk 文件,百分之九十的人都能控制。 我连夜研究了整套玩法,总结了四个核心动作,特别是第四点,打透了知识管理的底层逻辑。第一步,搭建超级简单的双文件夹结构, 只需要建两个文件夹,一个叫 ro 放原始资料,一个叫 vicky 放 ai 整理后的内容,然后打开 cloud code, 把 cappsy 的 提示词丢进去,它就会自动帮你创建搜引文件和网址,五分钟搞定。第二步,微数据给 ai, 让它自动建立知识关系网, 你把一篇文章扔进肉五文件夹,告诉 cloud code 去消化它。神级操作来了, ai 不 会简单地把文章复制一遍,而是会拆解成十个、二十个相互关联的知识点。第三步,持续喂养。 这是这套方法最绝的地方。传统的 ai 聊天对话结束,知识就消失了。但用 copy 的 知识管理法,每次你添加新的内容, ai 会自动地找到和它旧知识的连接点,不断织密这张网。到这里,你是不是以为这就是一个高级笔记本?错了? 第四点,才是让我头皮发麻的地方。 copy 真正在做的不是整理笔记,而是打造一个会思考的第二大脑。你不再需要记住所有细节, 只需要问 ai, 我 之前研究过这个话题吗?它就能瞬间调出所有相关内容。朋友们,这绝对是我今年看到的最实用的 ai 知识管理方法。我是天所关注,我学习实用的 ai 玩法。

大家好,你们有没有过这种感觉?飞书 notion 备忘录里存了几百篇内容,但真正要用的时候,翻半天找到了,却发现帮不上忙。这不是搜索的问题,是整个知识管理的思路出了问题。 今天我们来拆解一个新的解法,它来自 ai 领域最有影响力的工程师之一安德烈卡帕西在今年四月刚刚提出的概念叫做 l m viki, 核心只有一句话,让你的知识库越用越聪明,而不是越存越臃肿。我会从底层逻辑讲到实操结构,最后分享我自己真实跑通之后的感受。先说一个我曾经有过的体验,看到一篇好文章就想先存起来,心里觉得这个以后肯定用的到。 就这样,我的资料库慢慢装进了提示词工程,各种 ai 工具、笔记、课程记录、配置经验等等等等。但真正需要用的时候,我发现这些东西并没有太多帮助,不是找不到,而是找到了也没用。 每一篇笔记都是孤立的,他不知道另一篇说了什么,也没有办法把几个来源的信息综合成一个答案。 我的资料库不是知识库,它只是一个收藏家。现在市面上最主流的 ai 知识管理方案叫 r i g, 全称叫做解锁增强生成。通俗说就是你把文件上传进去问问题,它会从文件堆里找相关的片段,拼一个回答给你。 notebook l m chat gpt 文件上传。大多数所谓的 ai 知识库产品都是这套逻辑, 这套逻辑在很多场景够用,但他有一个天花板,他只会解锁,不会积累,每次查询都是全新的一次搜索,没有任何东西被真正建立起来。你问一个需要综合五份文件的问题,他要实时的去找,实时的去拼,结果很不稳定, 用的资料越多,这个问题就越明显。 r a g。 就 像一个图书馆,书还在架上,每次你来了,要自己去找,自己去拼,图书馆里的知识永远不会自己长大。今年四月初,安德烈卡夫西在 x 上发了一条推文,随后跟进了一份详细的文档。 卡帕西是 openai 的 创始人成员,后来担任特斯拉的 ai 总监。他说他最近大量的 toc 消耗不再是用来生成代码,而是用来管理知识。他提出的思路叫 l l m v t。 核心逻辑只有一句话,不要在查询时解锁,要在摄入时翻译。 这句话看起来简单,但背后是一次真正的思路转变。 ig 是 使用时才查找, l l m v key 是 存入就理解,像编程理解释器和编程器的区别,解释器每次运行才翻译,而编程器是提前把代码翻译好,运行时直接用,速度完全不一样。 卡帕西把这个概念用到了知识管理上,你每加一份新资料, l l m 就 在摄入的那一刻读懂它,整合它,更新相关的内容。下次你问问题,答案已经准备好了,不需要重新发现, 我们来做一个直接的对比。 ig 是 图书馆模式,你问问题,管员去书架找,临时拼凑答案给你,文档之间是孤立的,每次都是全新的搜索,知识并不积累。 l l m v t 是 编程器模式,你加入新资料系统,立即读懂并整合 v t, 在 持续生长,自动建立各条内容之间的关联,提前算好答案,还会主动告诉你新旧内容之间有没有矛盾。 最根本的差别只有一条, ig 的 知识不积累。 l l m viki 的 系统越用越聪明,你不再是维护一个静态的文件堆,你是在培育一个活的知识系统。每次问进去新东西,它就长大一点,每次问一个好问题,它就更完整一些。 理解了底层逻辑之后,我们来看看这套系统具体是怎么搭建的。整个系统的载体非常简单,就是你电脑上的一个本地文件,家用一款叫 obsidian 的 笔记软件来浏览。如果你没用过 obsidian, 把它理解成一个能看到笔记之间关联关系的本地笔记本就好。 卡帕西用了一个很好的比喻来描述三者的分工。 obsidian 是 你的工作台, l l m 是 你的专属编辑, wiki 是 那个持续生长的知识产品,你负责找资料提问题, l l m 负责读懂内容,把知识整合进去,并维护页面之间的关联。 你不用自己写任何一个页面,你只管喂料和提问。没有数据库,没有云服务,文件就在你自己的硬盘上,这个门槛低到让人有些惊讶。 我们再来看这套系统的具体结构,它分为三层,第一层叫 raw 原始资料层,这里存放你收集的所有原文件,包括文章、课程笔记、研究报告等等。这一层只增不改是你的事实来源。 l l m 只是读取,不会编辑和删除里面的内容。 第二层叫 wiki, 是 知识层,这里是 llm 生成和维护的 markdown 文件概念解释工具,对比综合分析。每次有新资料进来, llm 会更新相关页面,补充不同页面之间的引用关系,还会检查有没有和已有内容矛盾的地方。 第三层是 schemer, 也就是配置文件,在 cloud code 里叫 cloud 点 md, 这是整套系统的大脑,告诉 llm 这个 wiki 的 结构规范和操作流程。有了它, llm 才能成为一个有纪律的知识维护者,而不是每次都从零开始的聊天机器人。 这三层的关系是, raw, 是 原材料。 llm 读取之后编辑进 wiki, schemer 规定了编辑的规则。 理解了结构之后,我们来看这套系统日常怎么运转。有三个核心的操作,形成了一个闭环,第一个叫摄入,把新资料放进原始资料层,告诉 l l m 处理它。 l l m 读取内容,提炼要点,生成摘药液、更新锁影,更新相关的概念页和记录日记。 一份资料可能同时触及十几个 viki 页面,这一步是整套系统核心价值所在。第二步叫查询,你问问题, l l m 搜索相关页面,给出带引用的回答。更重要的是,一个好的回答可以直接存回 viki, 成为新页面。你每次提问本身就是在给知识库加料。 第三个叫做巡检,定期让 l l m 扫一遍整个 wiki, 有 没有互相矛盾的页面,有没有被提到过但还没有独立页面的概念,有没有孤立的没有任何链接指向的页面。三个操作循环运转,知识库就持续健康的生长。 说了这么多理论,来分享一个真实的案例,我将斯坦福现代软件开发课程的六节课笔记放入原始资料层,六个文档散落了几周,互相之间没有任何联系。 用 cloud code 摄入之后,系统自动生成了六个互相链接的 wiki 页面。 l l m 基础原理, prompt engineering codeign 架构, mcp 协议每个页面都有摘药,有来源引用,有和其他页面的关联。在 opcd 里打开图谱,试图你能看到这些页面之间的链接网络正在成型。 以前是存进去就忘,现在是每加一份资料,整个系统就更完整一点。知识第一次开始有了重量。 跑通这套系统之后,我意识到还有一类东西比外部知识更重要,更难管理,就是我自己的判断框架。 卡帕西的原始设计是领域无关的,你可以用它管理研究资料、读书笔记、竞品分析。但有一类信息比知识本身更关键,我的目标优先级是什么?选品时我怎么决策?遇到新信息我该不该跟进? 这些东西平时散落在对话记录和日记里,从来没有被系统化过。所以我给 vicky 加了一个 self 域,专门存这类东西。外部知识包括书、工具、事实等等,存进 vicky 内部判断包括我的优先级、决策规则、思维框架等等。存进 self 域。 这个区分让整套系统从知识管理工具升级成了一个真正的个人操作系统。还有很重要的一点是,这套系统不绑定任何一个工具。 卡帕西的原文本身就是一份想法文件,它明确说可以用 cloud code codex、 open code 或者任何能读写文件的 llm agent 来跑。 cloud code 读 cloud, 点 md codex 和 open code 读 agents, 点 md gemini, 读 gemini, 点 md, 名字不一样,逻辑完全相同。核心壁垒不是你用哪个工具,是你的 skimmer 文件写得够不够清晰。 这意味着你今天用 cloud code 搭好这套系统,明天有更好的工具出来。只需要换一个入口,所有积累的 viki 内容都还在,一行都不会丢失。你真正的资产是 viki 本身,并不是某个 ai 产品。 一九四五年,美国科学家范内瓦布什写了一篇论文,设想了一台叫做 mymax 的 机器。 他在二战期间主导了美国整个科学研究体系的战事动员,深知知识分散无法积累的代价。他想象中的 mymax 是 私人的、主动管理的,文档之间的连接和文档本身一样有价值。 他当时没有解决的问题是,谁来做那些枯燥的维护和连接工作?八十年后, l l m。 给出了答案, 不要让知识在等待中沦为死水,让它在变异中持续生长。卡帕西的这套系统,本质上是把一九四五年的构想真正落地了,而你现在只需要一个本地的 markdown 文件夹就可以开始。

你现在的知识管理方式,可能从跟上就是错的。四月二号, ai 圈大佬 andrew carpetey 发布了一个叫 l l m viki 的 开源项目。 这位大佬是谁?斯坦福 cs 博士, open ai 创始人成员,特斯拉,前 ai 总监,妥妥的技术顶流。而他这次带来的东西,用一句话概括就是让知识真正成长起来,实现复利积累。 不是那种用完就忘的笔记,是你的第二大脑。但在说他之前,咱们先聊聊,为什么你的知识管理总是做不好。 你有没有这种感觉,读了一百本书,记了一千条笔记,但知识还是散的,用的时候根本想不起来。这就是传统知识库的致命问题,没有积累, 每次问 r a g。 系统一个问题,他都像第一次见面,在一堆文档里大海捞针,这次查到了,下次忘了。这批资料用完了,换一批,又是从零开始。更扎心的是,你花的那些时间根本留不下来。知识就像沙子,抓一把漏一把,永远攒不成塔。 那有没有一种方式,能让知识真正沉淀下来?如果有一种知识管理方式,让你的笔记越攒越值钱,时间越久越强大,你信吗? 这就是 kefisy 提出的 l l m v t, 它借鉴了程序员维护代码库的方式,你的知识不再是静态的文档,而是由 l l m 持续维护和更新的动态知识库。 什么意思呢?就像程序员写代码,每次提交都有记录,都能追溯。 l l m v k 也是,新知识不断融入,旧知识持续迭代,整个知识库是活的。听起来很美好,但核心就一个词, 传统 r a g。 是 先解锁再回答 l l m v k。 换了一种思路,叫从解锁到编辑。你可能知道,程序员写代码需要编辑,把原代码变成可执行文件。 l m wiki 也是这个逻辑,原始资料相当于原代码, l l m 提前帮你整理、提炼关联,形成编好的知识结构。当你查询时,不是临时去找,而是在已经组织好的知识库里直接调用,就像从临时查字典,变成了大脑里已经有了答案。 具体是怎么实现的?三层架构,整个 l l m v t。 的 设计只需要记住三层,记住了,你就理解核心思路了。 第一层, raw sources 原始资料层,只读数据源,论文、书籍、网页往这儿一放,只进不出。 第二层, wiki llm 维护的知识层,由 ai 持续更新优化关联,这层是活的,会不断成长。 第三层, schema 规则层,定义知识的组织方式和查询接口,怎么分类,怎么查询,你说了算。三层各司其职,数据从下往上流动价值逐层递增。那具体怎么操作?三个核心动作, 第一步叫 ingest, 翻译过来就是吃进去,但这个吃法比你想象的聪明。 ingest 摄入就是往系统里添加知识, 不是简单的复制粘贴。 l l m 会理解这段知识在讲什么,判断它和现有知识的关系, 自动建立关联更新结构。就像请了一个二十四小时在线的图书馆管理员,当你把新书分类上架,贴标签,一次摄入长期受益知识进去了,那怎么用呢? 查询才是检验知识库真本事的时候。 query 查询,当你有问题时,直接问 l l m wiki, 它不是在文档里找关键词,而是基于已经翻译好的知识结构来回答, 好处是什么?更快,不用每次都便利,原始资料更准。知识已经被整理和关联过,更连贯回答是基于整个知识网络,就像你问一个真正的专家,而不是一个只会搜索的工具。 但知识库用久了,难免会有垃圾、过时、重复的信息,怎么办? 这就是第三个核心操作,也是 l l m wiki 最强的地方。 linux 健康检查, linux 类比程序员写代码时的语法检查, linux 会定期扫描你的知识库,检查哪些知识点已经过时了, 哪些内容重复了,哪些关联不合理,然后自动清理,自动修正,保证知识库始终处于健康状态。程序员有 link 检查代码质量, l l m v t。 用 link 检查知识质量,你的第二大脑也能定期体检。 说了一堆,这东西到底适合谁来用?如果你符合下面任意一种情况, l l m v t 可能就是你在找的工具。研究的人读论文,查资料,知识点越来越多,传统工具根本管不过来。 读书爱好者一年读几十本书,每本都有收获,但和尚就忘。 l l m v t。 帮你把读过的书真正沉淀下来。 团队知识管理者,文档散落在各处,靠人维护,永远跟不上。用 l l m v t 让 ai 帮你管怎么用。官方推荐搭配 obsidian 笔记软件,加上 l l m agents, 完全免费开源可用, 不需要买昂贵的项链数据库,个人和小团队可以尝试使用。最后做个总结,单说 l l m v t 解决的就一个问题,让你的知识真正属于你。 传统的知识管理是在囤积 l l m v k, 是 在培育你的每一份阅读,每一次研究,每一条笔记,都会成为知识库的一部分。时间越久,知识越丰富,这就是知识的复利。 它不是帮你找资料的工具,而是帮你建立认知优势的系统 catapity, 把它开圆了,免费开放,所有人都能用。如果你也在意长期的知识积累,建议去了解一下这个项目。

你为 ai 一 百篇文章,它其实什么也没记住,这就是 r a g 的 宿命。 先说清楚 r a g 是 怎么跑的,它叫做解锁增强性能。今天几乎所有的 ai 应用都在用它,流程就三步,你让文档给它切碎,存进项链库,你提问它,现场去捞相关片段,最后拼一个答案丢给你。 每一次都是从零开始拼,累计下来的积蓄正好是零。直到今年四月三号,卡帕西发了一篇 gist, 七十二小时一千七百万浏览,他说这个思路整个反了。 他提出了一个新模型,名字就叫 l l m wiki, 别等用户提问了才临时起批,提前让 l l m 把所有资料都读一遍,自己建一个结构化的笔记库,每个 ct, 每个概念,一个页面。你在问的时候,答案早就翻译好了。 卡帕西有一句形容特别到位, i b c d n c i l l m 系程序员, wiki 就 系代码,你去观看结果,一个字都不用碰。 整个系统只分三层,第一层是原型素材,你放进去谁都不许动。第二层才是那个 wiki, l l m 自己写,自己改,自己互练。第三层是一份规则文档, 日常操作仅有三种。第一种叫 ingest, 曲径心研,它自己读,自己拆,自己规当。第二种叫 quivy, 你 问他答好答案,还可以回填,求新页面。第三种叫 link。 定期体检, 什么场景最合适?长期先挖一个主题,读一本厚书,见自己的劫色地图,公司内部自动规章 slack, 所有没人愿意维护的场景, 长什么样呢?看一眼,就等你说。吃进这篇文章,他开始读,开始拆,开始见页面,最后告诉你改了多少处, 一次 ings 能动多少页,十到十五页是常态,人做这个早就废了, 为什么这个模式现在才跑起来? vicky 的 瓶颈从来就不细读书也不细思考,细记账,更新,交叉引用,同步加药,检查矛盾。你改一个页面的名字,它一次同步几十个反向链接, 严写 viki 基本都是写一半就气坑,而 l l m 不 会觉得无聊。西西这个想法一九四五年就提过。一个叫范内瓦布什的人写了篇 sv magazine, 里面描述了一个设备,叫 mean x, 个人机器库,联想路径全都有。他只差一件事,没想明白 谁来做那个维护者。这个梦躺了整整八十年,因为没人愿意做那个抄写员。 八十年后,答案出现了,它不羞不烦不漏。你机关选素材,提好问题,剩下的脏活 lolm 全包, lolm 的 无聊就是你的复利。

还在折腾 reg 向量解锁吗? karpa 的 l l m wiki 玩法,直接把知识库变成了代码库。说句扎心的话,你搭过 reg, 也用过 notebook l m, 最后发现问题还是那个问题,个人 reg 方案有个绕不过去的毛病, 它本质上就是个 read only 的 无状态系统。这次对话产生的新洞察,就跟无状态的 http 请求一样,答完就没了。 你的知识库连一千字节的增量都没有。最近自称患上了 ai 精神病,每天给 agent 下十六小时指令的 carpathi, 在 github 上分享了一套自己在用的工作流,用 ai agent 加 obsidian, 搞一个能自己滚雪球的本地 llm wiki。 carpathian 的 思路特简单,别让 llm 每次都从零开始搜,让它去编一知识。这个类比一听就懂。 obsidian 是 你的 id, 一 markdown 文件就是源代码 cloudcode。 这种 agent 是 那个七成二十四小时在线的程序员最后生成的 wiki 就是 翻译好的产物,整个流程跑起来就是一条全自动的 ci 或 cd 流水线,录入就翻译,往 raw 文件夹里扔一篇新文档, agent 会自动帮你提炼重点,重构十几个相关的 wiki 页面。把双向链接全打理好,发现跟以前记的内容打架了,直接给你抛个 warning, 给知识库做 link, 定期跑脚本检查,把死链接清了没写完的概念,补上过时的 api, 打个 as deprecate 的 标签。这不就跟 ci 跑单元测试一个意思吗?提问就沉淀你跟 ai 聊出来的高质量 markdown 对 比表,它会自动帮你 commit 归档回 wiki 里查询,不仅是 read, 也变成了 write。 你的知识库越用越厚,那这套玩法为啥现在才行?以前的模型根本扛不住跨文件同步修改这种需要长线记忆的重构任务,但现在 cloud code 这类终端 agent 已经很成熟了,跨文件重构就是基本操作。 kaopa 自己做了个实验, 在一个大概一百篇来源四十万字的知识库里,连 vector d b 和 reg pipeline 都直接不要了,就让模型自己读目录,顺藤摸瓜找本地文件,结果发现不仅精准,而且整个架构干净的不行。 这套方法其实不麻烦,三步就能跑通。一、前端用 obsidian, 免费,纯本地数据都在你自己硬盘上,心里踏实。二、执行靠 agent 手推 cloud code, 或者用 cursor wind surf 也行,只要能读写本地文件就 ok。 三、用 cloud md 立规矩,再跟目录放个规则文件,告诉 ai raw 文件夹里的东西不准动。 wiki 文件夹里的让你随便折腾。 命名规范是啥? kerpati 在 gist 里分享的,本身就是个 idea, file 设计上就不是让你一行行照着敲代码的,而是让你直接丢给 agent, 让他帮你搭脚手架。现在 github 上各种社区实现也有一堆了,基本开箱即用。 说到底,大模型时代最好的开发者体验 devx 不是 让 ai 替你思考,而是让他帮你把知识底座维护好,你腾出脑子来做真正值钱的判断,别让你好不容易攒下来的 bug 记录和架构复盘发霉了, 找个周末让 agent 跑一遍,把自己的知识库也 compile 起来。大家平时都怎么管技术笔记的?评论区,聊聊你的法子。

最近几天 andrew carpercy 分享的他的个人知识库工作流的帖子爆火。 受到他分享的工作流的启发,最近几天 github 上有很多开源的知识库项目诞生,今天就为大家介绍并且演示一款最具代表性,而且真的能提升生产力的知识图谱项目 graphify, 它的产品定位就是 ai 编程助手的 skill, 而且我们可以在 cloud code codex, open code 甚至 open cloud 中来使用 graphify。 graphify 这个项目基本可以看作是对 andrew capacity 它分享的知识库工作流的一个产品化、图谱化的实现。 capacity 它的铁子核心是把原始材料都放进 raw 文件夹, 用大模型持续把它们翻译成可维护的知识库,而 graphify 则是把 raw 文件夹直接翻译成知识图谱。而且我已经在 opencloud 还有 cloud code 中来测试了这个项目,测试的效果还是非常理想的。本期视频就为大家深度讲解并且测试 graphify 这个项目。 在演示之前,我们可以先详细看一下这个项目它的优势有哪些,以及它是如何将 corpus 的 工作流变成了知识图谱的。 首先我们先看一下 graphify 它的架构全景,它会将任何语料包括代码、文档、论文、图片转化为持久化,可查询带审计轨迹的知识图谱。 这里我们看到的就是我用我的开源项目,在 cloud code 中用 graphify 将它转化为了这些知识图谱,而且我们可以详细查看这些代码之间的关系。 然后我们看一下它的架构,它的架构包括输入层,还有核心处理层,还有分析层以及输出层,还包含基础设施层,在输入层包含文件检测, url 摄入,还有羽翼缓存。 在核心处理层包括 a s t。 结构提取,它能对代码文件进行确定性的 a s t 解析,在这一步是不需要大模型调用的,所以就不消耗 token。 然后就是羽翼提取,它支持文档、论文、图片,通过 cloud 并行,此代理提取实体和关系。 然后就是图谱的构建,它能合并 a s t, 还有羽翼提取结果分析层,包括社区发现,还有结构分析以及 token 精准测试。 然后就是输出层,它能输出审计报告,而且支持多格式导出,还能实现 vk 生成。然后我们再看一下它是如何从 android capacity 分享的知识库工作流中实现了工程化与图谱化的引进。 我们看一下这两个流程对比,左侧是 capacity, 它的流程,右侧就是 graphify, 它实现的这个流程首先是原始数据收集, carpathic 的 思路是将文章、论文、代码、仓库、数据集、图像等全部放入 raw 文件夹。然后 graphfile 它是自动检测,还有 url 摄入,包括地归扫描、目录,自动分类十三种代码,还有文档、论文、图像等。然后 carpathic, 它是通过大模型来编辑 wiki, 翻译成结构化的 markdown wiki 包括摘要、反向链接、概念分类、文章转写等,用大模型来维护所有 wiki 数据。而 graphite 它是通过知识图谱来构建,它会构建成 network x 图谱 corpus, 它的查询是通过大模型自动维护所有文件和摘要 输出, markdown, 换灯片等内容。而 graphify 它是实现了图便利查询,所以使用 graphify 能够实现从 wiki 到图谱的三个飞跃,能从扁平 wiki 到关系图谱, 从大模型缩影到 a s t, 还有羽翼双通道,从人工维护到算法发现。好,下面我们就可以看一下为什么我们要在 cloud code 或者 codex 或者 opencloud 中来使用这个项目。首先 cloud code 它自带记忆系统, 但 cloud code 自带的记忆系统是一个限性文件驱动的对话记忆系统,而 graphfile 它是结构化的知识图谱引擎, 使用 graphfile 就 可以为 cloud code 注入持久化的知识图谱能力,让 cloud code 从传统的 glob 还有 graph, 如文件搜索进化到按照图谱驱动的结构进行导航。 像这样的话就能大幅度提升 cloud code 或者 codex 它们的代码理解能力,而且还能大幅度节省 token。 使用这个项目就可以快速上手陌生代码库,从而将代码库来生成知识突破, 而且还能实现精准回答框架问题,还能发现隐藏藕合,还能实现跨模态混合语料理解。我们可以将代码设计文档、相关论文全部纳入到同一张图谱中,像这样的话,我们就可以快速上手新项目,还能精准实现问题定位,甚至还能发现我们所不知道的事情, 而且还能实现可量化输出,还能实现工作区变更后,知识库能够同步更新为 cloud code 集成 graph 后,就相当于在 cloud code 的 记忆层之上叠加了一个结构化认知层, cloud code 从直文件阅读到文本回忆,进化成了图谱导航。还有关系推理 好,下面为大家实测 graphify 它的效果。首先我们可以为我们的 cloud code 或者 open cloud 或者 codex 来安装这个项目,在 read 命令这里已经给出了这条命令,我们只需要复制命令,然后打开终端命令行, windows 用户打开 cmd 直接执行这条命令就可以。 然后大家如果不想手动安装的话,也可以直接打开 cloud code 或者是 codex, 让 cloud code 或者 codex 帮我们安装。我们只需要复制这个仓库链接,然后回到 cloud code 或者 codex, 然后我们只需要输入自然语言,让它为我们安装并且配置这个项目,在这里跟上仓库链接就可以。 安装好之后,下面我们就可以来测试 graphify 它的效果,然后我可以从我的 github 来找一个项目进行测试,然后我就用 memoryless db pro 这款为 opencloud 开发的记忆插件进行测试,直接将这个项目克隆到本地,然后我们回到中端命令行,用 cd 命令进入到这个项目路径, 然后启动 cloud code。 在 cloud code 中我们就可以直接用斜杠命令加 graphify, 然后再加一个点号,这就相当于在当前的根路径,然后我们直接运行这条命令, graphify 就 会从我们这个项目的根路径开始来扫描所有的文件,还有所有目录下的这些文件。 像这样的话,它就会按照下面的流程去执行,包括文件检测与分类,然后 a s t 结构提取,羽翼提取,还有合并 a s t, 还有羽翼社区检测与分析,然后社区标签命名可示化生成,精准测试与清理。 在这里我们可以看到 agent 正在执行羽翼提取,因为目前我们这个项目的代码量已经非常庞大了,所以在这里它运行的速度要慢一些,这里我们要稍等一下, 在等待了几分钟之后,这里运行完成,下面我们可以查看一下它生成的这些文件,在这里生成了这个图谱文件,我们可以点开查看一下这里在浏览器中自动打开了这个项目的这些图谱,然后我们可以找一个节点,这里就是我们这个记忆项目的它的 index 文件, 然后我们可以详细地查看它们之间的这些关系。好,下面我们就可以在 cloud code 中来测试一下它对我们这个项目是否有了更深入的理解。 在 cloud code 中我们还是使用斜杠命令加 graphfile, 然后我们这里输入 query, 也就是进行查询,我输入的查询内容是 b m 二五的代码在哪个文件,我们直接发送 这里,他很快就查询到了 bm 二五的代码分布在两个文件夹中,包括这一个文件,还有这一个文件,而且他还详细给出了代码的行号还有作用。然后这里他问我们是否想深入某个方法的具体实线,然后我们就可以测试一下这个方法,直接输入这个方法名 好,这里他提到这个方法是一个十二阶段的评分管道,然后这里给出了这一些关键设计点, 然后我们还可以在我们这个项目的代码库上继续去测试,可以让 graphify 解释一下我们这个项目中智能提取是如何实现的。 我们回到 cloud code, 然后输入替式词,这里是 graphify 命令,在参数这里是 explain, 让它来解释解释这个智能提取是如何实现的。我们直接发送 这里,他开始输出这个解释,这里画出了完整的这个流程图,而且还给出了关键设计决策,包括这六种记忆,还有两阶段去重复。然后紧接着他还追问我们是否来看这个评分逻辑,或者看这个 prompt 设计, 然后我们这里就输入看这个评分逻辑这里他给出了这个评分逻辑,包括核心公式, 可以看到它给出的解释非常详细。在这里还给出了流程图,然后我们可以继续测试查询,我这里还是用 graphfile 这个斜杠命令,要查询的内容就是问它 geminiambani 这个模型是多少维,我们看一下它能否从代码中准确查询。 好,这里精准查找到了 geminiambani 这个模型,它是三零七二维,这里还给出了具体的代码。 下面我们还可以继续测试,我们可以找一个 pr, 然后让它合并到我们本地的这个项目中,然后用 graphify 这里给出的更新命令来测试下在我们当前代码库上新增了内容之后更新的效果。 我们就找这个 pr, 然后我们就复制这个 pr 回到 cloud code, 我 输入的提示词就是将当前 pr 合并到我们本地项目中,然后直接发送,让 cloud code 自动将这个 pr 合并到在本地分析的这个项目中。 好,这里已经完成合并,而且测试全部通过,下面我们就可以用 graphify 它提供的这个更新命令测试一下。我们回到 cloud code 这里,直接输入斜杠命令,加 graphify, 再加这个点号,然后再加上 update, 直接运行,让它针对我们刚才从 pr 中和编的代码进行更新。好,这里提示图谱已经更新,而且这个 pr 的 改动已经反映在图谱中。然后我们可以测试一下,然后我们还是输入斜杠命令,这里我输入 explain, 让 cloud code 来解释这个实线逻辑。 好,这里输出了这个具体实现逻辑,这里还给出了对比表格,这里给出了修复后达到的效果。然后我们还可以继续问这个 pr 的 价值。 好,这里是他对这个 pr 的 价值分析,他说这二十七行代码修复了一个数据泄露和一个永久故障。可以看到我们使用 graphify, 让他分析我们的代码库,以及分析 pr, 这个效果还是非常不错的。 然后我们还可以测试一下,让它来新增论文。我这里从 archive 搜索一篇 a m a c 相关的论文,然后我们进入这个 archive。 好, 这里就是与 agent 记忆相关的这个论文。然后我们直接复制这个论文链接。我们回到 cloud code, 然后输入 graph 命令加 add, 然后再跟上刚才复制的论文链接。我们直接运行, 看一下它能否将这篇与 agent 记忆相关的论文增加到这些图谱中,因为这个记忆的论文这里包含这个 a m a c, 而且我在之前也为这个项目加入了 a m a c 相关的这些功能。 好,这里它已经完成,而且这里还给出了论文中提到的五个因子,与本项目的实线完全对应,这里是论文中的,这里是权重,而且这里还给出了关键发现, 包括最有影响力的因子与代码完全吻合。然后这里我们还可以用这条命令来追踪论文节点和代码实现之间的图谱路径。我们就直接输入 printf 命令,加上 pass 让它追踪论文节点和代码实现之间的图谱路径。好,这里开始输出图谱路径, 这里还给出了具体分析。下面我们还可以测试一下 graphify 它的其它命令,比如说我们测试一下让它生成 obsidian 的 库,我们就用这条命令进行测试。然后回到 cloud code, 我 们直接输入这条命令, 这里生成。完成,这里还给出了文件结构。下面我们就在 obsidian 中打开查看一下效果好,打开之后我们就可以在 obsidian 中进行查看,可以看到这个效果还是非常不错的, 我们可以直接点击,在这里我们就可以具体来查看这一些内容。像这样的话,我们就实现了用 graphify 导入到 obsidian 中进行查看和管理, 而且它还支持非常多的命令。但是由于时间有限,本期视频就先为大家演示这些。通过我们的测试可以发现这个项目效果确实非常不错, 使用这个项目可以让我们快速上手各种陌生的大型代码库,并且实现对代码的精准分析,而且还能实现对比代码与论文。好,本期视频就做到这里,欢迎大家点赞关注和转发,谢谢大家观看。

最近 karpathy 提到,他花在 l l m 上的 token 越来越少,是在操控代码,更多是在操控知识。这份二零二六年四月四日发布的 just l m wiki, 讲的就是这件事背后的完整方法。如果你每次提问都让模型重新去文档堆里找答案,那知识其实没有真正积累下来。 karpathy 先点破了大多数人现在的用法。我们把一堆文件丢给叉 g p t no、 波卡 lamb 或各种 r a g 系统,然后在提问时让模型去检测、拼接、回答。这样当然能工作,但它有一个根本问题,每次问题一变,模型都得重新发现一次知识,尤其是那种需要综合多篇资料、多个概念和前后矛盾信息的细问题。模型每问一次就要再拼一次, 答案可以出现,知识却没有沉淀。这篇文章真正要讲的,不是怎么把 r a g。 做得更强,而是换一套思路,在原始资料和日常提问之间插入一层 u l m 持续维护的 wiki。 新资料进来时,模型不是只做缩影,而是会读它,提炼它 关键信息,并入现有知识结构,更新实体页、主题页、摘要页,也标记新旧说法之间的冲突。知识不是每次查询时限拼, 而是先被翻译成一个持续增长的中间产物。文章把结构压得很清楚,核心只有三层,第一层是 raw source, 也就是原始资料库,文章、论文、图片、数据文件都放这里, 而且保持不可修改,它是事实来源。第二层是 wiki u l m 生成并维护的 markdown 页面,占用实体页、概念页、比较页都在这里。第三层是 schema, 也就是一份写给 l m 的 规则文件,比如 agent md 或 cloud md, 告诉模型这个 wiki 怎么组织,更新时遵守什么约定,回答问题是按什么流程来。原始资料是事实, wiki 是 工作记忆, schema 是 维护手册。这套系统最关键的日常操作不是问问题, 而是 ingest。 也就是你丢进一份新资料之后, lm 先读原文件,再和你讨论重点,接着生成摘要页,更新缩影,修改相关实体和概念页面, 最后把这次操作记进日记。 carpa 一 说,一份资料常常会同时改动十几页。 wiki 这里最重要的不是自动化本身,而是这种自动化会把一次阅读变成一组长期可附用的结构,更新你读过的东西,不会只留在聊天窗口里,等 wiki 长起来以后,查询方式也会变。 alan 不 再直接对着原始资料堆作答,而是先看 wiki 里的相关页面,再做综合回答和引用。更关键的是,这些回答本身还能继续写回 wiki。 比如你问了一次比较,分析一次关系,梳理一次结论页,这些都不该像普通对话那样消失,而应该变成新的知识页面。与此同时, carpos 还专门强调 link, 也就是让 l l m 定期给 wiki 做健康检查,找矛盾、找过时结论、找孤而业,找缺失链接、找数据空缺。为了让这件事更稳定,他还建议至少保留 index md 和 log md 两个特殊文件。前者告诉模型知识都在哪儿, 后者告诉模型最近发生了什么。这篇文章最后落下来的判断很硬,人类并不是不会搭知识库,人类只是很难长期维护知识库。最烦的从来不是阅读和思考,而是更新、交叉引用、修正摘要、处理冲突、补链接、记日记 这些机械维护工作一多,知识库就会烂尾。 carabec 认为, lm 第一次让这件事变得现实,是因为它可以稳定地承担这层疏利工作人的任务,重新回到选资料、替问题做判断。 l m 的 任务则是持续整理、连接和维护。 karpa c 刻意举了很多场景,说明这不是学术研究专用套路。你可以拿它整理个人目标、健康记录和日记,可以用它持续研究一个主题、可以边读小说边生成角色、地点和线索的 companion wiki, 也可以在团队里把 slack 会议记到项目文档和客户通话,沉淀成一个会持续更新的内部知识系统。它适合的不是某个垂直行业,而是任何知识会越积越多,但人脑和聊天记录装不下的场景。从公开讨论看,这套方法已经不只是 carabity 的 一个灵感。文件 社区里已经有人用 obsidian 加 agent 的 方式,把 pdf 网页简藏、录音、转写,持续翻译成结构化 wiki, 也有人把日记、笔记和消息记录翻译成个人百科,让 agent 更好理解自己的偏好和历史。这里最值得注意的不是某个案例规模有多大, 而是它们都在重复同一件事。不是把资料堆给模型临时回答,而是先把资料变成一个可维护、可链接、可持续更新的中间层。这篇 just 也给了不少实用建议,但 carposy 明确说,这些都不是硬依赖。比如你可以用 obsidian web clipper 把网页转成 markdown, 用固定附件目录把图片下载到本地,让模型分别读取文本和图片。可以用 graph view 看知识网络的连接结构。可以用 mark 从 wiki 内容生成演示稿。 可以用 data view 根据 friendmaker 生成动态列表。也可以在规模变大后加一个本地搜索工具,比如 qmd。 但这些建议的核心不是某个具体软件,而是让知识以文件形式长期存在,可被版本控制,可被工具处理。 所以这篇文章最值得记住的不是某个县城工具清单,也不是 r a g 已死这种情绪化结论,而是另一层更稳的判断, 当 l m 能持续维护一个文件化结构化可追踪的 wiki 时,这是第一次真的有机会像代码库一样复利。与 此同时, carpa c 也刻意留了边界,这不是固定产品说明书,而是一种模式。目录怎么分规则,要不要处理图片,要不要生成演事业,都应该按你的领域和习惯来定。

每次关掉 ai 对 话框,你的 ai 就 失忆了。存在云端的知识库也存在不确定性。最近, ai 大 神 carpusy 提出了一个引发全网轰动的 l l m wiki 工作流,他一针见血地指出,别再搞臃肿的 r a g。 解锁增强生成了。 对于个人知识库, ai 不 该是个临时抱佛脚的搜索器,而应该是一个全职的图书管理员。这套系统的核心哲学叫 file over app, 所有数据都是全本地的,纯文本 markdown, 没有平台锁定,没有 s s 绑架,今天用 cloud, 明天换 g p t。 流水的 ai, 铁打的本地文件,它的杀手锏是解决 ai 的 赛博失忆症。 carpos 设定了一条铁律,强制写回 你和 ai 讨论出的任何灵感, ai 必须立刻写进本地文件里。知识不再是月后集坟的废话,而是不断复利的资产。 那么怎么抄作业?你需要三件套,一、 obsidian 作为文件查看器和图谱可识画工具。二、 webclipper 插件,一键无脑抓取网页。三、 ai 代理,比如终端里的 cloud code 或 cursor。 接下来是文件结构。你的目录严格分为两个区,一个是 raw 原始数据区,简藏的网页碎片灵感无脑往里扔。另一个是 wiki 知识翻译区,这里是神圣的净土。运行闭环非常简单, 你在跟目录放一个系统提示词。文件赋予 ai 知识库维护者的身份,你只需下令阅读 raw 里的新文章,提取核心观点。赋予 ai 知识库维护者的身份,你只需下令阅读 raw 里的新闻页面,并做好双向链接。 更爽的是,你可以像给代码跑测试一样,让 ai 定期给你的知识库做体检,清理死链,统一格式,甚至自动联网,补全缺失信息。 ai 会在后台把一切打理得井井有条。 最后, carpass 一 描绘了一个终极蓝图,从 wiki 到权重。当你的本地 markdown 积累的足够完美,它就是最高质量的训练数据。你可以用它微调一个专属的本地大模型, 你的毕生所学将彻底长进他的神经网络里,不做 r a g 的 奴隶,做知识库的主人。 carpsey 的 配套提示词文档我已经放在了视频下方,如果这期视频对你有启发,别忘了点赞关注,在评论区告诉我,你准备用这套方法整理什么知识,我们下期见!


哈喽,大家好呀。嗯,这周呢,我在公众号上刷到了一个一篇文章,就是这位叫卡帕西的大佬,他聊了一下自己的 r m 构建个人知识库的一个方案,感觉挺有启发的, 因为平时在网页端和 gpt 还有一些其他地方和 ai 聊的一些讨论的一些东西呢,有时候感觉收获挺大的,但是呢没有注意留痕,过段时间也就忘了啊,或者是在浏浏览网页时呢,看到一些好的技术文章,也因为感觉麻烦,也懒得进行存储和整理 啊,他这道方案呢就是解决这些问题的。然后,然后呢,我也看到一些必战其他 up 主实现的这套 r m 的 v k 方案,但是总感觉呃不太适合自己,所以说今天自己手搓了一套,也加了一些自己的想法和改进的方案, 把一些关键的流程分装成了呃 skills 和 comments, 这样呢使用起来也更加的高效,然后我整体试用下来的效果还是不错的,所以说想给大家分享一下啊,这是它的原文章,然后原文章我们就不看,我们直接看经过这个系统提炼后的内容 啊,这是它的原文,然后现在在我的 office 店里,然后我们看一下它经过这套系统,它把这这篇文章提取成了哪些页面呢?首先第一个就是它对它的一些总结, 然后我们来看一下这个总结里介绍了它的三层架构和三个核心操作。你先看一下架构,它有三层,第一层呢是原始资源层, 它存的都是一些你从网上搜集过来,或者是你自己导入了一些不可一些原文档的呃资料素材,然后呢大有缘模型对它呢只有只读的一个权限,它不能对它进行一个编辑修改。然后第二层呢是 vk 层, 就是大圆模型生成的结构化的 markdown 文档,由大 u l m 呢全权维护。呃。第三层呢是模式层,就是存的一些,就是一些配置文件,比如说 cloud 用的 cloud 点 m d, 口袋用的 agent 点 m d, 然后也定义一些呃 vk 的 结构和工作流, 然后对应的三个三种操作呢?第一个操作是 ingest, 其实这个操作有两层含义,第一层,第一层含义呢,代表你添加新来源,就是说你从网上搜集素材这个过程放到这个原始资源层。 然后第二层含义呢代表就是 r m 从原始资源层提取关键信息,整合进现有的 vk。 呃,然后它整合出的结果呢,可能有多个,然后比如说这个是它总结的一个总结,然后呢其他还有比如说这个在 atis 里还有两个文件,一个是呃对它作者的介绍,一个是它呃对比的另一个知识管理系统的一个介绍。 然后呢还有一个关键是概念,然后它总结了两个概念,第一个概念就是也是针对这套 mm vik 的 模式的一个介绍。 然后第二个概念呢是传统的呃 ig 的 方式和这个和它这种 r m v k 的 一个对比,然后有优点和缺点的一个对比和区别的一个介绍, 然后这个文件呢?呃不是它总结出来的,然后我们后面再说,然后它提到它的三种操作。之后还有第二种是查询 query, 就是你问他的时候,问他一些问题的时候,他会综合这些呃智存的 vk 去回答,如果有好的回答呢,他会回填到新的页面,比如说我刚刚说的这个界面,其实就是我问他,你认为,呃,你这套系统和现有的 lg 系统有什么优势, 优势和劣势吗?然后他就是对他的一些优势和劣势进行一个表述 啊,是,这是他这套系统的一个架构和操作流程,然后呢我没有全全部照搬,然后呢我对他进行了一些自己的改造,然后接下来介绍一下我这套系统的一个操作流程。 呃,这个是我项目的 github 地址,我也会放到评论区,然后它的使用也非常简单。呃,这有一个快速开始的一个介绍,但是在使用前呢,你需要安装几个软件?第一个呢就是 office 点这个呃知识库的管理系统, 然后第二个就是你要安装一个 code 编辑,然后可以是 codex, 然后这个视频呢是用 codex 进行演示的。然后第三个呢,你需要安装一个 office 点的 web cleeper, 一个浏览器扩展, 他的安装呢也非常简单,就是在这个呃浏览这个扩展商店里搜一下,然后就叫这个名字,然后直接安装就可以了。 然后安装之后,安装完成之后,这里有一个图标,然后我们点进去,然后这边有个设置,然后可以把它调成中文的,这样就可以了。 然后还有几个插件, office 的 插件需要安装,然后这些插件我也列在了这里。首先第一个呢,如果你使用的是 cloud 呢,你就得安装这个 cloud 点这个插件, 然后其他的插件呢,都是一些非常基础的插件,如果你是一个 office 的 长期使用者,这些插件基本上你都默认默认会安装的。 好,现在我们来做一下实操。首先呢我们把这个项目克隆到本地啊,我这里已经有了。然后呢我们去 office 店里新建一个仓库, 这里点管理仓库有一个创建,然后我们叫做 excel, 我 选一下它的位置,这里我已经选好了,然后点创建, 呃,我们可以把一些我们已经使用的一些呃插件呢直接迁移过去,比如说这是我之前的仓库,然后里面有一个 office 键的一个配种文件,然后我们把它直接移过去,进行一个替换, 可以先把它关掉,然后欢迎也删了,然后回到我们的这个 github 的 项目,就是如果正常来说我们都是,我们是使用中文的嘛,然后如果你使用的是 cloud 的 话,你直接把这三个文件呃复制过来就可以了 啊,这样的话,呃,我们再重新打开一下这个仓库,直接信任,这样的话它的插件也会自动安装过来,就是说比如我们刚刚说的 cloud 点也会自动安装过来。 呃,然后我们介绍一下这个项目的结构啊,首先我们呃通过一个 web code 再打开,因为 office 里只会显示一些呃 md 文件,然后我们看一下 这个目录的结构,是这样的,首先呢它有一个 cloud 在 这里面呢,还有一个 cloud 和一个 agents 的 文件。 呃,主要也是我们刚刚说的,它是属于模式层的文件。呃, cloud 是 给 cloud 用的 agent 点 md 呢,是给口袋子用的。然后它里面分为两个层,一个是肉层,一个是 vk 层, 我们我进行的改进呢,就是说我们这肉层呢,我们分为了三块,首先第一个是 processed 层, processed, 第二个是 enprocessed, 就是 说我们从网上搜集过来的一些内容呢,是直接先放到这个 enprocess 里面的,就说它是一个未处理过的。 呃呃,我们直接来演示一下吧,然后这里有三篇我已经提前找好的文章 用来测试,然后我们通过 office 点进行一个添加,然后这里有有一个添加的目录,这个目录是可以提前设置的,也是在 office 点的插件里, 就是在这个呃 default 里,然后这里面有一个笔记位置,然后我们直接可以填好是我们的 on process 的, 然后在 raw raw 目录下的,我们可以把这文章加进去添加添加, 我们加了三天,然后看这里面已经有了,然后我们的 vs code 里也有,也也是一样的, 这些素材到完 process 里面之后呢,我们可以看一下啊,这里面下面还有两个 index 和这个 readme 文档,这个属于也属于模式层的一部分吧,它记录了一些呃所有的维护, 然后接下来我们就开始进入了这个 index 的 第二部分,就是说从肉层提取知识到 vk 层,然后这个过程呢,我封装成了 skills 啊,也是一个直接可以使用的命令,然后对应的 cloud 呢是这个命令呢,是放在 comment comments 里面,然后 code 呢的话,它是放在 skills 下面的,其实都是都可以使用的。然后现在我们回到这个, 呃,回到 office 点,然后我们这在这里面呢,我们可以直接可以使用这个命令 insert, 你 在 throw, 这是我的第一个命令,然后我们进行一个等待, 嗯,大概用了七分半的时间呢,他完成了这个文件的处理,我们来看一下他的过程啊。首先如果用户没有指定读取哪些文件的时候,他会自动进行全部读取,然后做分类, 可以看一下他,呃,自己做这个分类,他发现这三篇素材的关系不大,所以说他决定单篇处理, 如果你想批量处理的话,你可以直接指定让他读取哪些文章进行处理就可以了。然后这是他的一个默认的一个分组读取的一个策略。然后大家有兴趣可以看一下这个提示词里面这些。呃约束是怎么写的?呃,比如说,哎,读取顺序,对,是这样,对, 好,我们回到刚刚的这个界面啊,它都取完之后做了几个处理,然后它新增了五个页面。这个时候呢,这些这个 raw 文件呢,进入了一个中间态,叫编辑 review。 这个状态呢,也是我事先定义好的,它写在了这个模式层里面。 它在这个状态之后需要进行一个呃人工的一个 review, 就是 我需要看一下它生成这些东西是不是符合我预期的, 如果不符合预期的话,我可以直接在这个写提示词,告诉他啊,我你生成内容我不满意,请进一个回滚,然后回滚完之后你再进行这个 index。 呃, row 的 时候,你可以加一些你自己的提示词,然后你自己对他的一些呃期望和建议,这样的话他可能会进行一些改正和修正。 然后,呃,进行完这一步,如果我们 review 完这些内容之后发现没有问题,符合预期,我们就进行一个 approve index 一个命令的输入,这个命令的意思就是 呃,就是确认,呃就是呃确认无物,呃它可以,它会就会把这些文档正式地从这个按 process 的 文件夹里迁移到这个 process 里面,然后并更新所有文件的呃,这个呃路径的引用, 然后他也会自己检查一下路径的引用是否进行,是否是正确的,然后这时候他还告诉你队列中还有两篇未处理素材,如果我们想继续处理的话,就直接再进行引引在 start 就 可以了,这样的话进行一个就是一个我们的说到提取的一个过程, 嗯,然后花点时间呢,我们把后面两台素材也进行了一个引用,可以看到我这里面是指定了剩余两篇素材,然后它处理的过程呢?是这样的 啊,它批次是两篇,然后用户指名它就会一起进行处理,然后它创建了这些界面, 然后处理完成之后呢产生了这些页面,也是五篇,然后这时候进行了一个待确认状态,就也刚刚说到编辑 review, 然后我这里看完之后呢,我也进行了一个 approve ingest, 就是 进行确认迁移, 然后它进行一个迁移,并且更新缩影可以。然后我们现在看一下它之后的状态是什么样的呢?就是它产生了这 sauce 里面有三篇,然后它们都是一个简对这个文章的一个总结和概括, 然后 intance, intance 里面有产生了四个这个实体概念,这其实这三篇文章主要讲的什么呢?主要讲的呃就是 clove 四点六模型呢?就是 opu 四点六模型呢?对这个发现漏洞,解决漏洞能力 呃提升了很多,就是它解决了很多问题,但是呢它下一代的模型叫 mesos, mesos pro will, 这个模型呢就太强大了, 他解决了很多,能发现很多这个系,世界上系统就是从来没有发现的领域漏洞,这个问题就很严重。如果就是把这个模型发布的话, 就是可能有一些不法分子呢,会利用这个东西去发现漏洞去进行攻击,所以说,呃,这个 s r p k 公司呢?就决定,呃暂时不发布这个模型,先解决安全的问题,这主要讲的这几个事,然后他也总结概念,呃,这个是 啊,大模大语言模型漏洞发现这是刚刚处理过的,我刚才看过了, 然后我们看一下下几个工,下面几个功能啊,就是刚才还有个说功能就是 quarry, 然后我也进行了一个调用,就是 quarry vik, 就是 我问了他一个问题,就是如何才能解决不法分子利用大模型发现有系统漏洞,有系统的漏洞进行攻击的问题呢? 然后他会总结和这些素材,和这个我的 vk 进行一个回答,然后他会说威胁有多严重,然后具体的防御策略, 然后长期的战略, 其实他回答的很长,你也可以告诉他,你可以回答的简短一点,这这都不是问题。 然后我问了他第二问题,就是埃塞雷克将重心啊打错了,重心放在解决安全问题上,是否有利于我们国内模型在性能上进行追赶?这个是不是给了我们一个时间窗口?整体来说对国内大模型的发展是好还是坏呢?啊?我又问了一下他一个这个问题, 他在分析前会先确认几个事实, 然后然后他也是分类讨论,就是短期窗口,短期的时间他认为是对我们的一个优势,就是他 s r vick 将大量的资源投入了这个防御项目,这个叫玻璃之翼的一个项目, 然后还有安全保障措施的开发,这些工作虽然重要,但不直接提升模型的通用能力,所以说短期来说对国内是个利好,但是长期呢,其实是个利空。 可以看到他一个总结,就是短期对国内模型对国内的模型是个利好。窗口中期呢是双刃剑,然后长期呢?嗯,不太确定。如果国内模型只追求性能而不建立安全体系,可能会被排除在全球高端市场之外。 其实这确实也是一个非常现实的一个问题,那如果国内模型建立了同等水平的安全框架和负责任的发布机制,那可以和 i c o v g 在 国际上正面竞争。然后关键的变化就是 安全能力本身是否可以构成互适合,互成合还是可以被快速复制的,就说他们做出来之后我们直接超过来,这也是一个怎么说呢?也是一个弯道超车,也是我们一个比较擅长的一个解决问题的方式吧。 然后我们说到的最后一个命令就是这个 infopro, 这个命令就是做一个知识的一个沉淀和一个对话的沉淀, 就是他会把,呃,就他,他也说了,就是我会把之前两轮的 quora wiki 产生的高价值分析沉淀到这个 wiki 的 这个这个文件夹里, 然后再确认当前的 v v k 状态,然后它在这里面创建了两个页面。第一个就是我刚刚说的对 s o v k 安全优先策略,对国内大模型的长期的发展的影响啊,它也是和我们刚才说的那个东西聊得差不多。 然后就是安全防御的策略,就是也是短期的行动,还有长期的行动。 所以说这就是我刚刚说的,就是如果我们在网上看到一些有价值的文章,就是我们不好存储和留痕的话,其实这就是一个很好的方式。 然后在最后之后我会给大家进行一个 link week, 这就是我们说的健康检查,就是我们可以让它再看一下这些内容里面的链接是否就是正确的缩影,就正确的缩影到了。 哦,我们可以看一下,这个主要是生成关系图不用的,但是这个东西怎么说来说呢?它用处感觉不是很大,如果内容非常多的话,其实它,呃用处不是很大,就非常混乱,其实我是不怎么用的。 嗯,还有一个就是这个 linter week, 也是对一个锁影的一个重构检查,主要是这地方的锁影对它哪些东西,哦,不是,呃,这里对已经处理的素材 排位处理,是这些都会做一个维护和监控,然后还有一个 log, 就 说每你每做一些内容,每做一次就是操作,它也会记录一个日制,这个日制也是一个很好的一个回溯和就是留痕的一个方式嘛。 这个日制我还没有做规档的功能,就是如果他日制很长的话,其实可以做一个规档的功能,这个后面可以考虑一下,所以成一个呃 skill。 然后我们还想我还想说一点,就是 这五个功能,这五 sksk skills 呢,我已经封装好了,大家可以看一下它的提示词,然后在这个,呃,在我准备的这个配轴键当中就是点可拉的和点扩展的当中呢,我还放入了这个 官方推荐安装的几个,五个,呃,五个技能就是这几个,这几个是官方推荐的,就是 o c 店官方推荐的,我觉得还是很有很有必要安装的,它可以提高你的 o c 店处理新车的能力。 好,以上就是这些就是我介绍的内容,大家有兴趣可以试一下,如果觉得可以的话,觉得挺好用的话,可以在 github 上给我点一下 star, 谢谢啊,谢谢大家。

哈喽,朋友们晚上好! android compass 这位特斯拉的前 ai 总监, open ai 的 创始人,外部抠领这个词的发明者,最近发了一条推文,有一千五百万人看了。他说了一件事,说他现在的投款消耗大部分不是在写代码,而 是在做管理知识。他把论文、文章、代码仓库全部丢给了 ai, 让 ai 帮他翻译成一个 markdown 知识库。 这个知乎有多大呢?有一百多篇文章,四十多万字,它几乎不手动编辑任何一个字,全部由 ai 企业、 ai 维护, ai 查询。今天我就来拆解一下它的完整工作流,以及为什么。我觉得这可能是 ai 时代 笔记和知识管理的新范式。卡巴塞的做法其实思路很简单,分四步,第一步,收集原始资料。它不感兴趣的论文文章用 obsidian web cleeper 一 键裁剪成 macdunk 图片下载到本地。第二步,让 ai 编辑成 wiki。 这是最核心的一步,它用 lm 把 raw 文件夹里的所有原始资料自动编辑成一个结构化的 wiki。 这 就是一堆 markdown 文件,有目录,有分类,有互相链接, ai 会自动写摘样,提取概念,给文章建双向链接。注意,这里的关键词编辑不是让 ai 搜索,不是让 ai 问答,而是让 ai 把零散的资料加工成一个有结构的知识体系。第三步,用 ai 查询数据库。 当 wiki 积累到四十万字的时候,你就可以问 ai 各种复杂的问题,他会去翻 wiki, 交叉引用做研究,然后给你答案。卡帕塞说,他本来以为需要本地的 r a g 这种复杂的技术,但实际上 ai 自己维好所有文件和摘药,在这个规模下就够用了。第四步是输出结果,反补知识点库。 他让 ai 把查询结果生成 markdown 文件换成篇图表,然后再存回 viki 里。你的每一次提问和探索,都让知识库变得更加丰富。知识不是消耗品,而是滚雪球。 你可能觉得这不就是用 ai 整理笔记吗?我觉得不是。这里有三个根本性的变化。第一,人和知识库的关系反转了。传统做法是你手写笔记,你组织结构,你打标签。现在是 ai 写, ai 组织, ai 维护, 你的决策从作者变成了测展人,你只负责决定什么值得收集,怎么组织 ai 来。卡巴塞的原话说的是,你几乎不手动编辑 bk, 那 是 ai 的 地盘。第二,知识管理从存储变成了编议。 以前我们用 notion obsidian 存笔记,核心是存,但卡巴塞的做法是编议把原始资料加工成一个可查询、有结构、自带所有的知识系统,存储是死的,编议是活的。 第三,查询的结果会回流到知识库里面。这是一个很巧妙的地方,你问了一个问题, ai 的 回答变成了一篇新的 viki 文章。你的好奇心和探索本身就在扩展知识库,每问一次,知识库就更强一分,这是一个自增强的飞轮, ok, 你 不需要是卡 pass 才能怎么改。 它的工具站其实很平民, open c d n 当前端看 wiki、 看资料、看生成的图标和缓存片,是免费的 cloud code 和任何的 a i a 站点的后端负责编议、维护和查询。 markdown 当数据格式, 不是什么数据库,就是纯的文本文件,你完全可以从一个小的主题开始。比如你最近在研究如何做短视频,把看过的好文章、教程、笔记全部揉进 new 文件,然后让 ai 编辑成一个 wiki, 积累到一定数量之后,你就有一个属于你自己的、能问答的知识库。核心不是工具,是思路的转变。别自己写笔记了,让 ai 替你写,你的工作室决定读什么问什么。卡巴斯基推文最后说了一句,他觉得这里可以诞生一个不可思议的新产品。 我同意现在的 obsidian notion 还都是基于人手动去写的设计,但如果知识库是 ai 写的, ai 维护的,那笔记软件的产品形态就需要彻底的重新设计。有意思的是, obsidian 创始人 capanel 也转发了这条推文,说给 ai 一个专属的 sun what, 保持你自己的 what, 赶紧可以看出他们已经在思考这个方向。 web coding 之后,可能下一个是 web knowledge, 不是你管理知识,而是 ai 替你管理知识,你只管探索。 ok, 咱们来总结,从 web coding 到 l m 知识库, kapi 的 核心哲学始终没有变,把重复的、结构化的工作交给 ai, 人只管做决策和探索。 想事实的话,今天就建一个文件夹,丢几篇文章进去,让 ai 帮你翻译,你会发现知识管理的体验会完全不一样了。这是刘同学,如果你喜欢我的视频,记得双击关注,下期再见!

用 capacity 的 知识库管理思路,搭建一个产品经理的全工作流程 skill。 这几天晚上,我认真把一个问题重新想了一遍,一个真正面向产品经理的 skill, 到底应该长什么样?市面上很多给产品经理的 ai 工具,最后大多停在两类能力里, 帮你写文档,或者陪你聊想法。但产品经理的工作从来不是单点的,你要理解业务跟踪、竞品写需求处理反馈、看指标、推进项目准备发版同步,老板出了问题还要复盘事故。如果 ai 每次都只是在聊天框里临时发挥一下,聊完就结束,前面的上下文不沉淀, 后面的工作也接不上,那它本质上还是一次性工具。所以这次我想做的不是一个产品经理万能提示词,而是一套真正贴着产品经理完整工作流程去设计的技能系统。它既能帮你处理当下任务,也能把这些工作沉淀成一个长期可维护、可附用、可积累的系统, 帮你争取繁杂的文档维护时间。这套东西的底层思路,我基本是沿着 carpa 最近那套大模型 wiki 式知识库的方向去搭的。我特别认同它的判断, 很多知识工作不应该每次查询的时候都重新发现一遍,而应该沉淀成一个持续增长、持续维护的 wiki, 放到产品经理身上就更合理了。 因为竞品观察需求版本、项目推进、实验复盘和事故复盘,本来就是长期积累性工作。第一部分,这套技能系统到底是什么?如果用一句话概括,我会这样说, 它是一套基于 markdown 知识库,可以直接配合 obsidian 使用,由智能体持续维护上下文和工作产出的产品经理操作系统。 它不是单个提示词,而是一整套结构,里面拆好了各个工作场景的模块儿、知识库规则、对象、命名方式和工作区结构。你可以直接把这套仓库交给 coldcode、 龙虾、 opencloud 这类智能体环境去跑底层还是 markdown 和文件夹,所以日常使用并不重。第二部分,整个流程怎么跑? 整个技能系统,我把它设计成三个阶段,初步化建党、日常执行系统维护初步化建党是第一步, 我想把 skill 做得尽量通用。如果 agent 不知道你负责什么产品、业务阶段、目标用户、关键竞品和当前重心,那自然干不好活儿。 所以这套系统的第一步不是直接干活,而是先让智能体认识你。在初步化建党里,智能体会要求你录入基础背景,比如行业、产品范围、目标用户、战略、目标、成功指标、关键竞品、常用工具和偏好输出方式。 如果你已经有需求,文档周报、会议纪要、竞品分析,或者自己的知识库也可以直接丢进去,做出式化。最终这一步会沉淀出三类关键资产, 用户、上下文、档案、竞品、全景清单、工作流、激活计划、日常执行就是进入真正的使用阶段。这里最关键的不是你问 ai 答, 而是先识别你当前在处理的对象是什么对象。一旦明确,智能体就会先读上下文,再拉最少必要证据进入对应模块产出结果,最后把结果写回正确的位置。系统维护则负责长期整理, 比如更新用户挂像、扩展竞品覆盖、合并重复页面、拆分过载页面、刷新长期报告、检查矛盾和过时。假设一个真正能长期使用的产品经理技能系统, 不只是会生产内容,还得会维护系统。第三部分,它能帮产品经理干什么?在能力覆盖上,我尽量按产品经理真实工作流去拆。初步建档模块负责上下文件档,让智能体真正进入你的工作现场。 策略与路线图模块负责把目标信号、限制、风险和取舍整理成策略判断。竞品情报模块负责长期跟踪竞品,把截图、更新日期、价格页和观察笔记沉淀成持续维护的竞品工作空间。 需求文档模块负责建立需求基线,记录版本变更、保留决策和时间线。反馈分解模块负责把客服、销售、用户评论和内部意见整理成可判断优先级的结构化信号。指标与实验复盘模块负责更诚实地看数据, 先澄清口径,再区分观察到的变化与可能的解释问题。探索与研究模块负责处理模糊问题,帮助你先把问题问对。 发布准备度模块负责把发版前的风险责任、空档和上线问题摊开讲清楚。干系人沟通模块负责把复杂状态压缩成适合老板和跨团队阅读的同步材料。事故复盘模块负责保留事故时间线、影响范围、根音和修正动作。图示模块则负责把流程状态、依赖关系和时间线 画成真正可读的图。换句话说,我不想让它只会写需求文档,而是希望它能覆盖产品经理日常最核心的几条工作链路。 第四部分,知识怎么维护整个知识系统我拆成了五层, system 是 控制平面、放用户挂像、激活计划、锁引、日制和分类。 raw 是 原始证据层, wiki 是 沉淀认知 层, workspaces 是 日常工作区、 会议记录、代办项目推进、竞品观察反馈、循环指标、复盘发板准备同步沟通、事故处理。这些活的内容都应该先在这里推进,等结论稳定之后,再提升到知识层或正式输出层。除了五层结构, skill 里还特别强调两件事,第一,按对象键命名空间。一个值得长期跟踪的竞品 不该只是一篇临时文档,而应该在原始资料、知识层、正式输出和工作区里都有自己的稳固位置等目也是一样。 这样智能体才知道哪些材料属于同一个对象,哪些结论应该持续积累。第二,按操作类型维护系统。整个知识库不是只有问答模式,而是包含初步建档、资料吸收、问题查询、系统巡检四种主要操作。也就是说,智能体天然就是知识库维护者,你的工作成本大大降低。 第五部分,一点感想,把这套技能系统从头搭完之后,并且把我所有的知识通俗化进去之后,我更加觉得智能体已经是不可替代的办公工具了。对产品经理来说,这种系统的意义非常大, 因为产品经理的很多核心能力本来就不是一次性爆发出来的,而是在长期判断、长期记录、长期比较、长期协同里慢慢形成的。如果现在有了智能体,这些能力完全可以被放进一个更强的个人操作系统里,而我这次做的这个技能系统,本质上就是在尝试把这件事搭出来, 现在这当然还只是第一版,后面肯定还有很多可以继续优化修补的地方。如果你也在用 cloud code、 龙虾、 open cloud 这类智能体环境,其实已经可以直接把这套仓库丢进去开始跑,欢迎你来使用这套系统跟我一起打磨。

卡帕西发了一条推文,两天千万人看,四四 k 收藏。他说他最近花了大量时间让 ai 帮他处理内容,而不是写代码。这背后到底是什么思路,让这么多人觉得有用? 他在用 ai 给自己建一个私人知识库,把所有散乱的笔记和文章整理成一个随时能查的系统。不用 notion, 不 用 obsidian, 就 一个普通文件夹,加一个文本文件。今天我就带你把这套东西搭起来,跟着做,今天就能用上。 整个系统就三个文件夹,两分钟建好, raw, 放你的原始素材,文章截图、笔记,什么都往里扔,不用整理。 wiki 是 ai 帮你整理后写入的地方,你不要手动改它。 outpost 存 ai 给你生成的答案报告分析结果。 光有文件夹还不够,你需要给 ai 一 份说明书,在根目录创建一个 cloud d, 点 m d, 告诉 ai 这个知识库是干什么的,怎么整理。卡尔帕蒂自己说它的 skype 超级简单,就是一个告诉 ai 规则的文本文件, 这个文件决定了 ai 整理出来的维基质量,别跳过这一步。文件夹建好, skype 写好,现在打开 cloud code, 说一句话, 读取 raw 里的所有内容,按照 cloudy 点 md 的 规则,在 wiki 里编一个维基,然后走开,让它慢慢跑,不用盯着,跑完你会拿到一个 viki 文件夹,文章按主题整理好,还有一份 index, 点 md 缩影。维基建好之后,你就可以开始提问了, 不过 car party 也没提到一个真正能加速这个过程的工具。 virtual apps 刚发布了 agent browser, 让 ai 直接操控真实的 chrome 浏览器,低塔上二六 k 星两条命令安装,然后你的 ai 就 能自动抓任何网页存进。若 最关键的是它比 playwrite mcp 省百分之八十二的 token。 同样一轮对话能抓五到六倍的页面。那些 javascript 动态加载的页面,需要登录的内容,要不停滚动才能看完的文章,它都能处理。 karpati 的 帖子有四十四 k 收藏,但收藏和真正用起来差的只是一个周末的动手时间。 三个文件夹,一个 schema 文件,一个 ai, 这就是整个系统。今天就选一个你最想搞清楚的主题,把现有的文章和笔记扔进 raw, 让 ai 跑一遍评论区告诉我,你打算用这套系统管理什么主题。

你想过没有?为什么用大模型处理文档,每次都要重新开始?传统 red 的 逻辑是上传一堆文件,问问题时解锁相关内容。大模型现场拼凑答案,同一个问题问两遍,他从头推倒一遍,知识没有任何积累。 karpathy 最近分享了一个新思路,叫 l m v p, 核心是让大模型增量,构建一个持久化的、结构化的私人知识库。 新文档扔进来,大模型不只是锁引它,而是读取它,提取关键信息,把知识整合进已有的 v p 里,更新相关页面,标注矛盾点,补充交叉引用。这不是锁引,是翻译。知识翻译一次,长期保持最新,不需要每次问答都重新推导。 v p 是 持久复利的知识工具,你每次探索的答案如果质量够高,也可以归档回 v p, 成为新的知识节点。整体架构分三层, 第一层,原始文档库,只读不修改,是你的信任源。第二层, wiki 由大模型生成和维护的 markdown 文件集合,包括摘药、实体页、概念页。 第三层, schema, 就是 指令文件,告诉大模型 wiki 的 结构规范、摄入流程、查询方式。这层是让大模型成为有纪律的知识管理员的关键 日常操作。有三个 insert, 设入新文档,大模型可能一次更新十几篇 wiki 页面。 query 向 wiki 提问,大模型解锁相关页面综合答案,还可以把好答案归档回 wiki linked, 定期让大模型检查一致性,找出矛盾点、过时信息和孤儿页面。 说到这里,有个反常识的点,人类维护 wiki 失败,核心原因是维护负担增长快过价值积累。大模型不会无聊,不会忘记更新,交叉引用一次能修改十几个文件, 让知识库保持最新状态的代价接近零。所以这个方案真正解决的不是怎么读,而是谁来干那些繁琐的维护工作。这个角色终于可以交给。

四月二号, karpsy 发了一条推文,浏览量超过八百万。 karpsy 就是 tesla 前 ai 总监, open ai 创始人团队成员那位。他这次分享了什么? 他分享了自己用 ai 维护个人知识库的工作流,核心思路是让大模型不只是聊天工具,而是一个全职图书馆员,帮你持续整理和维护一个 mock down 格式的 wiki 等等。 mock down wiki 不 用像料数据库,不用 r a g。 对,他明确说了,在它的规模下,不需要什么花哨的 r a g。 它的系统分五个阶段。 第二步,翻译是什么意思?就是大模型读你扔进去的原始资料,论文、网页、代码仓库什么的,然后自动写出一个结构化的 wiki, 包括摘要、百科式的概念文章,概念之间的双向链接,还有缩影文件。 它原话是,你几乎不需要手动编辑 wiki, 那 是大模型的领地。听起来像 notebook。 lm reddit 上确实有人问了同样的问题,呵,但有个关键区别,它的输出会反补回 wiki。 你 问了一个问题,大模型生成了一份分析,这份分析又变成 wiki 的 一部分知识是复利增长的,越用越丰富。那第五步拎听呢? 我们之前在 openclaw 为什么总失忆?聊过 agent 记忆的问题。 karpsy 这个 link 做两件事,发现不一致的数据,然后联网搜索补缺失信息,相当于给芝士库做定期体检。 好架构讲完了,我最好奇的是,它不用向量数据库,那怎么搜索? vicky 大 了怎么办? 这是最关键的问题。它却是 webcody 的 一个简单的搜索引擎,有 web 界面,也有命令行。但它没说底层用什么技术核心解锁,还是让大模型自己读一个 index? 文件就是字面意思的,读目录,选文件,读全书, 对大模型自动维护一个 master index, 里面是每篇文章的标题,加一行摘要。说到问题时,大模型先读这个 index, 自己挑出相关的几篇文章读。权威,沿着链接跳转,然后回答,本质上就是 agent 在 一个组织好的文件树上导航。 那这个 index 文件不会越来越大吗?一百篇可以,一千篇呢?一万篇呢? 你收到了社区公认的最大硬伤,所以它现在的规模是多少?大概一百篇文章,四十万英文单词,四十万单词约等于五十万 tokens。 现在前沿模型的 context window 已经到一百万 tokens, 所以 index 文件几千 tokens 轻松放进去。 但他自己用词很克制,说的是 fairly easily at a small scale ready 的 上有人说得很犀利,说你要把 wiki 分 成章节去剪辑,那不就是换了个名字的切块加向量搜索吗? 绕了一圈回到原点,没错,这就是为什么我说这条推文是一个理念宣言,不是一个技术方案。 那这条推文到底解决了什么?为什么八百多万人看我就遇什么?会有三个原因。第一,命名效应。 很多人已经在零散地做类似的事,用 cloud code 的 记忆文件,用 obsidian 加大模型,但没人给他一个统一的框架。 capac 给了一个清新的名字和架构图,大家一看,对,我做的就是这个权威效应吧。 r a g 是 行业正统,谁敢公开说其实我用不到向量数据库? capacai 作为 open ai 创始人成员,说了这话,等于给了一张反 r a g 的 许可证。对 reddit 上最高赞的评论就是,当你有无限的 tokens 和推理能力,你使用大模型的方式就变了。第三个原因是时机, context window 刚到一百万 tokens 以上,推理成本持续下降,用 token 换架构,简单性第一次变得经济上可行了。 说到这里,我想问一个更大的问题,卡帕萨斯说小规模不需要 r a g, 那 大规模呢? r a g 的 硬伤到底解决了没有? 这个问题的答案是没完全解决,但问题的性质变了。 m m n t m research 有 一个分析框架叫 r a g 分 岔论,我觉得说的最清楚,他们认为标准 rock 的 适用范围在极具手窄,分裂成两个极端。 让我猜,一头是 capacity 这种小语料直接塞进 context 的 window, 对 小于一百万 tokens 的 语料权威塞进去不剪索。 capacity 的 方案就是这个思路。在个人规模下,这个问题技术上已经不是问题了。 另一头呢,我猜是某种图结构,因为向量搜索解决不了多条推理。没错,超过一百万 tokens, 而且关系复杂的语料需要图结构。微软已经开源了 graphrek 项目, lettrand 也在降低门槛。学术上还有更激进的方向叫超图,一条边连接多个实体,已经在 new i p s。 两千零二十五发表并开源了代码,但还没有大规模生产部署,那标准的切块加向量搜索就成了中间的尴尬地带。 按这个框架看是,唉,对小语料它是大炮打蚊子,对复杂语料它又力不从心。我们之前在面试官问如何评估 r a g, 系统里详细讲过 r a g 的 评估方法论, 当时就提到了 r a g 的 几个失败模式。当然,标准 r a g 在 企业场景还在大量使用,说它死亡太绝对,但适用范围确实在缩小。所以 capacie 在 这张图里就是最左边那个店。小规模已解决,那真正的战场在最右边。 二零二三年,怎么让大模型读到我的文档?唯一答案是 rag 二零二六年,小的直接塞进去,大的要图结构标准 rag 在 被淘汰。 capacity 解决的是第一个小规模的,第三个大家,复杂的才是真正的前沿,而且目前还没有好的通用方案。所以这条推文更像是 paul graham 二零零五年写那篇 how to start a startup 改变认知框架,但没教你怎么写代码, 完全正确。上个月 capacity 刚开源了 auto research, 我 们之前在 capacity 的 auto research 那 期聊过,这个人最厉害的地方不是他写了什么代码,是他总能在对的时间点把大家隐约感觉到,但没人说出来的东西,用一个清晰的框架表达出来。呵, 所以它的真正产品是认知框架,不是代码没错,但代码呢?留给别人去写了。 shapiro 的 ceo 已经做了 q m d agno 做了 p a l。 社区在补它没做的部分。理念宣言的价值就在这里。它不解决问题,但它让一千个人开始解决同一个问题。
