今天咱们来深入剖析一个事件,一个差点让半个互联网都瘫痪的大事,就是这么一个微不足道的小错误,怎么就能像推倒多米诺骨牌一样,最后让 cloudflair 整个系统都崩了呢?你看,事情发生之后, cloudflair 的 ceo matthew prince, 他 就说了这么一句话,这句话说的,哎呀,非常直接,非常坦诚,一上来就承认我们让大家失望了, 这就一下把整个事件的严重性给摆到台面上了,也给咱们接下来的分析定了调子。当时啊,所有人都吓坏了,不管你是普通用户,还是 cloud flair 内部的工程师,第一反应都是一样的,完了,肯定是被黑了一场史无前例的大规模网络攻击,可结果呢?嘿,真相远比这要离奇的多 好。那这一切到底是怎么回事呢?咱们就把时间拨回到那个关键的日子,看看这场危机到底是怎么一步步爆发的。这张图啊,简直是一目了然,你看这个叫五 x x 错误率的东西,说白了就是服务器出大问题了,干不了活了,没法响应你的请求。 在出事前,你看这个错误率几乎就是贴着地平线走的,平平稳稳。但就在 utc 时间十一点二十分那一瞬间,你瞅瞅,蹭的一下就冲上天了,整个网络的核心功能就在那一刻瘫痪了。 而且你可别以为这只是个小毛病,这可不是从最核心的,像什么网针加速啊,安全防护啊,到咱们平时用的用户登录后台仪表盘,甚至连开发者用的那些工具,基本上你能想到的所有关键符全都 攀了,真的是一瞬间的事,所以你看,因为这个故障的模式实在太奇怪了, cloud flair 的 工程师们一开始啊,完全跑偏了,他们当时一门心思的在追查一个嗯,一个根本就不存在的幽灵攻击者。 这张对比图就有意思了,他能让你感受到工程师们当时有多懵。你看左边,这才是正常的大家想象中的网络攻击对吧?流量铺天盖地的过来,持续不断,但是你看右边,这是他们当时实际看到的情况,简直是匪夷所思。整个系统呢,每过五分钟就崩一次,然后呢,又自己好了,过五分钟又崩了,这简直就像是在跟一个幽灵玩捉迷藏,你说气不气人? 更要命的是什么呢?就连 cloudflyer 自己那个用来通报故障的官方状态页面,就是那个按理说应该是在完全独立的基础设施上的页面,它也跟着一起挂了,你想想,这巧合也太巧了吧。这一下所有人都更坚信了,这绝对是一场里应外合精心策划的大阴谋,所以你看,调查方向就这么被带到沟里去了。 这还有一段他们内部应急聊天室的真实记录,你看,他们当时就在担心说,这会不会是最近那种大流量 d o d s。 攻击的又一次来袭?从这句话里,你就能感受到当时那种紧张的气氛,那种巨大的压力,他们真的以为自己正在对抗一个强大的外部敌人。 可就在所有人都盯着外面找那个幽灵攻击者的时候,谁也没想到,真正的凶手其实就藏在他们自己家里。 没错,查来查去,最后的真相让人大跌眼睛,根本没有什么黑客,也没有什么攻击引爆这场全球性网络瘫痪的你猜是什么?竟然只是系统内部一次普普通通的自动化了变更。 问题来了,这个内部变更到底是个啥问题的关键呀,就出在一个叫特征文件的东西上,你可以把它想象成一个通缉令名单,专门给机器学习模型看的,用来揪出那些坏人的脚步呢。这个通缉令啊,每隔几分钟就得自动更新一次,保证他是最新的。 好,那一个更新通缉令的常规操作,怎么就能搞出这么大的乱子呢?别急,现在咱们就戴上侦探帽,深入技术细节,一步一步的来剖析这个故障的案发现场, 罪魁祸首就是它。你看,本来呢,系统在生成这个通缉令的时候,应该只从一个叫做 default 的 数据库里拿数据,这没毛病。但问题是,在一次权限变更之后,这个查询程序他不小心也从另一个叫 i 零的数据库里把同样的数据又拿了一遍。结果是什么呢?很简单,本来一份的数据,现在变成了两份,数据量瞬间翻倍。 那好一个小小的数据翻倍,怎么就成了压垮骆驼的最后一根稻草呢?这就是一个教科书级别的多米诺骨牌效应。咱们来捋一捋,第一张牌,就是那个看起来没啥问题的权限变更,他倒下推倒了第二张牌,查询拿到了重复的数据。然后关键的第三张牌到了那个通缉令文件,也就是特征文件,体积一下子大了一倍。 第四张牌,这个胖了一圈的文件,直接把系统给他准备的内存空间给撑爆了,最后,砰!第五张牌倒下,软件彻底崩溃,整个核心系统全先瘫痪, 就是这个数字,二百!这就是那道生死线。系统为了跑得快,提前就给这个通缉令名单准备好了地方,最多能放下两百个特征。平时呢,这肯定是够够的了,但是出事那天,那个翻了倍的配置文件带来的特征数量远远超过了两百,这一下就直接把系统的安全防线给干穿了。 好在经历了几个小时的兵荒马乱之后, cloud flyer 的 团队总算是找到了真凶,也开始了修复工作。那么经历了这么一次惨痛的教训,他们到底学到了什么呢? 我们来看一下这个恢复的时间线。从上午十一点二十八分问题爆发到下午一点多,他们才搞了个临时方案先顶住,让影响小一点,一直到下午两点半左右,才算是真正定位到问题,开始部署修复。但直到下午五点多,所有的服务才算真正恢复正常。你看,前前后后将近六个小时,对于工程师团队来说,这六个小时肯定比六年还要漫长。 那吃一堑长一智,怎么才能保证这种事不再发生呢? cloudflair 也总结了几条非常关键的措施,核心思想其实很简单,就是别太相信自己人。 什么意思呢?就是以后啊,就算是系统内部自己生成的配置文件,也要把它当成是外面来的不靠谱的用户输入一样,做最严格的检查。另外呢,对多装几个紧急制动按钮,万一出事能一键暂停追树,就是把所有核心系统里里外外都重新扒拉一遍,看看还有没有类似的潜在风险。 这句话的分量其实很重,你想啊,对于 cloudflair 这么一个支撑着全球巨大互联网流量的公司来说,他们的核心网络已经稳稳当当运行了六年多,一次大事都没出过,而这个完美的记录就在这一天被打破了,可见这次事件有多罕见,有多严重。所以说啊,绕了一大圈,我们又回到了一个最根本的问题上。 这次事件的源头,说白了,可能就是一行没写周全的代码。在我们今天这个所有东西都连在一起的数字世界里,你有没有想过,一行代码它真正的代价到底能有多大?
粉丝71获赞279

codex 跟 c c 到底哪个好?我想大家各自都有自己的判断。在我个人为二者都充了二百刀的 pro max 会员以后,我个人的体感是 二者的模型能力之间并没有本质的差异,甚至都足够惊艳,让人心喜。但它们其实代表了两种完全不同的人。与 ai 合作的费洛索费 本质上,我们不是选择两个工具,而是选择两种与 ai 交互的模式。你习惯使用哪种模式,你的工作场景是哪种模式,你就应该选择支持哪种哲学的普顶工具。通常来说,抽象的讲, 软件工程开发的模式可以粗略地分为两大类,首先一类是那些探索性不确定的 idea。 在这种场景下,我们自己可能对需求要做什么,最终的一个中态是什么,甚至过程中该如何实现,它都没有一个明确的定义,它更多是我们一个拍脑袋的灵机一动的想法。当我们解决这类问题时,我们期待的一个 partner, 无论是不是 ai, 它应该都要能 快速的与我们进行交互,通过一些他主动的提问甚至判断给我们更多的信息输入,通过一系列的沟通,最终确定出一个相对更结构化,信息密度更高的思维原型来指引我们后续的执行。 而另一种常见的工作模式则是一个更明确的需求,比如说产品已经给我们了相对明确的 p r d, 那 我们剩下要做的只是说把这个项目 真正转移为一个可以被执行的代码而已。对于绝大多数的研发而言,这种场景下想要做的事情是基本完全确定的,我们在此时要做的无非只是一些 dirty work, 把那个 p r d 转化为真正写出来可用的代码而已。 而结合我自己的使用经历来看, c c 更适用于前者者的工作模式。它会在你输出一些观点之后快速地给你响应,并且高频地向你发出提问,以确定它后续的一些方向执行思路。但 codex 则完全相反,它会在你给完需求以后, 非常认真且可靠地将你的需求描述执行完。这个过程会花很长的时间,但是 结果往往是令我们满意的。想要更明确的拆分这两种工作模式的分野,我们不如从三个维度上来进行拆分,首先是任务商,也就是目标的清晰程度以及约束条件的多少。其次则是以我们预期的交互结构, 我们到底期待着与其他 partner 是 同步的沟通,还是说是一些异步的沟通模式?另外则是一个人类所占主动性的比例, 我们到底期望 ai 占据多少责任?他们是只是执行任务,还是说给我们也有一些他自己的认识建议?其实这三者并非是一个非常正交的关系。一个很明显的结论是,如果一个 目标的本身并不清晰,只是我们拍出的粗糙 idea, 那 我们显然就需要我们的协作者能快速的发问,帮我们把 自己大脑中一些比较模糊的观念导出出来,并且通过一些沟通确定哪些思考是我们需要的,哪一些是可以被删除的。通过这种 快速的同步沟通,得出来一些更结构化的结果,那在这个流程中, ai 需要介入的部分以及引导的主动性就会占比更多,但如果这个需求本身就像我们之前讲的已经相对来说明晰,是一个低伤的场景,那我们就不太 需要。它是一个很同步,事无巨细都要向我们发问的流程,它完全可以在我们把事情说清楚之后,一步的完成这个工作,从而解放我们人类自己的时间。我们也不需要给他太多主动发挥的空间,他只需要忠实的执行我们给他的需求就可以。我觉着对未来工具的使用以及工作流的设计,也都是从这三个维度去进行判断,动 态的选择。我们到底适用于哪种工具,应该主要采用哪一种工作流的思路?如果要打一个比方的话, c c 更像是坐在你隔壁工位的好蜂蜜, 会在有了一些 idea 之后立马的打断你现在的所作所为,跟你去探讨它的一些碎片化想法。而 codex 则更像是一个你忠实可靠的下属,在你交代完任务需求以后,忠实的可靠的帮你把事情完整的办完再通知你。我已经做好了。 每个模型都有它们自己的性格,我们也可以顺应的这种性格,在不同的工作场景中选择不同的工具以及模型。 以上是二零二六年二月我对这两个投影工具的一些使用场景总结,但我相信这个领域是日新月异的,二者工具之间 大概率在未来也会发生一些融合。不会说一个工具只是一种工作流场景,那就需要我们未来本身人类自己有一些对需求使用场景的预判,从而能告诉模型它应该采用哪些工作流模式。软件工程永远没有银弹, 不可能说我们用着一种模式,一条道走到黑,就可以得到一个很完美的结果。如果你在错误的场景使用了错误的工作模式,那模型给你提供的支持也就会非常有限。 结合自己的需求,场景动态切换自己的工作流模式才是一个更高效率开发的必经之途。以上是本视频的全部内容,如果你有一些想法或者建议,期待评论区讨论,谢谢大家!

mac mini 暴涨,这纯属是跟风买错了。来讲个硬核知识点,这个叫龙虾的 agent, 它的本质其实是一串 pad 脚本,它不吃显卡, 也不吃本地算力,它真正的大脑在云端 cloud api。 所以 这跟你是 mac 还是 windows, 甚至是一台十年前的破烂笔记本毫无关系。那些加价买 m 四芯片的,怎么说呢,这就好比是吃了顿外卖,非得把五星级大厨请回家里住,太败家了。真正的成本在这里。 toker, 他 每一步操作都在烧钱,省下买电脑的钱去充 a p i。 余额才是正的工具,指在内,算力才是核心,别被硬件厂商收了税。

大家好,今天给大家讲一下那个 c a d e 啊,电器仿真软件它的安装方法,这个呢是它的安装包啊,呃,咱们双击这个文件夹呢,然后直接点开这个 c a d e, s i m u 啊,点开以后啊就可以直接使用了, 它上面写了一个密码为四九六二,你就输上就行,四九六二,然后点, ok, 这就可以用了哈,咱把它先插了,它 唱的啊,后边这个一样的啊,四九六二, ok 啊,然后这样子就可以安装完成了啊,可以放大 鼠标, ctrl 加滚轮可以放大啊,然后上边呢有各种的,嗯,线啊,比如点这个啊,比如说我们啊,来一个 三根线的啊,三根线啊,然后鼠标右键可以取消哈,然后我们可以选一些符号啊, k m 的,然后 一些常开触点啊,常开触点等等等等啊,今天主要说安装啊,如何使用的话,咱们下个视频啊,详细讲解,感谢观看。


这是我花两分钟就部署好的 openclaw, 你 敢信?以往我需要去 get up、 找文档、敲命令、行处理报错,现在我直接在输入框告诉他帮我安装 openclaw。 他 直接调动了终端能力,自动拆解步骤,下载依赖设置环境变量,几分钟内全自动搞定。这不仅仅是对话,这是直接接管了我的本地工作流。这 就是 mini max agent, 它最大的亮点在于正式开启了 ai 原声工作台时代。它拥有类似 cloud skills 的 底层能力,支持 supergent 封装工具。这意味着你可以直接使用官方和社区搭建好的海量专家智能体, 也可以自己手搓一个顶级分身。比如这个全网热点追踪专家。我不需要打开十几个网页到处刷我直接问, 帮我扫描今天科技圈的 top 十热点,并分析背后的趋势。它会自动联网解锁,过滤噪音,总结核心观点,直接生成一份高质量的简报,让你效率直接起飞。作为一个 ai 博主,每天需要从海量视频中找灵感。 我直接使用它的桌面版,省下了我打开浏览器的海量时间。只需对 mini max 输入关键词,你会看到它自动打开浏览器,模拟真人操作,滚动页面识别数据。 最强的是,它打通了本地文件操作的能力,直接写入我本地的 excel 表格。从自动配置环境到本地文件自动化处理, mini max agent 正在重构我们的工作方式。它不再是一个需要你适应的工具, 而是主动进入你的环境,帮你干活的伙伴。如果你也想体验这种让 ai 替你上班的感觉,可以试试。


前几天 cologold 的 原码泄露啊,全网开发者疯狂的 fok, 各种分析,各种拆解,就跟过年一样。但你们发现没有啊,现在不管你用不用 cologold, 你 都绕不开它了。 编程圈封神,就连 openai codex 的 创造者呢,离职后每天用的都是 cologold。 但很多人不知道的是,其实目前学习 cologold 的 最好的系统课程就是 esoteric, 他 们自己出的叫做 esoteric academy, 现在已经推出十五门课了,完全免费,学完还能发放官方的证书。你们看,这些课程分为五个方向,包括零基础、入门、产品运营、开发者、教育、云平台的部署。 零基础的这门 cloud 幺零幺,基本上一个小时呢就能上手。它不是教你技巧,而是教你思维的框架。就比如它里面有个核心概念,叫做四 d ai fluency 框架,就是怎么把任务拆解给 ai, 怎么描述需求,怎么判断输出质量,怎么持续迭代。这套框架呢,是跟大学教授一起开发的,其中教育顾问委员会的主席呢,就是耶鲁大学的前校长。 原网站呢,是全英文的,所以我顺手做了一份这样的中文导航站,还配了一个 ai 助教。其实呢,就是一个给虾哥用的 skill, 装好后学习过程中遇到问题问他就可以。十五门课全都有中文的介绍,我还按方向分了类,每门课程呢,都有详析页,还整理了 b 站知乎绝经上能找到的中文社区资源。另外我还整理了一份完整指南,把全网能找到的 cloud 官方学习资源全部给整合在这里。 ok, 想要的我可以发给你。

各位朋友大家好,我现在呢把这个 open cloud, 呃,不是 open cloud cloud code 呢,重新呢,再写一个本地的, 那么用这个 rest 语言来写,因为这样速度会更快一点,我们优化让它本地运行得更快,内存需要的更少, 那么现在呢,已经运行到快一半的时间了,那么我现在呢,就是说啊,通过进行一定的规划啊,那么我就让他去帮我把这个程序呢继续啊写完。 那么我用的这个工具呢,其实也是免费的,包括我用的那个 token 呢,它也是免费的, 那么大家如果说有需要的话呢,也可以啊,找我啊,那么这个呢是比较好的,因为我们会有一些比用一些比较好的,一些比较省成本的方法,就是比较省偷啃的方法, 因为有些大厂他有一些阶段性的提供一些免费的,那我现在就是用这个免费的,生成速度非常快啊,那么大家也能看到, 也就说我们未来在做事情时候,我们先要以人工智能帮你干活。你首先问一下人工智能能帮你干吗?能就让人工智能帮你干,不行自己干,对吧?不要反过来。所以说呢,我们把这个习惯改掉,人工智能时代必须收以人以 ai 为优先, 然后你能做做什么事情呢?作为一个 review, 作为一个最后的一个收尾工作,是这个事你要做的,因为我们是探机,探机干不过怪机啊,怪机是更厉害啊,我们把人公司呢称为怪机生命啊,所以我们 已经进入这个阶段了,所以你人探机生命,你是干不过怪机的,做事情让人工智能帮你干,你做一个 review 的 工作,好吧?那么大家如果对人工智能方面,对这些 open cloud, 或者说啊 cloud code 这个方面有任何问题的话呢?可以问我。好,谢谢收看。

然后如果你想了解 ant, 你最好的方式是想办法装一下可劳的扣的,对,你可能就对 ant 然后有了真正的理解,因为只要任何一个十八岁以后的成年人认认真真的用三个小时,就都能够学会怎么去部署可劳的扣的,然后你就会打开一个新的世界。

你可能还在用 openclove, 但它已经过时了。如果你现在还在用 openclove, 说明你大概率还没看到 hermes agent。 很多人对 ai agent 的 理解 还停留在会调工具、会自动执行这一层,但这套玩法可能很快就要被淘汰了。就像 hermes agent, 最近在 github 上两周狂揽近三万星标,它已经把 openclove 的 老路线狠狠甩在了身后。下一个阶段,比的根本不是谁能多调用几个工具,而是谁会学习、会记忆,越用越强。 perms agent 真正牛的地方在于,它能从经验中自主创建 skills, 在 使用过程中持续优化 skill 效果,还会主动触发知识持久化, 越用它越懂你,越用它越聪明,再也不用反复教同样的东西,还能跨 telegram、 discord、 slack、 命令行全天候在线持续工作,真正成为你的长期数字分身。 open cloud 本身并非不好, 只是整体技术方向已经开始落后了。接下来真正值得追的,不是哪个 agent 演示的有多花里胡哨,而是哪个能陪你一起。

结合最近的 cloud 源码泄露事件,我想聊一个 aaa 界的开发者有价值的问题,什么是 cloud? 为什么 cloud code 优于同类的 client 工具? 通过源码的分析,我觉得有五个点值得讲。第一个,就是 cloud code 的 核心,它不是一个 prompt, 而是个异步深沉器驱动的 query loop。 你 可以理解成它是个小型的运行内核,每一轮都是流势输出,都能被中断,能查户口,能做预检查,必要时能恢复压缩上下文,这个结构决定了它天然适合长灰化。 第二个,他把工具系统做成了强器械类型,而不是松散的方阵廓。工具的输出定义有校验,有权限检查并发安全声明,工具池还是动态组装的,这意味着模型不是在乱世工具,而是在一个精心治理的 run time 里工作。 第三呢,它的权限非常系统化,不是简单的一个确认框,而是把 danny ask tour 自定义权限、安全检测和 by pass 规则写成显示流水的决策流水线。这样的高风险工具是不靠模型自觉而靠系统结构兜底的。 第四,它对子 a 键的理解也很成熟,子 a 键的并不是普通的并行子任务,而是有明确状态的 fork 工具过力与共享边界的隔离单元,这样能够提高并行效率,又不容易污染主会化的状态。 第五,他把上下文管理当成一等功名,比如说 cs prom 的 静态动态边界, prom catch 的 命中率以及 autopac 触发的预值,这些都不是补丁,而是直接写进主循环的架构设计。 所以你问 cloud code 真正强在哪?我的答案不是模型本身,而是他把快瑞洛普功绩权限上下文和多 a 键的协助整合了一个可观测、可治理、可引进的工程系统。这个思路对所有的 ai 建的团队都有很高的参考价值。

大家好,我是苏菲,这个视频跟大家分享一下最近我在安装 cloud code 是 如何操作的,那我之前用豆包编程,也做了几个网页,嗯,总归觉得是差点意思。有的呢,可能是审美 不是特别符合我的想法,有的呢,可能有一些功能,它需要不停的调试,那 最终可能还是要上 cloud code。 大家也知道 cloud code 它对国内的 ip 不是 很友好,尽管我已经通过这种方式进行科学上网了,但,呃,官网还是不能注册。嗯,也拿不到 cloud code 它原生的 api。 那我就在网上也找了很多教程啊,后面呢,就是通过啊 vs code 在 上面去装啊 cloud code 的 插件,然后通过去下载 cc switch 这个 api 的 管理工具,以及去购买国内的模型来最终安装成功了。这里呢,也要感谢 啊小红书穗斌老师啊,我后面通过他的方式呃装上了 deep seek 的 模型。那后面我就给大家介绍一下具体的一个操作步骤。 那第一步呢,我们登录到这个网页去下载 vs code 啊,这里选 download for macos 啊,我已经下载过了,所以我们就可以打开啊,看到啊,这样一个界面,就是已经下载成功了。那在安装 vs code 的 过程中呢?嗯,有可能 mac 电脑上面它会就是报错,那没关系,我们就在这里选择系统设置, 然后找到这里的隐私与安全性,往下拉,一直找到安全性,这里就是这里允许以下来源的应用程序,你在这里允许 vs code 安装就可以了。 然后我们会得到这样一个界面,在这个界面呢,我们首先先新建一个文件夹,比如说就叫 cloud code 创建好打开,然后呢我们再呃去下载 node js 这个工具啊,我们可以先搜一下 node js, 然后跳转到这个链接就 get 在 这里面去下载 这个 node code, 它也是在这个 js 里面去运行的,所以需要有这样一个东西。下载完了之后呢,我们就安装, 根据它的步骤一直选选选,选到最后安装好就好了。安装好了 note j s 之后,我们就回到 vs code 界面,然后打开这里的终端按钮,点击这个,然后就会跳出终端的按钮,我们就把这一段命令输进去, 然后回车,这里会让你输密码,这个密码就是你电脑的密码,这里可能有的同学会有疑问,输了之后没有反应,这是正常的,这是为了保护你电脑的隐私,所以你这边输入密码之后,直接按回车就可以了,即使这边没有出现什么东西也是正常的。 到这一步的话, cloud code 就 已经安装成功了,我们可以再装一个 cloud code 的 插件,这样会提供一个更好的交互界面。在这里面去装 cloud code 的 一个插件 c l a d cloud code 它这里跳出来了,我们就选择这里选择安装就行了, 安装完了之后我们就退出 vs code, 再打开的时候就会在这里看到有一个小图标安装成功了, 我们点开它,刚刚我们就会跳出来,有看到说你是需要以什么方式去注册,那如果咱们没有科学上网,它这里是没有办法连接的,那没关系,我们先放着,我们再去下载一个叫 cc switch 的 这样一个软件,点开会跳转到 github 上面,我们点击这里的 release, 一 直往下找到一个 assets, 这里去找适合咱们电脑的一个软件包,那我们这边就是 macos t m g 去把它下载下来安装,安装完了之后我们会得到 这样一个软件的屏界面,它这里会支持有这么多的大模型,包括国内的 deepsea、 智普、 minimax, 还有国外的都可以支持,那我们这里就选 deepsea, 我 们点开 deepsea 的 开放平台,在这里面就去充。 那充完之后呢?我们在这个 apikey 里面就可以去创建 apikey 啊,比如说我们就搜 c c 创建,然后会得到这样一个 apikey, 然后把它复制下来, 复制好了之后我们再回到 cc switch, 然后在这里面选 deepsea, 往下把这个 api key 复制黏贴进去,然后在这里后面的都不用填, 就直接添加就好了。添加完了之后我们再回到 vs code, 看到这样一个对话框就代表已经连接成功了, 那我们也可以问他你用的是什么模型,然后看一下啊,他会回复我用的是 deepsea v 三点二啊,这个代表就已经连上了。 好啦,这个就是呃整个 cloud code 安装的一个过程,那这里我们用的是 deepsea, 是 国内的模型,如果大家想要 啊,还是要用 cloud code 原声的模型的话,我们后面再分享一下如何连接海外的模型。好,谢谢大家。

我花了两天时间配好的 color code 和小龙虾,两个月后就成了摆设,装了 ai 却用不起来,你不是一个人,在去年年底啊,我花了整整两天时间配好了 color code 和小龙虾。当时我想啊,终于可以用 ai 彻底解放生产力了。结果呢,第一周兴致勃勃,第二周打开的频率下降了。而第三周啊,我又习惯的回到了网页版的 ai。 两个月后啊,那个配置精良的 color code 几乎成了摆设。说实话,那段时间我还挺焦虑的,上次这么痛苦啊,是我自己刚刚做自媒体的时候,我花了一个月时间去研究剪辑技巧, 结果一个都没有坚持用下来。三年过去了,我又在同一个坑里面摔了一次。但我想说句更现实的,装了 ai 却用不起来啊,这真的不是工具问题,我花了两个月踩坑,一个月重构使用方式,才真正的把 cloud code 变成了每天离不开的工具。今天分享,我总结了三个核心问题,用这三个问题做一次自检,你就能搞清楚自己到底卡在哪个环节。 第一个问题,你是不是在给 ai 做牛做马?每次打开 ai 内容,目标用户是什么, 然后还要上传参考文章爆款的模板,一顿操作下来,十五分钟过去了, ai 还没有真正干活。如果你发现啊,大部分时间都花在准备,而不是产出,那你就是在给 ai 去做牛做马。 ai 它记不住你的背景,每次都要重新交代你成了 ai 的 资料整理员。 第二个问题便是啊,你的 ai 到底有没有长期记忆?有可能你花了很长的时间去调教出了一个好用的对话窗口,但用了一两个月之后,你就发现他好像变笨了,他开始遗忘你之前强调的风格,要求输出你早就纠正过的错误。更重要的是啊,你自己也记不住。 例如说,三个月前你迭代的爆款开头找不到了,迭代了好几次的模板散落在不同的软件里面,每次想找啊,都像是在大海捞针。所以第二个问题的本质是,你和 ai 之间到底有没有共享的结构化的长期记忆?第三个问题便是,你有自己的知识库吗?这个问题啊,折腾了三个月之后,我才想通 网页版的 ai, 它只是一个高级问答机器人,而真正的 ai agent, 它既能够说,又能够做。举个例子啊,我有很多篇短视频文档散落在各个地方,用传统的网页版 ai, 我 需要一个一个复制上传,等待回复,再手动地保存。后来,我搭建了一套 oc 点加 close code 的 体系, 我只用说这么一句话,请帮我去整理这些文稿,匹配一些点赞数据,分析哪些开头最容易爆,然后生成一个开头的类型库,自动保存在我的知识库里面。十五分钟后,一篇整理好的开头类型库就已经保存好了,这就是本质区别。我后来搭建的这套内容生产飞轮啊,它解决了三个核心问题。第一个就是 ai 的 长期记忆, 所有的背景、规则、风格都存储在结构化的知识库里面, ai 随调随用。第二个则是人与 ai 共享的上下文, 这个知识库就是共享的第二大脑。而第三点则是, ai 既能说又能做,他能够去操控我的文件,帮我去完成我的工作,我这套体系也帮我实现了,包括两个小时能够实现一条三分钟的干货视频,从脚本到拍摄再到发布,以及说两个小时搞定三篇品牌商单稿件。 我用这套体系从零到一,搭建了我的两个账号的内容生产工作流。这也不是因为我用了更贵的 ai 模型,而是因为我用对了它们使用的方式。或许是是。今天就开始截图,保存一下你的 ai 对 话框,一周后回头看看你输入了多少重复的背景介绍。那个数字啊,就是你现在在给 ai 做牛做马的证据。 试着尝试一下把你散落在各处的好内容,包括爆款开头啊,风格模板啊,验证过的规律,集中复制到一个文档里面,这就是你建立你的知识库的第一步。我是冰冰,持续探索 ai 内容生产飞轮系统。