a 剑 c a 剑词,开箱即用的专业 ai 角色,号称给你一整个 ai 公司,在 github 上已有二六 k 加斯的 s。 先说它到底是什么,它不是什么框架,不是 sdk, 就是 一堆 markdown 文件,每个文件就是一个系统提示词,定义了一个 ai 角色的身份、性格、工作流程和输出格式。比如这个 ai 角色的身份、性格、工作流程和输出格式,比如这个 ai 角色的身份,用 s a c q a 框架来写汇报, 把这些文件复制到对应工具的目录里, ai 就 会按照这个角色来工作。一百一十二个 ai 专家,覆盖产品研发的全流程,从代码到设计,从营销到测试,从游戏开发到空间计算,包含十一个部门,还支持 cloud code、 opencloud 等九款主流 ai 编程工具。我用 opencloud 做了个实测,给 ai 同一份 size 产品 q e 运营数据,让他写高管招标, 这是促使系统提示词,一个清醒的 ai 助手,不闲聊,不套近乎,只解决问题。第一个是自由发挥的格式,用了表格,关键洞察,风险预警,建议行动结构是 ai 自己组织的,内容挺好,但格式比较随意。 第二个替换系统提示词,他现在是高级战略顾问兼执行沟通专家,擅长把复杂的业务材料提炼成高管执行家。要第二个输出,严格按照五段式结构现状,关键发现、商业影响, 建议下一步。连英文标题都照搬了模板,每条建议都标了 critical high medium 优先级,完全复刻了提示词。模板里的格式 还指定了负责人和截止日期。每条发现都用加粗的 straight jigger implication 来标注战略含义,看篇幅明显更长更详细, 在提示词要求的三百二十五到四百七十五词范围附近。第一个更简洁,更像是日常对话式的总结,但是两个版本的分析内容几乎一样都抓到了中小企业流失加速、 企业客户是护城河、竞对威胁。这些关键点区别只在于格式和规范程度。这恰好印证了 ai 对 这些业务数据的理解和分析能力本身没有差别, 差别就在于第二个背应规矩约束成了标准化的咨询报告格式。我仔细拆了好几个 agent 的 提示词,发现内容可以分三层, 第一层大概占百分之五,是给工具界面用的装饰信息,什么颜色,以 micro 一 句话风格对 ai 的 行为完全没影响。第二层占了大概百分之七十五, 是 ai 本来就知道的知识,都是公开的行业知识,你不写 ai 也懂。第三层大概占百分之二十,才是真正有用的行为约束。比如长度限制、固定五段结构, q a 默认至少找三到五个问题,这些硬规矩才是影响输出质量的关键, 因为 ai 不 会自觉遵守这些标准。我们可以根据任务类型选择不同 agent 的 组合,组建自己的 ai 虚拟团队, 比如创业 mvp、 开发营销战役执行广告账户接管。所以这个项目的价值不是知识,是纪律。对于个人偶尔用一次的场景,其实直接跟 ai 说清需求就够了。但如果你的团队需要多人反复使用,每次输出格式一致, 这种标准化的 a 件的提示词就有它的意义。项目 mit 协议完全免费,感兴趣的可以去看看,挑几个适合自己的 a 件它试试。希望本期视频对您有所帮助,我们下期视频再见。
粉丝4836获赞4.5万

不会运维,也能拥有自己的 ai 聊天机器人。 openclaw, 一个开源的 ai 智能体框架,能把大模型接入 telegram, discord, 飞书,随时随地跟 ai 对 话。但是安装配置对新手不太友好,配置文件要手写,代理要自己搞, system 的 服务要自己配。踩了一圈坑,所以我做了一个 cloud code skill, 一 句话完成全部部署。 cloud 只问你三个问题, s s h 地址是什么?用什么模型,接哪个聊天工具, 回答完就不用管了。剩下全自动 skill, 会自动检测服务器环境, cpu、 内存、硬盘、系统兼容性全部自动判断,这是实际的环境,检测画面全部达标。然后自动安装 node js 和 opencloud, 写好配置文件,全程自动,不用敲一行命令, 安装完成。自动确认状态模型随便选,智普、 deepsea、 通易、 kimi、 国产大模型都支持。这是部署完成的状态页一目了然。还会帮你创建 telegram 机器人手把手教你怎么建 bot, 三步就创建好了。自动配对,开机自启, 退出, s s h 也不会断。内置十个常见坑的,自动绕过非 t t y 安装报错,代理配置、 system d l g 全都帮你处理好。最后输出验证清单,确认所有服务正常运行。 我用这个 skill 在 树莓派五上五分钟就部署完成了。现在 telegram 里直接跟智普 g l m 五聊天,搜新闻、查资料都行,这是实际的聊天效果。有树莓派或闲置服务器的真心建议试试评论区,告诉我你们想接什么模型。

同样是军方机密系统,为什么 anthrax 被停用, openai 却拿到通行证?美国军用生成式 ai 的 准入名单正在发生剧烈变化。当地时间二十七日,特朗普要求联邦政府机构停止使用 anthrax 的 技术, 关键点不在停用本身,而在于 anthrax 此前是美国军方机密系统里唯一被允许使用的生成式 ai claw 的 开发方。这相当于拿着最高等级的通行证进入核心系统。 矛盾的导火索是国防部门希望撤销对 ai 军用场景的部分限制。换句话说,他们想让 ai 在 更多军事任务里放开用。 但 ansorek 明确拒绝,理由直指两条红线,第一担心技术被用于对国民进行大规模监视。第二担心被推进到完全自主型武器方向,也就是武器系统在关键决策上不再需要人类最终确认。这两条一旦跨过去,风险不只是技术失控,更是社会信任与安全底线的重构。 在这种对立下,特朗普的表态更像是一种监管与采购合一的强硬施压,一边要求政府机构停用 antarctic, 一 边警告如果 antarctic 不 展现合作姿态,将动用一切总统权力迫使其服从。这释放了非常明确的信号,军用 ai 不 仅是技术选择,更是权力规则与产业链的再分配。对企业来说,能否进入政府与军方的高安全场景,可能直接决定融资预期、客户结构与估值锚点。 更值得关注的是紧随其后的替代方案。几乎在同一时间,山姆奥特曼宣布, open ai 已经与国防部门就在机密系统中使用 ai 达成一致,这意味着, 当一家企业因安全边界问题选择保守,另一家企业可能通过更强的合规承诺、交付能力与合作姿态迅速补位。对行业而言, 这会带来两层变化,第一,军用与高敏感行业的 ai 供应商将加速集中少数头部公司,获得更多数据算力与场景反馈。第二, ai 安全争议会从技术讨论升级为制度与合同条款的竞争,包括审计权限、日制、可追溯性,以及最关键的人类是否保留最终决策权。 把视角拉回商业与产业链,这件事的核心不是战队,而是识别趋势。在高安全、高合规领域, ai 产品的竞争不止看模型能力,还要看风险。承诺治理机制与可控性设计对国内企业和从业者的启示也很直接。想进入金融、政企、能源、交通等高门槛场景,必须提前把可审计、可追责、可隔离、可回滚做成产品能力, 而不是事后补丁。军用系统的门槛变化往往会外溢成整个高敏感行业的采购标准变化。谁能更早把安全治理做成工程化体系,谁就更可能拿到下一轮关键订单。如果是你会为效率放宽限制,还是坚持两条红线?

这是我被 cloud code 封的第三个号了,申诉也没有用,我现在已经准备放弃官方订阅了,不想折腾了。那 open code 一 直很火,最近我也在开始用它了,尤其是 cloud off 四点六和 gpt 五点三 codex 出来之后, 我现在是多个模型配合去干活。那发挥每个模型的优势,用四点六去做架构设计,用五点三 codex 去做代码执行,如果有前端的一个 ui 需求的话,再拿 gmail 三点零 pro 去做前端的一个 ui。 那 opencode 到底是什么呢?用一句话,它其实就是一个开源版的 curlcode, 功能上的话两者差不多,但 opencode 有 一些独特的优势,就是它是一个任意模型,你可以支持多家厂商的, 你也可以用国产的,你也可以用国外的模型都支持。第二点就是代码完全开源免费,这一点非常重要,你可以自己去改,自己去定制。同时代码开源之后,那开源社区的人就可以去围绕它做很多功能,毕竟人多力量大嘛。比如这个插件 opencode, 这就是社区去搞的,现在已经三十 k star 了。 这个插件其实是一套多 agent 多魔性去协助干活的一个插件,最近我体验下来也挺好用的。它这边准备了十个 agent, 有 主控 agent, 有 去专门干代码的,专门去探索代码的,也专门去做前端 ui 的, 挺好用的。 open code 整个的架构的话,其实跟那个 cloud code 差不多,用户输入成有绘画管理嘛,然后有 agent, 有 plan 就 计划,那 kolco 的 那边也有,那有 build 就是 直接干活的嘛,还有些探索的,其实 kolco 的 那边不是都有吗?以及你制定一些 agent 都有,那调度层这边就有些差别了。关于大模型的调度,因为 kolco 的 那边他只支持 angelic 协议的嘛,那这边的话就是实现了一套支持其他各种供应商的整体的架构的话,其实有很多值得学习的地方,如果大家对 kolco 感兴趣了,可以去他官方原码仓库去拉下来去学一下,那个仓库现在已经一百多 k 了,特别火。 那下面就是这个 oh my open code, 这个是我们今天讲的重点,因为他这一套多 a 镜的多模型的一个机制, 能让一个任务去拆解成各个阶段去开发,有复杂的用复杂的模型,简单的用简单的模型,这种才是一个 理想状态下的一个写作的方式嘛。那它本质上就是我刚才说的,它就是一个插件,通过 open code 暴露的一些钩子去拦截这一个 ai 的 一些行为,它的整个工作流程就是来一个用户输入之后,它去拦截 open code 的 一些钩子,这时候去做一些增强上下文呀,或者去选择多 a 帧特有可能是多个模型去协助,最后返回结果整体的一个流程就是这样子的。 那为什么需要多个代理?哈?他这边说的一个说法是专业的代理去做专业的事情,然后规划和执行分离,可以并行执行,按需去选模型,并且节省成本。那他现在这一个多代理的话, 就像最近 cloud code 新出的那个 agent teams 一 样,只不过 cloud code 它是很久很久之后才出的嘛,这个是老早就有了 omago code, 那 下面是它的一些 agent 的 一个分工,这一个是它的一个主要 agent 是 用了 cloud 的 off 四点六这个模型。 还有一些规划师就是在规划方面以及编排方面,他用的卡尔的最顶尖的模型,那代码磁性这一块的话是用的是 gbt 五点三 codex, 如果是一些比较轻量的任务,你可以用 gm 啊,或者 mini max 啊,以及其他都可以。那些前端这块的话,他用的 jimmy 三 plus 或者 pro, 这样子的话就一个任务进来之后他由这个去规划,规划完了之后,他让 jimmy 五点三去做执行,然后发现有前端任务,他这个时候就用 jimmy。 如果涉及到一些小修小改啊,比如说是一些国际化处理啊,多语言处理,这个时候它就完全可以用很低的那种模型去做这个事情嘛。这样的一个搭配其实我体验下来挺好的。 好,下面我们就开始分别去安装 opencode 和 oemopencode 的 这个插件。桌面端它现在也支持了,支持 macos、 windows、 linux, 我 体验下来的话,它有一些断流的情况,所以说我更推荐大家在使用 cio 版本,我们先来安装一下。 好,它提示我们已经安装了,我们来进去看一下,我们先切到一个免费的模型,你上面搜一个 free 这些模型的免费,我就用 mini max m 二点一吧,我们输入一下测试一下,看它安装好没有。 ok, 如果看到这步就证明你 open code 已经安装好了,这个时候我们就有安装那个插件,因为现在在 ai 时代,其实你安装东西都非常方便,尤其是它如果有文档,有开箱库的话, 你看这一个插件哈,欧麦 opencode 的 一个官方仓库里面直接就告诉你了,你直接用 qq 编辑的去装就行了,我就把这个复制一下,然后粘到刚刚我们开的这个 opencode 的 里面,用免费的 mini max 让他给我们去装,那下面就是他会弹出来让你做一些选择, 可以看到他让我们回答一些问题嘛,你有没有订阅 cloud code, 有 没有订阅 openai, 有 没有一些 jimmy 的 一些 model, 你 就根据自己的情况去选择就行了。强烈建议你不要在 open code 里面去用 cloud 的 模型,通过订阅的方式去用封号的概率非常高。那这边我就说都没有, 待会我也给大家一个配置,直接就可以用了,你只需要去搞一个 api k 过来,你就可以直接把这些模型都用上了,这时候我们都说都没有就完事了,因为这个配置后期都可以去改的。可以看到我们把插件安装成功之后,下面的这一个 a 镜头就变了,变成了 omone code, 它的那一套多 a 型的体系,可以看到它有好几个 a 型的体系可以去用,并且 这个插件那还有个好处,它的兼容性做得比较好。它已经把 cloud code 那 边你有的一些 skills, mcp, 还有那些自定义的命令全部弄过来了,比如说 skills 可以看到我的那些 script 它全部弄过来了,这样非常好。也就是说你可以来回签嘛,你有时候你要回去 copy 到那边用也可以。现在我们开始配模型,你可以通过 connect 这个命令去连接你想要的一些模型, 如果你有恰当的 gpt, 里面就选恰当的 gpt, 你 有其他的你就选其他的。那我这边的话,平时会用 jimmy 三点零去写前端嘛 code, 四点六去写架构和具体的一些代码,然后 gpt 五点三 codex 去做一些代码之星,以及解决一些疑难杂症。我喜欢用每一个模型擅长的能力哈,但是对大家来说的话,你如果像我一样去订阅三家的 ai 模型,其实你要花三分钱。我 订阅的一百刀的 code code, 然后今门来我订阅了两个号,一百四十刀, open ai 我 订阅了二十刀,那加起来就是一百六十刀。并且哈,我们刚也说了,如果你用 code code 的 去 授权到这边 opencode 的 去用的话,你封号的概率特别高。之前我还出了一期视频,专门去讲这个 curlcode 的 大面积去封禁 opencode 的 用户的一个事件, 因为刚开始他是不管的,后面他发现这个 opencode 的 日渐壮大之后,他就开始封禁了,你就不能授权到这里面用。 所以如果你要在 opencode 里面去用 cloudof 四点六的一个模型,我建议大家去用中转站,通过按 api 去计费用多少就算多少。那我这边推荐一个我一直在用的中转站接口 i, opencode 的 这边也已经支持了接口 i, 也就官方支持了嘛。 那前面几期视频我也推荐过,如果我要用到一些国外的模型,按 api 调用的话,我都用的是接口 i, 挺稳定的。最关键的一点,你不需要模仿网络,而且是国内付款的一个方式。 最近他们还专门针对海外的顶尖模型增加了一个套餐的方式,也就是说你可以用一份钱去用国外这些顶尖模型呢,目前有三个档位哈,可以按自己的一个需要去选择,相较于官方 api 按量计费的话,这一个套餐模式帮你省了百分之二十五的钱。 好,下面我们先来去创建一个 api key, 在 这个地方新建,我就随便取一个,我们就取 opencode 的 点击复制。这个时候我们回到 opencode 的 这边 附着 apk 之后,我们供应商选择接口,点 ai 敲击回车,把我们的 apk 输入下,然后保存,这时候你可以看到国内国外的模型都可以用,用一个 apk 你 就解决了多模型的一个适配问题。好,下面我们来进行一些其他的配置。 当你安装完 open code 以及欧曼 open code 插件之后,你会在你的工作目录下面点 config, 下面有一个 open code 目录,这里面有两个节省的配置文件,一个是配置 open code 的 一些模型的,另外一个是配置我们这一个 多 a 帧的协助的时候,它具体用哪些模型。这边的话我给大家直接准备了现成的,你直接到我的一个开源仓库里面直接去复制就可以了。下面来我这一个开源仓库里面,直接把这两个配置可以复制一下,把它粘过去就完事了。 好,我们把它覆盖一下保存,再把 omecode 的 也复制一下回来点击复制。 那这一块的话,你可以根据你自己的需要哈,因为 gpt 五点三这一个扣袋子模型的话,官方是没有出 api 的 版本,那后续如果 open i 那 边出了 api 版本接口, i 这边也会跟上,你就根据自己的需要嘛去看这块要不要注视这个内容,我们来复制一下。 好,我们把它覆盖完了,覆盖完了之后,我们重启一下,你就可以看到 color 的 open 四点六已经可用了, 就这几个 a 帧的,它配置的模型都可用了。那下面我们开始进入实战的一个环节,有了 o my open code 插件之后,我们看一下多 a 帧多模型协助的一个流程。我这边有一个纹身图的 a 帧,我希望让它去加一些功能,在这边加一些删除的动作,能把历史记录删除掉,同时在左下角 做一些设置的动作,可以去更新你的一些头像啊,以及我们那些历史提示词,能支持去快速的复制展开开干, 那提示词的话也比较简单,我们这边加一个 alterwork, 让它去更深入的去工作,去分析。 好,我们切到 opencode 这边,这个就是它的整个架构 agent, 它用的是 off 四点六,那这个的话是干活的 agent, 它用的 gpt 五点三,还有些其他的 agent, 也就说它是多 agent 多模型去写作的一个流程。好,我们把提示词粘过来让它干活, 这里提示 autowork 已经开启了,这个时候可以看到它开启了一个探索的沙背 a 技能吗?用的是很便宜的一个模型,这个过程就跟在 clockcode 的是一样的,这里又开了一个新的, 可以看到它一直在开一些新的沙背 a 技能的任务去做探索。啊。好,这里又开启了一个计划的 task, 也就是一个沙背 a 技能,我可以点进去看一下它在做什么, 可以看到他就是把已有收集到的一些代码信息,整个代码空间来去做一轮分析,让这个 off 四点六做一个计划出来,这个时候他这一个主要的协调 a 技能在等,等他这个后台的这个计划任务完成完了之后,这个时候他再去协调其他的 a 技能去干活。 可以看到它这一个经过几轮的一个探索之后哈它得到了一个突突像,那这个突突像的话,它根据后端、前端以及一些小需求拆成了很多突突像,这个时候它就开始去并行执行修改任务了,可以看到它这里又开启了几个 safari 的。 有一个点要看的话是他的这个三倍镜,他开的时候,他其实这个时候是用的 jamal 三 plus 这个模型,也就说他认为这个任务其你根本就没必要用一个很高的模型去做这个事情,所以说他默认给你路由到了一个简单模型, 它这种规划任务的方式就能把模型最大化的利用起来。复杂的任务用复杂的模型,简单的任务用简单的模型就很完美。可以看到它开始去执行 t 四跟 t 六这两个任务了,而且它依赖关系也找出来了。这个就像前两天发布的 cloud agent teams 的 一个写作流程,只不过这个是老早就有了这个插件老早就有了这种多 a 的 写作,最终被 cloud code 写到一个官方的库里面去了。 然后他们那种通信机制就跟爱信的 tim 是 很像。哎呀妈这个系统通知 coco 的, 其实他很多方案是借鉴了社区的,因为社区搞出来之后, 他觉得确实是 ok, 可以 的,那他就把它集成到 coco 的 里面。所以这 coco 的 从它诞生之后的很多功能迭代都参考了开元社区的一些做法,而且他的也在他的一些技术博克里面有,感谢一些开元社区的人提供了一些解决方案。 就像你做产品一样,你产品迭代的过程中,你光靠产品经理去,有时候发觉不了用户的一些真实的需求,那真实的需求暴露出来之后,社区他就解决了,那你就可以去把一些已经解决的痛点的问题提升到自己的产品里面。 可以看到这所有的凸凸像它全部完成了哈,包含三个任务,我们现在来看一下它整体的效果怎么样。首先是左侧的这个删除功能好,确认删除 ok, 确认可以,并且弹窗也是正常的。其实我们看这个可以复制已有的提示词, 可以复制折叠展开是 ok 的。 下面就是这一个左下角的设置,可以去更新昵称跟头像这一些啊,可以看到他这边其实也做好了。 好,我找一张图像试一下看可以吗?前面加一个我的名字吧,看可以吗? 可以,已经保存了。可以的,这个看起来他做的挺好的,英文啊,英文设置也是 ok 的, 多源设置也是 ok 的。 整体这一次任务的话,他全部搞定了呀,就是虽然不是特别难的,但是他协调了多个 a 镜的去干活,而且都能交付的很完美,中间我没有做任何的介入, 所以说这个工具啊,真的推荐大家去用一下这个多 a 镜的协助真的挺好用的,下面我来总结一下。使用 open code 再加那个插件, open code 再配合你用一个接口外的中转站,可以做到 模型自由稳定,省心,你也不怕被封号。第二个的话是成本灵活,这就是今天所有的视频内容,如果你觉得这期视频对你有帮助的话,可以给我一件善良,谢谢大家。拜拜。拜拜。

在这个世界上,有一个极其反常的现象,普通人写文案都在用 chats gpt。 但如果你去看看硅谷顶级程序员的电脑屏幕,会发现他们中百分之九十的人已经悄悄导歌,换成了另一个软件。 今天一口气带你了解那个曾被全网群嘲的叛徒,是如何觉醒成让所有程序员胆寒的代码之神。 想当年, clark 的 核心团队原本是 chat gpt 的 亲生父母,但因为看不惯老东家为了赚钱不顾一切的吃相, 他们愤然出走,立志要做一个最安全的 ai。 但在当时那个算力为王的狂热年代,大家只看中谁更聪明。早期的 clark 因为安全限制太多,动不动就拒绝回答,被全网群嘲是道德洁癖、毫无用处的废物。 在那段漫长的低谷期里,叉叉 ppt 坐在铁王座上,俯视天下。所有人都以为这场硅谷复仇季还没开始就结束了, 但是天才的复仇往往只需要一瞬间。当所有人都在等看笑话时, klo 突然扔出了一枚核弹。 klo 的 三点五闪耀登场, 这一次他不装了。大家惊恐地发现,这个曾经的老实人竟然把技能树权点在了代码和逻辑推理上。 在多个编程测试中, cloud 的 成绩甚至开始反超 gpt。 你 扔给他十万行杂乱无章、连人都看不懂的祖传史山代码,他能在几秒钟内精准揪出那个致命的 bug。 更恐怖的事,他直接改变了人类写代码的方式。以前用叉 g g p d 编程,你还得把代码复制下来,跑到专业软件里去运行去查错。 但 cloud 直接掏出了一个叫 r t f x 的 神级武器,你对他说,帮我写个俄罗斯方块。十秒钟后,他不仅把代码写好了,还直接在网页右边给你渲染出了一个完整的游戏, 你甚至可以直接用键盘开始玩。这种不用配环境,不用下软件,所说即所得的降维打击,让无数开发者头皮发麻。 如今,配合着 ai 编程工具 curser, cloud 已经成了程序员的终极外挂。即使是毫无计算机基础的大学生,也能在一个下午只靠说人话就做出一个极其复杂的网站。 从被嘲笑的弃子,到彻底颠覆编程世界的造物主, cloud 证明了一个硬核的真理。真正的颠覆,从来不是跟在别人屁股后面模仿,而是直接掀翻那张旧时代的牌桌。

我说一个可能得罪人的观点,百分之九十九的人不需要 openclo。 最近火遍全网的养龙虾项目,其实就是 openclo。 一个开源 ai 框架,能让一个自主 ai 代理像私人助手一样连接工具,执行实际任务,帮你自动化工作流。 简单来说,我们目前使用的 deep seek 叉、十 gpt, 都只能在页面解答问题,不能真正帮你动手操作。但有了 open code, 它能自动在电脑上做事,比如帮你处理飞书信息、整理推特热点,制作并发布视频等等。听起来是不是很酷?像你的 ai 私人秘书,处理琐碎工作, 但我先泼一盆冷水,百分之九十九的人不需要 openclaw 的 自动化。不是自动化不好,是你还没到那个阶段,为了搞个 openclaw 还要买 mac mini, 又或者去搞 vps, 钱哗哗往外流,正事没干多少,全在瞎折腾。 大 v 天天发 openclaw 搭建一人公司,省了几百万,赚了多少道?你是不是真信了?醒醒吧,你连 chatbot 都玩不明白,就想搞读 agent 写作,你连提示词都写不好,就想让 ai 帮你自动决策。 你连工作流都没有,就想搞工作流自动化?你连本地 a 证他都没碰过,就想玩虚拟公司? openq 就是 这种跳级心态的典型产物。你搭一个虚拟公司 ceo、 产品经理、工程师,测试财务? 对,还有财务,一个跑在你电脑上的 ai 框架,配了一个财务角色。我真不知道这个财务是管什么的,管你头肯花了多少钱吗?那他应该第一个跳出来喊停, 因为 openclaw 几句话就能把你的 token 跑完,几个 agent 来回开会讨论审批, token 像烧钱一样消失,你花了几美元甚至十几美元得到一个半成品。 安装倒是简单,但跑起来问题一堆,配置冲突,调用超时,结果不可控。你花半天时间调试,最后发现还不如自己打开 cloud, 直接问来得快。不对,有的人连 cloud 都没装上呢。这就是一个过度产品, cloud code 已经出了远程控制,几大 ai 公司只会推出更强大更好用的方案。 就像超级大鳄龙,端上桌就能吃,不用你自己下海去捞。你现在折腾 open clone, 就是 在自己下海捞龙虾。等你终于捞上来了,隔壁桌上已经端上了处理好的。与其把头耕田烧在这上面,不如做一件真正有意义的事。 先让 ai 介入你的日常工作,把手头一件具体的事用 ai 做的更好,比搞虚拟公司实在一万倍。先学走,再学跑。

装了 openclaw, 但发现它什么也干不了,甚至有点笨。那是因为你还没有去 clawhub 给它装 skill。 clawhub 上有一万七千多个 skill, 我 从下载量前三十和我自己高频使用的做了交叉筛选, 只推荐这十个,装完至少强三倍。第一个 skill writing, 安全审查员,他会在你安装任何 skill 之前扫描安全风险检查红旗标识、权健范围和可疑模式,能检测 prom 的 注入工具、逃毒、隐藏恶意代码。建议在装任何其他 skill 之前先把它装上。第二个自我进化 skill, 它是 cloud 交互下载量第一的 scale, 解决大模型失忆症。它会自动把每次的错误日期、成功经验和你的编号存到本地数据库,下次遇到类似问题,直接调用历史经验实现,越用越聪明。这个 scale 的 价值不在于第一天,而在于第三十天, 用的越久, agent 越像你的数字分身。第三个, tablie search ai 专属搜索引擎,让 agent 学会上网搜索,而且搜出来结果是 ai 友好的。 不同于传统搜索引擎返回一堆链接, tabl 直接返回干净的结构化内容, agent 拿到就能用。第四个 summarize, 全格式内容,摘药专家,网页、 pdf, 图片、音频、视频,什么格式都能一口吞下去给你摘药。 我的日常用法是 tabla 搜索加 summary 总结,先搜到相关页面,再把整篇内容压缩成五百字未给上架文,效率翻倍。第五个, find scales, 寻找 scale 的 scale, 用自然语言告诉 agent 你 需要什么技能,它帮你找到并安装对应的 scale, 不知道装什么的时候直接问他就行。六个 using superpowers 来源于 superpowers, 这个强大的插件,核心理念是让 agent 严格按照先查 scale 再行动的规则做事,杜绝偷懒和无距离探索。如果你发现 agent 不 用你装好的 scale, 就 自己瞎搞, 这个 scale 能帮你管教他。第七个, react 最佳实践技能的性能优化圣经 worst one 方共同团队出品, react 和 next 最佳实践前端开发者必装。 第八个前端设计技能,帮你写出更有设计感的前端页面。按 zorbike 官方出品强制 agent 先做设计思考,再写代码,把从能跑就行提升到设计合格。第九个, github github 全流程操控,让 agent 直接操作你的 github 仓库, asos prci 一 条命令搞定。最后一个浏览器操作技能,让你的 opencloud 像人一样打开网页,点击按钮,填写表单,截图画面。最后帮大家总结一下。

ok, 上上一期教大家安装了这个 cloud, 这一期教大家怎么去配置国内的大模型啊?配置国内的大模型的话就很简单,只需要设置一下这个对应的对应的一些参数就可以了。 首先我们要了解到国内的大模型它基本上都是支持这个 open ai 协议的,然后有一些模型它已经是支持 ostopic 这个协议的。然后然后的话,我这里以智普 ai 为例啊,它是支持这个 osrbic 这个协议的, 然后它新用户的话会赠送这个两千万的 talking, 你 正好可以来进行这个练手,现在已经出到了 g m l 五。好,我们打开它的官网 这个智普 ai 开放平台,可以看到它这里有很多模型可以用,然后我们使用的话,它关这个 cloud, 它是 默认是使用这个 osnoop 这个协议,然后我们获取令牌。首先打开这个智普 ai 平台,然后我们需要登录一下这里,我已经登录好了,然后创建一个新的 api key, 比如这里啊,我这里就不新创创建了吧,这里我因为我之前创建了很多。 然后我们再打开这个文件夹,点 close 这个文件夹,这个文件夹在哪个位置啊?比如我们打开,然后点到我们的 c 盘,然后选择用户,然后你对应的你的用户名叫什么,你系统的用户名叫什么?就点开这个文件夹,下面有一个点 close, 前面的这个路径不一定像一样,但是后面这个点 close 下面的是一样的,因为我们这里没有启动它,这里还没有那一个命令,所以我们先把这个 close 启动一次 啊,没有那个文啊,没有那个文件哈,就这个 setting 点接受这个文件,需要首次启动过后,它会自动生成,你输入 close 进行启动一下, 那我们回测一下,然后选择信任这个文件夹啊,比如我输入一个,你好,这里显示 显示它这个模,它这个模型不可用,然后我们在这里来啊,这里它没有促死化,正常来说它这里会自动生成一个 setting 剪节省文件,如果没有的话,我们新建一个也是一样的啊, setting 把后缀改成 jsen, setting 剪节省,然后再编辑一下, 我们直接打开这个,然后把这个参数直接复制进来,然后这里填你的 api key, 这个 api key 的 话,我们就是比如我们在字谱上面,然后就可以拿到这个 api key, 然后我这里以这个 code 这个 api key 为例,这个 api key 的 话大家最好是不要泄露出来, 然后这个模型的话,你可以自动的自己去配置,这个模型的话,我们可以打开这个官网,可以看到它这里有一个大模型,然后可以看到有很多模型啊,比如新出的 g m 五, g m 四点六 v, 这些都是可以用的,我们这里以 g m 五为例吧,然后把这个模型名称改成 glm 五, 然后地址的话就不用变了,然后 这个模型的话我们就设置的御姐参数,可以看我们我们后面的讲解,这里就跟着配置就行了。然后这一个是啊,就是给它开启最高的权限,它每次执行这种任务,它就不需要让我们再进行确认了,然后 ctrl s 保存一下, 然后关闭,然后我们再重新启动一下这个 code 关闭,然后再右键输入 cmd, 然后再输入 code 测试一下。 对,等待它启动, 然后再按任意键,然后选择 yes 啊,这里我们可以看到它这里模型它是并没有改变,这说明我们没有配置成功,可以测试一下。你好,它这里应该是没有配置成功的,因为它这里模型没有变, 你再看一下是不是路径配置错了。 q d 点 close, 点 setting, 点节省,是不是文件名称输入输入错误了,最好去 settings, 少了,少了一个 s, 我 们这里可以看到这里我们少了一个 s, 所以 导致了没有配置成功。我们来把这个文件名称修改一下,换成正确的,然后我们再重新启动一下,依旧是 win 加 r, 输入 cmd, file a, u d, e, 再重新启动一下,好,再回车,选择确认这个文件夹, 然后选择我接受,然后这里我们看到我们这个模型已经变成了我们刚配置的 glm 五,所以这里算是配置成功了。然后我们再输入个你好, 然后它如果正常回复,那应该是没有问题的啊,这当前套餐未开放 glm 五的权限,所以我们这个模型给它换一下,我们可以在手这里手动更换一下 model, 也可以直接修改这个配置文件,比如这里改成改成四点七吧,四点七, gm, 四点七。 好,我们这里重新启动一下,我们重新启动吧,就不不在这个刚 model, 刚 model 它是用来配置模型的,这一这么一个命令,我们重新启动一下,还是依旧输入 close, 然后继续回车信任这个文件夹,然后输入。你好,测试一下我们配置的这个模型是否成功? ok, 这里是可以了 啊。好,这里配置国内的这个大模型已经成功了,当然你可以选择使用这个 open ai 的 协议。我们以这个摩塔社区为例,我们可以使用 npm 安装一个一个这个插件,然后 它需要在这个 dongle 的 router, 这个路径的话是和那个 dongle 的 这个文件夹的路径是一样的。然后我们在这个里面 config 点接受里面去配置一下这个你获取到的这个 api key 和 这个对应的模型名称就可以了。比如这里是配置的千万三 qd, 这个依旧是一样的,然后启动命令可能不一样了,它需要变成这个 c c r 扣的。这里的话,你如果使用的那个大模型,它不支持这个光学的这个协议的话,你需要去下载一个这个插件,然后它就可以支持 open ai 的 这个协议了。 ok, 其他的的话我们这里也有几个举例,比如阿里的,阿里的你需要去他的官网也去获取一下 k 或者 kimi, kimi, k 二,然后其他的 deepsea 也可以,我这里经常使用的是智普 ai。 好 的,这里这一期视频就到这里了,下期我们来讲一下这个常见的这些命令。

ai 巨头之间的较量,终于从暗流涌动变成了明面上的对抗。如果你最近有关注印度的 ai 峰会,你可能会注意到一个很有意思的细节, openai 的 ceo sham 奥特曼和 inter operative ceo 达里奥阿莫迪在传统的合影环节甚至连挨着站都不愿意了。这两个站在人类科技金字塔间的男人,彼此之间的隔阂已经肉眼可见, 这并不是普通的商业竞争,而是底层的战略级对抗。前阵子,开源社区出了一个爆款的自动化框架,一开始它的名字叫 cloud bot anthropic, 一 看这名字太容易让人误解,这是我们的官方产品了,马上发了一封律师函,要求对方改名, 于是这个项目改名为 openclaw。 结果极其戏剧性的一幕出现了, openclaw 火速介入,直接询问并拿下了 openclaw 的 相关权力,在老对手的伤口上撒盐。 openclaw 这一招可以说是非常精准的战术阻击, 但面对 openclaw 的 强势介入, antropic 没有在社交媒体上打嘴炮,而是选择用最即刻的方式回敬, 直接在产品上掀桌子。就在昨天, anthropoc 为他们的核心开发工具 cloud code 以及 co work 平台推送了一次重磅更新。这次更新的出现,可以说是对 open cloud 这类第三方框架形成了一次降维打击。业内人士普遍认为, anthropoc 在 自家内部打造出了一个真正的 open club 替代者。 今天我们就来系统的盘一盘,这场神仙打架背后, entropic 到底放出了什么大招?这又将如何彻底改变你我的工作方式?故事的核心围绕着两个堪称打工人外挂的新功能展开。我们先说第一个功能, remote control, 也就是远程控制。要理解这个功能的震撼之处,我们先打个比方, 以前我们用 ai 写代码或者处理复杂任务,就像是在厨房里指挥一个厨师,你必须一直站在厨房里盯着他,一步步告诉他先切菜再倒油。由于代码和环境都在你的本地电脑上,如果你合上电脑,转身离开,这个厨师就只能停下手里所有的工作。这就导致了一个痛点, 开发者的本质被死死的绑在了物理桌面前,但是 remote control 彻底打破了这个物理限制。现在你只需要在电脑终端输入一行简单的指令, remote control 就 可以启动一个本地的工作绘画,然后 你就可以直接合上屏幕,出门去开会、去坐地铁,甚至是去公园散步了。当你在外面的时候,打开手机上的 cloud, 你 依然可以远程查找、指挥和管理这台电脑上的跑代码, 运行 m c p 服务器,而控制这一切的遥控器就在你的口袋里。用 cloud 团队产品经理的话说,开发者们终于可以去摸摸外面的草地,看看天上的太阳, 而它们的开发环境依然在保持高效运转。目前这个功能还在 mac 用户的预览测试阶段,但很快就会向大部分用户开放。它本质上是实现了云端大脑与本地双手的完美分离,不仅保证了底层代码的数据安全性,又赋予了用户极大的移动自由。如果说远程控制只是给了你空间的自由, 那么 android 放出的第二个大招则是直接重塑了时间的利用率,这就是 co work 平台中的 scheduled tasks 定时任务功能。为什么 opencll 前阵子会在科技圈爆火,很大程度上是因为很多人展示了它自动执行电脑任务的能力。大家一看, ai 能自己动鼠标键盘,太神奇了。但说实话,这种基于脚本的自动化工具在技术圈早就存在了, 比如之前的 agent zero, 这些工具的通病是配置门槛高,往往需要各种外部插件和胶水代码来缝合,非常脆弱。 而 cloud 现在的做法是不折腾了,我直接把自动化内置到 ai 的 基因里,给 ai 加上定时任务,相当于什么呢?相当于你以前雇的是一个前台客服,你问一句,他答一句。现在你雇的是一个拥有你办公室钥匙的全职执行助理。在视频的演示中,你可以直接对 cloud 说, 从今天起,每天早上八点,调用擅长处理浏览器任务的最新 sonic 四点六模型,帮我自动执行以下操作,第一,全网扫描各大权威信息员的 ai 行业新闻。 第二,总结出三到五个最重磅的模型发布信息。第三,去 github 上拉取排名前五的热门开源项目。最后,根据这些趋势,给我生成五个爆款视频的选题方案, 设置好之后,你就可以安心去睡觉了。每天早上,当你的闹钟响起时,一份排版精美、逻辑严密、信息详实的 markdown 格式报告就已经安安静静地躺在你的屏幕 前了。你不需要再去学习怎么使用其他复杂的自动化流水线软件, cloud 的 自己就是一个不知疲倦的超级助理团队,而且通过 co work 里新加入的定制化插件功能, cloud 还能拥有跨越设计、工程、运营等多个领域的专业技能。看到这里,你可能就明白为什么我说 cloud 这次更新对市面上的自动化框架造成了巨大的冲击。在科技行业有一个铁律, 当最顶级的 ai 实验室开始把某些高级功能作为原声服务提供时,单纯依靠拼凑 api 来做外围包装的工具就会迅速失去神秘感。既然用户已经有了一个能听懂人话、能定时干活、还能在手机上远程遥控的原声 ai 引擎 去费时费力配置,第三方框架的重要性就大大降低了。其实不只是 anastropy 在 这么做,如果你仔细观察整个科技圈的动向,你会发现一个巨大的共识正在形成, ai 正在从副驾驶全面走向自动驾驶。比如 notion 最近推出了针对团队的自主 ai 特工, 只要设置好触发条件,它就能自动推进项目进程。再比如, perplexity 推出的电脑更新,将各种 ai 能力统一,让它能自主去研究、设计和部署。整个行业都在试图打造一套不需要人类时刻紧盯的数字员工体系。 在这场轰轰烈烈的自动化浪潮中, openai 急急忙忙拿下 opencloud, 或许是为了快速补齐在本地自动化工作流上的拼图,但就目前的落地方案来看, antropica 通过直接升级底层架构打出的这套组合拳逻辑更加自洽, 普通用户的体验门槛也更低。从必须坐在桌前敲键盘,到能在手机上遥控电脑干活,再到连遥控都不需要, ai 按时按点自动把货干完。 技术的眼镜正在以前所未有的速度剥离繁琐的操作,把最宝贵的时间还给我们。在这个 ai 狂飙的时代,谁能率先把这些原声自动化工具用好,谁就能在无形中成倍的放大自己的产出。强烈推荐你读读这本 deep seek 极简入门与应用,它专门为普通人编辑、 剖析 deepsea 结构,零基础也能轻松上手。别只做历史的见证者,从学会使用它开始,变成你个人的核心竞争力。关注我,带你看清科技前沿的新风向!也欢迎大家加入我的会员视频专区,了解更多有趣的科学知识。

在二零二六年, open code 和 openwork 可能是我们个人 ai 使用者能够用到的性价比最高的 ai 智能体工具了。在个人日常办公、文件处理、数据分析以及报表生成、 ppt 生成这些领域, open code 是 真的能够直接接管你所有工作的工具, 支持 m c p, 也支持 ansapic 最新发布的 agent skill 功能。同时它还支持市面上几十种 ai 大 模型,还提供大量的免费 ai 模型供你使用。 哪怕你想尝试 ai 编程, open code 也是功能强大且性价比最高的工具。那么今天我就来为大家介绍一下如何安装和使用 open code 这款的 code code 的 工具,以及 open work 这款对标 co work 的 开源个人办公助手。 今天的视频分为以下几个内容,首先我们来快速安装 open code, 包括命令行和桌面 app, 然后了解一下如何做相关的环境设置以及添加 agent skill。 然后我们来安装 openwork 这款开源版的 cloud co work 工具,并熟悉一下相关的设置。最后我们来快速了解一下大模型的选择以及 token 的 消耗相关问题。视频中的内容和安装步骤我都整理成了知识笔记,视频的最后会分享给大家,那我们就正式开始。 opencode 的 安装非常简单,因为它不像 cloud code 那 么避远,而 sapic 对 cloud 的 使用有非常严格的限制,大多数情况下,我们还得通过配置环境变量来使用第三方 ai 模型, 而 opencode 的 不用。它的安装方法非常简单,直接到它的官网下载桌面客户端下载之后双击安装即可。如果你习惯命令行工具,也可以直接通过命令行命令行版本,具体的命令在它的官网上都有。 安装之后打开桌面客户端,选择你的项目文件夹,然后我们就来到了项目界面。接下来我们要做的第一件事就是选择一个 ai 大 模型, 我们点开选择模型这个按钮,在弹出的窗口中可以看到模型列表,其中最上面列出的是目前提供的免费模型,我们先选择一个免费模型,这里我们选择 mini max m 二点一。 然后在 ai 对 话框的左下角有一个 build 和 plan 的 模式切换按钮,那这两个有什么区别呢? build 的 意思就是直接建造, ai 会按照你的要求直接修改文件、编辑代码、删除文件等等。 而 plan 就是 做计划,先进行分析和规划,但并不会真的动手去做,等你先确认 ai 给你的规划你满意了,再切换到 build 模式去进行实际操作。 build 和 plan 是 两个默认的智能体,我们还可以通过配置文件来添加自定义的智能体,这个我一会儿会说到, 那么这就是 ai 对 话框的两个设置项目。接下来我们要了解几个核心的技巧。首先就是斜杠命令,在 ai 对 话框中输入斜杠就能看到斜杠命令了,比如斜杠 init 是 促使化项目并创建 agent 点 m d 斜杠 m c p 是 打开 m c p 列表,查看你已经连接的 m c p 服务,这里呢就引出了下一个核心技巧,也就是配置文件。我们通过斜杠以 n t 出示话来创建的 agent 点 m d 文件是项目特定的配置文件,比如项目结构、编码规范、命名规范等等, 这些大多数都是和编程有关的,如果你不写代码,而只关注个人日常办公和文件管理的话,不用关心这个。另一个文件就是 open code 点 json 这个配置文件。这个配置文件所在的位置是你用户目录下的点 config 文件夹下的 open code 目录下, windows 就是 c 盘 user 你 的用户名,然后找到点 config。 而 mac 用户是你用户主目录下的点 config 文件夹。要注意, mac 上带点的目录默认是隐藏的,你要使用 command 加 shift 加点,把它们显示出来。 这个 open code 点 json 文件或者是点 json 文件,就是 open code 的 核心配置文件了。点 json 就是 json with comments, 就是 带有注视的 json 文件,本质上就是 json。 那在这里我们可以配置 mcp 服务以及自定义 agent。 我 目前就配置了一个 notion 的 mcp 啊。 notion 的 mcp 也很简单,是 notion 官方发布的,我之前的视频有讲过, 我还自定义了一个叫 smart build 的 智能体,并设置了系统提示词。那这样一来,在 ai 对 话框中,你除了能看到 build 和 plan 这两个默认 agent 之外,还能看到你自己配置的 agent。 有 关 open code 点 json 这个配置文件的详细写法,大家可以参考 open code 的 官方文档。 那么关掉 open code, 点这一次文件,在当前这个 open code 文件夹下,我们可以创建一个 skills 文件夹,然后把我们从 github 上下载的 skills 复制进来,那么我们的 open code 就 安装上这些 skills。 其实和 cloud code 是 非常相似的, 我目前也是安装了很多日常工作相关的 skill, 比如 word, excel, pdf, 还有无线画布、 comics 相关的 skill。 那 关于 skill 我 之前的视频也讲过,那么到此我们就完成了 open code 的 所有配置。那总结一下,安装完 open code 后, 选择一个免费的 ai 模型,然后在用户目录下的点 configure 文件夹下的 opencode 文件夹里创建一个 skills 文件夹,把你常用的 skills 复制进来,你的 opencode 就 已经是完全体了。那至于 mcp 和自定义 agent, 按照你的需求到 opencode 点 jc 文件里添加就可以了。 那具体的使用,我在屏幕上快速地做一个展示,比如输入一个指令,让智能体调用相应的 skills 来为我们进行英文文档的翻译,并拣写成中文的知识笔记。还可以读取 rss 订阅,并通过 notion mcp 把获取到的 rss 信息导入到 notion 数据库中。 还有一个最便捷的使用场景是直接把 github 上的开源项目的项目地址发给 opencode, 让它来帮你安装在电脑上,那这样你就不需要自己亲自去阅读这一大片英文的 readme 文档,那非常的方便。 但是归根结底, open code 还是一款侧重于编程的工具,和 cloud code 是 类似的,但是在我们日常工作中用的最多的就是办公场景,比如文件的处理、数据分析、办公流程等内容。那么这里最好用的工具就是 openwork, 它是在 open code 的 引擎基础上构建的桌面应用程序,和 cloud 最新推出的 codewalk 一 样,针对非技术用户和日常办公场景进行了大量的优化,有非常好用的图形化界面,那使用起来几乎没有什么难度。接下来我们就来快速安装一下 openwork。 我 们来到 gitlab 的 openwork 仓库,点击右侧的 release 链接,在列表中选择适配自己操作系统的安装文件,下载之后双击安装即可。 然后打开 openwork, 首先还是选择一个文件夹,这个文件夹就可以选择你日常办公的文件夹,比如放置你的报表和 ppt 的 文件夹,也可以是你的 obscene 知识库。文件夹 打开之后,我们点击 new task 按钮,就可以开启一轮 ai 对 话了。当然我们还是要选择一个 ai 模型,我们依旧选择一个免费的模型。 mini max m 二点一 这个时候我们在右边的菜单栏能看到一些内容,包括已经连接的 m c p 服务、已经安装的 skills 以及已经安装的插件等等。 我们先点击左上角的后退按钮,回到主页面,在左侧菜单栏中就能看到一些设置选项,比如我们点击 skills 就 能看到已经安装的 skills, 还可以点击导入按钮来导入你下载的 skills, 或者直接打开 skills 所在的文件夹。 那这样的图形界面是非常一目了然的,比之前的 open code 界面要直观很多。我们点击左侧的 mcp 选项,页面中就显示了你所连接的 mcp 服务,它默认给你提供了一些 mcp, 比如 notion, stripe 这些。 把滚动条拉到最下面,在 edit mcp config 里就可以编辑我们刚才说过的 open code 点 jc 文件了,那这里我们就不多讲了。 然后在 plug ins 界面,我们可以安装一些插件,这里我推荐一个 github 上名字为 awesome open code 的 仓库,里面收集了大量的优质 open code 插件, 把插件的名称复制到 openwork 的 plug ins 界面中的 add plug ins 文本框内,然后点击 add 按钮就可以添加插件了。 比如你可以添加一个 google ai 搜索插件来增强 opencode 的 网络搜索能力。再比如,你可以添加 gemini 身份验证这个插件,来让 opencode 能够使用你谷歌账户中现有的 gemini 套餐的额度。 我们都知道谷歌的 ai 订阅用户会有大量的 java c l i 和 anti gravity 的 ai 额度,那通过这个插件就可以使用 java c l i 的 ai 额度。假如将来 open code 不 再提供这么多免费的 ai 模型,那么这个插件可以让你使用你的 java c l i 额度来进行智能体操作。 同理还有 open ai 的 codex 认证插件,原理也是一样的。这个仓库里还有一些其他资源,比如魔兽争霸通知音效插件,再比如一些 open code 的 皮肤主题, 大家根据自己的需求来使用就可以了。那如果你是 opcode 用户,你可以搜索 opencode 横线 opcode, 这个插件能够让你直接在 opcode 界面中使用 opencode, 那么到此我们就完成了所有的环境配置。回到我们刚才的 ai 对 话框,就可以发送指令让智能体来为你执行任务了, 我们由 skills 来为我们执行特定的任务。还有 m c p 连接外部系统,比如 notion 推出云文档、微软 office 三六五和 autodesk 邮箱等等。 我们的 openwork 现在是真正意义上的核心枢纽,连接你所有的工具。所以我才说 openwork 和 openwork 可能真的是你二零二六年的主力 ai 的 工具了。 那最后我还是来讲一下 token 的 问题,智能体的操作非常的消耗 token, 所以 最近很多 ai 厂商都推出了一些套餐,比如智普 g l m 和 mini max 都推出了 coding plan, 几个小时之内允许你发送特定数量的请求。 还有就像我刚才所说,我们可以通过插件来使用 gemini c i 或者 codex 的 ai 额度,尤其是谷歌 gemini, 那它的编程工具呢?做的不咋样,但是得益于它自家土豪般的 tpu 和语音服务,它的 ai 额度还是非常慷慨的。所以如果未来有一天 opencode 不 再像现在这样提供这么多免费的 ai 模型,那么大家就可以考虑我刚才说的这几个途径来以更高的性价比来使用 opencode。 另外 opencode 还支持连接本地大模型,比如 alamo 和 lm studio。 本地大模型的优势是极致的隐私性,但是性能还是比不过云端大模型的。另外还比较吃电脑的配置, 以我之前视频中大家给我的留言来看,很多人的电脑性能并没有那么的好,部署本地大模型还是比较吃力的, 所以大家还是根据自己的实际情况来选择适合自己的大模型。那么到此今天视频中的内容就全部结束了,大家现在就可以开始安装部署自己的 ai 智能体了。那具体的安装步骤我整理成了文档, 大家可以在我的频道信息中看到我的个人主页地址,然后直接去下载就可以了,有任何问题都可以给我留言,记得点赞关注,谢谢大家!

看好了,不登录、不绑卡,没有网络问题,国内顶尖模型免费用!打开终端,输入命令,敲下回车,立刻就能开始生成代码,这就是能力比肩 cloud code 的 同时,完全开源,完全免费,完全开放的 ai 编程界新星 opencode, 全平台支持安装使用超级简单,全部只需要这一行命令就可以完成。 mac 下还可以用 homebrew 安装。官方网站有非常详细的功能说明和完整的配置项列表可以供我们参考。 如果你不想看英文的话,也有这个中文站,有完整的官方文档翻译,可以帮助我们快速的上手使用。更加劲爆的是, open code 完美支持 cloud 的 agent, 直接把 md 文档复制过来,立刻就可以使用。 所以最最无敌的是社区还有这个 o my open code 的 插件,提供了开箱就可以使用的赛博研发军团。 看看这些真实的用户反馈,下一期视频,我来介绍一下他的详细用法。当顶级的工具已经免费并且极低门槛就可以使用的时候,决定你和高手之间的差距,就只剩下行动力了。不要收藏了,现在立刻马上就去把它安装起来,用起来!关注我,带你玩转 ai 编程!

兄弟们,这个工具直接给 ai 装上架构透视眼,谁用谁香,尤其是刚接触新项目的程序员,直接把代码库扔给他,立马生成一张活脑图, 零服务器,全浏览器运行,堪称 ai 智能体的专属代码大脑,不用复杂操作,打开就能用。最牛的是它采用 graph 二 a 级设计思路,不管你用 cloud code、 cursor 还是其他 ai 编辑器,都能无缝衔接,不用切换软件,效率直接拉满。 我实测分析了两个项目,一个是 gitnexus 本身,另一个就是最近超火的 openclaw, 步骤很简单,只需要在对应的项目目录中执行命令, npx、 gitnexus analyze。 不过像 openclaw 这样复杂的工程,就需要通过新的工程目录执行,不然会像我这样报错。接着 gitnexus 就 会生成对应的 agents 点 md, cloud 点 md 以及一些 skills, 并且缩影到局的服务里。现在我们可以通过这里切换分析过的项目, 对比太明显了, openclaw 的 复杂度直接拉满,节点数从 get nexus 的 一千六百个飙升到 openclaw 的 两万个,这个火脑图效果组织起来还是挺壮观的。 然后左边的 explore 咱们可以先不看,就是项目的结构,我们主要来玩一下右边的 filters, 看到名字大家肯定也猜到了,就是精准筛选。我们先把过滤的条件清空,然后点一下 function 是 不是清晰很多,然后点击每个节点,就能知道它和哪些节点有关联, 而且节点还能拖动,放大、缩小都很丝滑。接着再来看下面的 h types, 就 代表节点之间的联系是哪些类型,比如这边列出来的包含定义、导入、继承、实现, 最后一个就是节点关系的层数,默认是全选。是不是瞬间感觉自己有了上帝视角,连看代码的角度都不一样了? 当然,这种能力主要是赋能给 ai 的。 有了这些精准的架构信息, ai 再也不是瞎改代码,而是吃透整个项目逻辑在干活。咱们写代码改 bug 直接事半功倍。 现在开发者想本地运行,输入一行命令就搞定了。小白想快速用,直接浏览器打开就行, 零安装零服务器,上手无压力。不管是日常开发代码分析,还是 ai 智能体集成,他都能扛住。程序员有了他,直接少走一半弯路。关注我,带你解锁更多好用好玩的!

谷歌把 openclaw 禁了, cloud 也禁了,然后 openai 怎么干的? openai 直接把这个源代码的作者给招安了, openai 把它这个 agent 买过来,然后变成了官方版本的 agent。 但是我觉得 openai 真的 很高明,技术打不过技术,但是组织能打得过过个人。就是这个 openclaw 它的作者叫 peter 皮特,真是个天才,其实是一个很好的产品。我看很多博主在分析这个 openclaw 它的市场,它的价值,比如说你你想找个对象,你自己可能不知道怎么跟对方聊,那这个前期 a 这个 openclaw 它可以帮你去 做一个一个互通有,而且他的聊天能力要比你个人的聊天能力要强很多。哎,我觉得这个 openclaw 他 是还是挺有价值的。我觉得 openclaw 他 这次被禁,我觉得他有起到了几个作用,第一个就是,哎,他推理 就是 ai 公司,它的成本在推理。第二个就是 ai 的 商业模式,像那种订阅制是存在漏洞的。第三个就是企业在企业里面未来的一个 最关键性的指标。三个那些创新者作为这些巨头,他应该如何对待这些创新者?一般是你不是要把它扼杀,你应该是把它招安, 因为他做的这种产品出来之后被被这么多人喜欢,那存在即合理,我们不是把它打压,而是应该让他这个产品更合理化。

cloud 开始动 openai 的 核心资产了,记忆 andrew pick 上线了 memory import, 支持把你在 chat gpt, gemini 等助手里的个人偏好和上下文一键迁移到 cloud 的 记忆系统。众所周知, chat gpt 的 护城河之一就是长期记忆,你用的越久, 他越懂,你也越难离开。现在 club 直接切入这个环节,而且是原生写入记忆系统,不绕插件,不做中转,三步完成。这不是功能补齐,是对用户锁定机制的正面进攻。模型竞争开始从参数转向用户资产。

现在啊,尤其是 ai 这么火,咱们要搭一个又复杂又可靠的系统,说实话,挑战真的挺大的,特别是那种要跑好几天甚至好几个月的服务,还绝对不能出叉子。 你就会发现,哎,咱们手头那些老工具,好像有点不够用了。今天呢,咱们就来聊聊,怎么从根上解决这个头疼的问题。 要想把这事聊透,咱们得从一个大家可能都碰到过的场景开始。就是你想想,一开始项目小,你随便找个工具,哎,跑的挺欢。可等到你用户多了,系统越来越复杂,你会发现,当初帮你起步的那个东西,现在反而成了最大的一个坑。 你看这句抱怨,这可不是随便说说而已,这简直就是咱们工程师半夜三更对着屏幕抓头发时候的内心独白,一个真正的噩梦。你想想看,要是你再做一个金融 kyc 系统,就是那种客户身份认证的,那真是错一步,后面就全完了,这种压力啊,太大了。 好,大家看这张图,他把两种开发模式的差别一下子就摆在咱们眼前了。左边这边,我管他叫手工作坊模式,你看什么状态、管理、重试逻辑,全得自己手动写。 出了问题呢,那更惨,只能一头扎进海量的日制里,像大海捞针一样找问题。而右边呢,完全是另一码事,是一种更现代更聪明的工程思路。 所以你看啊,要解决前面说的那些问题啊,光换个新工具是不够的,这需要咱们在思路上来个一百八十度大转弯。那么这种新的思路到底是怎么回事?他又是怎么给我们打下一个完全不一样的地基的呢?咱们接着往下看。 嗯,这里的核心就来了,大家要记住 temporal 这东西,它可不是又一个像 rabbit、 mq 或者 kafk 那 样的消息队列,完全不是一个物种,它是一种全新的工具,就是为了有状态持久化执行这几个字而生的。 他关心的不是你单个任务发没发出去,而是你整个业务流程从头到尾能不能完整可靠地跑完。哎,这么一说,是不是感觉有点神奇,听起来像黑魔法一样?那问题来了,他到底是怎么做到这种持久化执行的呢? 嗯,这背后啊,就是 templar 的 核心机密了,可以说是一个非常非常巧妙的设计。 咱们就来看这个核心问题,一个工作流,他凭什么在服务器都崩了的情况下,还能在别的地方完美的接着跑?就好像啥事都没发生过一样。 这个问题的答案呢,说出来你可能会觉得,哇,太优雅了,而且他绝对不是咱们想的那种定期存个盘,做个内存快照那么简单。 cornelia davis 这一句话简直是一语道破天机。你看他说的 temporal 不是 把所有东西都存下来,那太笨重了,它只保存了足够的状态,用来在需要的时候重建整个工作流。这个足够和重建是关键词,非常聪明。 这个过程呢,就叫做重放 replay, 你 可以把它想象成什么呢?就好像给你的代码装了一个绝对可靠的行车记录仪, 你看啊,第一步,服务器崩了没关系,第二步,代码会在一个新的地方从头开始跑,但关键是第三步,这时候行车记录仪就开始工作了,它会告诉你的代码,嘿,前面那些跟外界打交道的事儿,比如调用 api 啊、写数据库啊,你都做过了,这是当时的结果, 你直接拿去用,别再做一遍了。这样一来,所有内部的逻辑都被精准地回放了一遍,但又避免了重复执行外部操作。最后的结果就是,你的工作柳就在一个新的地方原地复活了,跟没出过事一模一样。 好,理解了这个核心魔法之后,咱们就把它用在刀刃上。现在最火最复杂的工程挑战是什么?当然是用 ai agent, 也就是咱们说的智能体来构建应用。 而 temporal 这种分布式框架,跟 ai 智能体的工程化应用,简直就是天作之合。那为啥说编排 ai 智能体这么难呢?你想啊,一个 agents, 它不再是一个简单的跑完就扔的任务了,它更像一个有记忆、有目标的数字员工, 他可能要思考好几个小时,甚至好几天才能完成一个赋值任务。而且他的工作还特别依赖外部的各种 a p i, 比如大模型接口,这就很脆弱了,随便一次网络波动让 a p i 调用失败了,你可能跑了两天的成果哗一下全没了,这谁受得了? 咱们以前常用的这种管道式架构,就像土里这样,一个环节接着一个环节,这种模式出力简单,任务还行, 但一碰到需要多个智能铁来回商量动态调整的复杂工作,他就彻底歇菜了。因为他就是个单行道,只能往前走,一旦发现前面走错了,想掉个头没门,整个流程就卡死在那了。 对,解决方案就是让一群智能体分工合作。听起来是不是特别酷,像科幻电影一样。但现实是,如果没有一个靠谱的总指挥,这帮数字员工很快就会乱成一锅粥。 你想想,几十个智能体同时开工,谁来记着他们每个人干到哪了?谁的任务失败了,谁去复作重启?最重要的是,怎么保证大家在七嘴八舌的讨论中没把最初的目标给忘了?这就是一个巨大的协调难题啊。 所以,这就把我们带到了一个真正专业的、能扛得住压力的 ai 智能体系统架构。注意啊,这可不是纸上谈兵的理论,而是很多公司已经在生产环境里踩过坑,验证过的最佳实践。 这个架构最核心的思想就是关注点分离。你看,我们把它分成了两层,下面一层 temporal, 它扮演的是整个系统的中央神经系统, 它不管具体的思考细节,它只负责最重要的事情,记录状态,处理失败、控制流程、协调所有单位。 而上面一层就是 ai 智能体,比如你用 lanchan、 autogen 或者别的框架,它们是执行者,负责具体的推理、调用工具,跟大模型对话,也就是动脑子的会儿,各司其职。 这个架构的好处简直是碾压性的。首先,你有了超强的故障恢复能力,大模型的 api 抖动一下崩了。没关系, templar 会淡定地帮你重试,你那个跑了三天的任务不会就这么废了。其次是持久性, 你的智能体蜂群可以跑上几个星期,状态都稳稳地存在 temporary 里,再也不用担心内存一丢前功尽弃。还有就是无敌的可见性, 你可以在 tempo 的 界面上像看电影回放一样,看到每个智能体的每一步动作和决策,调试起来减得不要太爽。最后当然是可扩展性,你可以轻松地协调成百上千个智能体。这些不就是我们做生产级 ai 应用最头疼的工程问题吗?现在一下都解决了。 好聊了这么多啊,那对咱们工程师来说,最应该带走的东西是什么呢?我想说,这绝不仅仅是让你知道一个叫 tempore 的 新工具。这句话我觉得说得太到位了。从 salary 换到 tempore, 真正改变的是你用代码来描述业务的方式。 你不再是写一个个孤立的函数了,而是在写一个完整的包藏了各种异常处理和重试逻辑的、可以跑很长时间的业务流程。 这个流程本身就是一段可以被持久化、可以被测试的代码。所以最后我想留给大家一个思考题,通过 tempo, 你 的某一段代码现在可以在服务器崩溃后活下来了。这当然很棒, 但更进一步,你的整个系统架构准备好迎接未来的复杂性风暴了吗?因为未来一定是有成千上万个 ai 智能体协同工作的世界,只有真正坚固有弹性的架构,才能驾驭这股浪潮。

他就已经帮我把 open call 给装好了。不是说这个很难装的吗?他怎么这么快就装好了?我都看了小红书上还有人接单呢,要六百块钱装一次。我的天呐, 这个确实很难装,我自己装了两三次都会包,各种包错,然后 我就用 cloud 让让他帮我装,我输个指令让他帮我装 open cloud, 然后我就,嗯给你要给我装好了,就这么简单。这也可以?哈哈哈牛啊兄弟。

兄弟们,你应该听说过 colada code, 但是 open code 不知道大家听过没有? open code 是 最近比较火在终端里运行的 ai 助手,并且是完全免费使用的,接下来带大家安装下。首先电脑配置 note 环境, 安装好后输入 node v, 检查 node 版本,打开官网,这里有多种安装方式,我们选择 npm 的 安装,复制这个命令,打开 cmd, 右键直接粘贴,安装好后我们输入 open code 的 就可以用了。 然后输入 models, 选择免费的模型,目前使用下来 mini max 还是可以用的。现在我们让他帮我开发一个贪吃蛇小游戏,采用 html, 稍等片刻来看下,最终效果还是非常不错的,在免费的模型里面,可以日常帮我们处理一些简单重复的工作。 好了,本期视频就分享到这里,记得双击点赞加关注文档,我放粉丝群。