00:00 / 02:31
连播
清屏
智能
倍速
点赞205
00:00 / 09:44
连播
清屏
智能
倍速
点赞193
00:00 / 25:18
连播
清屏
智能
倍速
点赞656
00:00 / 08:02
连播
清屏
智能
倍速
点赞881
韦东东5天前
openclaw和claude code的一些区别和联系 上下文碎片化在企业商业模式/治理体系成熟之前,很难靠“全局统一数据定义+强结构化”一次性解决,反而更可能从个人 Agent 这种 wedge 形态开始,也就是先把跨应用的“访问、筛选、压缩、写入记忆、检索与执行”跑通,再逐步长出更强的组织级整合。 CC架构我也很认同它的落脚点,私以为它的价值不在把上下文压短,而在于把 Agent 变成一个可执行的闭环系统。具体来说,主控(orchestrator)基于当前证据做计划,然后调用工具去执行(读/写/查/跑),再用结果(测试、报错、diff、日志)做反馈迭代。也就是说,CC 更像一个“控制回路/执行回路”的范式:检索把证据拿进来,CC 负责把事情做完并用反馈纠偏。因此我会把“个人 Agent 统一上下文”理解成两件事一起成立:一是你说的检索+信息压缩,把碎片信息变成可用记忆;二是像 CC 这种多步工具调用的执行闭环,让记忆不仅能“被问”,还能驱动动作。 补充两个我在企业项目里反复遇到的问题,也许能把这条路径更工程化: 第一,记忆层不只是存储,更重要是可追溯与可更新。Markdown/文件系统当然可以做载体,但建议至少分层:原始证据层、压缩摘要层、面向任务的结构卡片层等。 第二,你提到的“筛选与组织信息字段”本质是检索+压缩(信息有损),而它能否长期可用取决于评测与 bad case 回收机制:压缩丢了哪些关键约束、哪些字段最容易被误摘要、哪些场景需要强结构化兜底,都得靠持续的失败样本迭代出来。 #claudecode[话题]# #openclaw[话题]#
00:00 / 05:00
连播
清屏
智能
倍速
点赞33
00:00 / 02:00
连播
清屏
智能
倍速
点赞553
00:00 / 02:05
连播
清屏
智能
倍速
点赞12
神器!AI编程平替!15万字文档拆解OpenCode架构设计 #OpenCode #开源编程 #AI编程助手 #技术文档 #ClaudeCode 一、Open Code:开源替代Claude Code的全能编程代理 1. 对标Claude Code,但国内使用无需科学上网,且支持多厂商多模型(国内/国外大模型均可)。 2. 完全开源,可阅读源码学习技术底层与实现,是打造同类编程代理工具的绝佳范例。 二、实战:用Open Code + 免费模型生成10万字技术文档 1. 通过Open Code桌面应用,配合内置免费模型(如Minimax),用简单提示词限制字数≥10万,自动生成高质量技术文档。 2. 对比TRAE模型,Open Code生成效果更好、字数达标更稳定;复杂逻辑建议搭配Claude等高级模型。 3. 成功生成两份文档:5万字(Minimax生成)及近10万字(Cursor生成),结构清晰,涵盖项目全貌。 三、下载与学习资源:不止官方文档,DeepWiki深度剖析源码 1. 下载方式:官网CI、NPM、Brew、桌面应用(推荐)。 2. 学习建议:官方文档偏概览,推荐DeepWiki逐模块分析(含流程图、代码示例),中文用户可用浏览器翻译。 四、技术架构深度拆解(基于AI生成文档) 1. 分层架构:客户端层、接口层(REST/SSE)、核心服务层(Agent/工具/MCP)、本地存储层。 2. 核心模块: 会话管理(上下文、历史、长连接) Agent代理(任务编排、模型工厂、工具调用) 协议与通信(SSE实时返回、SDK封装) 工具系统(内置工具+MCP扩展,注册表管理) LSP集成(多语言支持) 配置与事件总线(模块间解耦) 3. 数据流转:用户请求 → 接口层 → Agent调度模型 → 工具执行 → SSE实时回传。 4. 源码特点:4.3万行代码,前后端统一技术栈(偏向前端),模块清晰,适合复刻学习。 五、总结:门槛在大模型,工程化思想是核心 1. Open Code实现逻辑不复杂,核心效果依赖底层大模型能力。 2. 应用层代码可复用,重点学习其架构设计与工程化思维,对自研AI编程工具有重要指导意义。
00:00 / 02:19
连播
清屏
智能
倍速
点赞46