00:00 / 03:03
连播
清屏
智能
倍速
点赞0
Deepdick2天前
openclaw无限记忆150元搭建真实项目协作 【硬核分享】我用150块钱的服务器,手搓了一个拥有无限记忆的跨平台 AI 贾维斯 大家好,今天想和大家深度分享一下我最近基于开源项目 OpenClaw 折腾的一套个人 AI 系统。起因很简单,我不满足于仅仅是在网页上和 ChatGPT 对话,我想要一个真正属于我自己的、能干活的、还能记住我的 AI Agent。 最关键的是,这套系统的核心硬件成本,我只花了 150 块钱淘来的一台二手小服务器。 一、 核心大脑:150元服务器 + OpenClaw 这台 150 块的服务器是整个系统的心脏。它不需要多强的显卡,因为推理计算都在云端,它主要负责运行 OpenClaw 的核心程序、管理数据库以及维持网络连接。 OpenClaw 是一个非常出色的开源 AI Agent 框架。你可以把它想象成一个“中枢神经系统”,它一端连接着强大的 LLM(大语言模型),另一端连接着你的本地环境、终端、文件系统以及各种通讯软件(如 Discord、Slack 等)。它让 AI 不再是一个只会聊天的窗口,而是一个能执行命令的实体。 二、 模型双雄:OpenAI 的稳与 Google Antigravity 的新 在模型选择上,我采用了“双核驱动”: OpenAI 模型 (GPT-4o 等):这是我的主力输出。在处理复杂的逻辑推理、代码编写和通用任务时,OpenAI 的表现依然是最稳定和强大的。它是系统的“压舱石”。 Google Antigravity 模型:这是一个非常令人兴奋的新尝试。Antigravity 是 Google 推出的一个原生 AI IDE 和智能体开发平台,它的模型在理解复杂的工程上下文和自主规划任务方面展现出了惊人的潜力。 心得注: 不过要提醒大家,最近 Google 对第三方工具(如 OpenClaw)调用 Antigravity 后端的管控越来越严,可能会出现接口不稳定的情况。我目前的策略是让它处理一些特定的、非紧急的辅助编程任务,把它作为一个强大的“副驾驶”来培养。 三、 突破限制:我是如何实现“无限记忆”的? 这是我最得意是一个功能。传统的对话模型最大的问题就是“健忘”,上下文窗口一超,前面的话就忘了。我的解决方案是给 OpenClaw 外挂一个向量数据库 (Vector Database
00:00 / 10:13
连播
清屏
智能
倍速
点赞59
闲田1天前
18 分钟内掌握OpenCode大部分核心用法 这个视频主要教你在 Windows 上用 WSL 安装、配置和高效使用 OpenCode,帮你在 18 分钟内掌握大部分核心用法。 OpenCode 是什么、为什么值得用 OpenCode 是 Cloud Code 的开源替代品,MIT 协议、100% 开源,支持 Anthropic、OpenAI、Google 和本地模型等多家提供商(provider agnostic)。 视频一开始用 GitHub Star 增长对比说明:OpenCode 的星标和最近一个月的增长已经超过 Claude Code,社区生态和文档、配置、教程正在快速完善,值得尽早上手。 核心三层概念:代理、规则、扩展 第一层是 agents:主要是 build 和 plan 两种模式,build 用来“干活”(改代码、跑命令),plan 用来“安全思考”(先出方案、受权限限制,避免乱改仓库)。 第二层是 rules(agents.md):每个仓库根目录生成一个 agents.md,用来写项目结构、代码规范、测试命令、禁止修改的区域等,相当于给 AI 写的“入职手册”,让它在你的项目里行为一致且可控。 第三层是 extensions(skills & commands):skills 是可复用的“玩法手册/知识模块”,比如“如何在本项目里写迁移、写接口”;commands 是用 /xxx 触发的一键命令,比如 /test、/review,用来减少重复输入。 安装与基础工作流(Windows + WSL + Cursor) 推荐在 WSL 里安装和运行 OpenCode,以获得更好性能和终端兼容;在 Windows Terminal 里通过 wsl --install 安装,再用官方安装命令装 OpenCode。 典型工作流是:在 WSL 里新建项目目录,用 Cursor 打开该目录,然后在同一目录的 WSL 终端里运行 opencode,让 OpenCode 和编辑器操作同一套文件和凭据。 OpenCode 自带一些免费模型,但速度和质量一般;可以在 UI 里连接 ChatGPT Plus 等外部提供商,并手动选择如 GPT 5.3 codeex 这类更强的编程模型。 模式切换与 agents.md 实战 通过 Tab 在 build / plan 模式间切换:建议先用 plan 拿方案、确认设计,
00:00 / 17:23
连播
清屏
智能
倍速
点赞18
00:00 / 02:27
连播
清屏
智能
倍速
点赞36
00:00 / 03:52
连播
清屏
智能
倍速
点赞34
00:00 / 06:07
连播
清屏
智能
倍速
点赞35
00:00 / 05:03
连播
清屏
智能
倍速
点赞39
00:00 / 01:30
连播
清屏
智能
倍速
点赞663
00:00 / 09:48
连播
清屏
智能
倍速
点赞24
00:00 / 01:55
连播
清屏
智能
倍速
点赞16
神器!AI编程平替!15万字文档拆解OpenCode架构设计 #OpenCode #开源编程 #AI编程助手 #技术文档 #ClaudeCode 一、Open Code:开源替代Claude Code的全能编程代理 1. 对标Claude Code,但国内使用无需科学上网,且支持多厂商多模型(国内/国外大模型均可)。 2. 完全开源,可阅读源码学习技术底层与实现,是打造同类编程代理工具的绝佳范例。 二、实战:用Open Code + 免费模型生成10万字技术文档 1. 通过Open Code桌面应用,配合内置免费模型(如Minimax),用简单提示词限制字数≥10万,自动生成高质量技术文档。 2. 对比TRAE模型,Open Code生成效果更好、字数达标更稳定;复杂逻辑建议搭配Claude等高级模型。 3. 成功生成两份文档:5万字(Minimax生成)及近10万字(Cursor生成),结构清晰,涵盖项目全貌。 三、下载与学习资源:不止官方文档,DeepWiki深度剖析源码 1. 下载方式:官网CI、NPM、Brew、桌面应用(推荐)。 2. 学习建议:官方文档偏概览,推荐DeepWiki逐模块分析(含流程图、代码示例),中文用户可用浏览器翻译。 四、技术架构深度拆解(基于AI生成文档) 1. 分层架构:客户端层、接口层(REST/SSE)、核心服务层(Agent/工具/MCP)、本地存储层。 2. 核心模块: 会话管理(上下文、历史、长连接) Agent代理(任务编排、模型工厂、工具调用) 协议与通信(SSE实时返回、SDK封装) 工具系统(内置工具+MCP扩展,注册表管理) LSP集成(多语言支持) 配置与事件总线(模块间解耦) 3. 数据流转:用户请求 → 接口层 → Agent调度模型 → 工具执行 → SSE实时回传。 4. 源码特点:4.3万行代码,前后端统一技术栈(偏向前端),模块清晰,适合复刻学习。 五、总结:门槛在大模型,工程化思想是核心 1. Open Code实现逻辑不复杂,核心效果依赖底层大模型能力。 2. 应用层代码可复用,重点学习其架构设计与工程化思维,对自研AI编程工具有重要指导意义。
00:00 / 02:19
连播
清屏
智能
倍速
点赞46