00:00 / 05:02
连播
清屏
智能
倍速
点赞249
🚀当Cursor和Claude Code拥有了记忆效率倍增 🚀当Cursor和Claude Code拥有了记忆!编程能力倍增!Graphiti MCP Server让AI编程助手实现持久超强记忆!时序知识图谱让你的代码规范、Bug修复历史永久保存,开发效率倍增 🚀🚀🚀视频简介: 【保姆级教程】Cursor和Claude Code用户必看!Graphiti MCP Server让AI助手记住你的所有编程偏好,自动避坑防Bug,团队协作效率翻倍! 🚀 本期视频详细演示了如何使用Graphiti MCP Server为Cursor和Claude Code配置持久记忆系统! 💡 核心亮点: 解决Cursor和Claude Code的上下文长度限制问题 时序感知知识图谱vs传统向量化存储对比 实时记录技术栈偏好、代码规范和Bug修复历史 支持团队协作和知识共享 🛠️ 完整演示内容: ✅ Neo4j数据库环境搭建和配置 ✅ OpenAI/DeepSeek API接口设置 ✅ Cursor和Claude Code集成配置 ✅ 实战开发Todo List应用验证效果 ✅ 知识图谱可视化界面操作 🔥🔥🔥时间戳: 00:00 开场介绍 - Graphiti MCP Server解决AI编程助手记忆问题 01:26 Graphiti简介 - 时序感知知识图谱vs传统向量化方式对比 02:22 效果测试 - 演示Graphiti MCP记忆技术栈和偏好功能 03:10 项目演示 - 查看智能背单词应用和修复历史记录 04:06 Bug修复演示 - 实时修复文字镜像翻转问题并记录到知识图谱 05:55 记忆持久化测试 - 重启后验证知识图谱记忆效果 06:09 Neo4j安装配置 - 数据库环境搭建和实例创建 07:33 环境配置 - 配置OpenAI API和DeepSeek等模型接口 08:34 Cursor集成 - 添加MCP Server和规则文件配置 09:06 Claude Code集成 - SSE方式调用和用户记忆文件设置 09:48 实战开发 - 基于技术栈偏好开发Todo List应用 10:33 样式调整 - 修改输入框文字颜色并验证知识图谱记录 11:20 总结回顾 - 知识图谱集成效果和开发效率提升 #cursor #claude #claudecode #Graphiti #mcp
00:00 / 11:50
连播
清屏
智能
倍速
点赞1096
WayToAI2周前
OpenClaw重大更新!三大行业场景落地案例解析 很多人觉得 AI 聊久了会“失忆”,原因只是上下文不够长。这个理解只对一半。上下文长度解决的是“能装多少”,但真正决定 AI 是否稳定记住重点的,是系统如何管理信息:哪些该保留,哪些该压缩,哪些该交给别的 agent,哪些该沉淀成长期结论。 OpenClaw 这次更新的关键,是把 Context Engine 做成插件化能力。也就是说,记忆管理不再写死在主程序里,而是变成一层可替换、可编排、可按行业定制的系统能力。以后同一个模型,换一套 Context Engine,工作方式就可能完全不同。 它开放的 7 个钩子,覆盖了信息生命周期的关键环节:对话开始时加载哪些背景、用户新消息怎么分类、回答前调用哪些历史信息、上下文过长时如何压缩、一轮结束后沉淀什么结论、子 agent 启动前怎么交接、子 agent 结束后怎么合并结果。开放的不是一个“小摘要功能”,而是 AI 处理记忆的整条链路。 这件事为什么重要?因为即使模型上下文很长,也不代表问题解决了。大窗口只是把“整理信息”的时机往后推,不能替代“整理信息”本身。装得下,不等于每次都能抓住重点;看得到,不等于能稳定调出关键内容。真实产品还要考虑成本、速度,以及多 agent 协作时的信息交接。 真正让行业用户在意的,不是“AI 能记更多”,而是“它到底知不知道什么最不能丢”。 比如电商里,客服最怕丢的是承诺、订单状态、纠纷时间线;选品最看重的是 SKU 异常、退货原因、供应链变化;投放更关心人群、素材和转化质量之间的关系。内容团队里,核心不是“记住写过什么”,而是长期保留风格规则、平台差异、改稿决策和复盘结论。教育场景里,真正重要的也不是学生做过哪道题,而是掌握度、错误类型、难度节奏和情绪状态。 所以,Context Engine 的价值,不是把更多聊天记录塞给模型,而是先定义“在这个岗位里,什么信息最值钱”,再决定这些信息怎么留、怎么丢、怎么传。 #openclaw #AI #电商 #知识分享 #运营
00:00 / 22:50
连播
清屏
智能
倍速
点赞181
00:00 / 02:05
连播
清屏
智能
倍速
点赞10