米拉·乔沃维奇打造开源 AI 记忆系统 演员米拉·乔沃维奇在用 Claude 做一个大型游戏项目时发现,AI 有一个致命短板,记不住上下文。于是她和认识 20 年的老搭档,程序员 Ben Sigman 花了几个月时间,打造了一个叫 MemPalace 的开源记忆系统。 大多数 AI 记忆系统的做法是让云端的 Agent 统一处理你和 AI 交互过程中的上下文,而 MemPalace 不一样,它在本地挖掘你的对话内容,然后把它们组织成一座 “记忆宫殿”。这个宫殿有翼楼、大厅、房间,按领域和类型分区存放,模拟的是人类大脑的真实记忆结构。 它还采用了一种叫 AAAK 的压缩方法,能够把一个人的基本信息压缩到大约 120 个 Token,能够实现 30 倍的无损压缩。并允许任何大模型原生读取。也就是说,AI 在你每次开口之前,就能知道你是谁、你的家人、你的项目、你的偏好。它还能做跨越数月对话的语义搜索,甚至能自动检测矛盾信息,比如名字写错了、年龄对不上。 基测方面,MemPalace 答对了 LongMemEval 的全部 500 道题,100% 召回率,这是有记录以来的第一个满分。ConvoMem 上,获得 92.9%,是 Mem0 的两倍多。LoCoMo 同样是 100%,包括多跳推理和时间推断这种大多数系统都搞不定的类别。 而且这个系统不需要 API Key,不需要云服务,不需要订阅,只有一个依赖项,完全跑在本地设备上,完全开源。 一个演员加一个程序员,几个月,一个优秀的开源项目。这个组合放在过去不可思议,放在今天却越来越像常态。AI 并没有消除门槛,它只是把门槛从“你会什么” 变成了 “你想做什么”。 #AI记忆系统 #AI技术 #米拉·乔沃维奇
00:00 / 03:46
连播
清屏
智能
倍速
点赞146
00:00 / 08:07
连播
清屏
智能
倍速
点赞92
Megadotnet4天前
MemPalace的AI记忆项目 #AI 凭借全量本地存储、结构化检索、超高检索精度、无云 / 订阅依赖的核心特性,适配以下核心应用场景: 1. 私有化 AI 对话 / 交互记忆管理 场景描述:长期与 Claude、ChatGPT、Gemini 等 AI 进行对话(如技术调试、方案讨论、创作协作),需留存所有对话上下文且能精准检索; 核心价值:全程本地运行,不调用外部 API、数据不泄露,原始逐字存储保证检索时能还原完整对话逻辑(而非碎片化摘要),96.6% 的 LongMemEval 检索精度可快速定位数月前的对话细节。 2. 项目级文档 / 资产全量记忆与检索 场景描述:管理单个 / 多个项目的全量资产(代码、技术文档、会议纪要、笔记、决策记录等),需按「项目 - 类型 - 具体内容」的层级结构化组织; 核心价值:通过「Wings(项目 / 人员)- Halls(记忆类型)- Rooms(具体内容)」的记忆宫殿层级,替代扁平搜索索引,可按业务逻辑导航检索(而非仅关键词匹配),且全量存储不丢失任何原始信息。 3. 无成本私有化记忆系统搭建 场景描述:个人 / 小团队希望搭建专属记忆系统,但无预算购买云服务、订阅商业记忆工具,或对数据隐私有严格要求; 核心价值:完全开源免费、无订阅 / 付费模块,本地部署即可运行,支持自定义扩展(如适配私有 LLM、自定义数据类型),零外部依赖降低使用门槛。 4. 大规模数据压缩存储(实验性) 场景描述:需存储海量重复度高的文本数据(如长期对话日志、批量项目文档),希望在可控精度损失下降低令牌占用; 核心价值:AAAK 实验性功能支持有损压缩(针对重复实体做令牌精简),适配 Claude/GPT/Llama 等主流 LLM 读取,虽检索精度降至 84.2%,但可实现规模化数据的轻量化存储(需评估精度 - 压缩比 trade-off)。 5. 基准测试与检索系统研发参考 场景描述:AI 记忆 / 检索系统开发者需验证自研方案的精度,或参考高分数检索系统的设计思路; 核心价值:仓库内置 LongMemEval、MemBench 等主流基准测试脚本,可复现 96.6% 的高分检索结果,其「原始存储 + 语义检索 + 结构化过滤」的架构可作为研发参考。
00:00 / 03:50
连播
清屏
智能
倍速
点赞2
00:00 / 01:29
连播
清屏
智能
倍速
点赞57