00:00 / 02:45
连播
清屏
智能
倍速
点赞41
00:00 / 00:27
连播
清屏
智能
倍速
点赞NaN
00:00 / 04:08
连播
清屏
智能
倍速
点赞1683
00:00 / 04:51
连播
清屏
智能
倍速
点赞2103
00:00 / 07:40
连播
清屏
智能
倍速
点赞4525
聊几个月也不忘?Chronos把对话记忆做成"时间事件日历" 你有没有发现:AI 跟你聊几个月也挺会聊,但一问“上个月我说过的偏好是什么?”它就开始乱猜🌀 这篇 Chronos 的思路是:别把记忆当一坨文本存着,而是把对话拆成带时间的“事件卡片”📌 比如抽成“谁-做了什么-对谁/对什么”的 SVO 事件,再补上时间范围和实体别名,存进一个事件日历;同时保留一个轮次日历,方便回到原文看上下文。 提问时,Chronos 还会给自己生成一份“检索指南”:告诉模型该查什么、按什么时间过滤、怎么多跳推理,然后在两个日历上迭代检索🔁 摘要里给的关键数字👇 ✅LongMemEvalS:500 道题、6 类任务 ✅评测 8 个 LLM ✅Chronos Low 92.60% / Chronos High 95.60% accuracy ✅SOTA 提升 +7.67% ✅消融:事件日历带来 58.9% 的 baseline 增益 一句话理解:把“聊天记录”变成“日历 + 事件卡片 + 原文链接”,先筛再回看,时间敏感问题就不容易跑偏📅 📄论文标题:Chronos: Temporal-Aware Conversational Agents with Structured Event Retrieval for Long-Term Memory 👩‍🔬作者:Sahil Sen 等 🔗https://arxiv.org/abs/2603.16862v1 🤔你更信“结构化记忆”(事件表/知识图谱)还是更信“纯向量检索+重排”?为什么? 以上为论文信息解读与个人理解,具体效果以原论文与复现实验为准。 #AI #大模型 #LLM #长对话 #长期记忆
00:00 / 24:41
连播
清屏
智能
倍速
点赞2
00:00 / 01:41
连播
清屏
智能
倍速
点赞295
00:00 / 03:39
连播
清屏
智能
倍速
点赞460
00:00 / 03:33
连播
清屏
智能
倍速
点赞42
00:00 / 03:26
连播
清屏
智能
倍速
点赞801