RAG 出错时,我后来只先看这一件事 做Agent、做 RAG 一段时间后,我后来判断问题时有一个习惯基本不改了:先别急着调 prompt,也别马上怀疑模型。我第一反应只看一件事——正确答案,到底有没有被搜出来。 我印象特别深的一次,客服那边一直反馈 AI 回答政策问题不稳定,有时候对,有时候错。一开始大家的直觉都一样:是不是 prompt 不够稳?要不要加免责声明?是不是模型太敢答了?但后来拉日志一看才发现,有些 case 里,正确的政策文档其实已经被召回出来了。就在检索结果里。只是模型把“视情况”说成了“一定”。这种情况我后来就不太纠结检索了。东西都已经给它看了,它还能说错,那问题基本就在生成这一步。 但也有另一种情况,刚好相反。看起来像模型在胡说,但你一翻检索结果,发现它压根没拿到那条最新政策,要么是旧版本,要么只搜到一半。这种时候再怎么调生成都没用,模型也只能基于错误资料去答。这类我们后来直接认定是检索问题。优先补召回,而不是在 prompt 上死磕。 还有一种最容易翻车的情况:资料本身不完整,但模型特别敢答。后来才意识到,这种 case 只修检索或只修生成,后面都会再出事。 所以现在我判断 RAG 出错的顺序非常固定:先确认答案有没有被找出来;找出来还错,重点改生成;找不出来,先补检索。方向一旦错了,后面改得再勤,也很难稳。 你在项目里遇到 RAG 出错,第一反应是先动检索,还是先动生成 / prompt? #llm #大模型 #ai #互联网大厂 #面试题
00:00 / 02:17
连播
清屏
智能
倍速
点赞237
Agent答错政策问题,我第一反应不是改答案 在做 Agent 项目的时候,如果它连续把政策类问题答错,我的第一反应其实不是「赶紧教它正确答案」。因为只改答案基本没用。换个相似场景,它还是会翻车。 第一步,我会先拆“它在哪种情况下容易错”,我不会让 Agent 只记一句“上次这个问题答错了”,这种记忆几乎没有复用价值。我更关心的是它是不是在某一类高风险问题上,处理方式本身就不对。比如我会把错误抽象成一条经验:「只要是退款、会员权益这类问题,如果不先查最新政策就直接回答,风险就很高。」重点不是记结论,而是让 Agent 识别出这是高风险问题类型。 第二步,直接改它的处理顺序翻车之前,Agent 往往是“我大概知道 → 直接回答”。那 policy memory 更新之后,我会给它加一条默认规则:「遇到退款 / 政策类问题,先查规则,再回答。」这样下次再遇到类似问题,它不会急着给结论,而是先拉最新政策、看有没有例外条款,不再凭感觉做决定。 第三步,约束它“怎么说”很多客服翻车,其实不是完全答错,而是话说得太满。比如:“肯定能退”“马上到账”。所以我会再写一条经验进去:「政策类问题,回答时必须带条件,避免绝对承诺。」于是它的回答就会变成:“如果符合这些条件,一般可以退款”,“具体以系统处理结果为准”,投诉和风险会明显下降。 最后一步:教它什么时候该停下。这一点我觉得非常关键。当 Agent 发现信息不全、政策冲突、置信度不够时,policy memory 会触发一条兜底规则:不要硬答,先澄清,或者直接转人工。很多系统不是“不会答”,而是不知道什么时候该停。 Policy memory 不是记住“正确答案”,而是让 Agent 知道:哪些问题要先查、怎么说才稳、什么时候别逞强。这才是 Agent 连续翻车之后,真正应该学会的东西。 #llm #大模型 #ai #互联网大厂 #面试题
00:00 / 02:07
连播
清屏
智能
倍速
点赞52
00:00 / 00:06
连播
清屏
智能
倍速
点赞NaN
00:00 / 02:22
连播
清屏
智能
倍速
点赞122
00:00 / 18:08
连播
清屏
智能
倍速
点赞122
00:00 / 01:45
连播
清屏
智能
倍速
点赞129