00:00 / 00:50
连播
清屏
智能
倍速
点赞215
00:00 / 01:32
连播
清屏
智能
倍速
点赞12
面试常问:为什么 RAG 开了,反而更容易“胡说八道”? 🔍 面试题:RAG里rerank做错了,会发生什么? ⭐ S|Situation|为什么 RAG 开了,用户反而更生气? 一个非常真实、也非常致命的体验:资料明明就在知识库里,AI 也引用了“看起来相关”的内容,但结论还是错的,而且说得很肯定。这种体验,比“答不上来”糟糕得多。因为用户会觉得:你不是不会,你是蠢。而在我线上跑 RAG 的经验里,这个问题,90%出在rerank上。 ⭐ T|Task|rerank 真正决定的,不是相关性,而是“能不能当证据” 很多系统里,rerank 只做一件事:按相似度重新排一遍。听起来没问题,但在企业级 RAG 里,这是灾难源头。因为“像问题”≠“能支撑结论”。 ⭐ A|Action|rerank 常见的 4 个致命坑 ① 相似度对了,但证据是“半对不对” 看起来很像的问题描述,但 Top-1 / Top-2 根本支撑不了结论。模型却已经开始基于这些内容发挥,结果就是:资料在,答案还能错。 ② 低权威 / 过期内容被放大(企业场景最致命) 比如制度已经更新,但旧版本措辞更“像问题”,rerank 把它排到最前面或者会议纪要、口头结论排在正式制度之前,模型一旦基于这些内容生成,就会出现那种“说得很确定,但已经不对了”的答案,而用户会照着去执行。 ③ chunk 被切碎,规则被误解 一条完整规则是:满足 A 且 B 才成立,但 rerank 只保留了中间那段 B。模型自然就给了一个绝对结论。在客服、合规、财务场景里,这种问题会直接拉高投诉率。 ④ 系统失去“拒答能力” 当 rerank 把一堆“勉强相关”的内容硬推给模型,模型就很难意识到其实证据不足。于是它不再拒答,而是在低质量证据上强行回答。结果是RAG开了,幻觉反而更多了。 ⭐ R|Result|为什么我一直强调:rerank 排的是“责任”,不是“相似” 在企业级RAG里,rerank真正要回答的问题不是这段内容像不像问题?而是这段内容,能不能为答案负责?如果 rerank 这一层没有兜住:权威性、完整性、时效性那在用户眼里,RAG 就不是「有据可查」,而是披着资料外衣的胡说八道。 RAG做错,真正的风险不是“相关性低”,而是把不该用的内容当成证据,把不完整的内容当成结论,把本该拒答的问题,硬答了。 #llm #大模型 #算法 #互联网大厂 #面试题
00:00 / 02:07
连播
清屏
智能
倍速
点赞52
00:00 / 01:29
连播
清屏
智能
倍速
点赞2895
00:00 / 01:49
连播
清屏
智能
倍速
点赞NaN
00:00 / 00:30
连播
清屏
智能
倍速
点赞913
00:00 / 01:05
连播
清屏
智能
倍速
点赞6741
00:00 / 08:55
连播
清屏
智能
倍速
点赞190
00:00 / 03:01
连播
清屏
智能
倍速
点赞2178