00:00 / 00:33
连播
清屏
智能
倍速
点赞714
00:00 / 02:34
连播
清屏
智能
倍速
点赞21
00:00 / 05:46
连播
清屏
智能
倍速
点赞30
00:00 / 02:04
连播
清屏
智能
倍速
点赞16
本地AI知识库踩坑实录 #热点 #AI #大模型 #龙虾 #RAG 别再盲目吹本地知识库了, 真的没有大家说的那么好用。 最近我用 RAGFlow 搭建了本地知识库, 部署过程特别复杂,我能忍; 文件解析速度很慢,我也能忍。 但我实在忍无可忍, 它明明基于我自己上传的知识库, 给出的答案居然是错的, 甚至还会自动篡改我引用文件的原文内容。 为了做专业测试, 我特意只上传了烟规的第二章和第三章。 然后我问了一个很基础的问题: 地上封闭楼梯间,是否需要设置加压送风? 它直接回复我:需要。 我点开它引用的规范条文才发现, 它直接忽略了这条规范最关键的前半句话。 规范原文明明写着: 只有不满足自然通风条件的封闭楼梯间, 才需要设置加压送风。 我一开始以为是小模型不行, 于是换成 8B 模型重新提问, 这次给出的答案,倒是还算准确。 可后面我再继续提问、查看引用文件时, 意外发现了一个更严重的问题: 它竟然把我上传规范里的表格,直接给改掉了。 好在系统保留了原始文件, 我一对比就看出来了, 原件里面是有完整表格的, 而它给我引用参考的内容,表格直接消失不见了。 对于我们工程设计师来说, 之所以愿意折腾用本地大模型查规范, 就是为了避开在线大模型的幻觉问题, 能看到最真实、最完整的规范原文。 如果连本地知识库, 都能随意篡改规范内容、删掉原文表格, 那在在线大模型这么方便的前提下, 这种本地大模型,对我来说,基本就没有任何使用价值了。 虽然这次踩了不少坑, 但我还是很看好本地知识库的发展前景, 希望后续能把解析失真、篡改原文这些问题彻底解决, 早日成为我们工程师靠谱的办公利器
00:00 / 01:38
连播
清屏
智能
倍速
点赞154
00:00 / 01:16
连播
清屏
智能
倍速
点赞157
龙虾换模型丢记忆?爱马仕“记忆隔离”丝滑热插拔! 玩 AI Agent 的高阶玩家们,今天聊点不一样的干货。本地跑智能体,到底是用‘龙虾’(OpenClaw)还是‘爱马仕’(Hermes)?很多小白只看处理速度,却忽略了决定自动化工作流生死的关键——记忆管理! 先说龙虾。不可否认它很强悍,但在实际跑复杂任务时,你会遇到一个极其抓狂的痛点。 龙虾把‘模型’和‘记忆’绑定得太死了!假设你正跑着一个长线任务,前置的简单数据清洗用的是小模型,进行到一半,你想切换到满血的大模型来做深度推理。 结果呢?在龙虾里一切换模型,之前的上下文‘啪’的一下,直接清空!记忆当场丢失,工作流直接断掉。就像公司换了个新主管,交接文档全烧了,一切得重头再来。 #hermes #hermes爱马仕 #openclaw #龙虾智能体 #AI智能体 这时候,你就知道‘爱马仕’为什么用起来那么丝滑了!它最大的杀手锏,就是这四个字:记忆隔离。 爱马仕在底层架构上,把作为‘大脑’的模型,和作为‘笔记本’的记忆库,彻底解耦分开了! 这意味着什么?意味着你可以随时**‘热插拔’**换脑子! 任务跑到一半想换个更聪明的模型?随便换!因为记忆是独立存储的。 新切上来的大模型,能瞬间读取之前的全部进度和记忆,完美接棒,继续干活。中间没有丝毫卡顿,没有半点记忆断层,如丝般顺滑! 所以,真正用来做本地自动化、做长线工作流的利器,记忆的连续性才是王道。爱马仕的这种隔离机制,确实比龙虾高明了一个段位。 还在踩坑的兄弟们赶紧去试试。
00:00 / 01:43
连播
清屏
智能
倍速
点赞34
00:00 / 01:05
连播
清屏
智能
倍速
点赞15
00:00 / 03:32
连播
清屏
智能
倍速
点赞42
00:00 / 00:48
连播
清屏
智能
倍速
点赞3
00:00 / 01:11
连播
清屏
智能
倍速
点赞59
00:00 / 00:47
连播
清屏
智能
倍速
点赞3
00:00 / 01:04
连播
清屏
智能
倍速
点赞1