00:00 / 00:37
连播
清屏
智能
倍速
点赞1
00:00 / 05:16
连播
清屏
智能
倍速
点赞0
从 RAG 到 Context Engine 从 RAG 到 Context Engine —— 构建 AI Agent 的数据基座 在 AI 时代,构建坚实的数据底座离不开广大开发者的共同参与和生态协作。本次活动邀请了来自不同技术社区的嘉宾,他们结合自身实践与行业思考,围绕 AI 数据底座的构建路径展开深度分享。OceanBase seekdb 作为 AI 原生混合搜索数据库,成为多位嘉宾演讲中的高频词汇。 RAGFlow CEO 张颖峰亲历了从传统搜索到 AI 时代的跨越。“从 RAG 到 Context Engine,构建 AI Agent 的数据基座”为题,进行了分享。 “在很多人看来,RAG 或许已是过时的技术,但我认为,他恰恰能够成为 AI 原生数据库所需的重要基础。”张颖峰指出,未来的 AI 原生数据库不应仅仅是模型的堆叠,而应以“强检索能力”为核心,构建能够统一管理知识、数据与工具的上下文引擎架构。在这一框架下,单一的 RAG 技术虽已难以应对复杂的交互场景,但可以演进为支持智能体(Agent)的统一上下文引擎,通过 “检索前置 + 上下文优化” 机制,实现对结构化与非结构化数据、以及交互记忆(Memory)的综合处理。 他强调,RAG 的本质在于检索。未来的上下文引擎应具备按需为智能体提供精准信息的能力,并借助 OceanBase seekdb AI 原生数据库,支持多模态、高频率的混合检索,最终推动技术实现从单一检索到全方位上下文服务的跨越。 #OceanBase #开源 #社区 #AI
00:00 / 12:32
连播
清屏
智能
倍速
点赞1041
春招面试必考题2分钟解读 有什么区别,大模型agent面试必问题,2分钟讲透! 我们先看模型文件和推理链路。模型本身再强,也只是能力仓库。真正让它和业务系统对接的,是把自然语言翻译成结构化调用的那一步。这个翻译动作,就是 Function Calling 的核心价值。没有它,后面所有流程都无从执行。 所以第一层基石一定是 Function Calling。它负责把“人话”变成“机器可执行输入”。你可以把它理解成总开关:先把开关接上,系统才有流动,后面协议和流程的优化才有意义。 再看 MCP。MCP 解决的是多系统接入成本的问题。真实项目里有 GitHub、Slack、数据库、文件系统、内部 API,每家鉴权和数据格式都不一样。MCP 的价值是把这些接入动作标准化,让模型通过统一协议访问外部能力。然后看 Skills。Skills 解决的是流程定义和执行稳定性的问题。全写死代码太硬,全靠模型自由发挥又太随机。Skills 用文档化流程给模型加轨道,让它按步骤执行,同时保留一定弹性,这就是它在工程上的意义。 所以 MCP 和 Skills 在很多场景不是上下级关系,而是同题不同解。MCP 更偏“接口标准化”和强约束,Skills 更偏“流程编排”和灵活迭代。选型时你要看的不是谁高级,而是你的系统更需要稳定性还是灵活性。 #大模型 #AI #大厂面试 #春招 #skill
00:00 / 02:06
连播
清屏
智能
倍速
点赞43