00:00 / 01:17
连播
清屏
智能
倍速
点赞43
00:00 / 01:06
连播
清屏
智能
倍速
点赞35
抓蛙师1月前
告别重复解释!手把手教你打造专属 AI 编程知识库 Claude Code Skills 简介 Skills 是什么? Skills 是 Claude Code 的预置知识模块,通过触发词按需激活。相比每次对话都要加载的 CLAUDE.md,Skills 只在需要时才加载,实现了"知识分片、按需调用"。 解决什么问题? - 告别重复解释项目架构 - Token 消耗降低 75%+ - 生成的代码一次就对,无需反复修改 - 知识持久化,不会因上下文限制而"失忆" 我的实践数据 知识库规模: ├── CLAUDE.md 248 行(每次加载) ├── 23 个 Skills 10,165 行(按需加载) └── 6 份 Docs 3,821 行(深度参考) 总计 14,234 行,但每次只加载需要的部分 Skills 分类(23个) | 类别 | 数量 | 典型 Skill | |-------|-----|----------------------------------------| | 核心开发 | 5 | crud-development、database-ops | | 前端移动端 | 4 | uniapp-platform、component-library | | 业务集成 | 5 | payment-integration、wechat-integration | | 工程支持 | 9 | bug-detective、performance-doctor | 效果对比 | 场景 | 无 Skills | 有 Skills | |------------|---------------------|-------------------| | 开发 CRUD 模块 | 30分钟 + 15000 tokens | 3分钟 + 3500 tokens | | 代码正确率 | 需多次修改 | 一次生成即可用 | 核心价值 Skills 让 AI 从"什么都懂一点的通用助手"变成"精通你项目的专属专家"。写一次 Skill,团队永久受益。 了解全栈框架更多信息,访问框架官网:https://ruoyi.plus
00:00 / 17:55
连播
清屏
智能
倍速
点赞790
00:00 / 01:57
连播
清屏
智能
倍速
点赞143
00:00 / 01:37
连播
清屏
智能
倍速
点赞75
00:00 / 03:28
连播
清屏
智能
倍速
点赞1378
00:00 / 07:26
连播
清屏
智能
倍速
点赞26
00:00 / 01:13
连播
清屏
智能
倍速
点赞4
企业AI知识库为什么会“翻车”? ⭐ S|Situation(背景) 企业内部尝试建设 AI 知识库,希望通过「文档 + 大模型」的方式,让员工能够像聊天一样获取制度、流程和业务信息。但在实际使用中,系统频繁出现答非所问、重点偏移、理解不一致等问题,员工信任度逐步下降,项目最终被暂停。 ⭐ T|Task(目标) 项目初期目标是: 减少员工查文档成本 提升内部问题的自助解决率 构建可持续迭代的企业知识问答系统 同时希望该系统在不大幅增加维护成本的前提下,覆盖尽可能多的业务场景。 ⭐ A|Action(过程与关键判断) 在推进过程中发现,问题并不在模型能力,而在知识本身的结构: 企业文档天然是为“人”写的,存在大量依赖经验理解的内容,例如语义冗长、上下文隐含、版本频繁变更 模型无法进行人类式的“脑补”,面对结构松散的文档,容易生成表面完整但核心偏移的回答 多问题并发提问时,模型往往只能捕捉部分意图,导致用户感知为“不专业、不可靠” 项目中期明确意识到,如果要继续推进,需要同步投入大量资源用于: 重构文档结构和知识颗粒度 明确可提问与不可提问的边界 教育用户如何向 AI 提问 在当时的业务阶段,这类系统性改造成本过高,因此选择理性止损。 ⭐ R|Result(结果与总结) 从结果上看,项目并未持续落地,但并非一次简单的失败尝试,而是一次对 AI 落地复杂度认知不足的真实踩坑。 项目沉淀的关键结论是: AI 项目最难的不是接入模型,而是让现实世界的知识,适合被 AI 理解。 这类系统的成败,更多取决于知识工程、使用边界设计与用户预期管理,而不仅是模型本身的能力。 #AI产品经理 #面试 #求职 #知识库 #大模型
00:00 / 01:56
连播
清屏
智能
倍速
点赞60
00:00 / 00:53
连播
清屏
智能
倍速
点赞148
00:00 / 02:53
连播
清屏
智能
倍速
点赞9