粉丝1获赞12


这可能是你今年挖到的最实用的干货,我用五分钟教你搭建一个能回答你所有本地文档问题的 ai 系统, 不管是整理资料、学习复盘,还是工作查内容,他都能秒响应,全程无广告无门槛,每一步都有实操演示,看完直接抄作业,让你的电脑变身智能知识库。我们先来说说本地知识问答系统,他是如何实现从资料到答案的。今天把核心流程拆的明明白白。 第一步,知识库域处理环节,就是把你电脑里的文档、笔记资料全导进来,大资料直接用,太笨重。这步把长内容拆成小片段。然后就是数据向量化,其实是把文字变成电脑能懂的信息标签,再把这些编码好的内容存进智能仓库,随时等着被调用。 当你提问的时候,系统立刻启动语义匹配查询,拿着你问题的标签去刚才的智能仓库里精准揪出最相关的内容片段。最后交给 deep seek 总结回答。听完是不是很简单?那我们一起来实现一下吧。 首先需要我们在项目根目录中创建一个新的文件,我们需要导入必要的系统库,并定义好待处理文档的路径和编码格式。 第一步,我们定义一个 getfile chunks 来处理文本切片。为了实现高质量的检测,直接存储长文本是不合适的,因此我们需要使用 line chain 提供的文本分割器。我们先读取目标文本文件, 这段代码的核心功能是读取指定路径的文档文件,先检查文件是否存在,存在则尝试读取文件内容,任何环节失败都返回空列表,避免后续切分报错。 接着我们使用 line chain 提供的 recurser character text splitter 将之前读取得完整文档文本。 full text, 按规则切分成多割小片段,最终返回这些片段,方便后续大模型处理。为了方便大家理解切片过程,这里我用动画演示工具给大家看一下效果。 点击开始启动动画,每个卡片代表一个切分厚的文本块,最终原始文档已经被切割成了六个独立的片段。 参数说明, chunk size 式算法,长式抓取似百格字符 overlap 式,下一次切割得起十点会向前回退伍十个字符。 separators 式算法,再接近似百字符限制式会向后搜索换行符或空格进行完美切割,避免切断单词或句子。第二步,编辑主逻辑函数。 首先通过我们封装好的 common 模块获取 keyrent 客户端实力,接着调用刚才写的切片函数获取文本块。紧接着我们需要加载 embedding 模型,它负责将文字转换为计算机能理解的向量数据。这个内容已经上个视频中讲过了,接下来是核心的处理循环。 为了提高效率,我们不会逐条上传,而是采用批量插入数据库。这里的代码主要是负责封装成 keyrent 所需的 point struct 对 象。当列表中的数据积攒到一百条时,我们就调用 client assert 接口,一次性将这批数据写入向量数据库。 最后我们编辑一个主程序入口,调用我们定义好的函数。然后我们运行代码,看到控制台这些信息,说明我们已经完成了本地数据读取向量化数据入库流程了。为了确保万无一失,我们打开浏览器,访问 pidrent 的 格式化 dashboard, 进入 docs 集合。刷新一下 可以看到 points 数量已经更新。点击详情,我们可以清晰地看到每一个数据点。至此,我们的文档切片与向量化入库模块就开发完成了。接着,我们将继续编辑核心的问答逻辑,并将其封装为 api 接口。 首先,在项目根目录下创建一个新的 python 文件。我们需要导入一些必要的库。我们定义核心函数,它是一个生成器,用于流式输出结果。第一步是检测,我们需要初识化 keyrent 客户端,并将用户的提问通过 embedding 模型转换为向量。 然后使用 client 中的 query points 在 向量数据库中搜索与问题最相似的文本片段。这里我们设置搜索前五个最相关的结果,然后提取搜索结果, 拼接成一个完整的字母串。这里加一个判断逻辑。如果数据库中没有找到任何相关内容,为了防止模型胡乱编造幻觉,我们直接返回提示。抱歉,没有找到相关信息并结束流程。接下来是关键步骤。提示词构建, 我们需要告诉 ai 它的角色。注意这里的指令。我们明确要求 ai 必须依赖引用的上下文信息来回答问题。如果上下文中没有答案,就诚实地回答,不知道。这是一个防止大模型产生幻觉的重要技巧。然后将解锁到的 context str 和用户的 question 填入 user prompt 中。 准备好提示词后,我们调用 deep seek 的 chat 接口,将 system 和 user 的 消息传入,并务必将 stream 参数设置为 true。 这意味着模型会一个字一个字的返回结果,而不是等全部生成完再返回,这样能极大提升用户的等待体验。 为了防止大家卡在调用 deepsafe 接口,这里这里我们说一下刚刚我们调用大模型使用的 key 是 从哪里来的。我们这里就以 deepsafe 为例子,其他模型也是一样的,打开官网,点击开放平台,进去以后找到对应的菜单,点击创建即可。然后我们复制 key 到我们代码 common 模块粘贴即可。 然后我们再写一个主程序入口,调用 ask deepsafe with reg 方法传入我们的问题,点击运行我们看看效果。 可能有朋友会问,为什么没有演示里的图形化界面?其实想实现像 deepsafe 那 样的交互界面也很简单,核心是先把当前的问答能力封装成可访问的接口,比如 api 暴露出去。后续只需要单独开发一个前端页面,通过调用这个接口就能实现可示化交互。 那我就再带大家一起来实现一下。首先实力划一个 fast api 对 象,并添加允许跨域访问,方便前端调用。定义一个请求体模型, question 只包含一个 question 字段。最后创建一个 pos 路由,在试图函数中,我们返回一个流式响应,直接调用刚才写的生成器 接口。写完以后,我们使用以下命令启动服务即可。最后我们使用我给大家准备好的提示词,就可以生成一个和我一模一样的网站页面。我们只需要把提示词给 deepsafe 或者其他模型,它就可以生成前端页面。最后我们只需要保存生成的 html 代码,用浏览器打开就可以使用了。

你是不是也有这样的哭闹啊??用 ai 提问呢??总感觉他给我的回答不在我的心坎上。那我想要去继续追问啊,我又要重启话题,甚至啊,他有时候真的只有很短的记忆,他完全不记得你之前的需求。。那这个时候呢,一个懂我们的,不需要来回跳来跳去的 ai 工具就显得非常的重要了。。 那比如我们的行政同学啊,要抓住年前最后一个月去写招聘启事,但是呢,发出去的岗位呢?却没有人头,那面试的时候呢??提问也抓不住重点。 严重耽误部门用人进度啊!来看一下我用扣子空间的十分钟搞定了一个高吸引力的岗位需求加结构化面试的题库。。那扣子呢??全程跟我聊出了精准的需求啊! 我可以直接跟他讲,帮我去写一份新媒体运营招聘的 j d。。 贝斯呢??在北京金丝八到十二 k, 那扣子呢??立刻就生成了基础的一些 j d。? 那我觉得整体的大。 框架没有问题啊,但是呢,缺少核心技能和近身的路径。其实呢,就是不知道怎么样去画大饼,然后呢,又体面又不要太吹牛。。那我直接就可以接着提问啊,帮我去重点突出要求,具备爆款选题的挖掘能力和一定的私域运营的经验。。 还有要写清楚,我们是弹性工作制的,不要让求职者觉得我们的工作很没有人性啊。那在我的引导过后呢??扣子又会帮我用合适的表达词汇传递出我的需求,比我过去啊,各种扒别人家的,各种自己想来的快的真的很多啊。! 而且扣子比我还懂分寸感啊。!那需求介绍结束之后呢??我还可以去进阶下指令啊,再帮我去设计十个面试的问题,测重实操能力和抗压性。。 那扣子呢,不仅帮我去模拟了可能会遇到的不同经历的求职者现场情景啊,还贴心的帮我去多想了一步,附上了评分的标准和薪资的谈判话术。。那扣子连续对话呢??太懂招聘的痛点了。! 一步步引导你的细化需求啊。!那 ai 呢??主动帮你去补细节,不用去查模板,不用去费脑筋,招聘效率呢??直接拉满了,免费有高效啊。。

你知道吗?只需三分钟就可以打造一个专属于你的知识库问答智能体。首先,打开腾讯云智能体开发平台。第一步,新建应用, 填写你的应用名称和应用模式,点击新建。第二步,选择知识管理,导入你的知识文档。第三步,进入应用设置, 单机模型配置,将模型切换为 deep c v 三点一单机知识库,设置图标,并打开文档和问答开关,包括回答方式与参数调整。在对话测试窗口输入问题可以验证一下效果, 也可以查看该答案的引用来源。接下来单机发布并确认将当前测试环境的应用发布到生产环境,发布完成后可前往服务状态查看和分享体验链接,也可查看 api 使用接口调用的方式,这样你的专属问答智能体就做好了。

抖音又放大招了,快看看你的抖音是不是黑色图标的,而我的却是这个白色图标的。,那是因为我用的是全新的 ai 抖音 app。 简单来说呢,它是一款 ai 加抖音模式的搜索工具,可以随时向 ai 搜索问答,解决生活、工作、学习难题,而且是完全免费的。。 比如最近温度都比较高,大家二十四小时都离不开空调,那么空调到底怎么用才能够省电呢??直接可以在下方的搜索框里面提问,他,经过深度思考以后,会快速的给到你文字答案,,无需跳转页面,一站式搜索,体验详细又有条理。。 不仅有文字的解释,你再往下滑,就会看到很多博主的一些真实分享的视频。,双列呈现,获取信息更高效。。当你在看视频的时候,如果有了新的疑问,也不用退出当前页面,可以边刷边搜,视频下方就有。 有一个搜索框,我们可以语音提问,也可以打字的方式提问,夏季降温绿豆汤该怎么做,,立马就会给你呈现回答。。同样不仅有文字,下面也有相关的视频,图文双面呈现,全是我们需要的有用信息。。 以后只要是生活当中,不管你遇到任何的问题,都可以随时问,,随时搜 ai 等于 a p p, 真正的做到了有难题不求人。。