粉丝2801获赞5220

这个是用 kyoto 编辑的一个四端的缴费系统,实现微信小程序 app 以及 web 端的后端 spring boot 三和后台管理四端连调的一个系统。这个是 spring boot 的 后端, 它主要是负责接口以及逻辑方法的实现。我们先让后端跑起来啊,后端已经跑起来了啊,在八零八零端口对,好的,我们 app 端已经运行起来了, 我们下面发布到微信小程序一端再运行起来, 正在翻译 哦,小程序端也运行起来了。 ok, 记得点赞关注哦。

obfuscating 的 ai 插件到底应该如何使用?它能实现什么功能?插件设置界面?这满屏的专业术语都是什么意思?应该如何设置?今天我就用一个视频为大家讲解 obfuscated 插件的使用方法, 插件的参数设置和使用方法我都整理成了知识笔记,并且把核心参数都以表格形式列出,供大家快速查找。视频的最后我会分享给大家。 今天的视频分为以下几个部分,首先我们来快速的做好准备工作,准备 ai 的 api key 和安装 lm studio, 部署本地 ai 大 模型。 然后我们来做基础的插件设置,也就是配置 ai 的 api key, 然后在 ai 对 话框中和 ai 进行一次成功的对话。 之后我们来看看如何实现 ai 知识库功能,也就是 r a g, 让 ai 能够读取我们知识库中的笔记,成为我们的知识库助手。 最后我们来详细的过一遍口拍了的插件的设置界面,看看每个参数都是什么意思,哪些参数需要重点关注视频的最后我会把知识笔记分享给大家,同时针对 obsidian 的 ai 功能与大家分享一些我的个人看法和心得。 我会讲一下哪些 ai 工具能对 obsidian 实现一个功能上的互补。那么我们就正式开始。首先我们要知道的一件事情就是在 obsidian 中的 ai 插件访问 ai 只有两种方式,第一种是通过 api p, 第二种是通过本地 ai 大 模型。 获取 apikey 的 方式很简单,以 deepseek 为例,我们在官网的右上角点击 api 开放平台,选择 apikey 页面,然后创建一个 apikey, 把这一长串的乱码复制下来即可。我们需要注意的是,大部分 apikey 都需要收费, 费用普遍不贵,但是大家也可以选择有免费额度的 ai, 比如阿里的谦问或者智普 ai 的 glm 模型,它们的免费额度都非常的高,性能也很强。 另一种方式是本地部署 ai 大 模型,本地 ai 大 模型的性能受你的电脑配置的影响,相比 apikey 的 方式, ai 的 性能会弱一些,但是因为部署在本地,会有非常好的隐私性,并且不需要联网。 如果你的知识库中的内容隐私度较高,就很适合本地 ai 大 模型。当然也可以结合使用。 我们下载 lm studio 这个工具,下载之后安装,然后打开,在 lm studio 的 左侧点击放大镜按钮,打开搜索页面,搜索关键词,千问二点五,横线欧米尼,横线七 b, 然后安装。 我们在开发者界面的右侧选择 log 这个选项卡,在下面的上下文长度里选择八千,也就是八千 token 的 上下文长度。 那我的电脑是笔记本,显卡是 rtx 四零六零 laptop 版,显存是八 g。 如果你的电脑性能更强,那么这里的 token 长度就可以设置得更高。 同样,如果你的电脑性能更强,你也可以部署更高级的本地大模型,就比如千问三的十四 b 大 模型。你也可以根据自己的实际需求选择部署其他的开源大模型,就比如 deepstack 或者是 openai。 我们点击设置按钮,打开,使用 c o r s 这个选项,然后把界面右上角的 http 地址复制下来,这个地址就是我们本地 ai 大 模型的访问地址,那么到此准备工作就完成了。 接下来我们在 ai 插件中配置 ai 模型,就可以在 obsidian 中与 ai 对 话了。我们安装口拍了的插件之后,在设置界面中来到 model 选项卡,点击爱的 model, 添加一个 ai 模型。首先是 apikey 的 方式,这里我用的是智普 ai 的 apikey。 设置界面中我们主要关心三个参数, model name、 base url 以及 apikey。 那 我教大家一个小技巧, model name 和 base url 你 可以直接在网页版上问 ai, 比如你用 deepstack, 你 就直接在网页版 deepstack 上问他,如果我通过 api key 访问你使用什么 base url 和 model name, 然后他就会告诉你了。 那这里 model name 我 们写 g l m 横线四点六,这个就是你要访问的模型名称啊,就比如最近比较火的谷歌 jamming 三,那它的模型名称就是 jamming 横线三,横线 pro 横线 preview display name, 我 们就随便取个名字叫 g l m 那 provider 这里建议统一选择 open ai for mac, 那 这是 open ai 制定的一个行业标准, 我在知识笔记中列了一个表格,把目前主流 ai 的 base url 以及匹配 open ai 标准的 base url 都列了出来,那大家直接查找使用就可以了。 然后下面的 base url 和 api key 填入对应的值。最下面的模型能力,那这里分别是推理能力、视觉能力和网络搜索能力。 根据你所使用的 ai 来选择就可以了。如果你不知道你的 api 可以 是否具备这个能力,可以直接在网页版上问 ai, 或者参考我这里的表格。不过要注意的是, ai 的 更新呢,非常快,那推出新版本之后呢,可能就会有一些变化, 那么我们点击 test 测试一下是否连接成功,那如果成功的话,就点击爱的 model 按钮,添加这个模型,然后回到 office 界面,打开 copilot 的 ai 窗口,向 ai 发送一个简单的提示词,那如果 ai 成功返回内容,就说明配置完成。 第二种方式,使用本地 ai 大 模型。我们依旧点击爱的 model, 在 窗口中输入刚才我们在 lm studio 中部署的本地大模型名称,也就是纤维二点五毫米尼七 b。 然后下面的 provider 我 们要选 lm studio, 那 base url 就是 在 lm studio 中的那个 http 地址,那下面的 a p i k 我 们不需要填,因为是本地模型,所以我们要勾选 c o r s 这个选项, 那模型能力勾选推理能力和视觉能力,因为千万二点五 omega 七 b 是 具备这两个能力的。然后你还可以根据你的实际情况调整上下文长度和提示词温度这些参数, 我们点击添加,然后在 ai 对 话框中输入指令,然后就调用了 lm studio 中部署的大模型返回的结果,那么本地大模型的方式我们也跑通了,那么到此我们就完成了基础的 ai 聊天功能的设置。 接下来我们来看看如何配置 r a g 功能,也就是解锁增强生成,也就是让 ai 读取我们的知识库笔记,实现 ai 知识库功能。我们来到 model 这个选项卡,把滚动条往下拉, 来到编辑 models 这个区域,也就是设置向量模型。我们这里先使用谷歌 jimmy 的 向量模型,我们点击编辑按钮,在弹出的窗口中啊,只需要配置我们的 apikey 就 可以了,我们可以点击输入框下面的这个 get jimmy apikey, 它会打开谷歌 jimmy apikey 的 页面,你就可以直接复制 apikey 过来了,然后点击 close, 然后我们来到插件设置界面的 qa 选项卡, 那在这个页面的第一个选项 enable semantic search, 我 们把这个开关打开,然后它会提示我们要要求我们做一次整个知识库的缩影,我们点击确认,然后它就使用谷歌的向量模型对我们的知识库进行了缩影, 缩影完成之后,我们就可以实现 ai 知识库功能了。我们回到 copilot 的 ai 转化框, 把对话模式切换到 voq a, 也就是知识库问答模式。向 ai 发送一个问题,他就会到我的笔记库中寻找相关的资料,然后进行回答。那这里我询问的是有关 jimmy 三的一个复读机 bug, 他 找到了这篇笔记,并且根据笔记中的内容进行了回答,同时他还标注了引用来源,也就是我的这篇笔记。那么到此我们就初步完成了 obsidian ai 插件的 r a g 功能,也就是 ai 知识库功能。 那这里我要说一下, office 点 ai 插件所提供的 rags 功能还是比较基础的,那只能用作你对知识库进行知识回忆这样的一个基础功能。那它相比于专业的 rags 工具呢?比如 launch rags flow 比赛还是有很大差距的, 而相比于 notebook lm 或者是 notion ai 这样的云端 rags 工具,那差的更是很远。 这也是为什么我在之前的视频一直强调 notebook lm 这款工具对奥布斯内来说是一个非常好的功能互补,那未来我也会推出视频来为大家讲解 notebook lm 的 使用方法。 obscene ai 插件的 r i g 功能呢,主要受限于运行的环境,也就是浏览器内核 electron, 它的算力呢,比较有限,使用的也都是轻量级的像样数据库。而专业的 r i g 工具往往运行在 dawk 中,有着自己独立的进程和资源,那使用的也是专业的像样数据库, 而呢,它包括 l m 和 notion 的 r a g 则则是在云端,它们的算力资源呢更强大。那而另一方面呢,在口拍的插件中,想要把 pdf 这样的二进置文件做向量缩影,则需要订阅 plus 用户才能拥有这个功能。 我们在口拍乐的插件的订阅界面能看到详细的信息,那也就是说,如果你是普通用户,你的 obcd 数据库中的 pdf 和图片是不会被锁引的,那也就自然不具备 word q a 功能。那这种情况下,最好的方式就是使用 windows 和 l m, 我并不建议大家去付费订阅口拍了的插件。那么到此啊,我们就实现了口拍了的插件两个主要的功能,也就是 ai 对 话和 ai 知识库问答功能。 那么最后我们针对插件的设置界面进行一个快速的浏览,我们来看一下这些专业的参数如何选择啊,关键的设置我会重点讲解,而所有的设置项目我都总结到了知识笔记中, 那首先第一个选项卡 basic 基础设置,那这里主要是有关插件的界面以及快捷键相关的基础设置主要是关于便捷性的,那这一部分参数都不是关键参数, 那大家可以直接看我知识笔记里总结的表格。那我们来到第二个选项卡 model 这个页面,我们刚才已经讲过了,那上面的 chat model 就是 设置你所使用的 ai 模型,而下面的 bunding model 则是设置限量模型的,那中间有一个参数叫 conversation turns in context。 这个参数的意思是 ai 能记住多少轮对话,能默认是十五,也就是记住你之前的十五轮对话。那设置的值越大,消耗的上下轮 token 也就越大,同样呢也就越贵。那如果你习惯与 ai 进行多轮的长对话,那么你可以修改这个值, 那第三个选项卡 q a, 那 这个页面都是关于 r a g, 也就是知识库问答功能的。那最上面的 enable sematic search 是 总开关,如果你要使用的话就开启 那第二个向量模型,就选择你配置的模型。我们刚才使用的是 java 的 模型。那第三个选项是什么时候对知识库进行?所以 那三个选项分别是从部,所以当插件加载的时候,所以,或者是切换向量模型的时候,所以 我建议大家修改为从不锁瘾,然后呢,手动进行锁瘾即可。那当你修改了大量的知识笔记,然后选用知识库问答的时候,用 ctrl 加 p, 打开命令面面板,输入 compiler, 然后选择 index word, 这个命令就可以对知识库进行锁瘾了。 在下面的这些参数,大家可以参考我知识笔记中的表格,但我建议大家保持默认值。当你的知识库笔记越来越多啊,你可以设置 max source 或者是 r a m limit, 但就像我说的, obsidian ai 插件的 r a g 功能非常基础,那如果你真的有几千篇的核心知识笔记,那我建议你使用专业的 r a g 工具,或者使用 note book, 然后进行针对性的问答。 那第四个选项卡, command, 你 可以设置一些自己常用的 ai 提示词,并且在这里添加到快捷指令,那插件已经给你提供了一些,比如翻译成中文这个指令,它就给你写了一段提示词啊,包括语气,语境,格式还有结构这些要求。 那你可以自己写一些常用的提示词,比如翻译啊,总结,还有格式化等等。那第五个选项卡, plus 是 针对 plus 订阅会员的,那这里我想要着重讲一下第一个功能,也就是智能体功能。 copilot 插件为 plus 会员提供了智能体功能, 它可以根据你的要求呢,自主思考并拆解任务为多个步骤,然后逐个步骤完成。那我们知道 notion 三点零发布之后呢,具备了 ai 智能体功能,非常的强大。而 obsidian ceo 最近接受采访的时候说过, obsidian 对 官方的 ai 智能体功能持谨慎态度, 尤其是考虑到 obsidian 知识库本地化和隐私跨这一问题。那说人话呢,就是 obsidian 短期内不会推出 ai 智能体,那想要 ai 智能体,那就得自己想办法。 那么如果你对 ai 智能体有需求,可以考虑 copilot 的 plus 订阅,那当然我们肯定有很多别的方法实现自己的智能体,那这个以后我会出相关的视频。 那么设置界面最后一个选项卡,高级设置,这里面我们需要关注的就是系统指令, system prompt, 我 们可以设置一个全局的系统指令,对所有的 ai 问答设置一个宏观的规则。呃,就比如,呃,请使用专业严谨的风格回答,不要有过多的暧昧,那或者是呢,在提示词中给它设置一个统一的回复格式等等。 那么以上就是口拍的插件的设置界面,总体来说,口拍了它作为 obsidian 的 旗舰 ai 插件,基本囊括了主要的 ai 功能,但相比于 notion 这样的工具还是有一定的一定的差距啊。 但是得益于 obsidian 文件本地化的特性,我们有很多种方法来为我们的知识库加装 ai 功能。那大家可以参考我屏幕上展示的这几期视频, 我对 obsidian 的 ai 扩展有很详细的讲解,那如果大家有任何问题或者有想要实现的 ai 功能,欢迎给我留言提问。 那这期视频的知识笔记可以在我的个人主页领取。我的个人主页呢,在我的频道简介中,那么今天的视频就到这里了,如果视频对你有帮助,欢迎点赞关注。

詹曼奈,三点零 a p i 如何接入使用?只需打开这个网站,你就可以轻松用上詹曼奈全模型 a p i 了。然后打开 a p i 密钥界面,接着把 a p i 密钥和 a p i 地址配置上去,最后就能正常使用啦。


记住这个网站,它可以让你轻松用上 gemini 三 pro api, 有 需要的快快用起来吧!