公司内部文件,私人数据不敢上传给 ai, 担心信息安全没保障。今天教你用 deepseek 加 defi 十分钟搭建一个完全属于自己的,永不泄密的私人 ai 知识库,还能精准回答私域问题。 哈喽,大家好啊,金哲带你学,我是金哲。今天呢,我给大家带来的是一个 deepseek 加 defi, 去部署一个本地的知识库以及智能助手这样的一个方案,让我们去构建一个安全高效啊,个性化、定制化的这样的一个 智能管理知识系统。 ai 大 模型学习路线图、课程配套资料、全套大模型面试题、教学视频项目源码我都整理好了。那在当前啊,我们网页版的 pubic 已经这么好用的情况下面,我们为什么要去部署一个本地化的这样的一个知识点呢?首先第一个,那如果说我们的数据涉及到隐私 啊,或者说我们问的一些问题,之前大模型没有涉及到,比如说我们自己的一些私有的一些问题,公司内部的一些问题,大模型之前训练没有得到,那我们要通过什么样的方案来解决呢? 可能我们需要把这个自己的相关的这种文件,对吧?通过这个附件上传传给这个 deepsea, 那 这个时候 deepsea 等同于啊,已经接收了我们内部的数据,表示你这个数据呢隐私性已经没有保证了。第二个呢,就是 即便我们可以接受啊,一定这个隐私度的这个牺牲,但有的时候呢,我们可能在一些业务场景或者说自己的这个需求上面呢,需要这种大量的呃,文件的上传,可能几十个,上百个, 那并且我们希望能够构建一个长期使用稳定的这样的一个知识库,这个种时候呢,这个网页版是不能够帮助我们去解决的。那我们去构建一个本地化知识库要用到什么样的一个技术呢?哎, 那今天我们要讲的是通过 log, 通过 log 这样的一个结束增强生成这样的一个技术来解决这个问题。那我们本地化的部署啊,就是为了去解决我们的一个隐私性。第二个就是,哎,可以做一个个性化的定制, 那么 ok, 那 log, 呃,它的这个基础上主要去解决的问题就是什么呢?这个是因为我们大母神训练是不可能训练到我们每个人公司内部或说你自己施用的一些知识的。 这个时候呢,你去问他相关的一些问题,那大拇指的回答呢,他就会变成什么,他就会变成幻觉。他简单通俗一点来讲,他可能会,比如说你问他相关的一些问题,但是他不理解,他可能会编造一些啊,他不了解的啊,编造欺骗,欺骗啊,他就会去对于答案的这个生成呢,他是自己去随机生成的, 他不会依据一个事实,所以我们称之为幻觉。那现在解决这个幻觉问题呢,主要有两种方案啊。第一种就是我们的微调,微调呢就是我们在特定的任务场景来,我们去准备特定的数据集,然后通过这个数据集呢,经过训练,让大模型去理解这部分的业务,那这是我们的微调。第二个呢,就是我们的这个 reag flag 呢,实际上就是我们给大魔神提供一个外部的知识库,让大魔神在解锁回答问题的时候呢,先去解锁知识库,并且将解锁到相关的内容做一个整合,再回答用户的问题。这样的话呢,他有一个知识库作为依据,他就不会去编造啊其他的无聊的一些问题,或者说啊欺骗你这样的一个情况。 那么第三个就是我们所讲一倍的,那我们在讲解这个部署之前,我们先来看一下啊,整个的这个效果。好,这是我们本地化部署。部署之后啊,他的一个情况,我们就我就问了他,我说,哎,你好,我想了解一下你的这个产品,这个时候呢他就介绍了依据这个文档,依据我们这个知识库介绍了相关的一些内容, 那我们可以来看一下这个知识库的一个详情啊,点进去以后我们可以看到这个知识库呢,现在已经被处理好的,对吧?他的做了切片,引用相关的这样的一些文档的切分。 ok, 那 现在我们来看一下我们如何要通过什么样的一些技术啊,来部署相关的这样的一个知识库。 第一个啊,我们会有一个文件的上传,然后,呃我们今天会用到的一些点呢?会有到这个,呃,用到这个 define, 用到了这个欧拉玛,还用到了我们的这个本地的一些模型多克, ok, 那 首先我们要去做的事情呢,首先是要去下载啊,下载我们这个多克多克呢,你可以这样去理解,你把它当做是一个虚拟机,你可以在这个容器的上面呢去 呃,装很多很多一些工具,那这个工具呢,都是一些沙箱化的啊,它是可以很方便去做一个独立化的管理,并且呢能够占据很少的内存。 那这个多克的丸子大家可以看到,就多克点。 com, 然后你在这个上面呢,你可以去当洛的,当洛的这个多克啊,当洛这个多克这个版本,那下完以后呢?哎,我们就可以看到这样的一个图标啊,就是这样的一个小金鱼,那这个金鱼呢?我们你可以通过啊,在这个上面通过这种呃 u i 啊这种图形化的这个界面去操作去下载,你也可以通过,呃,我们通过 win 加 r 这种命令函啊,通过多克的一个拉取那去做这样的一个操作。那这个下载完成以后啊,那接着我们要下的是什么?接着我们要下的就是 defi 啊, defi 这个下载呢,其实非常简单,就是我们去通过啊拉取它 defi 这个上面呢,它是有一个 这个文档的一个介绍啊,这个文档介绍大家也可以看到啊,在这个呃,这是 define 的 相关的一个网址,你可以通过它啊来呃下载对应的这样的一些工具,包括它的一个部署,对吧?这是我们通过多克来部署 define。 那首先呢,你就照着这个,这是一个傻瓜式的操作啊,你可以在这个进入这个教程,进入他这个文档以后,按照这个教程一步一步来那部署完成以后,对吧?你就按照他这个启动啊,启动,启动完成以后呢,我们就会看到啊,看到这样的一个场景,看这样的一个场景, 那这就是我们把把 diy 已经做了一个普遍化的部署,那 diy 部署好以后呢,我们还需要去下载的一个工具叫做欧拉玛,这是欧拉玛的官网啊,在欧拉玛上面呢,我们可以下载很多对应的模型,比如说我们要下载一个 deepsea, 好, 那这个时候我们点进去 deepsea, 呃,它就会跳出 deepsea 对 应的这个模型的版本啊,它有这个一点五币的,七币的、八币的、三十二币,是吧?包括满血版的六百七十一币, 六百七十一币呢,他需要占据的这个大小是四百零四 g 啊,这个一般来讲,我们啊个人的电脑可能是负担不起的,带不动的,那我们啊建议大家呢,如果个人电脑的话,我们用一个一点五币就好了,那同样的我们也可以通过这个 c m d 啊 啊,比如说我们现在要去下载这个一点五币的,我就把这个一点五币,我给大家抠皮一下啊,抠皮下这个命令。好, 大家把这个命令复制复制啊,你安装好这个欧拉玛,欧拉玛这个呢,你也是通过右右边这个段落的啊,下载这个他会有傻瓜式的这个安装操作,安装完成以后啊,一直下一步,那你现在去运行这个命令啊,大家注意看 好,这个时候我们就会他这个时候会出现这个界面,是什么呢?啊?让我们发送消息,那我就说你好,是吧,你是谁? 好这首啊,但因为这个是我已经安装好了,我已经安装好了,那当我们进入这个聊天的界面,我们如何去退出呢?按 ctrl c 啊,那这个时候你可以通过呃, ctrl d 啊,使用 ctrl d 啊,这个 ctrl d 或者是这个啊 by 啊,再通过这些命令来退出,退出,我们也可以通过这个欧拉玛, 奥拉玛历史的,我们来看一下啊,我们下载了什么的一些模型,你下载过的模型的都会在这个上面有个体现啊,最左边是模型的一个名字啊,这个是他的一个 id, 包括他的大小啊,大家可以看到,对吧? 好,那这个下载完成以后,我们把所有的这个前提工具都准备完成以后,那我们如何去启动这个 dfi 呢?那这个 dfi 的 启动啊,我们会看到在 这个参照这个教程啊,我们通过这个豆豆的这个版本,那启动完之后,你可以去访问的就是 logo house 啊,他这个地方给到你这个看到没有啊?给到你这个 ip 的 地址,那就访问你自己这个地址,那访问进来以后,我们就会看到在哪个界面啊?这这这这个不是首页,但我们会看到对哪个界面 好。现在我们进入这个工作室,进入这个工作室以后呢,我们要去部署这样的一个 log 系统的话,那我们要去部署这样的一个知识库, 但是在创建知识库之前呢,我们需要去啊构建自己的一些模型,所以我们点到这个右边啊,点这个右边,然后点这个右边进来以后,那我们可以看到有这个模型的供应商, 那通过这个模型的供应商呢?哎,在这个地方呢,你就可以去添加设置自己对那些模型,大家可以看到有 open i 的, 阿 斯洛克的,对吧?包括亚马逊的很多很多,那我这个地方呢,我安装的是一个欧拉玛,那我们集成一个欧拉玛 这个拉曼呢?哎,你安装好了以后,对吧?你在这个地方可以看到你配置了哪些模型,甚至你可以去添加对应的模型,那添加对应的模型这个地方大家需要有一个注意的点,就是如果你是对话的模型,分为两种,一种是对话的,一种是切入的, 那如,比如说像我们装的这个 deepsea, 对 吧?好,或者是拉满,或者是这个千问,那这种是对话型的,你就选左边的 l l m, 然后模型的名称呢?你就在这个地方去复制就行了啊,去复制就复制这个模型的名字就行,然后右边上面这个就是基础的这个 u r l, 这个 u r l 呢是 我们啊通过奥拉玛暴露出来的一个 ip 地址,这个地址大家需要注意啊,就是如果你是这个 def 是 装在多克里面的啊,你需要复制这个地址去部署啊,幺幺四三幺四,它的一个端口号, 哇,如果听清楚再说一次啊,就是你的 def 是 安装在多克里面的话,你需要通过这种方式去部署,如果你是直接安装,那你不需要,你就直接部署你本机,那你本机这个地址怎么看呢? 那你可以同样的通过这个 c m d 的 这个命令,行啊,你输入这个 i p cambog 啊, i p cambog, 最下面呢,你就可以看到你的自己这样的一个,对吧? i p v s 的 一个地址,然后你把这个复制过去,然后后面接上这个代码号,幺幺四三幺就可以了。 好, ok, 那 现在我们来模型的配置,我们刚才讲的什么?讲的这个,呃,这个是大元模型的,对吧?然后这个你就默认就行了,然后你配置配置这个文本切入同样的 啊,你这个上面输入模型的名字,下面呢就是输入这个,嗯,前面我们在那里看到的,前面跟这个大模型啊配置的一样的, u r l 的 一个地址,好,那现在我们模型都配置完成了啊,这个地方需要有注意到一个点,就是如果说你配置不够正确,这个地方就添加不上啊,那你只要添加上去就表示,哎,这个都已经是配置成功的, 那我们可以看到我这个地方是配置了两个啊,一个,一个是千万三的一个,呃,这个对话式的推力的,对吧?还有一个是 d p g r one 一 点五 b 的, 还有一个就是这个 bg 的, bg 的 这个是切入模型,那我们构建知识库呢,我们就要去用到的就是这样的一个切入模型, 打开知识库啊,知识库呢?啊,你点到这个创建,然后这个地方是会有文件的这个上传, 那你可以去选择,对吧?选择对应的一些文件,把它传上来,那比如说我现在就随便选一个啊,选一个我就选一个,这个 rap 的 一个基础 好,传上去以后呢,我们点击下一步,下一步这个地方呢?哎,我们可以看到这个上面如果说你初学者你就不需要去做其他的设置,你就点点击下一步,然后英贝利模型这个地方有不同的选择,对吧?你可以选择啊,你自己配配置这个模型,那我这个地方有这个本地的配置,本地也有一些线上 api 的, 看到没有? 在线上 a p i 你 也可以选择,然后选择完成以后,那我们就可以做一个保存处理,保存处理以后这个时候它就在做对文档做一个解析的处理,我们可以稍作等待。 好,这个时候你要注意,你要看到他右边这个地方是一个绿色的勾,这才表示什么呢?这个知识库创建成功。好,我们现在回到知识库啊,回到知识库以后就可以看到这是我们刚才上传的这个文档,对吧?他就会把这个文档呢做一个对应的这个切片,那我们可以看到他每一页的一个显示,是吧?他总共有十页,切了多少个文档块, 然后你也可以看到他的一些内容,你也可以去做一些对应的这个测试。好,那现在我们知识库构建完成以后,对吧? 那回到我们整个的这个,呃,首页啊,回到我们整个这个工作室的这个地方点工作室,那在这个地方呢,我们就要去创建什么呢?创建一个应用啊,创建一个空白的应用, 因为现在我们是去做一个内部知识库啊,这个地方呢,我们就直接选择一个聊天助手即可选择完成,你在这个地方呢写上对的名字,那我这个地方我就取一个私有知识库啊,就是私有智能助手。 好,选择完成以后我们点击创建,创建完成,那在右边这个地方呢,你是要去编排一下这个提示词啊?为什么需要编排一下这个提示词呢?这个提示词是让你去规范啊,让 默,让这个 ai, 让大墨神去明确去了解自己的一个啊职责以及他谈话的一个边界啊,就比如说我们抄出,抄出对的一些内容,我们可以过来看一下啊, 啊,之前这个提示是如果他超出对应的一些内容的话呢?我们是需要什么需要啊?不让他回答的,比如说他是他现在只是一个什么,只是一个空气加湿器的这个智能助手,对吧?他超出这个对应的文档,他就应该 啊拒绝回答,比如说你明明是一个这个做法律的,人家问你医疗的,对吧?那你肯定是不能回答他了,那我们现在把这个提示词啊,我就直接括闭过来 啊,我们可以看一下,对吧?你现在就是你的角色,就是一个空气净化器的智能助手,然后,呃,在超出啊,如果问题超出知识库的范围,你应该礼貌的拒绝回答,并且说明原因,然后包括用户的一些对话的一些风格啊,语气啊 好,这些完成以后啊,那现在这个地方我们现在暂时就不去讲这个变量的配置,你在这里呢可以去添加你对哪个知识库,那我们就把空气加湿器的啊,这个看你自己选择,对吧? 那我们之前讲到线上,你是去很难啊,去部署很多个文档的知识点,但是我们通过本地化的部署,你可以,对吧?选择任意的这个知识点。好,我现在就用这个空气加湿器,然后把它添加完成以后大家注意右上方呢,他在这个地方就是我们可以去选择我们配置的这个 啊,对话的这个 l l m, 对 吧?大圆模型,这个看你的选择,对吧?那我们就选择这个 dpic 选择完成以后,那现在我们就可以来做一个调试啊,我先问一下你。好, 那这个时候可以看到它,现在我们整个的对话流程就已经清晰了,那我现在再来问一下啊,我就问一下相关的一些问题。哎,我想了解一下你们的产品, 呃,我想了解一下你们产品的加湿功能, 好,这个时候他就会依据对应的这个文档啊,可以看到他就会找到对应的这个文档给你做一个回答, 然后后续呢你就可以把它做一个发布啊,发布完成以后,那比如说我现在发布更新,发布更新以后你在工作室上面呢就可以看到,那这个就已经已经可以啊,现在就已经发布出来了,我们就直接可以用它,你点进去呢?你点进去以后在这个地方呢有一个运行, 那你点一下这个运行,你可以看到它上面就会给你生成一个什么,生成一个对应的这个地址,那通过这个地址我们就可以直接接入这个增值助手,那现在我们就可以问他对应的这个问题,那我们现在来问一些。呃,你好,我想了解,你好,介绍一下你们, 呃,介绍一下产品的加湿功能,对吧? 啊?这个时候他就会去依照这个文档做一个这个对应的查找与回复。那如果你问他一些啊额外的问题,比如说,你好,我想咨询一下法律问题, 好,这个时候呢你看他就他就不能回答了,对吧?他就不能回答,因为,因为,因为没有对应的这个文档支撑,同时我们也在提示词里面有明确到你是不能去做什么的,不能去做一个超出知识库范围之外的一个回答, 然后我们回到这个地方啊,回到这个上面来,那现在我们已经发布了,对吧?即便发布以后,我们也是可以对他做一些更改的,比如说你可以在这个地方去更改,更改他的这个新的一些聊天的模型,或者说你在这个地方呢,也可以去,对吧?把这个知识库删掉,添加一些其他知识库,那你现在我们可以把它删掉,你再可以添加一些其他知识库, 然后这个提示时呢,你也是可以更改,那更改完之后你再做一次发布就可以。那,那这样的话呢,就是我们啊去部署到这样的一个本地的石油知识化啊,本地的一个石油知识库的这样的一个全流程。 对,我们再给大家回顾一下啊,首先呢我们要去安装的是什么?安装是多克,那这个多克的安装呢?很简单,你就在这个地方,你是什么样的系统,你就下载对应的这个版本。那如果是 windows 系统的话,稍微有个注意的点呢,就是你可能要去装一个乌邦图的小型的这个训练机 啊,这个有盾的这个教程啊,你进入这个多克的下载,然后多克下完以后,对吧?你就要进入 defi, defi 就是 defi 的 这个文档,然后 defi 的 文档这个里面呢它就教你怎么去,这都是啊,傻瓜式的,按照这个命令一步一步来就可以。 那第三安装完成以后,那我们就要下载什么?下载奥拉玛,对吧?然后奥拉玛呢?在这个上面你可以去搜索对应的模型。那刚才我们跟大家讲了这个,呃, type 的 模型我们还有什么?还有 b g e 的, b g e 的, 对吧? b g e 是 做切入的啊,那你可以看到它对应的这个切入模型,那你点进去, 那你在这个地方运行这个命令,你就可以把这个,把这个模型给它下载下来啊,我给大家试一下啊,然后这个地方啊,我这个地方应该是已经下载了, 呃, m 三,对吧? m 三这个我已经下了,那我我再给大家运行一下,它就是表示已经已经下完了啊, 是吧?这个我已经下了,我已经已经下载完成了,所以它就不会再下了啊。但因为毕竟三它是一个建筑模型,所以所以它是不能对话的,那包括我会说我们去下一些其他的这个模型,你都可以在这个欧拉上欧拉玛这个上面啊,去找,比如说有千问的,是吧?千问的有这个 妈妈的,当然这个是开源的啊,开源的你都可以去下。好,那这个上完以后呢,我们就启动迪拜,启动,首先启动多克啊,首先启动多克,然后在多克里面启动迪拜,那进入迪拜以后呢?这就是他这个首页,那首页有工作室,有知识库,那你可以在这个设置里面,在这个右边点击这个头像设置里面的去配置对应的模型。 ok 啊,那我们现在来做一下这个总结啊,所以我们我们部署的这个三个步骤就是第一步,对吧?先啊,这个下载软件的先后顺序啊,那这个是没什么关系,先下欧拉玛也没关系,但是呢一定要先下多克啊,后下这个迪拜 啊,如果你是通过这个迪拜,你是通过原码版的安装呢?你就不需要下多克,那如果说你希望通过多克来启动,那你就先装多克,再装迪拜啊,然后在迪拜当中呢就配置模型知识库,对吧?这个三个步骤好,整完以后呢, 常见的问题可能会有,就是你去配置模型的时候,对吧?那个端口啊,他表示配置不成功,那就是我们看到这个问题啊,大家再注意一下,看到这个问题,如果你是的范啊,再讲一次,你如果是多可不说的范,那你这个端口要这样去配,明白吗?好, ok, 好,那这个配置完成以后,那大的模型呢?就我们建议啊,个人的电脑,我建议大家下载一点五 b 的 对话的模型就足够了啊,不能下载再多的话,要根据你们的显卡,那如果说你的显卡能够达到十六到二十四 g b 的 话,你可以下载 dsp 的 话,你应该是可以去下载到三十 b 左右的啊。嗯, 好,那这个呢,你可以去按照自己的这个电脑,对吧?有三十 b 的, 你按照自己的这个下载的。 好,那最后啊,我们做一下这个总结,对吧?那我们如果说你不想去做一个这个本地部署的话,你可以根据自己的这个选择啊,那我们如果说你的这个, 呃,数据的隐私保密,他的需求不是特别高,不是特别大的情况,上面的你是不需要去啊,本地化部署的,你可以直接使用线上的 api 那 用,比如说我们在迪拜啊,迪拜这个地方前面配置啊,可能有个点没给大家讲到,就是我们在配置配置这些模型的时候啊,你在这里模型的供应商这个地方,大家注意, 你在这个地方呢是可以去,呃,可以去做做做一个这个线上的 a p i, 你 看没有设置,对吧?你在这个地方就配置线上这个 a p i 就 可以了。 ok, 好 啊,这就是以上我们整个的这个什么呢?整个的这个通过 defy 啊,在 deepsea 的 一个本地化的支库的一个部署。
粉丝3498获赞1.4万

那么接下来呢,我带领大家啊,使用 define 的 一个本地化的部署,结合咱们的一个 skill 来做到一个实战的案例。那我们首先呢要去准备一个环境的安装,那还是老规矩啊,第一步的话我们要去装多克,那装多克包括一些工具呢,我们都可能会要去 装到一些 note j s 啊,那如果没装的同学大家可以参考这个方式去装一下,那装完以后呢,那接下来我们要装的就是多可呢,其实 windows 安装了,大家就下载这个桌面的就可以了,你插到自己系统的一个版本,我们 windows 你 就注意一下你的这个系统架构,如果你是 armb 架构,那下载完成以后啊,那我们就可以去 把这个多可呢给它跑起来,跑起来以后呢去找什么呢?找这个 defi 啊,那 defi 其实呢这个安装比较简单,那你 进入到这个地范以后,对吧?你就要把它它的这个原码给它拉取下来,我们进入到地范以后呢,把它原码进入到它的这个 get up 上面这个仓库,然后把它 拉拽下来以后呢,我们会在这个本地,对吧?你在这个地方呢有一个 word 对 吧?就如果大家有 get, 可以 使用 get 去拉取,如果没有的话呢,我们就直接按 load 的 它的一个代码的压缩包,那我这个地方呢是使用的是代码的一个压缩包的形式啊,那压缩完成以后呢呢,接着我们来做一个什么样的事情呢?我们会在本地去建立它的一个路径啊,这个路径就在这里, 那我们把它把这个源码包拿过来解压,解压完成以后呢,那我们就进入到发的这个代码文件夹,对吧?进入到里面来以后呢,这个时候呢,其他的不太重要,我们重点要去看一下是它的这个 book 的 这个文件夹,因为我们使用的是多克这种方式来启动部署的嘛。那 首先呢,大家会看到有一个点烟味点这个私密的一个配置文件,那我们把它 copy 一 份,然后把后缀这个一帧属性编辑它的一些属性。那在这里呢,大家需要有一个注意的地方, 因为待会我们会涉及到一个插件啊,涉及到一个插件的安装形式,那这个插件呢?也是感谢啊,咱们 b 站的这个凌风博主啊,他自己开发上传的,那在这里呢,大家要注意啊,有几个问题,就是第一个就是我们去搜索一下他的这个 式的一个 u r l, 那 在这个 u r l 的 配置上面呢,他会有一个问题啊,这个问题是在什么地方呢?就是很多同学如果说你后续啊,你去安装这个插件呢啊,你会出现一个问题,就是他会报错,报错的原因就是你在这个路径的配置啊,你在这里呢, 你要配置的是你的这个 ipv 四的一个 i, 这样的一个这样的一个 ip 地址,那后面这个端口号就取决于你有没有去改啊,你有没有去改这个 def 的 一个端口监听端口,如果你没有改的话,这个地方呢,你默认啊,就是不需要动它。那如果你改了端口,你像我啊,因为我这个电脑上面装了这样的一个 def, 也装了在那个 logfloor 那 它会有一个端口的冲突,所以我把它改成了八零八零, 那我的这个地方呢,你就通过这个 ipv 四, ipv 四,如果大家不清楚啊,这个地方呢,你进入 cmd 以后啊,输入这个 ip ip config 好, 这个地方呢,你就会看到你的这个本机的一个 ipv 四的这样一个地址,对吧?这个地址呢,就是你把它拷贝过来就可以了,这个注意啊,这个地方千万不要去填写那个 local host 的, 也不能填幺二七点零零零幺啊,因为这样的话,它上传工具它就会出现一个报错,这第一个地方啊,然后配置,如果大家需要有改的地方呢?那大家自己去到这个多克的这个 腾客是这个亚姆,亚姆文件里面啊,你可以去改一下他的这个端口,那这个大家自己去找寻一下就可以了啊,那在这里呢,也可以去看到一些配置啊,他这个地方是一个环境变的配置,当然如果我们只装一个的话,你不需要操心那么多啊,那 还有一些同学经常会碰到的一个问题,就是安装多可能他会有一个虚拟机,对吧? windows 他的安装呢,会有个虚拟机的这个启动的问题,那在这里呢,你要去启动他电脑的一个 这样的一个虚拟的服务啊,就还要装一个 ws l。 那 这个我在其他代码是有讲的啊,其他视频是有讲的啊,如果不知道的话,可以去参考一下我其他视频。好,那么接下来我们的范安装完成以后啊,那在这里呢,我就不给大家去讲这个一一的部署了,如果大家有需要的话,可以加入到我们的这个群,或者是这样的一个方式来获取这样的一个文件啊。 好,那在这里呢,我们可以看到啊,就是首先我们要去装载一个插件啊,这个插件前面是有提到是我们 b 站的这个博主林峰博主啊,他去上传开发的,那我们可以在 gethelp 上面呢去找到他,也可以在这个插件的市场啊,在这个插件的市场里面呢去做一个搜索,那就这个插件,那你一搜的话,你一搜到这个 sky 界面,你就可以把它下载 加载完成以后啊,那我们再回过头来,我们来看到这个插件提供了两个功能啊,一个功能呢就是做到的是一个技能的管理,这个技能的管理呢就是用于我们去上传技能啊,还有这个删除,就做一个技能的这个 sky 的 一个真善改查。那下面这个部分呢,做的就是 sky 的 一个流程, 那我首先我给大家来看一下我们整个的这个 sky, 那 这个 sky 我 们上传的时候呢,大家要注意给它做一个压缩,要把它压缩成这个 g i p 的 一个格式啊。好,那首先给大家看一下,这个是我们 sky 的 一个 md 的 一个编辑方式啊, 包括这是一个文案的这个小能手啊,就是可以根据用户给定的一个主题来生成一段适配的这个发布的正品的文案啊,它包括我们在这个地方,大家注意啊, 只看为什么有区别于 m c p, 就是 在于渐进式流程的这一个步骤,因为它能够根据用户的需求去做一个逐步的渐进式的加载,而不是说一次性我们就把所有的知识库,所有的这样的一些技能啊,全部塞给他,这样的话我们可以让大拇指的注意力呢,更好的聚焦在我们的一个业务上面, 对吧?包括我们的追物模板,对吧?如果用户,对吧这个需求没有没有说清楚,对吧?你这个追物模板也可以给到模型的一个参考。好,那这个就是我们 sky 的 整个的一个编写,那包括它的脚本,脚本这个地方呢?大家根据自己的一个需要,那接着我们看到这个 refresh, refresh 呢,就是给到模型的一个视力,对吧?这个视力呢?大家可以根据自己的需求啊去做一个不同的编写, 那这个其实很简单,就是我们啊就有点像我们之前讲提示时的那个少量的提示吗?对吧?好,那接下来呢就是这个 script, script 是 提供一个下载到本地的一个拍摄的脚本,那这个脚本呢?如果你客户没有这个需求,他是不会去加载到的啊,这个我们可以按照这个业务去做一个设置 好整个给它做完以后呢我们要做的一个事情是什么呢?我们就要把它啊以压缩包的这个形式给它传上去。那现在我给他压缩一下啊,压缩一下,给大家来研究一下这个整个的流程,然后我把它放在这里,然后呢我们点到这里,然后在预览这个地方呢,我们可以选择一个技能的管理,因为它是有两个吗?两个智能体。好,我首先来看一下查看技能, 好,查看技能,我们现在是已经有这个文案小小能手了,对吧?我们可以去删除技能,删除技能后面你跟一啊用,就是根据这个技能的一个序号, 现在我们把这个技能删掉了,删掉,那我如果说我们要新增一个技能的话啊,这个地方把它缩小一点,方便一下拖拽啊,就是新增技能,对吧?好,那我们在这个地方呢把这个压缩包给它拖拽进来,然后发送,那我们就可以看到技能就已经被安装上去了。安装上去以后呢,那接下来我们还有一个点需要配置的,就是我们的模型, 这个模型呢啊,如果有玩过的同学啊,就可以稍微的跳过啊,就是在这个设置的地方我们要去选择一个模型的供应商,那供应商呢啊,你可以根据自己的电脑的配置,比如说如果能这个电脑配置比较好的话,你要部署本地的模型,你可以通过欧拉玛,对吧?去提供一个这个端口, 如果你要配置线上的那就很多了啊,有这个托尼的吉米娜的啊,包括院子安面啊,对吧?哈克菲斯啊,很多很多,那我这个地方呢提供的是一个深度球索的,就类似于的啊,那我在这里配置的就是很简单,对吧?你要去把它这个 king 啊给它填上去,填上去以后呢,它在这里呢就可以去显示对应的一个模型。 好,那我们回到整个的这个在的这个工作室上面来啊,那回到这个回到这个地方的这个工作室上面来呢,我们就可以去看到他这个模型的配置是在 sky agent 这样的一个节点里面啊,我们在这个节点里面呢往下拉,你在这个地方就可以看到一个模型,我们就选择这个模就可以了, 好,那接下来呢,我们就来进行一次技能的一个预览的运行,我们来看一下它是如何去做一个间接式的,譬如以及去做到这样的一个技能的逐步加载的。啊?好,大家可以看一下啊,我来生成一张文案,好,这个时候错了啊,我这个地方运行错了,我应该是要把它切换成是这个整体的啊, 我来生成一张文案。好,我们可以看到这个时候呢,对吧?他从这个技能缩影里面我们可以看到,对吧?他就已经发现了这样的一个文案小能手的这样的一个 scale, 对 吧? 因为我们在这个 sky 的 里面呢,跟他添加了这样的一个追问的形式,对吧?刚才有给大家看到这个 sky 的 一个编写,这个时候呢他就会做一个进一步的提问,那我就希望是去生成一个 这个旅游的,对吧?旅游的主题,那这个地方呢,我们不需要选择这么复杂,我们就写一个旅游,旅游,然后呢我这个风格呢,我们可以选择 这个感性一点,对吧?然后支出范围呢?选一百个字,这个行动号召,这个地方呢啊?就不行啊,我们看一下他这个反馈啊,好,这个时候呢他就说,对吧?需要加载,需要加载,你可以看到他就去继续看这个 skill 的 说明,对吧? 然后根据我们这个需求呢,他模型就会去思考,去推理,我是否要去调用其他的工具,我是否要去参考用户给我提供的一个视力,对吧?你就发现他这个技能是一步一步加载, 包括一些信息,对吧?参考的案例也是一步一步加载,这个就区区分开来了,我们的 agent 以及这个 mcp, 对 吧? mcp 它实际上是把所有的技能一股脑一股脑全部打包塞给塞给这个大模型。那你大模型每次要用的时候,你发现它要从一大堆的这个工具里面去解锁,去解锁, 那这个呢?是你要用到什么我再去找,要用到什么再去找,那这样的话呢?大模型的这个注意力呢?它就很能够很好的去聚焦在整个业务的成面,对吧?而不是要把一部分的精力去放在这个工具的管理与这样的一个层面。 好,现在我们可以看到他是一步一步的,对吧?这个思考每一步去调不同工具,调参考的这个视力,我们等他工作完成以后,我们回个头带大家来看一下啊。好,我们来看一下他每一步的这个,譬如啊,是吧?我们可以点 开,点开,我们等他必须完成啊,必须完成之后,我们看一下他这个执行的这个过程。好,现在我们可以看到他这个文案就已经生成了,对吧?他生成会有一个临时的这个保存的这个路径,我们点进去看一下,对吧?这个就是整个文案的生成,那我们没有点击下载,你点击下载他是可以去下载的, 我们来看一下啊,他的整个的这个技能流程的这个读取,包括的,譬如你看他第一次啊,第一次这个思考,就是我发现,对吧?需要什么呢?需要这样的一个调用这个技能来完成,对吧?按照建立式,譬如流程,我需要获取技能的原数据啊,先读取这个技能包的说明书,那之后呢,你看他整个的过程是什么样的啊? 接下来他做的事情就是他要去看技能包的文件结构,对吧?确认脚本是否存在,然后呢再往下面一步呢,他就是发现了这个我们 script 的 这里面的这个生成这个拍摄脚本啊,然后再往下面呢,我们可以看一下,他就生成整个的这个案例,生成整个案例,然后包括去调用脚本。 所以你会发现啊,他每一步呢,都是按照需要,按照需要去加载对应的这样的一些文件,或者是知识库或者是信息,那为什么叫间接式批录?那我们通过这样的一个思考的流程,我们就能够看得非常的清晰, 对吧?那这个呢,大家如果说有去使用过 m c p 或者 edit 的 话,你就很容易啊,能够去体会啊,遮着之间一个区别啊。所以大家呢,如果有对应的一个业务流程呢,你也可以按照这样的一个需要,去通过 define 啊,去构建自己的一个本地的这样的一个 scale 的 一个智能体啊。这个呢,我们体验过之后,你会发现,其实 scale 真的 是比以前的 m c p 跟我们这样的一个 edit 要好用的太多。那整个的这个项目的这个案例啊,大家如果有需要的话,可以去进群做一个领取。

这是我一人公司的几个 ai 智能体,现在已经全部到货了,我这原本的两台已经完全不够用了,我买这么多 mac studio 做部署本地大模型, 你知道是为了什么吗?之前这个是二百五十六 g 显存的 mac studio, 这个性能其实已经非常强了,但是我发现在用 opencloud 的 时候,我有很多个 agent, 有 我的 ceo, 财务主管,还有运营总监、设计师等等,他们全部都在这一台 mac 里,那就会导致我这个大模型的压力非常大。就算我有二百五十六的显存, 但是它的内存宽带已经限制住了,所以我安排这么多的 max studio, 就是 为了让每一个智能体都能有一个独立的大佬,而不是共享。那我有五个大佬,加上之前的两个,七个大佬去帮我完成很多的工作,那他们可以做什么呢?像做视频, 做设计,整理财务报表。但这一切我只需要给我的主 agent, 也就是 ceo 去发号施令,那他就可以去控制我其他所有的 agent, 让他们各司其 并且二十四小时不停歇,给大家分享一下我是怎么配置的。因为达新出的这个太阳模型,它的能力是非常不错的,我准备用它来去做我的 ceo 的 大佬,千万的这个 code 三的这个模型负责编程,那这个 mini max 的 文案润色呀,各方面都非常好,所以 运营总监我就准备用 mini max, 但是这个模型的数据量是非常大的,直接占用了一百三十多 g 的 容量,是一个一百八十 g 的 模型,所以我会用二百五十六 g 的 这台设备去跑 这个 a 证,然后我会用其他的这些去做我一些零散的工作,比如说像这个千问三的 vivo 八 b, 就 可以在这个三十二 g 的 mac 上,因为它主要是用来分析图片,像小红书啊、抖音啊以及各种咨询,用它就足 够了。还有像 g p t 一 百二十 b 的 模型,它的逻辑性是非常强的,它就需要用六十四 g 的 设备去跑,用这个模型去分析一些财务报表、股票信息、黄金等等都是没有问题的。所以这七台设备去跑不同的模型,所有的设定全部都会设置好。最重要的是这一切 全部都是在本地,完全不用线上的 a p i, 也不用付费 token 的 消耗。就算所有这些大模型,像千万 g p t 这些全部倒闭,那这些模型也会永远为我服务,这种拥有感和体验感才是本地模型的魅力。配合上 opencloud 一 人公司就能直接开张了。

这个是二百五十六 gb 的 超大存存的 max 丢丢。这个是 open klo, 一个强大的私有机器人。这个是的范,一个多 a 镜头的工作流,他们组合在一起会发生什么? 网上很多人教你做部署 open klo, 却很少有人告诉你,除了疯狂烧钱外,它到底能干嘛?我讲一下我的使用体验,你就知道 open klo 到底是个大忽悠。区别你手机 app 里的各种 ai 软件, open class 是 没有操作界限的,背地里可以帮你发邮件,整理公司报表,没事还能拉个群,和你朋友一起玩男人杀。但是 你用的越多,算你消耗就越大。每次对话都会消耗 token, 感觉就很不爽,感觉每次对话都还要付费,而且不能包月,是按量付费,或者是那种很便宜的平台收集你的私有信息拿来做训练。 所以我才用麦克的大蒜泥机型做本地。话不说,二百五十六 gb 的 显存可以装下超大的知识库。这个聪明的大佬就住在自己家里跑, 不消耗任何的头啃,感觉就很有成就感和归属感。这是线上模型,给不了你的幸福。云厂家再也拿不走我的合同和报表,数据推理和计算全在本地, 就算是各种 qq 等。云端养虾 我认为啊,都是玩具,给足了权限呢,又怕暴露隐私,不给权限又没点卵用,最后养虾养了个废物脑残虾。我目前自己跑的是独家量化版的模型,会根据 opcode 的 使用场景优化它的模型数率。 给大家看一下我的测试效果,我不说比线上快多少,但是稳定输出且丝滑,体验质地超群,而且局网无延迟,这效果比你云端模型可能精度还要高。复杂的任务交给他,本地的模型也更懂你的需求。如果还要玩一点更深度的, 还可以配合迪拜的工作流,完成真正帮你干活的任务。写文案,管团队,做量化高级功能自己都可以轻松解锁。你不需要懂编程啥的,一大堆复杂的操作自然语言,让 open color 开干就行。 以上可以持续为你打工的 open color 集群, aint 加本地大模型更新方案以及迪拜工作流的操作方案我都整理好了,想要的可以评论区打你想要的。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

使用欧拉玛可以一键部署本地大模型,我选择的模型是千万三点五九 b, 现在来演示一下, 可以看到 gpu 使用率向升,由于我这台电脑的显卡配置比较低,所以输出的比较慢。 好,终于输出完成了,接下来是 gg 教程。 首先肯定是要下载欧拉玛的这个软件,进入欧拉玛的官网之后,选择 windows 点击下载,当然这个下载起来会非常的慢, 我也给大家把安装的程序上传到了网盘下,下载后双击打开直接安装,安装完成之后就是这样一个界面,可以在这里点击你想要的大模型,比如说这些是云端大模型, 从这里开始就是本地大模型,这个是谷歌开源的本地大模型街吗? deepseek 千问三,还有其他的一些模型啊, 对于模型怎么挑选,得看电脑的配置,比如说我这台电脑 cpu c a m d 二五六零零两根 d d e 二四的一六 g 内存条, 显卡是一六六零 s 六 g 的 显存,这个已经是非常老的显卡了,后续我准备根据我的电源升级成四零六零 t 一 六 g 显存的,所以根据我的电脑配置 选择了比较小一点的模型。那你的电脑适合哪一个大模型?可以把配置发给豆包问问,让豆包帮你分析适合下载部署什么样的大模型。今天的教程就到这,关注我,评论私信。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

哈喽,大家好,今天呢我给大家带来的是一个 dbic 加的范,去部署一个本地的知识库以及智能助手这样的一个方案,让我们去构建一个安全高效啊,个性化、定制化的这样的一个智能管理知识系统, ai 大 模型学习资料在主页置顶群里。 那在当前啊,我们网页版的 excel sheet 已经这么好用的情况下面,我们为什么要去部署一个本地化的这样的一个知识点呢?首先第一个,那如果说我们的数据涉及到隐私啊,或者说我们问了一些问题,之前大模型没有涉及到,比如说我们自己的一些事务的一些问题,公司内部的一些问题, 大模型之前训练没有得到,那我们要通过什么样的方案来解决呢?可能我们需要把这个自己的相关的这种文件,对吧?通过这个附件上传传给这个 deepsea, 那 这个时候 deepsea 等同于啊,已经接收了我们内部的数据,表示你这个数据的隐私性已经没有保证了。 第二个呢,就是即便我们可以接受啊,一定这个隐私度的这个牺牲,但有的时候呢,我们可能在一些业务场景或者说自己的这个需求上面呢,需要这种大量的呃,文件的上传,可能几十个、上百个, 那并且我们希望能够构建一个长期使用稳定的这样的一个知识库,这个种时候呢,这个网页版是不能够帮助我们去解决的。那我们去构建一个本地化知识库要用到什么样的一个技术呢?哎, 今天我们要讲的是通过 rap, 通过 rap 这样的一个解锁增强生成这样的一个技术来解决这个问题,那我们本地化的部署啊,就是为了去解决我们的一个隐私性。第二个就是,哎,可以做一个个性化的定制, 那么 ok, 那 log, 呃,他的这个技术上主要去解决的问题就是什么呢?这个是因为我们大拇指训练是不可能训练到我们每个人公司内部或说你自己施用的一些知识的。那这个时候呢,你去问他相关的一些问题,那大拇指的回答呢,他就会变成什么,他就会 变成幻觉,他简单通俗一点来讲,他可能会,比如说你问他相关的一些问题,但是他不理解,他可能会编造一些啊,他不了解的啊,编造欺骗,欺骗啊,他就会去对于答案的这个生成呢,他是自己去随机生成的,他不会依据一个事实,所以我们称之为幻觉。 那现在解决这个幻觉问题呢,主要有两种方案啊。第一种就是我们的微调,微调呢就是我们在特定的任务场景 来,我们去准备特定的数据集,然后通过这个数据集呢经过训练让大模型去理解这部分的业务,那这是我们的微调。第二个呢就是我们的这个 log, log 呢,实际上就是我们给大模型提供一个外部的知识库,让大模型在解锁回答问题的时候呢,先去解锁知识库,并且将解锁到相关的内容做一个整合,在回答用户的问题。这样的话呢,他有一个知识库作为依据,他就不会去编造啊,其他的 无聊的一些问题,或者说啊欺骗你这样的一个情况。那么第三个就是我们所讲一杯,那我们在讲解这个部署之前,我们先来看一下啊,整个的这个效果 好,这是我们本地化部署,部署之后啊,他的一个情况,我们就我就问了他,我说,哎,你好,我想了解一下你的这个产品,这个时候呢,他就介绍了啊,依据这个文档,依据我们这个知识库介绍了相关的一些内容。那我们可以来看一下这个知识库的一个详情啊, 点进去以后我们可以看到这个知识库呢,现在已经被处理好的,对吧?他的做了切片,引用相关的这样的一些文档的切分。 ok, 那 现在我们来看一下我们如何要通过什么样的一些技术啊,来部署相关的这样的一个知识库。 第一个啊,我们会有一个文件的上传,然后,呃,我们今天会用到的一些点呢?会有到这个, 用到这个 define, 用到了这个欧拉玛,还用到了我们的这个本地的一些模型多克。 ok, 那 首先我们要去做的事情呢,首先是要去下载啊,下载我们这个多克多克呢,你可以这样去理解,你把它当做是一个虚拟机, 你可以在这个容器的上面呢去呃,装很多很多一些工具,那这个工具呢,都是一些沙箱化的,它是可以很方便去做一个独立化的管理,并且呢能够占据很少的内存。那这个多克的丸子大家可以看到,就多克点。 com, 然后你在这个上面呢,你可以去 当洛的当洛的这个多克,当洛这个多克这个版本,那下完以后呢?哎,我们就可以看到这样的一个图标啊,就是这样的一个小金鱼,是吧?那这个金鱼呢?我们你可以通过啊,在这个上面通过这种,呃 u i 啊,这种图形化的这个界面去操作,去下载,你也可以通过,呃,我们通过 win 加 r 这种命令,行啊,通过多克的一个拉取那去做这样对的一个操作。那这个下载完成以后啊,那接着我们要下的是什么?接着我们要下的就是 d f i, d f i 这个下载呢,其实非常简单,就是我们去通过啊,拉取它 d f i 这个上面呢,它是有一个 在这个文档的一个介绍啊,这个文档介绍大家也可以看到啊,在这个呃,这是 define 的 相关的一个网址,你可以通过它啊来下载对应的这样的一些工具,那包括它的一个部署,是吧?这是我们通过多克来部署 define。 那首先呢,你就照着这个,这是一个傻瓜式的操作啊,你可以在这个进入这个教程,进入他这个文档以后,按照这个教程一步一步来那部署完成以后,对吧?你就按照他这个启动啊,启动, 启动完成以后呢,我们就会看到啊,看到这样的一个场景,看这样的一个场景,那这就是我们把把迪拜已经做了一个模块的部署。那迪拜部署好以后呢,我们还需要去下载的一个工具,叫做奥拉玛, 这是欧拉玛的官网啊,在欧拉玛上面呢,我们可以下载很多对应的模型,比如说我们要下载一个 deepsafe, 好, 那这个时候我们点进去 deepsafe, 呃,它就会跳出 deepsafe 对 应的这个模型的版本 啊,他有这个一点五 b 的, 七 b 的、 八 b 的、 十四 b、 三十二 b, 对 吧?包括满线版的六百七十一 b, 六百七十一 b 的, 他需要占据的这个大小是四百零四 g 啊,这个一般来讲,我们啊个人的电脑可能是 负担不起的,带不动的,那我们啊建议大家呢,如果个人电脑的话,我们用一个一点五 b 就 好,那同样的我们也可以通过这个 c m d 啊啊,比如说我们现在要去下载这个一点五 b 的, 我就把这个一点五 b, 我 给大家抠屏一下啊,抠屏一下,这个 好,大家把这个命令复制,复制啊,你安装好这个欧拉玛,欧拉玛,这个呢,你也是通过右右边这个段落的啊,下载这个他会有傻瓜式的这个安装操作,安装完成以后啊,一直下一步,那你现在去运行这个命令啊,大家注意看 好,这个时候我们就会他这个时候会出现这个界面,是什么呢?啊?那我们发送消息,那我就说 你好,是吧,你是谁?好这首啊,但因为这个是我已经安装好了,我已经安装好了,那当我们进入这个聊天的界面,我们如何去退出呢?按 ctrl c 啊,那这个时候你可以通过呃, ctrl d 啊,使用 ctrl d 或者是这个啊 by 啊,再通过这些命令来退出,退出,我们也可以通过这个欧拉玛, 奥拉玛历史,我们来看一下啊,我们下载了什么的一些模型,你下载过的模型的都会在这个上面一个体现啊,最左边是模型的一个名字啊,这个是他的一个 id, 包括他的大小,大家可以看到,是吧? 好,那这个下载完成以后,我们把所有的这个前提工具都准备完成以后,那我们如何去启动这个的这个的启动啊?我们会看到在 这个参照这个教程啊,我们通过这个都可的这个版本,那启动完成以后,你可以去访问的就是 local house 啊,他这个地方给到你这个看到没有啊?给到你这个 ip 的 地址啊,就访问你自己这个地址,那访问进来以后我们就会看到在哪个界面,这这这这个不是首页,但我们会看到对应的一个界面。 好,现在我们进入这个工作室,进入这个工作室以后呢,我们要去部署这样的一个 log 系统的话,那我们首先要去做的事情就是要去创建一个知识库, 但是在创建知识库之前呢,我们需要去啊构建自己的一些模型,所以我们点到这个右边啊,点这个右边,然后点这个右边进来以后,那我们可以看到有这个模型的供应商, 那通过这个模型的供应商呢?哎,在这个地方呢,你就可以去添加设置自己对那些模型,大家可以看到有 openai 的 阿斯洛克的,对吧?包括亚马逊的很多很多。那我这个地方呢,我安装的是一个欧拉玛,那我们集成一个欧拉玛, 那这个欧拉玛呢?哎,你安装好了以后,对吧?你在这个地方可以看到你配置了哪些模型,甚至你可以去添加对应的模型,那添加对应的模型这个地方大家需要有一个注意的点,就是如果你是对话的模型,分为两种,一种是对话的,一种是嵌入的, 那比如说像我们装的这个 deepsea, 对 吧?好,或者是拉玛,或者是这个千问啊,这种是对话型的,你就选左边的 llm, 然后模型的名称呢?你就在这个地方去复制就行了啊,去复制,去复制这个模型的名字就行, 然后右边上面这个就是基础的这个 u r l, 这个 u r l 呢,是我们啊通过奥拉玛暴露出来的一个 ip 地址,这个地址大家需要注意啊,就是 如果你是这个 defi 是 装在 dos 里面的啊,你需要复制这个地址去部署啊,幺幺四三幺四,它的一个端口号。 哇,如果你听清楚再说一次啊,就是你的 defi 是 安装在 dos 里面的话,你需要通过这种方式去部署,如果你是直接安装,那你不需要,你就直接部署你本机, 那你本机这个地址怎么看呢?那你可以同样的通过这个 c m d 的 这个命令,行啊,你输入这个 ipcom 啊, ipcom 最下面呢,你就可以看到你的自己这样的一个,对 吧? ipv 是 一个地址,然后你把这个复制过去,然后后面接上这个编号,幺幺四三幺就可以了。好, ok, 那 现在我们来模型的配置,我们刚才讲了什么?讲了这个,呃, 这个是大圆模型的,对吧?然后这个你就默认就行了,然后你配置配置这个文本切入同样的啊,你这个上面输入模型的名字,下面呢就是输入这个,嗯,前面我们在那里看到的,前面跟这个大模型啊配置的一样的 u r l 的 一个地址。好,那现在我们模型都配置完成了 啊,这个地方需要有注意到一个点,就是如果说你配置不够正确,这个地方就添加不上啊,那你只要添加上去就表示,哎,这个都已经是配置成功的, 那我们可以看到我这个地方是配置了两个啊,一个一个是千万三的,一个呃,这个对话式的推力的,还有一个是 d p g r y 一 点五 b 的, 还有一个就是这个 bg 的, bg 的 这个是切入模式,那我们构建这是步呢,我们就要去用到的就是这样的一个切入模式, 打开知识库啊,知识库呢?啊,你点到这个创建,然后这个地方是会有文件的这个上传,那你可以去选择,是吧选择对应的一些文件,把它传上来,那比如说我现在就随便选一个啊,选一个我就选一个这个, 呃, log 的 一个基础好传上去以后呢,我们点击下一步,下一步这个地方呢?哎,我们可以看到这个上面,如果说你初学者的人,你就不需要去做其他的设置,你就点点击下一步,然后 emoji 模型,这个地方有不同的选择,你可以选择你自己配配置的这个模型, 那我这个地方有这个本地的配置,本地也有一些线上 a p i 的, 看在线上 a p i, 你 也可以选择,然后选择完成以后,那我们就可以做一个保存处理, 保存处理以后,这个时候他就在做对文档做一个解析的处理,我们可以稍作等待。好,这个时候你要注意,你要看到他右边这个地方是一个绿色的勾,这才表示什么呢?这个数据库以后就可以看到这是我们刚才上传的这个文档,对吧? 会把这个文档呢做一个对的这个切片,那我们可以看到他每一页的一个显示,是吧?他总共有十页,切了多少个文档块,然后你也可以看到他的一些内容,你也可以去做一些对的这个测试。 好,那现在我们知识库构建完成以后,对吧?那回到我们整个的这个首页啊,回到我们这个这个工作室的这个地方点工作室,那在这个地方呢,我们就要去创建什么呢?创建一个应用啊,创建一个空白的应用, 因为现在我们是去做一个内部知识库啊,这个地方呢,我们就直接选择一个聊天助手即可选择完成,你在这个地方呢写上对应的名字,那我这个地方我就取一个私有知识库啊,就是 是有智能助手。好选择完成以后我们点击创建,创建完成,那在右边这个地方呢,你是要去编排一下这个提示词啊?为什么需要编排一下这个提示词呢?这个提示词是让你去规范啊,那么 让这个 ai, 让大墨神去明确去了解自己的一个啊职责,以及他谈话的一些内容,我们可以过来看一下啊。 呃,之前这个提示是如果他超出对应的一些内容的话呢?我们是需要什么需要啊?不让他回答的,比如说他是他现在只是一个什么,只是一个空气加湿器的这个智能助手,对吧?他超出这个对应的文档,他就应该,呃,拒绝回答, 比如说你明明是一个这个做法律的,人家问你医疗的,对吧?那你肯定是不能回答他,那我们现在把这个提示词啊,我就直接括闭过来, 那我们可以看一下,对吧?你现在就是你的角色,就是一个空气净化器的智能助手,然后,呃,在超出啊,如果问题超出知识库的范围,你应该礼貌的拒绝回答,并且说明原因,然后包括用户的一些对话的一些风格啊,语气啊, 好,这些完成以后啊,那现在这个地方我们现在暂时就不去讲这个变量的配置,你在这里呢可以去添加你对哪个知识库,那我们就把空气加湿器的啊,这个看你自己选择,对吧? 那我们之前讲到线上你是去很难啊,去部署很多个文档的知识点,但是我们通过本化的部署,你可以选择任意的这个知识点。 好,我现在就用这个空气加湿器,然后把它添加完成以后大家注意右上方呢,他在这个地方就是我们可以去选择我们配置的这个 啊,对话的这个 l l m, 对 吧?大圆模式,这个看你的选择,对吧?那我们就选择这个 d b、 c。 选择完成以后,那现在我们就可以来做一个调试啊,我先问一下你,好 啊,这个时候可以看到他现在我们整个的对话流程就已经清晰了,那我现在再来问一下啊,我就问一下相关的一些问题,我想了解一下你们的产品。 呃,我想了解 的加湿功能,嗯,好,这个时候他就会依据对应的这个文档啊,可以看到他就会找到对应的这个文档给你做一个回答,然后后续呢,你就可以把它做一个发布啊,发布完成以后,那比如说我现在发布更新,发布更新以后你在工作室上面呢就可以看到,那这个就已经已经 可以啊,现在就已经发布出来了,我们就直接可以用它,你点进去呢,你点进去以后在这个地方呢有一个运行,那你点一下这个运行,你可以看到它上面就会给你生成一个,生成一个对应的这个地址,那通过这个地址我们就可以直接接入这个智能助手,那现在我们就可以问他对应的这个问题, 那我们现在来问一些。呃,你好,我想了解,你好介绍一下你们, 呃,介绍一下产品的加湿功能,对吧? 啊?这个时候他就会去依照这个文档做一个这个对应的查找与回复。但如果你问他一些额外的问题,比如说你好,我想咨询一下法律问题, 好,这个时候呢,你看他就他就不能回答了,对吧?他就不能回答, 因为因为因为没有对应的这个文档支撑,同时我们也在提示词里面有明确的是不能去做什么, 不能去做一个超出知识库范围之外的一个位置,然后我们回到这个地方啊,回到这个上面来,那现在我们已经发布了,对吧?即便发布以后我们也是可以对它做一些更改的,比如说你可以在这个地方 去更改,更改他的这个新的一些聊天的模型,或者说你在这个地方呢也可以去,对吧?把这个知识库删掉,添加一些其他知识库,那你现在我们可以把它删掉,你再可以添加一些其他知识库,然后这个提示时呢,你也是可以更改,那更改完之后你再做一次发布就可以, 那那这样的话呢,就是我们啊去部署到这样的一个本地的石油知识化啊,本地的一个石油知识库的这样的一个圈流程。 对,我们再给大家回顾一下啊,首先呢我们要去安装的是什么安装是多克,这个多克的安装呢很简单,你就在这个地方,你是什么样的系统,你就下载对应的版本,那如果是 windows 系统的话,稍微有个注意的点呢,就是你 可能要去装一个乌邦图的小型的这个虚拟机啊,这个有对应的这个教程啊,你进入这个多克的下载, 然后多克上完以后,对吧?你就要进入 defi, defi, 这是 defi 的 这个文档,然后 defi 的 文档这个里面呢,他就教你怎么去,这都是啊,傻瓜式的,按照这个命令一步一步来就可以了。 那 defi 安装完成以后,那我们就要下载什么?下载奥拉玛,对吧?然后奥拉玛呢,在这个上面你可以去搜索对应的模型。那刚才我们跟大家讲的这个,呃, deep 的 deep 笔记是做切入的,那你可以看到他对应这个切入模式,那你点进去,那你在这个地方运行这个命令,你就可以把这个,把这个模型给他下载下来啊,我给大家试一下啊,然后这个地方啊,我这个地方应该是已经下载了 m 三,对吧? m 三这个我已经下了,是吧?那我我再给大家运行一下,他就是表示已经已经下完了, 是吧?这个我已经下了,我已经已经下载完成了,所以他就不会再下了啊,但因为 bg 三他是一个切入模型,所以所以他是不能对话的,那包括我会说我们去下一些其他的这个模型,你都可以在这个欧拉上欧拉玛这个上面去找,比如说有千问的,是吧?千问的有这个 妈妈的,但这个是开源的啊,开源的你都可以去下。好,那这个上完以后呢,我们就启动迪拜,首先启动多克啊,首先启动多克,然后在多克里面启动迪拜,那进入迪拜以后呢?这就是他这个首页,那首页有工作室,有知识库, 那你可以在这个设置里面,这个右边点击这个头像设置里面的去配置对应的模型。 ok, 那 我们现在来做一下这个总结啊, 所以我们我们部署的这个三个步骤,就是第一步,对吧?先啊,这个下载软件的先后顺序啊,那这个是没什么关系,先下欧拉玛也没关系,但是呢,一定要先下多克啊,后下这个迪拜啊,如果你是通过这个迪拜,你是通过原码版的安装呢?你就不需要下多克,那如果说你希望通过多克来启 动,那你就先装多克,再装迪拜,然后在迪拜当中呢,就配置模型就是酷,对吧?这个三个步骤 好,整完以后呢,常见的问题可能会有,就是你去配置模式的时候,对吧?那个端口啊,他表示配置不成功,那就是我们看到这个问题啊,大家再注意一下,看到这个问题,如果你是的范啊,再讲一次,你如果是多可部署的范,那你这个端口要这样去配, 明白吗?好, ok, 完了,这个配置完成以后,那大的模型呢?就我们建议啊,个人的电脑,我建议大家下载一点五 b 的 对话的模型就足够了啊,不能下载再多的话就要根据你们的显卡, 那如果说你的显卡能够达到十六到二十四 g b 的 话,你可以下载,你不是这个的话,你应该是可以去下载到三十 b 左右的啊, 好,那这个呢,你可以去按照自己的这个电脑,对吧?有三十二笔的,你按照自己的这个显卡的配置去做一个对应的这个下载。 好,那最后啊,我们做一下这个总结,对吧?那我们如果说你不想去做一个这个本地部署的话,你可以根据自己的这个选择 啊,那我们如果说你的这个数据的隐私保密,他的需求不是特别高,不是特别大的情况,上面的你是不需要去啊本地化部署的,你可以直接使用线上的 a p i。 那 用,比如说我们在的范啊的范这个地方前面配置啊,可能有个点没给大家讲到,就是我们在配置,配置这些模型的时候啊,你在这里模型的供应商,这个地方,大家注意,你在这个地方呢是可以去,呃, 可以去做做做一个这个线上的 a p i, 你 看没有设置,对吧?你在这个地方就配置线上这个 a p i 就 可以, ok, 好 啊,这就是以上我们整个的这个什么呢?整个的这个通过 defy 啊,在 deepsea 的 一个本地化的词汇的一个部署。