粉丝1.2万获赞4.7万

好,这个链路跑完以后呢,那其实接下来就面临我们如何去存储这些数据?存储这些数据的话,其实对应到我们这个课间里面给大家说明的啊,有几个标准的 动作,第一个动作是整个服务端的消息队列的接入,就是基于这个卡不卡啊?这是第一点。第二点呢,就是那个 click house 的 接入,这两个呢给大家大致介绍一下。 呃,卡夫卡这一层,我们同样是通通过这个 docker 来去做运维, click house 这一层呢,也同样是通过 docker 来去做运维啊,这两部分都是一样的。然后呢,我们可以在当前这个项目里面啊,比如说在这个项目里面,我们可以创建一个针对于当前项目的 container 文件 dv container, 在这个里面我们可以去配置一个 docker, 点 compose, 点 y m l, 大家看到的这所有的内容呢,都是我给大家建议的一个标准化的动作。同学们往往学习知识啊,学习内容感觉很杂乱啊,特别是同学们学前端的时候,都会有种感觉前端学不完, 但是你没有抓住重点。就比如说你在学 docker, 学 c i c d, 学运维这一层的时候,标准化的动作是什么?比如说我们给大家去讲这个监控平台的时候,那大家其实可以看到 local compose 来去定义那些标准的镜像啊,标准的服务,网络层的配置都是标准动作,你把这些标准动作先掌握以后,再来去学对你的部署动作啊,比如说同样也是应用部署相关的,比如你要部署整个 monitor 监控的服务啊,要整个部署 kelly 的 服务,部署 index 的 服务,那都是标准化动作, 那你的 pg, circle 的 备份,还有 click house 的 备份,全部也都是按照这一套啊,就是我过往多年沉淀下来的一套标准 sop, 教给大家之后,大家按照这一套主的脉络去学习的话, 是最快的,成效最快啊,也是学习路径最短的一种方式。好,那这个 docker compose 呢?呃,前面给大家介绍过,有公开课里面说过这个 docker, 如果同学们目前还不具备全站这一块的开发能力的话,可以先把前面的这个呃公开课的比如像 docker 这些内容呢学习一下啊。那如果说大家想快速提升的话,也可以加入进来之后,我们整个体系呢,都是围绕全站 给大家来去讲解的啊。大家其实可以看到我们的整个体系,从前端到这个编剧啊,到 react view 框架工程化源码介绍,然后呢,再到 这个服务端,服务端相关的话,全站开发啊,还有呢大前端,全站等等内容。然后呢,接下来就是密集的项目实战,来帮大家去学习知识,巩固知识,落到自己的项目里面去,然后呢有机结合进去,成为自己的项目重点,这是一套标准化的动作流程啊。 好,那比如说我们马上给大家去讲的也是刚开始的课程时候给大家介绍的这个内扣子 def ai 应用引擎平台,那其实就是这个项目实战,这个实战呢,目前呢,呃,一套标准化的开发,并且是基于 type script 这一套流程去开发的,整个内容呢,大家可以看目前是没有的啊,所以呢,呃,就像前面一样,这个去年呢, 应该算是在前年吧,去年的时间给大家准备的这个类非书文档的编辑器,准备之后呢,那会是基本上是独一份啊,但是后来呢,慢慢变多了,所以大家现在的这个学习资料呢,也会跟着我们的这个跑在前面的这样一个状态呢,能够混到一些更多的知识,那这个也是一样,相信明年呢, 市面上也会出现过出现很多这种跟这个项目类似的啊,大家可以呢先以我们的这个整个介绍内容跑在最前面去学习吃,做第一个吃螃蟹的人,往往在明年啊,大家不管是金山银四去求职的时候呢,整个可以形成一个呃,比较大的一个竞争力。 好,那这一块呢,我们给大家简单来去介绍一下它整个编排的一个过程啊,那 service 层呢,其实主要编排的就是你的基本服务啊,这个 docker, 这个首先你要选择一个版本, 我给大家建议呢,就是你直接选这个三三点 x 版本,三点八都可以啊,然后接下来就是编一系列的服务,有哪几个服务呢?既然你有卡不卡,那我们先取个名字啊,跟你当前这个项目尽量保持一致,我这里既然叫他这个名字的话,那我们就直接把所有的都跟他一致,卡不卡? 好镜像我们用什么呢?大家千万不要去用一些其他乱七八糟镜像啊,跟我保持一致,还是那句话,尽量跟我保持一致,因为我这个踩坑的能力呢,肯定比他同学会强很多 很多,卡不卡这些各种模型啊,这个这个镜像啊,包括容器的话,容器化技术的话,之前都看过很多,所以选择一个最好的方式 啊,选择一个最好的,那比如说之前我们在项目实战里面给大家讲的基于那个 bysami 的, 现在其实基本上都不推荐了啊,我们推荐大家直接选用这个阿帕奇的阿帕奇卡不卡啊?这个镜像,然后呢 container name 选择一下,把它配置一下,比如说就按照你的这个服务的名称来生成它的镜。那个容器名称啊, 那往外部暴露的端口呢?可以定义几个啊?我们直接按照他的标准化端口,一个是九零九三,内部端口也是九零九三,外部端口的话还有一个你可以多暴露几个啊,这个都没有关系,九零九四,九零九四都可以啊,这样把 pos 呢定义好了, 然后再是一系列的关于环境变量的配置,这个呢三两下给大家说不清楚,我先给他拿过来啊,简单说明一下,卡不卡呢?目前现在选择的用这个。呃, 以前的版本啊,那你有多种选择,但是现在的话呢,大家可以直接通过决一的方式就直接给定我给他配的这一套啊,因为其实你在呃以前的版本的话呢,卡不卡,你可能比如说可以通过像租 keep 来做配置,但是那一套的话其实比较复杂了啊,现在的话其实都不推荐直接你卡不卡。引擎现在都是单一的 对应到这个源码呢,大家可以打开卡布卡看一下,进到这个阿帕奇卡布卡里面,进去之后也可以搜索一下,点到这个使用案例 quickstart, 它的配置里面啊,它有一个关于 关于这个集群的介绍,在这一块的话大家就直接选择啊,我跟大家去说明的这一套呢,其实是最标准的通过 docker 启动这种方式来去运行的啊,配置到这里呢,卡布卡就配完了。那我们刚才说还有 click house, click house 呢,其实类似的 名称包括镜像 container, 呃,这个端口都是一致的,我们在这呢,直接在下面来一个 click house 啊,这个呢,我们直接选择用官方的镜像 click house, 这个呢也改成 click house 端口号,这里改成标准的端口号啊。呃,当然你这里 clienthouse 的 话,版本要选一个啊,二十五点十这个版本吧,它就刚才这里也提示了,其实现在有二十五点十一这个版本。那你这个阿帕奇上面的版本呢,也可以去给它指定一个版本啊,就这里的话,你可以指定,按默认的也没有关系, 这里端口号给它指定一个。它的默认端口号啊,一般都是八幺二三是它的默认端口号, 八幺二三啊,就可以了。那这个地方呢,还有一些配置,比如说环境变量的配置。环境变量配置呢,这个我就 拿过来了啊,给大家直接放在这儿。环境变量呢,有哪几个?第一个是你当前的用户名啊,你的密码,还有你的这个数据库,比如说你现在叫合一合一 click house 数据库这里的话,你就可以把它改成叫妙码杠。呃, monitor demo 啊,这是 环境变量的,还差一个东西就是本地备份,这个本地备份呢,通过挂载 volumes 的 方式来去挂载,挂载到你当前的节点。什么节点上面呢?就假设就放在 click house 下面的 data 下面 啊,那你的映射映到哪儿呢?在 on lab 下面呢,有一个叫 click house。 没记错的话啊,这个我们待会再看是不是对的。好,这样定义好,以后你的这个项目的 docker 相关的内容呢,就能够启动了。


哈喽,大家好,今天呢我给大家带来的是一个 dbic 加的范,去部署一个本地的知识库以及智能助手这样的一个方案,让我们去构建一个安全高效啊,个性化、定制化的这样的一个智能管理知识系统, ai 大 模型学习资料在主页置顶群里。 那在当前啊,我们网页版的 excel sheet 已经这么好用的情况下面,我们为什么要去部署一个本地化的这样的一个知识点呢?首先第一个,那如果说我们的数据涉及到隐私啊,或者说我们问了一些问题,之前大模型没有涉及到,比如说我们自己的一些事务的一些问题,公司内部的一些问题, 大模型之前训练没有得到,那我们要通过什么样的方案来解决呢?可能我们需要把这个自己的相关的这种文件,对吧?通过这个附件上传传给这个 deepsea, 那 这个时候 deepsea 等同于啊,已经接收了我们内部的数据,表示你这个数据的隐私性已经没有保证了。 第二个呢,就是即便我们可以接受啊,一定这个隐私度的这个牺牲,但有的时候呢,我们可能在一些业务场景或者说自己的这个需求上面呢,需要这种大量的呃,文件的上传,可能几十个、上百个, 那并且我们希望能够构建一个长期使用稳定的这样的一个知识库,这个种时候呢,这个网页版是不能够帮助我们去解决的。那我们去构建一个本地化知识库要用到什么样的一个技术呢?哎, 今天我们要讲的是通过 rap, 通过 rap 这样的一个解锁增强生成这样的一个技术来解决这个问题,那我们本地化的部署啊,就是为了去解决我们的一个隐私性。第二个就是,哎,可以做一个个性化的定制, 那么 ok, 那 log, 呃,他的这个技术上主要去解决的问题就是什么呢?这个是因为我们大拇指训练是不可能训练到我们每个人公司内部或说你自己施用的一些知识的。那这个时候呢,你去问他相关的一些问题,那大拇指的回答呢,他就会变成什么,他就会 变成幻觉,他简单通俗一点来讲,他可能会,比如说你问他相关的一些问题,但是他不理解,他可能会编造一些啊,他不了解的啊,编造欺骗,欺骗啊,他就会去对于答案的这个生成呢,他是自己去随机生成的,他不会依据一个事实,所以我们称之为幻觉。 那现在解决这个幻觉问题呢,主要有两种方案啊。第一种就是我们的微调,微调呢就是我们在特定的任务场景 来,我们去准备特定的数据集,然后通过这个数据集呢经过训练让大模型去理解这部分的业务,那这是我们的微调。第二个呢就是我们的这个 log, log 呢,实际上就是我们给大模型提供一个外部的知识库,让大模型在解锁回答问题的时候呢,先去解锁知识库,并且将解锁到相关的内容做一个整合,在回答用户的问题。这样的话呢,他有一个知识库作为依据,他就不会去编造啊,其他的 无聊的一些问题,或者说啊欺骗你这样的一个情况。那么第三个就是我们所讲一杯,那我们在讲解这个部署之前,我们先来看一下啊,整个的这个效果 好,这是我们本地化部署,部署之后啊,他的一个情况,我们就我就问了他,我说,哎,你好,我想了解一下你的这个产品,这个时候呢,他就介绍了啊,依据这个文档,依据我们这个知识库介绍了相关的一些内容。那我们可以来看一下这个知识库的一个详情啊, 点进去以后我们可以看到这个知识库呢,现在已经被处理好的,对吧?他的做了切片,引用相关的这样的一些文档的切分。 ok, 那 现在我们来看一下我们如何要通过什么样的一些技术啊,来部署相关的这样的一个知识库。 第一个啊,我们会有一个文件的上传,然后,呃,我们今天会用到的一些点呢?会有到这个, 用到这个 define, 用到了这个欧拉玛,还用到了我们的这个本地的一些模型多克。 ok, 那 首先我们要去做的事情呢,首先是要去下载啊,下载我们这个多克多克呢,你可以这样去理解,你把它当做是一个虚拟机, 你可以在这个容器的上面呢去呃,装很多很多一些工具,那这个工具呢,都是一些沙箱化的,它是可以很方便去做一个独立化的管理,并且呢能够占据很少的内存。那这个多克的丸子大家可以看到,就多克点。 com, 然后你在这个上面呢,你可以去 当洛的当洛的这个多克,当洛这个多克这个版本,那下完以后呢?哎,我们就可以看到这样的一个图标啊,就是这样的一个小金鱼,是吧?那这个金鱼呢?我们你可以通过啊,在这个上面通过这种,呃 u i 啊,这种图形化的这个界面去操作,去下载,你也可以通过,呃,我们通过 win 加 r 这种命令,行啊,通过多克的一个拉取那去做这样对的一个操作。那这个下载完成以后啊,那接着我们要下的是什么?接着我们要下的就是 d f i, d f i 这个下载呢,其实非常简单,就是我们去通过啊,拉取它 d f i 这个上面呢,它是有一个 在这个文档的一个介绍啊,这个文档介绍大家也可以看到啊,在这个呃,这是 define 的 相关的一个网址,你可以通过它啊来下载对应的这样的一些工具,那包括它的一个部署,是吧?这是我们通过多克来部署 define。 那首先呢,你就照着这个,这是一个傻瓜式的操作啊,你可以在这个进入这个教程,进入他这个文档以后,按照这个教程一步一步来那部署完成以后,对吧?你就按照他这个启动啊,启动, 启动完成以后呢,我们就会看到啊,看到这样的一个场景,看这样的一个场景,那这就是我们把把迪拜已经做了一个模块的部署。那迪拜部署好以后呢,我们还需要去下载的一个工具,叫做奥拉玛, 这是欧拉玛的官网啊,在欧拉玛上面呢,我们可以下载很多对应的模型,比如说我们要下载一个 deepsafe, 好, 那这个时候我们点进去 deepsafe, 呃,它就会跳出 deepsafe 对 应的这个模型的版本 啊,他有这个一点五 b 的, 七 b 的、 八 b 的、 十四 b、 三十二 b, 对 吧?包括满线版的六百七十一 b, 六百七十一 b 的, 他需要占据的这个大小是四百零四 g 啊,这个一般来讲,我们啊个人的电脑可能是 负担不起的,带不动的,那我们啊建议大家呢,如果个人电脑的话,我们用一个一点五 b 就 好,那同样的我们也可以通过这个 c m d 啊啊,比如说我们现在要去下载这个一点五 b 的, 我就把这个一点五 b, 我 给大家抠屏一下啊,抠屏一下,这个 好,大家把这个命令复制,复制啊,你安装好这个欧拉玛,欧拉玛,这个呢,你也是通过右右边这个段落的啊,下载这个他会有傻瓜式的这个安装操作,安装完成以后啊,一直下一步,那你现在去运行这个命令啊,大家注意看 好,这个时候我们就会他这个时候会出现这个界面,是什么呢?啊?那我们发送消息,那我就说 你好,是吧,你是谁?好这首啊,但因为这个是我已经安装好了,我已经安装好了,那当我们进入这个聊天的界面,我们如何去退出呢?按 ctrl c 啊,那这个时候你可以通过呃, ctrl d 啊,使用 ctrl d 或者是这个啊 by 啊,再通过这些命令来退出,退出,我们也可以通过这个欧拉玛, 奥拉玛历史,我们来看一下啊,我们下载了什么的一些模型,你下载过的模型的都会在这个上面一个体现啊,最左边是模型的一个名字啊,这个是他的一个 id, 包括他的大小,大家可以看到,是吧? 好,那这个下载完成以后,我们把所有的这个前提工具都准备完成以后,那我们如何去启动这个的这个的启动啊?我们会看到在 这个参照这个教程啊,我们通过这个都可的这个版本,那启动完成以后,你可以去访问的就是 local house 啊,他这个地方给到你这个看到没有啊?给到你这个 ip 的 地址啊,就访问你自己这个地址,那访问进来以后我们就会看到在哪个界面,这这这这个不是首页,但我们会看到对应的一个界面。 好,现在我们进入这个工作室,进入这个工作室以后呢,我们要去部署这样的一个 log 系统的话,那我们首先要去做的事情就是要去创建一个知识库, 但是在创建知识库之前呢,我们需要去啊构建自己的一些模型,所以我们点到这个右边啊,点这个右边,然后点这个右边进来以后,那我们可以看到有这个模型的供应商, 那通过这个模型的供应商呢?哎,在这个地方呢,你就可以去添加设置自己对那些模型,大家可以看到有 openai 的 阿斯洛克的,对吧?包括亚马逊的很多很多。那我这个地方呢,我安装的是一个欧拉玛,那我们集成一个欧拉玛, 那这个欧拉玛呢?哎,你安装好了以后,对吧?你在这个地方可以看到你配置了哪些模型,甚至你可以去添加对应的模型,那添加对应的模型这个地方大家需要有一个注意的点,就是如果你是对话的模型,分为两种,一种是对话的,一种是嵌入的, 那比如说像我们装的这个 deepsea, 对 吧?好,或者是拉玛,或者是这个千问啊,这种是对话型的,你就选左边的 llm, 然后模型的名称呢?你就在这个地方去复制就行了啊,去复制,去复制这个模型的名字就行, 然后右边上面这个就是基础的这个 u r l, 这个 u r l 呢,是我们啊通过奥拉玛暴露出来的一个 ip 地址,这个地址大家需要注意啊,就是 如果你是这个 defi 是 装在 dos 里面的啊,你需要复制这个地址去部署啊,幺幺四三幺四,它的一个端口号。 哇,如果你听清楚再说一次啊,就是你的 defi 是 安装在 dos 里面的话,你需要通过这种方式去部署,如果你是直接安装,那你不需要,你就直接部署你本机, 那你本机这个地址怎么看呢?那你可以同样的通过这个 c m d 的 这个命令,行啊,你输入这个 ipcom 啊, ipcom 最下面呢,你就可以看到你的自己这样的一个,对 吧? ipv 是 一个地址,然后你把这个复制过去,然后后面接上这个编号,幺幺四三幺就可以了。好, ok, 那 现在我们来模型的配置,我们刚才讲了什么?讲了这个,呃, 这个是大圆模型的,对吧?然后这个你就默认就行了,然后你配置配置这个文本切入同样的啊,你这个上面输入模型的名字,下面呢就是输入这个,嗯,前面我们在那里看到的,前面跟这个大模型啊配置的一样的 u r l 的 一个地址。好,那现在我们模型都配置完成了 啊,这个地方需要有注意到一个点,就是如果说你配置不够正确,这个地方就添加不上啊,那你只要添加上去就表示,哎,这个都已经是配置成功的, 那我们可以看到我这个地方是配置了两个啊,一个一个是千万三的,一个呃,这个对话式的推力的,还有一个是 d p g r y 一 点五 b 的, 还有一个就是这个 bg 的, bg 的 这个是切入模式,那我们构建这是步呢,我们就要去用到的就是这样的一个切入模式, 打开知识库啊,知识库呢?啊,你点到这个创建,然后这个地方是会有文件的这个上传,那你可以去选择,是吧选择对应的一些文件,把它传上来,那比如说我现在就随便选一个啊,选一个我就选一个这个, 呃, log 的 一个基础好传上去以后呢,我们点击下一步,下一步这个地方呢?哎,我们可以看到这个上面,如果说你初学者的人,你就不需要去做其他的设置,你就点点击下一步,然后 emoji 模型,这个地方有不同的选择,你可以选择你自己配配置的这个模型, 那我这个地方有这个本地的配置,本地也有一些线上 a p i 的, 看在线上 a p i, 你 也可以选择,然后选择完成以后,那我们就可以做一个保存处理, 保存处理以后,这个时候他就在做对文档做一个解析的处理,我们可以稍作等待。好,这个时候你要注意,你要看到他右边这个地方是一个绿色的勾,这才表示什么呢?这个数据库以后就可以看到这是我们刚才上传的这个文档,对吧? 会把这个文档呢做一个对的这个切片,那我们可以看到他每一页的一个显示,是吧?他总共有十页,切了多少个文档块,然后你也可以看到他的一些内容,你也可以去做一些对的这个测试。 好,那现在我们知识库构建完成以后,对吧?那回到我们整个的这个首页啊,回到我们这个这个工作室的这个地方点工作室,那在这个地方呢,我们就要去创建什么呢?创建一个应用啊,创建一个空白的应用, 因为现在我们是去做一个内部知识库啊,这个地方呢,我们就直接选择一个聊天助手即可选择完成,你在这个地方呢写上对应的名字,那我这个地方我就取一个私有知识库啊,就是 是有智能助手。好选择完成以后我们点击创建,创建完成,那在右边这个地方呢,你是要去编排一下这个提示词啊?为什么需要编排一下这个提示词呢?这个提示词是让你去规范啊,那么 让这个 ai, 让大墨神去明确去了解自己的一个啊职责,以及他谈话的一些内容,我们可以过来看一下啊。 呃,之前这个提示是如果他超出对应的一些内容的话呢?我们是需要什么需要啊?不让他回答的,比如说他是他现在只是一个什么,只是一个空气加湿器的这个智能助手,对吧?他超出这个对应的文档,他就应该,呃,拒绝回答, 比如说你明明是一个这个做法律的,人家问你医疗的,对吧?那你肯定是不能回答他,那我们现在把这个提示词啊,我就直接括闭过来, 那我们可以看一下,对吧?你现在就是你的角色,就是一个空气净化器的智能助手,然后,呃,在超出啊,如果问题超出知识库的范围,你应该礼貌的拒绝回答,并且说明原因,然后包括用户的一些对话的一些风格啊,语气啊, 好,这些完成以后啊,那现在这个地方我们现在暂时就不去讲这个变量的配置,你在这里呢可以去添加你对哪个知识库,那我们就把空气加湿器的啊,这个看你自己选择,对吧? 那我们之前讲到线上你是去很难啊,去部署很多个文档的知识点,但是我们通过本化的部署,你可以选择任意的这个知识点。 好,我现在就用这个空气加湿器,然后把它添加完成以后大家注意右上方呢,他在这个地方就是我们可以去选择我们配置的这个 啊,对话的这个 l l m, 对 吧?大圆模式,这个看你的选择,对吧?那我们就选择这个 d b、 c。 选择完成以后,那现在我们就可以来做一个调试啊,我先问一下你,好 啊,这个时候可以看到他现在我们整个的对话流程就已经清晰了,那我现在再来问一下啊,我就问一下相关的一些问题,我想了解一下你们的产品。 呃,我想了解 的加湿功能,嗯,好,这个时候他就会依据对应的这个文档啊,可以看到他就会找到对应的这个文档给你做一个回答,然后后续呢,你就可以把它做一个发布啊,发布完成以后,那比如说我现在发布更新,发布更新以后你在工作室上面呢就可以看到,那这个就已经已经 可以啊,现在就已经发布出来了,我们就直接可以用它,你点进去呢,你点进去以后在这个地方呢有一个运行,那你点一下这个运行,你可以看到它上面就会给你生成一个,生成一个对应的这个地址,那通过这个地址我们就可以直接接入这个智能助手,那现在我们就可以问他对应的这个问题, 那我们现在来问一些。呃,你好,我想了解,你好介绍一下你们, 呃,介绍一下产品的加湿功能,对吧? 啊?这个时候他就会去依照这个文档做一个这个对应的查找与回复。但如果你问他一些额外的问题,比如说你好,我想咨询一下法律问题, 好,这个时候呢,你看他就他就不能回答了,对吧?他就不能回答, 因为因为因为没有对应的这个文档支撑,同时我们也在提示词里面有明确的是不能去做什么, 不能去做一个超出知识库范围之外的一个位置,然后我们回到这个地方啊,回到这个上面来,那现在我们已经发布了,对吧?即便发布以后我们也是可以对它做一些更改的,比如说你可以在这个地方 去更改,更改他的这个新的一些聊天的模型,或者说你在这个地方呢也可以去,对吧?把这个知识库删掉,添加一些其他知识库,那你现在我们可以把它删掉,你再可以添加一些其他知识库,然后这个提示时呢,你也是可以更改,那更改完之后你再做一次发布就可以, 那那这样的话呢,就是我们啊去部署到这样的一个本地的石油知识化啊,本地的一个石油知识库的这样的一个圈流程。 对,我们再给大家回顾一下啊,首先呢我们要去安装的是什么安装是多克,这个多克的安装呢很简单,你就在这个地方,你是什么样的系统,你就下载对应的版本,那如果是 windows 系统的话,稍微有个注意的点呢,就是你 可能要去装一个乌邦图的小型的这个虚拟机啊,这个有对应的这个教程啊,你进入这个多克的下载, 然后多克上完以后,对吧?你就要进入 defi, defi, 这是 defi 的 这个文档,然后 defi 的 文档这个里面呢,他就教你怎么去,这都是啊,傻瓜式的,按照这个命令一步一步来就可以了。 那 defi 安装完成以后,那我们就要下载什么?下载奥拉玛,对吧?然后奥拉玛呢,在这个上面你可以去搜索对应的模型。那刚才我们跟大家讲的这个,呃, deep 的 deep 笔记是做切入的,那你可以看到他对应这个切入模式,那你点进去,那你在这个地方运行这个命令,你就可以把这个,把这个模型给他下载下来啊,我给大家试一下啊,然后这个地方啊,我这个地方应该是已经下载了 m 三,对吧? m 三这个我已经下了,是吧?那我我再给大家运行一下,他就是表示已经已经下完了, 是吧?这个我已经下了,我已经已经下载完成了,所以他就不会再下了啊,但因为 bg 三他是一个切入模型,所以所以他是不能对话的,那包括我会说我们去下一些其他的这个模型,你都可以在这个欧拉上欧拉玛这个上面去找,比如说有千问的,是吧?千问的有这个 妈妈的,但这个是开源的啊,开源的你都可以去下。好,那这个上完以后呢,我们就启动迪拜,首先启动多克啊,首先启动多克,然后在多克里面启动迪拜,那进入迪拜以后呢?这就是他这个首页,那首页有工作室,有知识库, 那你可以在这个设置里面,这个右边点击这个头像设置里面的去配置对应的模型。 ok, 那 我们现在来做一下这个总结啊, 所以我们我们部署的这个三个步骤,就是第一步,对吧?先啊,这个下载软件的先后顺序啊,那这个是没什么关系,先下欧拉玛也没关系,但是呢,一定要先下多克啊,后下这个迪拜啊,如果你是通过这个迪拜,你是通过原码版的安装呢?你就不需要下多克,那如果说你希望通过多克来启 动,那你就先装多克,再装迪拜,然后在迪拜当中呢,就配置模型就是酷,对吧?这个三个步骤 好,整完以后呢,常见的问题可能会有,就是你去配置模式的时候,对吧?那个端口啊,他表示配置不成功,那就是我们看到这个问题啊,大家再注意一下,看到这个问题,如果你是的范啊,再讲一次,你如果是多可部署的范,那你这个端口要这样去配, 明白吗?好, ok, 完了,这个配置完成以后,那大的模型呢?就我们建议啊,个人的电脑,我建议大家下载一点五 b 的 对话的模型就足够了啊,不能下载再多的话就要根据你们的显卡, 那如果说你的显卡能够达到十六到二十四 g b 的 话,你可以下载,你不是这个的话,你应该是可以去下载到三十 b 左右的啊, 好,那这个呢,你可以去按照自己的这个电脑,对吧?有三十二笔的,你按照自己的这个显卡的配置去做一个对应的这个下载。 好,那最后啊,我们做一下这个总结,对吧?那我们如果说你不想去做一个这个本地部署的话,你可以根据自己的这个选择 啊,那我们如果说你的这个数据的隐私保密,他的需求不是特别高,不是特别大的情况,上面的你是不需要去啊本地化部署的,你可以直接使用线上的 a p i。 那 用,比如说我们在的范啊的范这个地方前面配置啊,可能有个点没给大家讲到,就是我们在配置,配置这些模型的时候啊,你在这里模型的供应商,这个地方,大家注意,你在这个地方呢是可以去,呃, 可以去做做做一个这个线上的 a p i, 你 看没有设置,对吧?你在这个地方就配置线上这个 a p i 就 可以, ok, 好 啊,这就是以上我们整个的这个什么呢?整个的这个通过 defy 啊,在 deepsea 的 一个本地化的词汇的一个部署。

如何进行容器化部署?进行容器化部署需要使用一些专业的容器化技术和工具, 例如 docker cubanics open shift。 在 drawba 项目中可以使用 made in 进行项目管理和构建。使用 top、 cat、 jetty wire slide 等进行应用程序的容器化部署, 同时需要将应用程序进行 doctor 镜像的打包,配置 doctor file 和 cubernet 配置文件,实现应用程序的容器化部署和运行。点关注不迷路。

上一期啊,我们讲到不熟悉的历史,然后很多朋友就迫不及待的想要逼我快点讲下一期的内容,作为这么从粉丝朋友的我,大半夜的我把下一期视频再录一下了。在正式录这一期内容之前呢,我先回复一下上一个视频当中有朋友说,而上一个视频讲的更多是不熟悉的内容。 那为什么要这么去讲呢?因为当我们只有了解了过去,才能了解到现在以及未来到底他的发展需要解决一个什么样的问题,包括我们接着有讲的容器化,他到底他的优势又体现在哪里呢?我们只有去对比才能知道,才能知道这两者的差异。 部署系统已经这么完善了,为什么我们还需要容器化?为什么大家都那么就是会用容器化的方式去进行应用的迭代跟部署呢?然后呢?嗯,上个视频有朋友留言说他们公司用的是 jenks, 用的是 glap, ci 等等,但是呢,这仅仅只是解决了 ci 的那部分,然后呢,还没有解决 cd 的那部分,也就是 continue deliver, ci 跟 c 弟弟共同构成了持续集成跟持续交付这么一个能力。那么刀可容器化就是把你这整个流程变得更通用,更好处理了。 在我看来啊,都可解决两个核心的问题呢。第一个就是抹平环境,这一点呢,是部署系统由于没有解决到的。举例子,比如说你的项目是抓把拍散,或者是 nobe, 或者是企业家等等不同的系统, 那么你的服务器上面就需要相应的去部署安装他的虚拟机或者他的环境,这样子你的项目部署上去的时候才能跑的起来,对不对?那么多个做法呢,就是一视同仁, 我们准备好了抓把基础镜像拍等 nobe 等等的基础镜像,当我们项目进行打包过线的时候,只需要选印相应的那个基础镜像进行打包,成为我们这个项目的镜像。拿刀口官方的例子来举例,就是我们只需要把我们的应用当成一个一个的箱子,把它打包起来就可以了。那当我们在部署上线的时候呢,我们 只需要把到我们的应用当成一个一个的盒子,就像我们在装集装箱的一样,一个一个的盒子往集装箱里面去放就可以了,这个时候我就不需要去关心你到底这个盒子是什么类型的,什么语言的等等,我们只需要关注它的尺寸,它的大小,它的体积空间多大就够了, 那这样子一来呢,就抹平了整一个的环境了,那么这样子带来的好处又是什么呢?那么当我们把一切的标准化了之后呢?我们的弹性空间就可以变得更自由了。举个例子,我们的服务器的扩容,伸缩等等都是非常容易去做的到的, 也就是说呢,当我们在进行应用的部署跟迭代跟扩容的时候呢,我们关心的已经不是说我又当做一个专好的环境拍死牛比西亚地亚等等的环境了,我们只需要关心的是我提供多一台能够支持多少口环境的这么一台服务器就够了,是不是?这就是把一个很复杂的问题去简单化,标准化去处理了, 那么这就是高科所带来的好处了,第一就是他抹平环境标准化了,那么由一而延伸出来的就是他的这个弹性空间可可伸缩的能力了。好了,那目前环境跟标准化的问题已经解决了,有另外的问题又又关注起来了, 当我们还是手动去手动打镜像,推镜像,拉镜像以及我们的镜像的管理都是手动去做的,那么这个时候呢,又回到解放前了,那么有问题呢?只要我们认同这个方向是好的,但总总会有解决方向去解决当下的问题。 有看上一期视频的朋友可能知道,部署系统有两种方式,一种推跟一种拉的方式了,那么在这里呢,同样也用到了拉的方式了, 当我们想要把整个流程变得更自动的时候,我们就会用不同的工具去结合,让他达到我们想要的预期的效果,就是自动的去构建镜像,推镜像以及最后拉镜像起实力这么一个过程。那么这一套 ci 跟 cd 的自动化的流程的一些功, 跟我们之前讲的那些部署系统的没有太太大本质的差异。比如构建镜像,我可以选择用经典里面自动去构建,打包出我们要的镜像,然后推到镜像的仓库,然后呢发布上线部署代码, 我们只需要我们下发命令,不管是 s h h s 狗或者是 shotstep 等等的方式,我们只需要把我们的要执行的命令推到我们服务器上面,自动去把镜像的仓库拉下来,进行跑起来就可以了。 是不是听到这里感觉,哎,套路跟以前的不熟系统很相似,唯一的差异呢,就是我觉得这一套重新换了系统,慢慢的眼镜迭代,他会衍生出更多自动化的需求出来了。举个例子,比如说我们的实力挂了怎么办?当我们需要去管理的实力有很多个怎么办? 那么当我们的需求已经到了更复杂更高级的需求的时候,传统的部署系统的方式已经不能去满足到我们想要的 下来的容器的调度,自动的起实力,降实力等等,才会慢慢过渡到我们即将会讲到的容器编排。换个角度,如果没有容器化去抹平的环境标准化,我们去做容器的调度编排,或者说我们做应用的迁移等等,都是一件很让人头疼的事情。 虽然在虚拟机的时候,我们可以通过打一个基础的虚拟机的镜像,也能达到让我们环境比较统一,但是呢,它在资源的调度跟分配上面呢,还是存在很多不可抗的因素的,比如说环境的差异等等,就会让自动化的工具遇到难以解决的问题,毕竟呢,标准化是所有自动化的前提, 捋一下都可能就是解决一个环境标准化或者说抹平环境差异的这么一个能力啊。有的公司呢,可能还是用传统的方式进行这些容器的管理,实力的管理,但呢,这也已经很不错了,那如果呢,又让这一切跑的更好,做的更好呢?那就是接下来要讲 容器编排的内容啊,当然在光光刀,可这一个容器化的内容呢,需要去了解的内容还有很多。举个例子,比如说资源的限制,比如说我们的打出来镜像大小的限制,如何去优化每一个镜像包的大小的问题,那涉及到我们的分阶段等等等等的内容啊,那这些呢,都需要靠实践才能出真知。 好了,下期我们再来讲游戏编排,以及为什么 kps 受到这么多公司的爱戴跟欢迎呢?他又提供一个什么样的能力呢?我是你的朋友向南,看完了还不点赞加关注,可恶。


本文介绍 aws ecr 实力管理以及如何将应用容器化部署到云环境。 aws ecr amazon web services elastic compute cloud 是亚马逊提供的一种弹性计算服务, 他允许用户在云端按需创建和管理虚拟服务器实力。在使用 e c 二时,首先需要选择合适的实力类型, 根据应用程序的需求,如处理能力、内存存储等来决定。然后配置网络设置,包括安全组规则,以保护实力的安全。接下来可以部署操作系统, 通常是 linux 或 windows, 然后安装必要的软件环境,如数据库、 web 服务器等。另一方面, doctor 是一种流行的容器化平台,它通过将应用及其一 依赖打包成轻量级、可移植的容器及大地简化了应用部署和管理。 docker 容器可以在任何支持 docker 的环境中运行,包括 ecr。 通过将应用打包为 doctor 镜像,开发者可以确保在不同环境中的一致性,无论是本地开发环境还是云上的生产环境。将应用容器化并不数到 awsccr, 通常涉及以下步骤, 一、 doctor 化应用,将应用代码、依赖库和配置文件整合到一个 doctor file 中, 定义镜像构建过程。二、构建 doctor 镜像,使用 doctor file 创建一个可部署的镜像,这将作为容器的基础。三、测试和优化镜像,确保镜像能在 云环境中稳定运行并进行性能优化。四、推送镜像到仓库将 doctor 镜像上传到 aws equalistic container registry, 这是 aws 专有的 doctor 镜像仓库。五、 ecr 实力配置在 ec 二上创建一个新的实力, 配置好所需的网络和安全设置。六、部署 docker 服务使用 aws clear ecs、 elastic container service 等工具,在 ecr 实力上自动部署和管理 docker 容器。 七、监控和扩展利用 a w s 的云监控服务 cloud watch 监控容器的性能,根据需求调整实力规模或使用 auto skilling 功能自动扩展。通过结合 a w s e c r 的弹性和 docker 的容器化技术,开发者 能够实现快速部署、高效资源利用和易于管理的与应用环境。这种方式集大地提高了开发、测试和部署的效率,同时降低了运维复杂性。
