抖友们,拉玛三大模型开元发布了一个月左右,很多熊友反馈让我做一个集成拉玛三大模型的整合包,放到 ais data 上。呃,没有问题的,但是肯定需要排气了, 毕竟球友们在许愿池下的愿望太多了,我先做个教程吧,教大家本地怎么手动部署大模型吧。 网上的方法有很多,这里我仅推荐我认为不错的方法,这里我给大家列一下我这个视频的主要内容的框架,一、下载地址和方法 二、安装方法其实我推荐的工具安装的方法都大同小异,下载商机,安装搞定,其中欧拉玛加 openweb 是我最喜欢的。 三、模型的存放路径修改。四、在线体验,也就是不用你安装。五、 aspect 市场越多人想要的项目,咱就尽量排在前面。许愿池就是视频评论 求整合包的,单个评论大于一千个赞的就不用排气了,我就直接先安排整合打包好了。我们开始要安装,首先要知道在哪里下载, 我附加下载地址应该都会吧,每一款工具也是可以直接一键下载到模型的。那最后咱把视频所说的工具和模型都放在网盘了,那如果有需要的,也可以通过网盘下载,模型下载,工具下载,还有网盘下载的地址都在这里了。 好,我们讲安装方法,安装方法真的很多,最简单的安装方法一定是后面我整合到 ais star 市场里面的一键下载安装就可以了,但目前时间精力有限,给熊友们介绍四种安装方法吧。熊哥是外贸库, 仅喜欢欧拉玛加 openweb 的方式去使用的,他和菜的 gpd 不能说毫不相干,也只是一模一样,毕竟用户习惯摆在那里。前面几个工具熊哥也会简单的介绍一下。好了,我们开始 第一个 gpt, 四二,双击安装,点击下一步,然后设 制安装目录,点击下一步,点击下一步,勾选确认下一步,下一步,下一步,点击完成, 然后双击桌面的图标,我们就可以打开这个软件了,这里我就选择 no 了,然后再选择 no 就关闭了。 然后我们可以在搜索框里面直接搜索你想要下载的大模型,然后底部这里就是我们下载的模型保存目录, 点击设置,点击应用,选择我们要保存的模型目录,然后我们在相应的盘辅里面创建一个文件夹,选择它, 然后这里面可以选择 gpu 或 cpu, 然后把大模型拷贝过去。大模型的后置是点击 guf, 拷贝完以后呢,把软件关闭,然后重新打开就可以了, 重新打开以后就可以选择模型了,然后我们就可以正常使用这个软件了,我的电脑配置比较低,是没办法跑动的,那么到这一步其实就已经完成了, 然后到 las 丢丢,还有就是我们的站这两款工具其实都是双击下一步,下一步就完成了。这两款工具我就同步进行安装了, 安装的进度我就加快一下了,当桌面出现快捷图标的时候,就表示这款工具已经安装好了。 好,这里两款工具都已经安装好了, 然后我们打开 ls 丢丢,我们关闭,在搜索框里面搜索我们想要的大模型,然后输入点击搜索就可以下载了,那如果你的本地有大模型已经下载好的,那你也可以直接拖进来就可以了。在设置里面你可以设置一下模型的存放目录, 这次 l s 丢顶你就可以正常使用了。然后就是到我们的 jam, 我们可以直接导入模型, 然后选择我们的模型路径,找到我们刚才下载的 number three 这个大模型,选择它 这里默认就可以了。 然后打开对话框,我们这里就可以选择 number 三的模型了,这次我们就可以在对话框里面输入对话,正常使用了。 最后一款工具欧拉玛,我们双击安装下一步 完成,然后在我们的电脑右下角弹出 olamma 的对话框,这就表示已经安装完成了。 然后我们在 windows 上打开 w s 功能,也就是启动或关闭 windows 的功能,我们点击它,然后找到适用于 linus 的 windows 子系统 这一个,我们把它给勾选打勾,打勾以后呢,我们直接点确定保存,然后重启一下电脑就可以了,重启以后就安装刀,可我这里已经安装过了,其实就是双击下一步,下一步安装就完成了,我就不再卸载重装了。 安装完成以后,按 windows 加 r 键输入 c n d, 打开运行终端,然后输入我们的本地安装 open w e b u i 的那个命令,安装完以后就可以打开了, 我们打开浏览器,然后输入本地地址,就直接就打开了,就像我这样,然后我们可以点击设置,然后点击模型,我们知道名称的话就直接输入, 然后就可以点击下载了。那如果不知道,我们也可以点击更多,找到我们想要下载的模型,我们点进去, 点进去这里面,比如我们要选择去时 b 的, 然后我们在这后面把这个模型的名称给复制下来, 然后再回到我们刚才的 olam 的那个界面,然后我们这里面输入我们的名称,后面这七十 b 就是指定的一个大模型,然后我们点击下载,这样就可以自动下载了, 那我电脑是跑不动的,所以我就直接把它给删掉了。这次我们欧拉玛的安装教程也就全部完成了。三、模型存放路径修改, 前三款工具分别在设置里面设置保存,重启,打开就可以了。那我猜到部分熊友应该是不懂英文, 听到熊哥这样说又迷茫了,其实熊哥也很水的,我也不懂英文。那么最简单的办法就是打开微信, ctrl 加 a 截图的时候我们选择翻译成中文,这个时候你就是王者了,哪里需要看教程啊, 中文咱一看就懂了吧,我就不做过多的介绍。二、关于 olam 默认安装路径,在吸盘的我们可以右键打开安装路径, 直接把整个欧朗玛的文件夹剪切到你想存放的盘幅,然后再设置一下环境变量。那这个目的主要就是我们下载的模型太大,吸盘 很多时候是不够用的。 word 情况下, olama 的模型储存目录如下,我会截个图,到时候大家根据图片去看一下。 那如果需要使用不同的目录,则需要设置环境变量,把它设置为所选的目录, 大家可以参考我这里的系统环境变量的设置,环境变量的名称我们不用去更改它,然后是直,我们不要设置为中文或特殊字符,这里可以参考我的, 设置完以后点击确认保存就 ok 了,那整个安装的过程就解决了。那很多熊友其实也跟熊哥的电脑应该是一样的,像我做这个视频,我的电脑是很痛苦的,安装完了以后想体验一下都体验不了,跑不动了。 那么熊哥也给大家找了一些免费在线体验的地址,有英伟达的,有 lama family 的,然后还有另外几个,大家可以去看一下自己能打开的网址,就可以在线体验了。 最后我们再重复一下, ai startup 是我开发的 ai 项目管理平台,免费,简单易用, 有三大功能是目前市面上都没有的。第一个就是点对点的下载,你不需要网盘直接就可以下载,速度很快。第二个就是市场,我们有众多的 ai 项目,直接就点击脚本下载安装使用就可以了。 截止目前,已经有上万的熊友在使用我开发的 ai star 软件了。如果你安装的时候出现问题, 可以翻翻我的其他视频,出现问题大概率是你的电脑的系统问题,或者是你设置的问题,不然上万的朋友不能使用,早就把我骂惨了。 关于他的市场阅读人想要的项目,咱就尽量排在前面,视频评论就是许愿池求整合包的朋友,单个评论大于一千个点赞的咱就不拍齐了,直接先安排整合打包好了,再见!我们下个视频再见!
粉丝1465获赞8676

给大家录制一个视频,主要是介绍一下这个 opencall, 它到底在我们的机器上面通过 dog 方式到底是怎么安装的,我们大家来介绍一下。那么 opencall 最近也很火,当然目前它还是有安全性的一些问题,所以我们一般建议你不要装在你自己的电脑上面,最好呢是通过这个容器的方式 创建这样一个虚拟和一个沙乡隔离的一个环境去运行。那我们今天这个视频主要是给大家介绍一下,到底怎么来通过容器的这种方式来运行。欧本靠就是龙虾,好吧,我们首先先给大家介绍一下他,其实 首先我们还是要在我们的电脑上面要把这个龙虾的项目给下载下来,要把这个龙虾的项目给下载下来,我是下载下来之后你就可以首先你可以要做一个翻译的这样一个动作,一般我们是这个这个脚本 运行这个脚本,运行这个脚本之后呢,他就会处理打包这个过程当中,如果他打包成功给大家看一下,他会创建一个这样的一个容器,我们靠点 点 logo 的 一个这样一个镜像,这个镜像打完之后你再运行下面一个命令,就是这个命令主要是做 配置文件的初识化,就我自己跑了一下,就尽可能你初识化,不要让他配,你可以很多东西可以不用配,你到启动了这个网关之后,你再来配置只说这个网关,启动网关之后再来配置这个东西,他这个地方最主要的一个地方是什么?如果你是要去安装这个 oppo, 靠,你要 他会生成这样的一个东西,这个地方是大家要注意他会生成这样一个 token, 就 在你的本地,你要通过这个 token 的 这个方式去打开外部的界面,当然这个外部界面有可能你是会打开失败的,因为什么他这个地方是要做一个配对,所以这个地方你要把,要,要把你的这个设备要给列出来,你要访问到这个容器里面去, 你要访问到这个容器里面去看一下,你要到这个容器里面去,你要去看一下这个是表说如果你发现他的,当然我们目前已经设置好了,如果他这个地方没有连接上,那你要打这三个命令,就这个 compose run 这个 开,你再要跑一个这样的一个设备的一个 list, 你 把这个它这个会列出来,有一个 request id, 把这个 request id 填进去,你再同意一下,那这样控制面板就可以连接到这个设备上面去就可以了。连接到设备上面去之后,因为我们原来的很多东西都没有配,所以你在这个地方可以做一个配置,配置最主要主要是配置模 模型这部分,那模型我目前配我自己是配了一个统一千万,统一千万三点五二十七, b f p 八的一个模型, 通过这种模拟他就可以在你本地,如果你配置完之后,你本地就可以去聊天了,只说你可以问,他就会告诉你本地运行的是我当地配的是通一千万,通一千万三点五二十七, b f p 八的这个模型,配置是在这个地方的, 我给大家看一下这个 skill 包,它这个 beauty 的 skill 包,它大概有五十三个,它有各种各样的,包括有什么苹果 note, 有 骑行,有各种各样 block watch 啊,这里有各种各样的一些工具,包括有些工具它是要设这个 sdk 的, 包括写代码的钉子,它也可以让它去写。这个是飞书的,它缺少一个飞书的一个叫 web walk, 你 只要把它植入进去呢,这个 飞书的聊天里面,它就可以去链接这样的一个东西,像这种它要注入这个 s e p i 的 聊天里面,它就可以起用这些技能, 包括这个呃, google 查询的地图地理位置,包括还有一些 nano banana 画图的一些工具,其实你都是可以注入进去, 是编辑 pdf 的, 它都是有些工具,都是有些工具来处理这些事的,包括还有一些语音的输入,各种各样的功能, 当然这些功能你也可以再进一步去添加你自己要的一些新的功能,这个也是可以的。好,那我们再给大家看一下频道,频道它目前支持的频道还是非常多的,我们给大家看一下频道这消息渠道,我们看了一下,它主要是支持国外的为主,国内的像这种飞书什么呢,它都是需要企业版,企业版本包括 teams, 包括 企业微信他也是可以支持的,但是企业微信他支持会比较麻烦,他还要做一些 a p i ip 的 一些白名单,还要做一些域名的设置,比较麻烦,所以一般个人用的不太多,但对国外来讲他是比较能用的,像这种国外目前都能,当然在国内,目前这种 app 下载都是在中国是不能下载的, 有些问题,所以这个龙虾在中国用起来可能就会有些限制,或者是说不是很完善。这个是消息渠道模型就比较简单,它可以配置各种各样的模型,包括各种各样的,这个是比较简单的,就配置一下就行了。 skill 工具,内在工具也是有很多,有浏览器,有各种 skill 包啊,这种 skill 的 配置,这个主要就是做一些能力的,包括有些定时任务, 这个都是可以做的,功能还是非常强大的,它这个功能是非常强大的,那要整体要完全玩会,它还是要花点时间来弄。一般我们目前安装就建议大家用 lock 的 这种方式,它会跟我们的那个机器做一些隔离,它也沙箱也运行在这样的一个 lock 环境当中,那这样相对来讲它会更加安全。好, 我们今天简单给大家介绍一下怎么去部署 open call 这样的一个方式去部署这样一个环境好。

大家好,今天给大家做了一个在飞牛下啊刀口安装部署 oppo klo 的 那个龙虾安装教程。 嗯,准备工作,就三个网站,一个是秀秀开放平台,一个是 oppo klo 的 中文网站,还有汇集流动,就是服务提供商,嗯,这个汇集流动大约提供了两千个免费的图纸的。嗯,大家可以注册领取一下。嗯, 注册后进行实名认证,嗯,嗯,实名认证后会领取一个十六元的代金券,它可以进行一些费用的抵扣。汇集流动的模型广场提供了嗯,很多的那个模型供大家选择, 下面我们来演示一下在非牛下安装嗯,龙虾的过程。首先先在文件管理一下的我的文件中创建一个嗯 dork 的 文件夹,然后在 dork 文件夹下再创建一个 open cologne 的 那个文件夹,用于嗯,存存放那个部署文件。 创建好以后,打开嗯, docker, 然后选择了 composer, 嗯,然后右边的新增项目,这里可以上传 docker 跟 composer 文件,也可以手动。嗯,创建 docker 文件。 下面我们打开荷兰 club 的 中文网站,嗯,里面有一个安装方式,然后 docker 部署。 嗯,这里面这一段的那个,嗯,网址就是下载地址,大家可以通过嗯,迅雷可以下载下来,然后再上传到飞牛中,也可以进行嗯,手手动创建,这里面它有一段那个配置,配置文件, 我呢图省事,还是选择上传文件的那个方式,先输入项目名称和文档路径,选择我们创建的文件夹,然后上传。嗯,我们提前下载好的那个,嗯, dolphin composer 的 文件, 这里需要把这个改成国内的。嗯,下载地址如果不改的话,这个部署时间实在是太长了。嗯,漫长的等待。这个把前面这段去掉就行。 这个后面这个它是个最新版,嗯,它会随着最新版的发布进行更新。咱们可以改成这个稳定版,那就是拉 test, 然后把后面这一块改成拉 test, 后面这块就没什么了。然后把这个创建项目后,嗯,立即启动给勾上,然后点击确认就开始。嗯,构建,后面就需要等待,它构建完成就可以了。 嗯,跳过等待过程,现在就是。嗯,部署构建完成了,下面我们点容器,然后点右边的那个三个点,选择终端,打开终端第一个的 bin bash 的 连接,然后就连接上终端了。 下面我们进行粗实化,然后选择在终端输入 opencloud on board, 杠杠 in stop 杠,呃, d a e m o n 进行粗实化,然后回车,这块就需要等一小会就行。这块等的时间不是特别长, 这里用方向键选 yes, 回车,快速开始回车,这里选重置, 然后再选择仅重置配置,这里是选择那个服务提供商的。嗯,但是这里面没有归机流动。嗯, linux 版本好像是有的,这个 dk 版本里没有,所以咱们选择自定义。嗯,服务商,哦,会撤。 然后这块把这个地址去掉,换成那个轨迹流动的那个地址,然后咱们到笔记中去复制一下,就是这个 a b i s u, r, l 复制,然后过来粘贴, 然后回车。是输入密钥,这个是到轨迹流动中去找 好,打开汇集流动网站左边这个 api 密钥,然后新建密钥。嗯,随便出一个,然后新建就可以了。嗯,我这个已经建好了,我就用这个, 然后过来粘贴,然后再回车,然后这个就选择 open ai 回车,然后这个是选择模型的 id, 也是在汇集流动中去复制一下就行。 好,打开过去流动,然后选择左边的模型广场,然后这里面有很多模型,大家可以选择一下,然后就选择第一个吧, 点那两个方块复制,然后再回来粘贴,再回车,这里需要等一会。嗯, 显示啊 socket board 就 表示成功了,然后再回车一下就行,然后这个再回车默认就可以了。 然后这这个就是选择接入的那个。嗯,方式是飞书啊还是球球啊之类的,我们是要接入球球,所以这里吧就有暂时跳过, 到这就说实话配置完成了。嗯,下面就需要对接一下 qq, 下面就是打开 qq 开放平台,然后手机 qq 扫一下码登录, 登录成功之后,然后创建机器人, 然后下面这块就有一个接入流程,我们只需要一步一步,嗯,复制到那个刀客的那个容器终端去,呃,粘贴运行一下就可以了。 然后复制第一个啊,回来进行连接终端,然后粘贴,然后运行,然后这需要。嗯,等一小会,安装插件需要一个过程, 然后再回来复制。嗯,第二步,然后再回去粘贴回车, 这也需要等一小会,这个时间很很快,但有时候会卡住这一块,但只需要断开一下,然后然后再重新连接,连接中断好, 然后看看这个粘贴没反应就可能是卡住了,然后点那个断开,然后再点连接就可以了,然后再粘贴,然后重启一下服务,这样的话就接入成功了, 到这就不说完了,关掉就可以了。然后再点三个点,打开系统日期、运行日期,然后我们打开机器人助手,机器人然后说,嗯,您好, 看后台设置有反应啊,这块显示个你好,这就说明接入成功了,然后再说你能做什么好?回车 他这个,呃,答复的时间没有那么快,需要等一小会儿。嗯, 用龙虾的话说就是,呃,他需要思考一下,看看这个就是他答复的。好,今天的分享就到这了,大家可以自己部署一下。

哈喽,分享一下使用多考区部署一个简单的加瓦项目。首先我们需要去编写一个多考费用文件,这里先拉取一个基础的 jdk 环境 声明维护者信息,这里是接收外部的一个船舱,当我们构建进项时,可以船舱到多个费用里面来,再将这个参数传给多个费用内部设置成环境变量, 比如说像服务名,架包名端口以及街 vm 运行参数等等。这个是有关阿塞斯的一个配置,然后通过 add 将架包添加到容器里面去,放到后母目录下声明对外暴露的端口号, 最后再启动时先输出相关配置信息,然后后台运行加瓦钢架,并将日制输出到一个指定的文件中,最后查看日字信息。多科费用编写好了之后,可以通过多科 b 的去构建经象,让 f 指定多科费友 的文件路径,这个参数表示传单到多块费用里面去,也就是说这里声明的一些变量杠替指定迹象明点表示构建时的上下文路径。 local 起表示在构建时不使用缓存,然后在多块费用的目录下去执行这条构建命令。镜像构建完成后, 通过多靠谱型去推送镜像到远程仓库,然后就可以到服务器上去运行了。这里杠臂是后台运行,杠屁是指定容器和速阻器的一个端口,映射内蒙指定容器明后面跟上运行的镜像,这里可以看到已经运行好了, 然后通过多科六个字去查看相应的一个容器日制。然后我们也可以去浏览区中访问相应的一个接口,这里可以看到正常响应这样一个简单的家外项目就通过多考部署好了,你学会了吗?

首先打开 u 盘,如果你的电脑里没有安装 docker, 点击 u 盘里的 docker 安装包进行安装, 然后打开这份使用教程,不懂的地方可以直接看教程。 docker 安装完毕,然后去启动台打开 docker, 这里输入你的开机密码,准备运行 docker, 然后在 u 盘里点击启动,等待一到三分钟, open call 页面会自动弹出,请耐心等待。 点击允许 你的 open call 页面已自动弹出, 现在打开 u 盘里的使用说明文档。 复制 getway token, 点左侧的概述 overview, 在 网关令牌这里粘贴刚才复制的 token, 然后点链接,点击左侧聊天,就可以看你的龙虾对话啦。至此,你的 open call 已装好, 如果不使用了,需要点 u 盘里的停止,然后退出 u 盘就可以了。这里额外说明一下,第二次想要使用小龙虾插上 u 盘,可以从视频的第五十秒按照步骤重复操作即可。

下面我们来看如何通过 darker 安装 open w r t。 这里我们需要先确定适合自己设备的 open w r t 语言或者说镜像包。通常我们需要从 dark home 下载适合的 open w r t 镜像,使用 darker search open w r t 搜索,然后使用 dark 和 pro open w r t 命令拉取。如果是在 arm 变系统下,可以输入 on 变 software, 就可以找到 open w r t 的安装选项进行安装。 或者也可以使用这个已经集成了常用软件包的刀壳镜像,并根据自己的设备进行选择和安装。然后我们来看部首 openwrt 的具体步骤。 我们首先打开设备的网卡混杂模式 s s h 链接设备,并输入以下命令,这里的 e t h 零为你的网卡名称,不知道的话也可以中 端内输入 ifc config 进行查询。然后我们简单讲一下什么是混杂模式,即在二层网络中,交换机并不会关心你的 ip 地址,所有该此往下的数据包都会交给你的网卡,并交由下一集程序处理。 然后我们创建一个麦克微烂网络 subnight, 为你的设备 ip 地址和子网野马 get, 为这里填写主流的 ipg 出口网关内幕,即网络命名,可以随意的填写 open wrt 镜像拉取的话,根据自己的设备比如说输入这行命令。

小伙伴评论区留言想学习一下 get a lap c i c d 今天就给大家分享一下 get a lap get a lap runner 刀壳 spring boot 实现 c i c d。 流水线自动部署。说明一下, get a lap 就是代码仓库, get a lap runner 呢,就是执行 get a lap c i c d。 任务的, 然后 ci 是持续集成,可以理解为开发人员提交代码到代码仓库。 cd 呢就是代码构建到测试环境。首先是环境搭建,安装 gdk 配置环境面料,安装 memo, 配置环境面料,通过这一行命令安装刀口, 咱们是下载安装 get live c e。 说明一下, get live c e 是免费开源的, get live e 是企业版的,这里提供一个清华大学的开源镜像下载,咱们下载完成之后,通过 r p m 进行安装,修改配置文件安装 get life runner 同样通过国内镜像下载 r p m 安装,安装完成后,环境就已经搭建完成了,通过 ip 和端口就可以访问 get life 了,这里我已经安装安成了。接下来咱们通过浏览器访问看一下,第一次访问需要修改密码,默认用户是 read, 这里我已经操作完成了。接下来需要注册 gatelive runner, 通过这项命令就可以执行了,在第一步第二步需要填写 gatelive 地址和 token, 咱们可以通过页面点击这个按钮找到 runners。 这边呢,这个就是 get lab 地址,这就是 tok。 通过 get lab 创建一个测试项目,这里点击 new project, 选择通过模板创建,选择一个 supreme 项目创建完成后呢,就可以将代码拉取到本地。这里呢,我已经创建了一个测试项目,拉取项目到本地后,需要添加几个文件,比如这个 get lab ci, 这个文件它的作用就是代码提交后, renner 会按照 get like ci 的流程完成部署。这个文件的主要作用就是拉取新的代码,然后通过 men 进行打包,然后执行咱们的启动脚本。 接下来呢,看一下咱们这个启动脚本,看一下脚本的内容,脚本主要是停止并删除容器,删除原有的架包,复制新的架包,生成镜像。最后呢,运行容器,最后一个就是刀客 feel, 这个比较简单, 就是指定 gdk 版本,然后靠背一下架包通过家伙刚炸,启动一下服务,做一下测试,将本地的代码是不是 askir 修改成 hello word 下来呢?咱们提交一下,看一眼效果。通过 getlibe 可以看到,提交完成后处发了构建脚本, 比如这里的拉取代码打包,还有最后的构建咱们的镜像,咱们访问一下页面,可以看到这里已经已经成功了。

很多人看到好的技术,第一选择就是收藏,添加收藏实际很快就会遗忘,等你到晚上睡一觉,第二天就彻底遗忘了。我直接免费指导你安装,让你尽快用上 cloudy belt 这个生产工具我是已经在用了,说下他帮我干了啥?一、拉代码部署运行,二,安装各种插件。 三, docker 镜像拉取环境搭建。四、写一些资料。五、编辑一些简单的软件。六、数据库的搭建,表的搭建。就这能省下很多时间,省下的时间刷短视频,它不香吗?快来加群学习吧!

工程建设企业要在智能建造的应用中建立企业级的 ai 数据库, r e g 解锁增强生产技术呢是重要的手段之一。 rack flow 呢是强大的企业级 r e g 应用系统,它不仅功能强大,还开源免费。 今天呢,我将给大家讲一下如何在企业本地来部署 rackflow。 大家好,我是营养思维。前面呢我们已经给大家介绍了如何安装 docker, 今天呢我们就将使用 docker 来完成 rackflow 的 部署。在 github 上边呢,能够找到 rackflow 的 项目地址,我建议大家呢在 linux 系统上面来完成部署。 我们在这里呢也可以看到对 rock flow 的 一些基本的一些介绍,以及它的一个相关的技术的介绍。 这里呢我们看到呢,它是对刀刻版本也有相应的这样的一些要求,如果你是用我的方法安装部署的刀刻,是一定能够满足要求的。我这里用的呢是乌班图的二四零四,这个系统已经安装了刀刻的最新版本, 这里是对系统硬件的基本要求。安装前呢,我们需要使用这个命令来查询一下系统的内存映测参数, 我们来看一下,打开一个终端,我们将它复制过来。 我们看到呢,我的这台系统,它默认的是幺零四八 k, 那 么实际上来说呢,它只要超过二百六十二 k 就 可以了,那么我们这里呢是满足要求的,如果你这里输出的这个参数值呢小于二百六十二 k, 那 么呢你只需要使用 下面的这个命令,直接将它复制下去,将这个值改成二百六十二 k 就 可以了。 那么接下来呢,我们将进行安装,你可以直接下载我的这样的一个安装包,我双击呢将它解压, 那么我们进入到解压后的这个目录,我们看到呢,我的这个安装包当中提供了两个目录,一个呢是 regflow 的 这个项目的原代码,这个版本呢也是完全一致的。 那么另外一个呢是我自己已经修改好的这样的刀壳的一些配置文件,并且呢自己还写了一个叫做 e z start 的 这样的一个脚本来方便我们的启动。那么我们首先呢 把这里面的文件全部要进行复制,那么注意呢,我们在复制之前需要在这里面先打开我的隐藏文件,因为有一个刀壳的一个环境配置文件呢是默认是隐藏的文件,我们将这四个文件呢全部的复制下来,将它放置到 regflow 这个目录下边的刀壳里面,我们直接在这里粘贴啊替换,替换,替换。 那么接下来呢,我们需要把整个这个 regflow 的 这个目录,将它放置到我们要运行的 位置上面去,那么一般来讲呢,我们推荐大家呢把它放置在这个目录下边,就是 o p t 这个目录下边, 但是有一个问题,就是我这里直接来复制它之后,我们的这里呢是没有办法去粘贴的,这是因为权限的一个问题啊,所以呢我们需要用到这个啊, root 的 权限,我们点击 右键使用在终端打开这个方式,我们这里呢直接输入 s u 输入密码,这样来讲呢我们就切换到了 root 权限,我们用这个指令把将它拷贝到我们的 opt 目录下边来, 我们看到呢在这个 opt 下边呢,我们已经将 reg flow 呢已经把它拷贝进来了,那么 我们进入到它的 dork 这个里面来,我们继续来单机鼠标右键使用在终端当中打开,当然你也可以通过这里呢直接切换到我们的目录下面来哈,继续用 root 的 权限, 那么我们这里呢需要去运行一下这个 e z start 这样的脚本,这是我自己手写的一个脚本,那么首先呢,我们需要保证这里呢是作为应用程序激活,但是我们这里因为当前用户权限的问题呢,我们不能去动它,我们可以呢直接的在这个里边来 q l s 杠 l, 我 们看到这里的 e z start 这 s h 呢,它并不是绿色的,说明它不能执行,那怎么办呢?我们可以用 q mode 加 x, 用这个指令再 ls 一下,你看到它已经变成可以执行的了,我们输入点杠 e z 四十二点 s h 直接回车。 那么由于我已经在我们的配置文件当中呢,将全部所用到的这个刀刻镜像改成了国内的镜像源,因此呢它的下载速度呢会非常的快。 那么到这一步呢,我们当看到这样的提示的时候呢,就说明我们的刀壳已经部署完成了,我们可以查看一下,这是我们刚刚已经建立起来的这样的一些刀壳的文件的内容。 我们打开浏览器新建一个页面,我们输入幺二七点零点零点幺, 因为它默认是八零端口,所以呢我们什么都不用输,直接回车。那么当你看到这样的一个页面的时候呢,说明你的 reg flow 已经部署成功了,你学会了吗?欢迎大家来一起讨论。如果你需要这些配置文件,请留言,我会私信发你。 好了,今天的音响思维说就是这么多,关注我带你了解更多智能建造的底层技术,我们下期见。

小龙虾啊,小龙虾,玩了两天了。嗯,我的部署方式是在我的飞牛,飞牛这个 nas 主机上部署一个容器,容器里边部署的小龙虾 啊,容器里部署的小龙虾,然后调用了我本地模型,本地模型选择了奥拉玛, 因为我的显卡是五零七零钛显卡,目前是跑了一个旧币的,旧币的前文三点五旧币的模型,十四币的模型也能跑。嗯,像旧币的我能跑到九十多头啃,速度还不错。 但是你如果说你在奥拉玛直接问这个大模型,他有点傻,我问他今天几号,他都不知道,看他的。嗯, 哎,他他他既然给我找出来了,刚才我上午问时他还不知道呢, 上午问的时候他还他还傻不拉几的看。上午问的时候没有查不到日期信息,然后让我查手机和电脑 啊,但这种部署方式呢?有有个问题,就是用多款部署,然后调用本地大模型,如果你在欧拉玛里边直接测这个数据,速度还是还是不错的。还不错。 嗯,但是如果说打开这个龙虾在这里边,在龙虾里边这个对话,他速度反应特别慢,我不知道为啥,是网络原因还是还是配置的问题, 所以说我决定打算放弃这种部署方式。我终于把龙虾部署到我本地和欧拉玛一台电脑上来,看看速度会不会提升起来。但今天这个这龙虾他也很笨, 他在装软件的时候把自己改自己的配置,把自己改死了。应该说他自己改自己的配置,又写的格式还不规范,写的东西不规范,然后配置文件出错,然后自己又挂掉了, 他自己,他自己改,自己把自己改崩溃了,这个龙虾, 完了完了,芭比 q 了。 我本来就想让他改一个问题,把他回答的问题的时候用流势书写的方式就是 一行或者一段一段的出,他现在出现的方式是问完问题等好半天,然后一下子把那所有的问题,所有的文字全部出来,这样等的时间太长,不是那种,嗯,从 一行一行的出那种方式,我就为了让他解决这个问题,我让他自己去解决,他竟然把自己给搞崩溃了。你看看,和用打字的效果和模型显示方式保持一致。 这是我问的,我问的, 让他自己去改变,让他自己去改,他自己改,改改改。 然后我给他一个一个方法,然后去配置他,结果 我把这个都都给他了,他说他明白了,结果,结果呢?结果呢?没搞成, 他让我试一下,一试连接断了,连接断了,这等于是他把自己搞崩溃了。 但我, 嗯,也也换了一种,用用这个 m studio。 m studio, 这个,这个,我下载好多模型,我准备用用这个 m studio 测一下这个各种模型的速度,测一下我,我的五零七零态 能跑到什么程度。嗯,一般我的显卡,这显卡跑二十米以上的怀疑都困难,都跑不动,还是不行。 大家有什么好的本地补水方式或者方案可以交流一下。 能不能推荐一下这种 ai 性能比较好的主机?我现在看就苹果的主机性能比较强。价格很贵啊。