分享下本地通过奥拉玛不去部署大模型的一个经验,他有什么好处呢?就是非常简单,部署下来之后,你所有的模,那个模型无限用,随便用,因为你按在本地了你,因为你用 api 付费是要钱的,是吧?第一是免费用,第二是如果说你想 通过接大模型去调试啊相关的东西的话,那就很方便了,因为你你你不管是用龙虾还是用啥,你你你都是要付费的啊。那他 安装起来也非常简单,但是基本上有个大坑啊。我分享一个经验,首先第一点,他你从官网搜奥拉玛下载之后, 他默认是安装 c 盘的,是没有选项的啊,这是非常坑的一个点啊。所以注意啊,如果你安了,你先把先把如果你安了把卸载,如果你没安取消掉,你先别先别装,用用命令啊,有一个命令啊,就这个,呃,这个命令,好吧,就是安装在 d 盘,那 怎么做呢?我们首先在 d 盘,我们建一个目录,你建什么都可以啊。建了之后呢?在这个把这个你看就把这个文件夹打开啊, 按就是鼠标全选到那个路径上面,按那个 c、 m、 d 打开终端,对吧?打开终端之后呢,对吧?把这个命令输进去,这个命令后面的第一冒号,这个其实就是那个路径,就是你自己建文件夹路径,那个鼠标左键放在那个文件夹上面,它就有 啊,这样的话他就通过这个命令行去安装,他就啊,你看他就在安装了,他就自己安装在这个地盘了啊。那安装完成之后呢? 这面有,然后你把这个呃文件打开之后,把这奥拉玛打开之后呢?点开那个设置啊,把这个路径改一下啊, 这里面可以切换模型的位置,你就把它改改到 d 盘啊,改到 d 盘,不然这个 c 盘空间太小了。 ok, 然后 就很简单,就这最重要的一步已经搞定了,就是你要把它安装在 d 盘,就别安装 c 盘,对吧?当然你安装在 e 盘也可以,如果电脑有 e 盘的话, 然后右下角可以选模型,对吧?呃,注意啊,你看这个,我一开始我选了一个三十 b 的, 这个 b 是 什么? b 就是 e 的 意思啊,就是越大他越强,但是对电脑的内存要求更高,我们的笔记本电脑一般 只能选个位数的 b 的, 对吧?我一开始选了三十 b, 直接下下来之后直接用不了啊,那你看我后面后面就发现了,就是内存不够吗?对吧? 那我后面我就选。选了什么?选了这个千万三四 b 的 啊,我们说个位数的,这种 b 的 都都可以用,一般没问题,我就选了四 b 的, 我有笔记本电脑,对吧?我是就是这个游戏本啊,你就后面就个位数的四 b 之后呢,你跟他对话,你给他发个消息,你好,然后你好之后呢,他就自动开始下了,你看他在当闹的。 呃,你看他这个四 b 的, 他也就两两两两两点多 g 啊,下好之后呢就好了,对吧?他就好了之后我让他帮我写篇文章,他开始他他他开始回答了,他开始思考了,跟那个其实跟那个千门官网的其实基本上很像的 啊,因为你已经装在本地了,装在本地就无限用啊,对吧?以后如果你要做相关的这种需要大模型的能力的东西的话,你直接, 对吧?你直接把这个地址改成你本地的地址就行了,因为你只要把奥特曼启动起来就好了,他启动起来很简单,你就把这个软件打开,打开就直接可以说话,你打开之后他就运行起来了, 对吧?啊?他他就解决这个问题,可以无限用,不然你任何你需要调这种大冒险的接口的话,你其实都要付费的,你不付费谁给你调,对吧?我们在网页中跟豆包什么对话都无限对话,那那个是免费的,但是你要调他一片都要要钱的,因为什么你付钱付的 能用的也少,对吧?你,你花个几十块买个一个月的,你其实用着用着他就用完了,你用这个本地的直接把它打开就好了,装你本地的,反正也不要钱,随便用 啊,很方便。好吧,如果说你呃现在在前端找工作,或者说前端这个面试啊前就这前端简历,对吧?你觉得你也需要加点 ai 东西,对吧?或者说你也不知道该怎么弄啊,你也不知道现在的前端面试在问什么。那你可以找我,我给你辅导配好,我会教我非常多前端。好吧,这也是我慢慢在研究一些东西吧,好吧。
粉丝2338获赞1.7万

使用欧拉玛可以一键部署本地大模型,我选择的模型是千万三点五九 b, 现在来演示一下, 可以看到 gpu 使用率向升,由于我这台电脑的显卡配置比较低,所以输出的比较慢。 好,终于输出完成了,接下来是 gg 教程。 首先肯定是要下载欧拉玛的这个软件,进入欧拉玛的官网之后,选择 windows 点击下载,当然这个下载起来会非常的慢, 我也给大家把安装的程序上传到了网盘下,下载后双击打开直接安装,安装完成之后就是这样一个界面,可以在这里点击你想要的大模型,比如说这些是云端大模型, 从这里开始就是本地大模型,这个是谷歌开源的本地大模型街吗? deepseek 千问三,还有其他的一些模型啊, 对于模型怎么挑选,得看电脑的配置,比如说我这台电脑 cpu c a m d 二五六零零两根 d d e 二四的一六 g 内存条, 显卡是一六六零 s 六 g 的 显存,这个已经是非常老的显卡了,后续我准备根据我的电源升级成四零六零 t 一 六 g 显存的,所以根据我的电脑配置 选择了比较小一点的模型。那你的电脑适合哪一个大模型?可以把配置发给豆包问问,让豆包帮你分析适合下载部署什么样的大模型。今天的教程就到这,关注我,评论私信。

hello, 各位同学,大家好,我是珊珊老师。那接下来我们对奥拉玛的安装做一个讲解,那我们上节课呢,已经把这个奥拉玛做了一个下载,那这节课呢,我们再看一下这个安装。那首先呢,呃,我们先找到你刚才下载的那个东西啊,就是奥拉玛 set up 点 es e, 如果你双击直接运行而下一步,下一步的话,它默认呢是安装在 c 盘的,那我们一般呢不会把这个东西放在 c 盘,所以呢,咱们可以自定义安装,怎么办呢?你看我在这里啊, 嗯,因为我个人的习惯是把所有的东西放在我这个 d 盘 study set up 下面,然后我在这个目录下面呢新建了一个目录,叫做奥拉玛,然后我点进去把我刚才下载的那个文件放到这里了,这是我第一步做的事, 然后一会呢,我也打算它安装,安装在哪呢?就安装在这个目录下就可以了,这样我以后找也方便。 然后接下来我要做一件事,你直接在这里打开这个控制编辑台,你直接在这里录 cmd 就 可以了, 你录 c m d 的 话,这样直接定位到你看在 d 盘 study set up 杠奥拉玛,然后我们在这块啊要录入这个安装的这个命令,你安装命令录完了之后,它就开始帮你安装了,然后并且安装在指定的目录下,那我们现在进行安装。呃,我们直接 叫奥拉玛,然后 site up 点 es, 比如说你不想这个自己手敲啊,你怕单词写错,那你就直接到我们这个笔记里去等就行了。来杠, 然后 d i r, 你 现在要把它安装在哪个目录下呢?你在这里面做一个指定,我就打算放在我这个 d 盘目录下,然后有一个叫做 study 杠 site up, 这个目录下, up, 哎, up, 然后放到它下面,然后放到它下面,是不是还有个目录叫做奥拉玛? 所以这啊,如果你怕错的话,你就直接到笔记里去输入粘贴,那这个意思就是相当于你现在要执行这个命令进行安装。安装。放到哪个目录下呢?放到这个目录下,所以这个位置就是你指定的那个目录,这样的话他就不会把这个奥拉玛放到那个 c 盘了。来,那我们现在直接回车, 你看它开始帮我们安装了。 install, 你 看 d 盘 study setup 奥拉玛,它就放在这个目录下了,然后我们等待安装就可以了。 稍微等一会啊,很快一会那个安装好了之后,然后咱们验一下就可以了。 这个如果你安装在某一个盘符下啊,我觉得你至少要保证这个盘符它剩余的空间在十 g 以上, 因为我们安装这个东西他占的这个内存。呃,那个占的那个空间稍微大一些啊,而且后面呢,我们还要下载一些模型到本地,有的模型呢,可能也比较大,所以你预留的这个空间最好是稍微大一点。呃,别到时候不够用。 好,马上安装完成了,你看他的图标,是一个小羊驼的一个图标啊, 好,已经安装好了,安装好了之后啊,你看他在这就有这个图形化界面,在这个右下角你就可以看到这个小羊头的这个图标,你看如果这样的话就是退出了,然后你这 open 就 可以把它这个点开,它有这个图形化的这个界面,然后在这啊,你可以在这个控制命令台里面也去验一下。呃,这个奥拉奥拉玛 杠杆磨损,你可以看一下你当前安的这个版本是什么,对吧?然后你再来奥拉玛 list, 这是干嘛的呢?就是我们可以看一下我们本地已下载的大模型,你看目前下面是不是没有任何东西?因为我们现在还没有下任何大模型,我们只是说把当前的这个奥拉玛平台现在搞定,对吧?大模型我们还没弄呢,后面再弄, 所以在这里看不到任何东西。好,那到这啊,证明我们这个奥拉玛已经安装成功了,那各位同学咱们安装一下。

嘿,大家好,今天我们来聊点特别酷的东西,你想没想过在自己的电脑上就能跑一个超强的人工智能,建一个完全属于你自己的 ai 工作室?没错,今天我们就来解锁这个技能,咱们马上开始。 哎,我先问大家一个问题啊,如果有一个 ai 助手,功能超强大,而且还完全免费,最关键的是你的所有数据都百分之百安全私密,你会不会心动啊?是不是听起来就觉得特别棒? 你看啊,咱们平时用的那些云端 ai, 比如说 chat gpt 对 吧?多半都要花钱订阅,而且说实话,咱们的数据都得传到别人的服务器上,心里总有点不踏实。但是今天的主角奥拉玛就给我们提供了一个全新的思路,在本地跑 ai, 这到底意味着什么呢?这么说吧,他不仅一分钱不花,你所有的数据,所有的对话,都老老实实的待在你自己的电脑里,哪也不去,绝对安全,而且怎么玩完全你说了算。 好,那咱们怎么才能进入这个 ai 的 新乐园呢?别担心,我们就这开始,你马上就会发现,这事比你想象的要简单太多了。 所以,欧拉玛到底是个啥玩意儿?这么跟你说吧,它就是一个特别神奇的工具箱,而且还是免费开源的, 有了它,你就能特别轻松地把那些很厉害的大语言模型,就是像 chat gpt 背后那种超级大脑,直接下载到你自己的电脑上,还能管理它们,让它们为你工作。 它的安装过程啊,我跟你说,简直不能再简单了,就三步,闭着眼睛都能搞定。第一步,打开浏览器,去它的官网 alma dot com, 找到那个大大的下载按钮。 第二步,看看你用的是 windows、 mac 还是 linux, 选对应的版本。第三步,下载下来之后,直接双击安装就行了。装完之后,它就在后台默默运行了,你桌面上啥也看不到,特别干净。 好嘞,安装搞定!现在啊,见证奇迹的时刻到了。打开你的终端或者 windows 上的命令提示符,准备好,输入你的第一条魔法咒语,欧拉玛 run 拉玛 two。 对, 你没看错,就这么一行 敲下回车,它就会自动帮你把那个大名鼎鼎的 lama two 模型下得下来,并且直接运行起来。当你看到类似这样的欢迎信息,就说明成功了。你现在已经进入了对话模式。这意味着什么呢?你现在正和一个完完全全百分之百在你电脑上运行的 ai 聊天儿, 赶紧试试感受一下那种几乎零延迟的丝滑对话体验吧,超爽的啊!当然了,光会聊天还不够,有几个常用的命令你也得知道。比如说,你想看看自己都下载了哪些模型,就输入奥拉玛 list。 诶,玩腻了那么速,想换个口试试 msdraw, 简单,奥拉玛 run msdraw 就 行,万一哪天硬盘满了,用奥拉玛 r m 加上模型名字就能把它删掉。最后聊完了,想退出,输入斜杠加 by 就 搞定了。 好在终端里聊天已经很酷了,对吧?但真正的魔法还得使用代码来驱动它。接下来咱们就进阶一下,看看怎么通过 a p i 让你自己的程序也能用上这个 ai 大 脑。 这里的核心秘密是啥呢?就是欧拉玛在你电脑上悄悄地开了一个本地服务器,还提供了一个 api 接口, 你可以把这个 api 接口想象成一条专线电话。你写的任何程序,不管是用拍放还是用 java script, 只要拨通这个电话,就能直接跟你本地的 ai 模型开始对话了。 那这个电话号码是多少呢?如果你是开发者,这个数字你的记忆下,一一四三四,这就是奥拉玛默认的端口号,你的代码就是要连接到这个端口才能跟 ai 搭上话。 那具体到用 python 怎么调用呢?嗯,当然了,你可以用最原始的方法自己写一堆网络请求代码,但那样又麻烦又复杂,估计得写个十几行。 幸运的是,人家官方早就想到了,他们提供了一个超级好用的奥拉马库。你只需要一条命令, piping store 奥拉马。把它装上之后啊,可能就三行代码,所有事就都搞定了,简直是懒人福音。 你看看这行代码就这么简单,一个逻码,点 chat 函数,告诉他用哪个模型把你想说的话传进去,然后 bam 回应就来了。这一下就把整个开发流程简化了不知道多少倍。你完全可以把精力放在你的应用本身,而不用去操心那些底层的破事。 ok, 到目前为止,我们已经学会了怎么使用现成的 ai, 但是接下来才是最最激动人心的部分,创造一个完全属于你自己的 ai 角色。 没事儿,咱们现在就来看看怎么把一个标准的模型变成任何你想要的样子。实现这个魔法的关键就靠一个叫 model file 的 文件。这个词你可能第一次听,但别怕,把它想象成一份给 ai 的 人设说明书或者角色设定卡就行了。 你就在这个文件里写几句简单的指令,告诉奥拉玛,喂,我要基于某个现有模型给我捏一个新角色出来。幸果要这样这样,说话要那样那样。 咱们来看个例子,比如要创造一个马里奥,你看这个 model file 就 两行,超级简单。第一行 from lama two, 意思很明白,就是告诉他咱们要基于 lama two 这个模型来改造第二行 system, 后面跟着的就是给他的核心人设,你就是超级马里奥兄弟里的马里奥。只能以马里奥助手的身份回 答清楚明白。好,咱们的人设说明书写好了,怎么让他生效呢?还是用一条命令,在终端里输入 alama create, 然后给你的新角色起个名字,比如 mario。 最后用杠 f 参数告诉他说明书在哪儿,回车一敲,欧拉玛就会立刻按照你的指示端一下,一个全新的马里奥模型就诞生了。 这一下最有意思的时刻来了,你现在运行欧拉玛 run mario, 然后跟他打个招呼试试, 他真的会用马里奥呢标志性的口吻来回答你, it's me mario! 哇,这个感觉真的太奇妙了!这就证明了你现在真的有能力去创造任何你能想象出来的 ai 角色了。好,那我们来快速总结一下今天 get 到的新技能。其实就三点, 第一,你现在知道了怎么用欧拉玛在自己电脑上免费又安全地玩转强大的 ai 模型。 第二,你学会了两种跟他互动的方式,一种是直接在终端里聊天,另一种是用简单的拍森代码。第三,也是最酷的一点,你掌握了用 model file 这个神器去创造独一无二的 ai 角色。 那么一个终极问题留给大家,既然你现在已经拥有了创造任何 ai 人格的超能力,你的第一个作品会是谁呢? 是想复活一位历史名人?还是想把你最爱的游戏角色带到现实?这个原则权现在可就完完全全掌握在你手里了。

如果想要用欧拉玛部署其他大模型,有两种方法。第一种方法,进入欧拉玛的官网,点击 models, 可以 看到这里有很多大模型,我们还是以千问三点五为例点击进入, 这些是千问三点五的一些介笑和参数, 我也看不懂,这里是模型的名字,我们以二十七 b 为例,这里有欧拉玛运行千万三点五的命令,点击附近,在桌面打开 power 窗口, 点击右键粘贴。我们要部署的模型是二七 b, 在 刚才腹肌的命令后,继续输入冒号二七 b, 这样就是正在下载过程当中了,一共有十七个 g, 下载速度还可以十兆每秒。

这视频介绍如何安装奥拉玛,在本地电脑免费用不同的 ai 模型。我现在是用苹果 macbook air, 芯片是 m 四,内存有三十二 gb。 我 之前在早期的 m 系列苹果电脑也可以用。去这网页 选操作系统,按 download, 下载好启动它, 将它拉到 applications, 我 就已经装了,所以就可以不用再拉了。 去启动台 打开欧拉玛, 按这里就可以选不同的模型, 这里没有显示 download 的 符号,就是之前已经 download 的 了, 在这里直接打提示词 prompt 选模型,欧拉玛会根据情况决定要不要下载。假如我们挑一个小的只有四 b, 按它,然后在这里打个问题, where is hong kong? olama 就 会下载我们要求的模型,然后用这个模型来回答问题,等几分钟才下载好,用这个模型得到答案了。如果换一个模型,我之前已经下载的 deep seek, 然后打问题, where is hong kong 我 将视频加快了五倍, 也做好了 离开。 我们也可以在本地电脑的终端 terminal 打欧拉 ma command 的 指令,按放大镜符号,这里打 terminal, 在这里打 o llama version, 就 知道现在装的版本是什么。要知道有什么 o llama 的 terminal commands, 可以 打 o llama help clear 清空 terminal。 我 用的比较多的是这几个 commands, o llama list 就 可以看见电脑现在装了什么。有刚才刚刚装的两分钟前装的这个模型, 也有我之前装的 deep seek。 如果要知道更多详细的资料,可以打 olamata show 模型的名字。 关于这个模型更详细的资料, olamata list 在 这里,也可以跑已经下载的模型, 问这模型 what is the chinese for hong kong? 要离开,打 by alama list 如果我们要去掉 remove r m 某一个模型,我们可以打 alama r m 模型的名字, 就会去掉这个模型我们再看看, 之前有,现在就去掉了,要重新下载拉它进来。我们可以打 olama pro 模型的名字。 我将视频加快了五十倍。 olama list 下载了, clear 离开。

朋友们知道吗?这个 openclaw 可以 免费的使用,我们不使用 api, 我 们只用本地的一个大模型来代替,那就是今天我给大家说的欧拉玛, 可以看到这边欧拉巴的安装我已经写好文本了,今天我们就跟着这个一步一步走,我们给我们的 openclaw 部署一个本地的大模型,这个方式比较适合我们轻度的去玩,或者是我们新上手这个 openclaw 去练习用, 因为本地不说大冒险毕竟不如网上这个 api, 但是它是一个很好的练手的一种形式。废话不多说,我们开始,那这里呢?我直接是给到了大家安装的一个代码, 我们复制代码,如果你也是这个 windows 去你的 linux 系统可能会碰到什么问题,比如说碰到我们这个叫 z s t d 这个支持,没有这个东西我们怎么安装?我们用这个代码去安装,安装完这个代码以后,就这个代码执行完以后,我们就可以进行正常的一个安装, 这里我们就等待这个欧拉玛安装完成就可以了。那接下来这个时间我们可以去看一下我们想在本店跑的一个大模型,让我们直接搜索欧拉玛的官网,直接来到这个 models 里边, 这里大家可以看到有好多种模型,这里我推荐大家使用千万三点五,在这里有好多个模型,点一下理由,大家根据自己的显卡的现存多少去选择适合自己的模型。那比如说如果目前我是一个什么,我是一个二零七零, 二零七零,他只有八 g 的 显存,而且目前我们运行这个顽徒的迅疾,他已经占了二点三,也就说我们只有多少五点五点七的一个显存,五点七的显存正常我们大概只能跑个一个 四 g 左右的一个大模型,那目前看下来我这块显卡只能跑这个三点四,也就是千万三点五四 b, 这个四 b 应该是已经量化过了,之前的一个原生的四 b 应该是九 g 左右了, 我们可以选择这个模型去跑,那如果你是四零九零,这里推荐你可以使用 r 七 b, 我 们可以四零九零可以跑一下这个模型应该都是没有问题的。当然如果你是什么二零八零的双卡,这个之后我会说我组了一台二零八零的双卡, 他就可以跑更大的一个模型,那接下来我们就等待他安装就行了。我们把我们这样跑的模型我们记一下,这期视频其实也反反复复的做了好几次,那主要老杨也是个代码新手,所以说在中间会遇见遇见各种各样的一些事情, 后来经过我的一些查询,也把这些问题解决了,那基本上我就把这些遇到的问题都给大家去总结在这里面。这里我们拉玛安装好了,它已经系统级的运行了,这个是自动运行的,为了方便之后我们去看后台数据,我们这里建议把自动运行拉玛的 server 给它关闭。 那所以说这款我已经写了,之前我是下了模型以后,他就关闭了整个系统级的自动运行,后来就是这个模型丢了,所以说这里我们直接去执行,让他不要运行,然后禁止他的一个自动 set 访看是否运行成功, ok, disable 就 可以了,那接下来我们就可以去代码让他运行,那我们自己启动了,运行以后我们就可以看到什么宝莱玛的一个后台, 方便我们后面去监看他是否会出现问题,这样看起来比较方便,下面我们就去拉我们这个模型,这里我用刚来讲,我们就用这个四 b 复制一下,那么再开一个命令终端,我们再开一个终端,用这个欧拉马库,这里我们就进行等待就行了,等他下载好这个模型就可以。 ok, 到这里其实我们这个就已经装好了,我们看一下欧拉马 list, ok, 可以 看到这里有个千万三点五四 b, ok, 接下来我们直接把我们这个 openclaw 的 ap, 呃,就是 mod 它的模型给配置过来,我们 openclaw 直接选择 local, 然后我们选择我们的 model, 接下来我们就找一下找什么,找一下这个 customer provide, 选这一项,这里的它就自动是欧拉玛的, 我们打开斜杠 v 一 pass api key, 这个 api key 随便填,我们随便填一个,行了,它是一个 openai 形式的,这个模型的 id 这里一定要填对,直接去复制也行, 它是三点五冒四 b, 嘿,那这里就应该可以找到了,嘿,已经找到了,这里回车就行了,接下来我们 continue, ok, 那 这里我们就已经把这个模型配置给我们的 open cloud, 我 们 open cloud gateway, 他 说这个已经运行了, 也是自动运行的,我们 gateway restart, 让它我们这个 gateway 重启一下, ok, 看到其实这个后台上已经读到了,我们这个 就是 openclaw 调用它,我也没打开,还是报的一下,我们找一下这个网址,复制一下,打开浏览器很牛,这里就出现一个什么问题了,可以看到这个反应非常的慢,为什么 在这后台就能看到什么?就是 limit, 也就是它上下文限制多少?四零九六,我们这个 openclaw 给了多少?给了一万零一百六十七,所以说这个是远大于这个四零九六的,所以说他就把这个画开始裁切了, 这就是他的问题。那关于这个问题昨天也是研究了不少,可能我比较小白,这里给到大家一个解决方案,在这里这是我记录的 limit 四零九六 给的这个 promote 就是 提示死这么长,然后他就会出问题,他就反应非常的慢,那我们来解决这个事。回到这个命令符,首先你看你先下载的是默写,比如说我们看一下这个默写,那可以看到他的上下文,他默认的 给可以给到就是二六二幺四四,那这个二六二幺四四是远大于这个奥拉玛,他给的限制四零九六的,所以说我们需要新建模型来解锁这个限制,我们把如果你下其他模型,把这个代码改一下,把它我们导出,我验证它是否存在, 找到了我们编辑它,这里可以看,我们需要在这个 essence 这上面去加一行,是吗?加一行我们把它这个上下纹的长度给扩大, 这里我这块显卡加到三十二 k 就 可以了,因为我们用这个方向键来到给回去了,把这段复制进去,然后 ctrl 加 o 回去, ctrl 加 x 退出, 只有我们改了这个,用这个 modify, 我 们重新去新建一个模型,这个新建模型这块的名字根据你自己的改的去修改,比如说你改成六十四 k, 就 改了六十四 k, 好 标记加某拉玛 list。 那 可以看到我们新建这个模型,就通过这个四 b 新出来这个模型它已经存在了,这叫三十二 k, 也就是我们上下文调整到三十二 k 了。 接下来我们这个把我们的 openclaw 它的 model 重新改过来,这里复制一下,把这个复制一下来到 model 还是 custom provided 这块,还是斜杠 v e a b i k 边数这块,把这个新的模型名字输进去,哎,找到了, ok, 我 们在 openclaw restart 一下,就 getaway restart 一下,包括刚刚我们刚打开这个文本,如果你是觉得回答质量差,你就可以适当调整这些参数,再去新建好,我们回到网页里刷新一下, ok, 我 们再 set new, 看这个反应,可能还会提示这个提示词过程吗?没有了, 这样我们就把相当于把这个模型给配置好了,这样我们就打个招呼, 可以看到这个后台不停在提示他,其实在做这个正常的一个输出,这个都已经没有问题了,那这里已经给大家完全讲完了欧拉玛的一个配置,包括我们中间会遇到的一些,比如说的这种问题啊,山下文的一个问题, 这个四比模型现在就完全的可用了,其实我们这块二零七零他跑的时候可以看已经七点五级了,进行起来速度还是可以的,没有说速度特别的慢。怎么测试?给我写一片三百字 关于 ai 进化的文章,三百字的文章,你看一下我们这个四 b 它发现怎么样? 其实这个 token 怎么讲?它的速度是可以的。只有三百字吗? 只有三百字吗? 这有三百字吗?我数不过来,问问他, 就是他可能载入了会慢点,但是这个字数的话就是说他的投屏速度还是可以的,所以说四 b 在 我们这个二零七零上都可以爆。当然大家我觉得你们的显卡可能会更好,那比如说如果你真的是一个,比如说幺零六零之类的卡, 我不太建议跑,但是也有这个这种的特别小的,但是我没用过这个啊,我会感觉特别傻,但是四 b 用下来只要你不是这个扣定,就是我们这个编码做很多的话,应该是没什么大问题啊。 这场对话包括帮你写文案,他都是怎么讲可以去胜任的。好了,今天就到此为止,谢谢大家。

大家好,我是航灾,今天呢我准备给大家介绍一下在迈克迷你上如何来安装欧拉玛,欧拉玛就是最简单的尝试本地大模型的方法之一了啊, 有了欧拉玛呢,我们就可以创建一个本地的大模型,和他进行一些简单的聊天呢,或者是给其他程序啊提供一个免费的 api, 如果你的本地设备足够强大的话呢,你甚至可以给龙虾 open club 啊提供一个靠谱的大圆模型,不过这是一个未来的梦想啊,不知道大家有多少人的设备满足这个需求。 然后呢我们就来开始今天具体的内容。首先呢我们来看一下文档啊,在好用载当中,我们直接左侧这里啊就有一个五三零欧拉玛的安装和使用,我们点击一下, 然后我们点击网盘分享,然后我们继续向下啊,这个里面呢一共三个文件啊,其中呢一个是文档,一会我们说接下来的两个文件呢,是我给大家下载好的客户端啊,一个是 d m g, 也就是 max 上使用的,一个是 ex, 这个呢就是 windows 上使用的啊。然后呢我们来看一下文档, 文档当中呢一共有三部分内容啊,第一部分呢就是欧拉玛的官网,第二部分呢是我们一些具体要使用的内容,第三个呢就是我好用在的官网,大家爱学学用就可以了。然后呢我们先说一下欧拉玛的官网,欧拉玛的官网呢,一共有两个啊,一个呢是它真正的官网,另外一个呢是它 github 的 官网, 我们可以一起来看一下啊,至于命令呢,一会用到的时候一起说,这里呢就是欧拉玛的 github 官网,如果需要什么内容呢,可以直接到 release 这里面来下载啊, 不过我们一般呢直接使用欧拉玛点 com 这个官网就足够了。这个官网当中呢,右上角这里就是登录的,也就是下载点击一下 这个里面呢就可以选择是 mac os 或者是 windows, 然后点击下面的登录的,就可以下载你对应系统的客户端了。我这里呢给大家演示一下 mac 系统当中客户端如何来使用啊。在 mac 系统当中,我们直接双击这个欧拉玛,点 app 直接投入到这个应用文件夹里面就可以了。 好的,这样就可以了啊,接下来呢,我们在应用程序当中找到欧拉玛,然后进行点击,这里就是欧拉玛啊,我们双击 第一次运行的时候呢,它会提醒你一下啊,是从互联网下载的,问你是否要打开,我们直接选择打开,现在呢我们就已经进入到了欧拉玛的主界面啊, 然后呢我给大家说一下它的初步设置和使用。首先呢我们先来设置一下啊,因为只有一步设置非常简单,我们直接上滑啊到最上面的菜单栏,然后呢点击一下欧拉玛这个图标,这是一个小羊驼嘛,然后点击 setting, 也就是设置 这个里面呢,只有一项啊,需要打开,也就是说把欧拉玛暴露到局网,这样的话局网其他设备才能够正常的访问欧拉玛, 比如说你的 windows 系统啊,你的丽江系统啊,如果你想使用这台设备的欧拉玛开通的服务,那么你要把后面那个开关啊,直接点击打开一下,下方刚才也看到了出了一个 c 五,这样呢就已经成功了啊,然后还有一个我们再说一下啊,底部这里还有一个上下文长度,默认呢是四 k, 比如龙虾 open 可乐啊,他就要求一定要十六 k 起步,所以说如果你之后有其他程序需要更大的上下文,你需要在这里呢进行一下调节,只有这么两个选项啊,需要说一下,别的呢就没有了。然后我们把这里啊直接关闭一下, 在接下来使用呢也非常简单啊,在这里你可以选择具体的模型,比如说我们点击一下啊,默认的是这个 g m 三啊, 我们可以不用,我们可以向下选择,比如说啊,我们这里选择一个千万三四币,我们点击一下,然后这里呢你随便打一个字,比如说这里呢打一个你好,然后一回车,如果没有这个模型的话,它就会自动进行下载了,我们稍微等待一下,等待它下载完毕就可以了, 大家可以看到现在这个模型呢就已经下载完毕啊,同时呢他也给出了答复,接下来呢你就可以直接跟你的本地大模型进行对话了,比如说呢,这里我们可以问他啊,你都有什么功能,然后直接回测一下, 因为它是一个思考大模型嘛,它首先呢会进行思考,在思考之后呢才会给你形成一个输出的答案啊,我们还是要稍等一下, 现在呢他就开始进行正式的输出了啊,我们还是要继续等一下。好的,现在呢就已经输出完毕了,这个呢就是你跟本地大模型的一个交流过程啊, 所以说总体使用上啊还是很简单的,接下来呢我再给大家演示一下,你现在已经搭建好了,但是其他的程序如何来使用呢?我们这里呢就以 cherry studio 啊来给大家做一下演示。我们打开 cherry studio 以后呢,这里就有欧拉玛,我们点击欧拉玛之后啊, 我给大家简单的说一下如何来设置啊。首先呢你要填写一下 api 地址,这个 api 地址呢就是你的欧拉玛运行的设备,我这个设备的地址呢就是三幺点二二二,后面的部分呢不要变啊,后面是端口号,再加上一个路径杠为一, 这个呢就是它的一个完整地址,我在文档当中呢也有写。再接下来呢我们就可以添加一个大模型,选择添加,然后呢这里要求你输入模型 id, 我 们看一下这个模型 id 是 多少啊?模型 id 呢就是千问三冒号四 b, 然后我们这里手动输入一下啊,千问三冒号四 b, 然后我们点击添加模型,再接下来呢我们选择检测来看一下效果啊,点击,然后这里默认呢就是千问三冒号四 b 啊,我们点击确定 可以看到连接成功,也就说到这里呢,我们的 cherry studio 啊,已经可以使用我们本地大模型了啊,比如说我们点击这个助手, 然后在最上面这里啊,我们选择一下,这个呢就是我们自己本地的欧拉妈妈,然后就是纤维三四 b, 我 们选择一下,在接下来呢,你就在这里输入聊天信息就可以了,比如说这里啊,你同样输入你好,然后回车可以看到它,同样呢是正常的调用了这个本地大模型, 还是开始思考,然后给你答复,没有什么区别啊,跟刚才我们直接使用欧拉玛本身的客户端呢,效果差不多。好的,这里呢开始答复了,可以看到这个思考模型啊,耗时非常多,二十四点三秒, 到这里呢我们就已经知道如何来安装和使用欧拉玛,同时呢如何和其他的软件来进行对接。整体的使用呢,其实是非常简单的,不过我们如果使用这个存储页面的话啊,它的功能呢还是比较少,但是如果我们使用命令行的话,能管理的内容,同时呢也可以看到更多详细的信息啊, 所以我还是推荐大家学习一些基本的命令行命令啊,这样使用起来呢会更方便。然后呢我们就来看一下啊,命令行都有哪些命令?我这里呢给大家列出了几个常用的命令啊, 前面呢都是奥拉玛这个开头,然后后面第二个呢就是具体的参数,比如说第一个奥拉玛历史,就是列出目前所有已经下载的大模型。第二个呢库就是我们要去拉取某一个大模型啊, 第三个 run 呢就是我们要运行这个大模型,所以说大家如果看头三条命令,如果你之前用刀刃用的比较多的话,你会发现啊,这个命令呢除了前面变成了欧拉玛以外,剩下的部分呢基本都是一样的啊,整体呢还是很好记的。 然后这里呢多加了一个这个沃 boss, 它就可以看更详细的内容,一会呢我给大家演示一下啊。最后呢这有一个 r m, 也就是删除,前面呢我们要说一下如何来进行删除, 然后呢前面我们进行的 run, 也就是运行,后面这里呢我们说了一下如何退出啊,接下来呢我就给大家一点一点的演示一下啊, 首先呢我们这里打开一个终端啊,接下来呢我们就可以一条一条的运行命令了,比如说啊,首先我们看一下欧拉玛 list, 我 们直接复制,然后呢在这里右键粘贴,然后回车 可以看到现在这里面呢我们就有了一个大模型,就是我们刚才下载的千万三四 b, 所以 说如果你使用终端的话啊,你刚才跟别的软件进行对接呢,你都不用手敲这个模型了啊,因为有一些模型啊,它的名称还是比较长的,所以说你直接可以复制一下,直接滑动一下啊,然后就直接复制了,或者是你再右键一下都可以啊,它就直接复制了, 然后到你的软件当中直接粘贴就可以了,这样用起来呢比较方便。这个呢就是历史的作用啊,就可以看到你现在里面有多少个大模型了。然后第二个呢就是铺,它就是用来拉取大模型的,具体拉取的大模型名称呢,就是后面这个啊,但这个名称怎么来的呢?我给大家说一下, 我们打开欧拉玛的官网,然后第二个啊就是 models, 这个就是模型啊,我们点击一下,现在呢我们就来到了模型这个页面,里面呢,就列出了目前所有热度比较高的模型啊,当然你也可以在上面进行搜索,比如说那你直接搜索千问, 可以看到千万所有的模型呢就都列出来了啊,比如说我们选择一下这个千万三点五啊,我们点击一下,然后这里就写了啊,欧拉玛瑙,然后千万三点五,你直接复制,然后在终端中粘贴就可以了。当然啊,如果我们想要别的模型的话,也可以, 因为这里我们向下滑动一下就可以看到啊。如果你刚才直接选择欧拉玛瑙切问三点五默认的呢,它就拉取的是这个九 b 的 模型,因为这个呢是 latest 的, 如果你后面不加这个模型大小的话,默认拉取的就是这个啊。我这里呢给大家说一下我使用的 mac mini 它的使用情况。 mac mini 呢,最多是能跑到十四 b 的 模型,大概跑到十抽根左右吧。十四 b 以下的模型呢,一般都可以跑九 b 呢,是一个相对比较适合的模型。不过如果你跑 open cola 那 种需要十六 k 上下文的,你就跑不了九 b 了,就只能跑四 b 啊,因为上下文呢,同时要消耗一部分内存, 所以说这种最适合的九 b 呢,如果再加上十六 k 的 上下文,它所需要的内存呢就比较大了。我曾经直接把麦克迷你啊直接给跑死机了,它自动重启了啊,在我之前使用麦克迷你的时候,我几乎就没有听到过它的风扇的转动啊, 但是自从我测试 ai 开始啊,麦克迷你风扇呢就会经常听到了,也就是说 ai 啊,对于它的性能压榨呢,还是很严重的。 所以说,如果你需要一个大的上下文,你就只能跑到三点五四 b 了。如果你只使用默认的四 k 上下文,那么你是可以使用到九 b 的 啊,当然如果你不需要很大的上下文,同时你也能够忍受速度的话,你其实呢是可以跑到十四 b 的, 比如说前面有那个 coder 十四 b 嘛,可以跑一下,没问题的, 我们这里呢就以切问三点五四 b 为例啊,给大家看一下,我们直接点击一下后面的复制,然后呢我们回到终端里面来啊,我们直接输入欧拉玛,然后铺,然后直接右键粘贴,然后直接会撤, 稍微等一下呢,他就可以直接去下载了啊,而且这个和刀客一样,刀客我们也可以先铺,然后再 run, 但是如果我们直接 run 的 话,刀客里面如果这个镜像没有,他会先去下载,然后就直接运行了 欧拉玛。同样啊,你可以直接运行欧拉玛 run, 这样的话,如果里面没有这个模型的话,他就会直接先去下载,然后呢就会自动运行了啊,我们稍微等一下可以看到啊,你用命令行下载的话,速度是要比刚才用的那个客户端啊下载速度要快的多,所以说我建议大家啊,尽量呢是用命令行来下载。 好的,这里呢就下载完毕了啊,我们稍微等一下,这个速度是要比刚才的客户端要下载快非常多啊,然后这里我们就可以执行下一条命令啊,就是欧拉玛瑙了,我们直接到这里面来啊,直接复制一下欧拉玛瑙,然后同样啊这个模型的名称,切问三点五四 b 邮件粘贴,然后回车 出现这个符号呢,我们同样啊可以开始跟他正常的对话了,比如说这里同样啊,我们输入你好回车, 同样呢这里又开始正常的输出了啊,没有什么区别,但是这次的速度呢,可以看到啊,快很多。然后如果我们想退出的话啊,就是底部,这里就是给大家说了, 你可以用两种方式来退出,一种呢是 ctrl 加 d, 一 种呢是杠 e x i t, 我 们这里输入一下啊,杠 e x i t, 然后回车,现在呢我们就重新回到命令行终端了,这是第一种方式啊,然后我再给大家说一下啊,你后面加上这个沃 boss 有 什么区别啊?这个是详细的意思,我们直接把这条命令再一起复制一下, 实际上就是在刚才的欧拉玛 run 后面啊,多加了一个参数而已。我们同样啊右键粘贴,然后回车,然后这里呢我多说一句,你都能做什么?然后回车, 这里呢它就开始正常输出了,然后我们稍微等一下啊,可以看到啊,上面就是它的思考过程,下面这里呢就是它具体的输出过程啊,整体的速度呢还是比较快的, 如果你加了 woobos, 在 最后这里呢就可以给你一个整体的输出啊,第一行呢就是它总共的消耗的时间,一共呢花了三十九秒, 然后呢这里有一个加载的时间,也就是把模型加载到内存里面去啊,一共呢是一百一十七毫秒,在下方呢这是一个提示词的数量,也就是刚才我给他发的提示词啊,当然一般里面还包括一些系统提示词,所以说呢,它一共是十三个桃痕啊。 再接下来呢这些提示词的处理,一共花了二百六十五毫秒,再接下来呢,提示词的处理速度是四十九 tock, 接下来呢,就是输出的部分了啊,输出的部分呢,一共输出了六百四十八 tock, 花了三十八秒,相当于呢,每秒是十六点七七的 tock, 大家经常关注的呢,其实是最后这个啊,也就是每秒能输出多少 tock。 所以 说,如果你习惯之后呢命令行的话,你就能看到很多更加详细的信息,而且你习惯之后呢命令行和图形界面那个差距并不大。 而且最主要的是啊,如果我们一般使用本地大模型的话,一般也不会用它这个客户端也不会用这个命令行啊,因为都是我们要通过其他的程序来进行调用。这部分呢,主要是用来检查一些信息啊,比如说某一个大模型,它是否速度足够快啊, 这一次呢,我们直接摁 ctrl 加 d 啊,同样也是直接退出了。有的同学可能会问,你为什么用 mac 来演示,你为什么不用 windows 来演示呢? 就是因为我 mac 这个核显啊,本身还算是可以跑,大模型呢,还是能跑的动的啊。如果我用 windows 的 核显来跑的话,我那个是十一代的 a u c, 它的核显啊,也就只能跑动二 b 的 模型,而且速度呢,还挺慢啊。 所以说,如果你还想用 n s 来跑的话,如果你没有一个好的显卡的话呢,那个速度啊,就会更慢了。如果大模型太小的话,智商实在是太低,我觉得四 b 啊已经是底线了。 再向下我觉得只能在手机上回答一些简单的问题,还可以,在电脑上呢,已经不适合了,欧拉玛呢是一个入门的好程序,但是它并不是 mac 上使用最好的一个程序啊。后面呢,我还会给大家介绍其他的程序,如果你对这方面内容比较感兴趣的话啊,可以持续关注 上面这里呢,也已经把所有的命令都介绍完了。最后这里呢,就是刚才给大家提过的啊,你需要在其他程序上调用的时候需要写的地址,你只需要把里面的 ip 换成你自己设备的 ip 就 可以了。 好的,这就是本期视频的全部内容,如果你觉得这期视频对你有帮助的话,欢迎点赞评论转发,一键三连,当然也别忘了关注我们,下次见!

哈喽,各位同学,大家好,我是珊珊老师,那接下来呢,我们要使用奥拉玛本地部署大模型,那我们刚才呢已经把这个奥拉玛平台安装到机器上了,那接下来呢,我们要下载各种各样的模型安装在这个机器上, 那我们在这里呢可以看一下这个奥拉玛支持的模型有哪些。那我们现在点到这个奥拉玛官网,然后在这有个 models, 可以 看到它所支持的这个模型, 而且在上面呢你也可以这个进行这个搜索,比如说你想安一个这个千万三,那你可以搜索这个千万三,然后在这呢把这个千万三开头的 呃包含的都给你搜索出来了。比如说这个千万三,就是你要选择要下载到本地的这个模型,你可以点进去,点进去之后呢,我们在下面可以发现你看千万三有很多版本, 你看它不同的这个版本的这个列表在这里面呢,我们都可以看到,然后你看每一个版本它的这个模型大小也是不一样的, 你看后面它有这个对应的这个大小,在这个 size 里面我们就可以看到。而且前面你看前面带一个 b, 这个 b 是 什么呀?就是那个编码,它代表的是这个呃叫模型参数的这个数量级。比如说你在这这个四 b 代表什么呀?就是四十亿参数, 因为模型本质上是要就是一堆参数堆出来的吗?你这个参数越多的话,你看他所占的这个呃大小就越大呗, 对吧?你参数越多模型越大。那比如说你现在选择一款模型,那一般我们的机器上啊,比如说你初学的话,你装个小一点的就行了,比如这四 b 一 点七 b 就 够了。比如你想装这个四 b, 你 点击 就相当于你选择这个模型,然后你这个模型选中了之后,在这有一个这个命令,这个呢就是,呃,如果你在这个命令行里面把这段命令去执行的话,那相当于它就会把当前的这个大模型进行这个安装, 然后呢我们在这啊看一个东西,我们找到这个奥拉玛的这个界面,然后在这有个 settings, 它默认呢,它会把这个模型安装到这个位置,你看它说叫 model location, 就是 你模型安装的位置,那默认是这个位置。那如果说你不想让它安装到 c 盘的话,你是不是可以选择其他的盘符?那比如说,呃,我们找一下啊, 比如我刚才是不是把这个模型放,就把那个奥拉玛放哪来着?呃, study set up, 然后这儿 这个阿拉马,然后在这儿啊,我们新建,建一个什么呢?建一个叫做 models, 这样的话我们就可以把这个模型放到这里,那我们在这个位置呢可以做一个选择,选择谁呢?选择我刚才的呃,此电脑 d 盘,然后找到哪去了?这儿 study set up, 然后找到奥拉玛,然后这个模型选择这个 models, 这样的话我后续这个模型就可以安装到这个位置,然后你可以把它关掉,然后这样的话我们在这啊把这个命令复制一下,然后在这 ctrl v 粘一下回车,现在呢就让他去跑,让他帮我们去安装, 还是啊静静等待 好,在这啊,你可以看到 success 就 证明我们这个模型已经安装好了,然后在这呢你就可以跟这个模型进行对话了,比如说问啊,你是哪个大模型啊?回车 你看它就会再进行思考了,然后进行回答你, 他会把整个这个思考过程都给我们打出来啊,然后这个是正式的这个回答,你看他说现在是这个千问三,是这个同意千问的这个最新的这个版本,然后就给我们对应的这个答案。 呃,答案给出来之后,当然了你可以继续跟他对话,如果你不想跟他对话了,你可以直接录一个杠 y, 这样的话我们就可以退出跟这个模型聊天的这个界面,然后我们在这呢可以看一下啊,我们是不可以用那个叫奥拉玛 list, 可以 看一下你当前机器所安装的这个模型,因为实际上你除了这个千问三四 b 之外,你是不还可以安装其他的这个模型啊? 所以在这个列表里就可以看到你安装的这个模型,然后还有一个叫做奥拉玛。 ps, 这个可以看到什么呢?可以看到你正在运行的这个模型,因为很可能你在这里面安装了很多模型,但是比如说你安装了五个模型在你, 但是你在这面运行的只有一个,也有这种可能吧,所以他们俩的数量不一定是一样的,只是因为当前机器咱们这个列表里只安装了一个模型,并且正在运行一个模型,所以在这我们可以看到啊,这个你下载的模型和正在运行的模型。 好,那这些基础命令呢?咱们就说清楚了,所以接下来咱们各位同学要做的事,就是把对应的这个千万三这个模型下载到你自己的机器上就可以了。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

大家好,欢迎回到我的频道,前面几期视频我给大家演示了如何在 v i y 里安装优盘图 linux 处理机,也讲解了如何在优盘图中配置 note g s 和 git 来满足 openclaw 的 运行环境。那这期视频我就来教大家如何在优盘图 linux 操作系统中安装部署 openclaw。 在本期教程里,我们将从 github 下载 openclaw 最新的源代码进行安装。如果你下载不下来,也可以在评论区里留言,我把我下载好的 openclaw github 源代码分享给你。 我现在就在 umber linux v i r 训练机里边,我们打开 firefox, 我 看看 github 好 不好。访问今天为车,今天很幸运可以访问,那我们在这儿搜索一下,在搜索框输入 openclaw 车在这个项目 open club, open club 就是 我们要访问的项目。点击一下,打开它,今天速度还挺快,这是咋回事?我们点击这个绿色的扣按钮,有一个 download zip, 我 们还是下载下来吧,避免安装的时候突然访问不了,挺麻烦的。点击下 download zip 就 开始下载了,下载也很快, 超乎我的想象。好,现在下载好了,那这个应该是最新版本的,如果你要是担心这个最新版本里面有 bug, 因为它是刚刚提交的,有的最近的是三十八分钟内提交的。 那你可以下载这个最新的 release 版,你看这有一个 release open club, 二零二六点三点十三,那最新的 release 版是三月十三号的,我们点击这个链接进去,他就打开了这个页面,那这个页面里边就记录了他都修改了哪些问题。在这最底下有一个 south code, 你 也可以下载这个 最新 release 版的源代码,点击这个链接,它就把最新 release 版这个版本给下载下来了。下载好之后,我们来到这个下载目录,那这两个字库文件都在这了,我先修改一下这个屏幕的分辨率,这样屏幕就文字大一点, 我们看一下这两个版本,那我们还是安装这个三点十三,因为这个是 release 版。右键单机点击提取,解压缩到这个文件夹下,我在我的主文件夹下建立了一个文件夹叫 work, 然后把那个解压缩后的 open class 代码拷贝到这个 work 目录下, 我们右键单机桌面,点击,在终端中打开,打开一个终端窗口,我们再确认一下 node 和 get 的 版本,那 node 是 vr。 二十二点二,十二点一,这个是符合这个要求的,那 get 二点五,一点零,这两个版本是可以的,因为我们从 oppo colo 原代码来安装这个 oppo colo, 它需要 p n p m 这么一个呃命令,所以我们先安装 p n p m, 我 们运行这行命令。 soluo 空格 n p m 空格 install 空格横线 g 空格 p n p m 回车,它需要输入密码, 也就是那个哈喽那个账户的密码,他就开始安装 pmpm 了。好,现在已经安装好了,那我们先运行 npm 杠 v 看一下版本, npm 是 十点九点四,那 pmpm 呢?杠 v, 十点三,二点一, 可以,这个 n p m 和 p n p m 我 们都已经安装好了,那现在我们先来到 open k l 源代码所在的这个目录,我们把这目录地址拷贝一下,回到命令行。好,那现在就到这个目录下了,这个就是这个 open k l 的 原文件。在这个目录下,我们先运行一下这行命令, p n p m install 回车,它就会把依赖的或者需要的那些包全都下载下来,并且安装好。当你看到这些信息, 那就证明需要下载的包都已经安装好了。然后我们再运行另一行命令,就是 pmpm 空格 ui 冒号 build, 这个命令运行很快,当你看到这些信息,就证明这个命令已经运行好了。然后我们还需要运行一下这行命令,也就是 pmpm 空格 build 回车,等这个命令运行好之后,这个 open klo 基本上就安装好了。好,到现在为止, 这个 open colo 就 算安装好了。然后我们还需要运行一下这行命令, p n p m 空格 link, 空格,横线,横线 global, 那 这行命令就会把这个 open colo 这个命令设置为可以直接调用的 c r i 命令, 方便你调用,让它出现一个错误,这个错误是什么原因其实也写清楚了,告诉你怎么改。需要运行 p n p m 空格 set up, 先来创建一下这个 global bin 这个 directory, 那 我们就运行一下, 还要运行 south home hello, 点 best i c 现在已经生效了,现在我们再运行一遍 p n p m 空格令格航线 global, 那 现在这个 openclaw 这个命令就可以直接 在命令行里边调用了。然后我们运行这行命令, openclaw, 空格 unbox, 空格航线航线 install 航线 demo, 那 这行命令就开始设置这个 openclaw, 并且安装后台的守护进程,也就是后台服务, 这个 open 卡拉就会在后台一直运行了。我们看这个命令执行之后,就是这个界面第一个配置界面问你是不是继续,那你就通过这个左右键选择。 yes, 然后按回车,然后 unboxing mode, 就是 是 quick start 按回车 model, 也就是大圆模型,你选择哪个?因为我们使用本地的奥拉玛,所以我们选择奥拉玛,那奥拉玛 base url, 也就是我们这奥拉玛模型的 url 是 多少, 我们现在去看一下。我们在 windows 上打开奥拉玛这个应用程序,点击左上角这个图标,有一个 settings, 点击一下,那在这右边有一个选项叫 expose orama to the network, 这个选项一定要打开,否则奥拉玛是不能够被网络上的其他应用程序访问的。 我们再在 windows 里边打开一个 windows power 或者命令行窗口,运行命令 ip config, 那 我们就可以找到我们这台计算机的 ip 地址, 那我们这 id 是 幺九二点幺六八点二零四点幺,我们在浏览器里边输入这个网址 gdp 幺九二点幺六八点二零四点幺,冒号幺幺四三四,回车之后,如果看到奥拉玛 is running 这个页面,那就证明我们这个奥拉玛是可以通过网络上的其他应用程序来访问的。 我们回到这个 uberto linux 这个虚拟机里边,把这个 alama base url 地址改成幺九二点幺六八点二零四点幺,冒号幺幺四三四,回车会让你选择一下 alama 的 mode 是 cloud 加 local, 那 么选择第一个回车, 然后它有提示让你登录进 alama cloud, 我 们就把这个链接拷贝一下,点击 connect, 连接成功了,我们再回到这个命令行, 他问你是否登录进去了。 yes, 我 们回车。现在你就可以选择这个大语言模型,具体使用哪个,那我们就使用缺少的 kimi 二点五这个云端的模型就可以了。按回车,再让你选择那个 china, 就是 你用哪个聊天软件去管理这个 opencloud。 我 们先不用这个了, 我们会在以后讲,我们选择 skip now 回车,选择第一个路由 search, 因为我没有这个路由 search 的 api key, 所以 路由 search 就 不能使用,但是你可以去到这个网址去获取 ikey, 可以 以后再配置,现在它让你选择 skill, 问你是不是配置 skill, 我 们可以选择 yes 啊,回车用上下键来选择,选中之后按一下空格键,这变量就把它选着了。 回车这个 homebrew 我 们也可以安装一下,选择 yes 回车 google api key, 这个我没有,就选择 no, 全都 选中就可以了。 hook, 这个我们也先 skip 它,就开始安装这个 getaway, 也就是这个网关 getaway 已经装好了,他问你想怎么去跟这个机器人聊天,或者机器人互动,我们就选 open the web ui, 那这样他就会打开一个浏览器,你可以在浏览器里边跟他聊。第一个是 tui, 就是 基于文本的那个用户界面,我们还是用外部 ui, 那 现在当你看到这个界面,就说明这个 oppo cola 已经安装好了,这些信息都还是比较重要的,所以我建议你最好把一些重要的信息保存下来, 比如说这 ctrl u i, 也就是我们刚才不是选择基于 web 来管理这个机器人,所以它有一个链接地址,通过这个地址是可以打开这个管理界面的, 那这个地址我们把它拷贝出来,在这个浏览器里边粘贴进去,那这个就是 open k l o 的 这个控制台,当然这个我都跟他聊过一点了, 所以有这些信息。那我跟他说个你好,他巴拉巴拉说了一大堆,我问他现在都能干些什么?他回答了一大堆,好像感觉他非常能干。这些东西都怎么做?以后我可以给大家做视频,来演示一下他怎么才能做到这些功能。

安装前确保已经安装了 node js gate, doeslu boot to alama 和适合本地电脑的大模型在 doeslu boot to 中运行。 alama 在 alama 的 环境下开启 openclaw, 打开 web view 测试,安装成功。

首先我们第一步安装欧拉玛,大家下去之后呢,可以看这个视频回放来操作啊,因为我可能讲解的速度呢,相对来说快一些,所以大家如果说跟不上的话,可以稍后下去之后再来去看。 呃, olamar 的 安装比较简单,直接大家打开 olamar 点 com 官网点击下载,点这个 download 就 可以了啊。如果说你是呃 windows 的 同学也是点这啊,因为它不管是苹果系统, linux 或者是 windows 都是完全支持的啊,你直接点一下 download 就 可以了。点 download 之后,我这边呢就直接可以打开这个 olamar, 我那么打开以后呢,在这啊,就是一个羊驼的图标,现在我是我是已经安装好并且打开了。打开了之后呢,我们接下来就想要去安装模型,模型的选择大家可以点一下这个 models, 点 models 之后,大家可以看到排的第一的就是 deepsea 二一啊,我们今天用的呢也是它,并且大家可以看到它的热度,这是九点四兆 plus, 拿取的人非常多啊,我们也就选用这个,大家直接点进去看这个地方呢,有一个选择。呃,具体的这个 选择呢,我们可以选择稍微小一点的啊,就比如说七 b 或者一点五 b, 反正你就选择一下之后去用一下啊,正常情况下,满血版的六七六百七十一 b 的 这个呢?四百多 g, 这个一般同学们的电脑是不用不用去试的啊,基本上试不了的, 你可以点一下这个 view wall, 下面这些呢,其实都是他的啊,对应那些模型 tag 啊,打的 tag, 我 们可以选择七 b 或者是 nattest, 我 们现在呢就选择 nattest 啊,选择这个 nattest, 然后我们打开这个命令行工具,因为我们其实已经安装了 alama, alama 安装好之后,你就可以直接在这 搜索啊,或者说去看 alama 有 哪些命令,比如说杠 h 回车,你就能够看到所有关于 alama 的 提供给大家的一些命令啊,比如说有 serve, create, show, run 等等。其他这些命令呢,我不跟大家去介绍了,我们直接来把 deep seek 跑起来啊,那么我们这里跑呢,就直接 deep seek r e 冒号 nast 回车,这个其实跑起来比较简单呢,就是几行命令的事情, 好,启动的时候相对比较慢哎,大家可以看到现在就启动好了啊,现在启动好以后,其实我现在就可以对他呃发送命令,他就可以帮我去回答了,比如说你好,或者说给我的给我直播间的同学前端同学打个招呼, 好,这 sink 的 这一部分呢,其实就是它的思考,然后后面就提示出来了啊,你好呀,直播间的前的同学们,呃,很高兴能够在直播间见到大家啊,大家新年快乐,如果有任何问题和想法的随时跟我互动啊,这样就这个模型其实就已经跑起来了啊,完整课间评论区扣八八八,免费领取!