谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了,然后找到你符合要求的版本。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载 jm 四到你本地的电脑上,我们可以使用它的官方指令,会告诉我们直接怎么样去进行 jm 四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话。老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗,我们看一下啊,这个显存直接拉满的,达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢距效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open clone, 丢到我们的龙虾里,让它们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open clone 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频一块的呢,因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点你得先在你的 windows 系统下把 wsl 安装一下,当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格杠杠威森,如果弹出定的版本号,证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令 wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班图, 安装之后进行一下更新。安装完优班图之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三,安装一个压缩包工具,方便安装一个 node 点 ps, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本。如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的? ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班图中跑起来。老张刚才给大家测试的是 jm 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。如果说你现在只想用 open klo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给他 删掉,如果说你不你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 嗯,响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆士直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这儿部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 c o r l 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 c u i l 的 方法报错的话,直接使用 n p m 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接是直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型,咱们四三十一币,然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话。但是如果说善于观察的兄弟们也发现了,老张呢把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 oppo klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用一次必得给大家进行演示,发一个,你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来。然后老张呢也会及时给大家更新,无论是在评论区中还是视频中教大家如何使用。我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。
粉丝23.1万获赞120.4万

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

我们一起来看一下 openclo 如何加载本地的欧拉玛大模型进行一个部署啊,我们之前的话有讲过对应的如何部署,对应的谦问以及像智普啊,还有像 deepsea, 我 们尝试了多种方法去部署。 然后呢,这一节的话主要是部署在本地啊,讲讲欧拉玛。然后呢,我们的目标就是首先呢, 呃,去安装 opencloud, 然后呢去连接本地的欧拉玛大冒险,以及在未不断成功的聊天。呃,这这一章节的话,可能安装的方法跟前面两章会不大一样,我们之前有讲过,呃,另外一种安装啊,我们可以看下这个文档里面对应这个, 这里面我们上面讲的是直接用这种一键安装的方式啊,然后这里这里这里的话我们是用 node 去安装去 使用一遍。首先的话,呃,你使用 open core 的 话,需要在 note g s 二十二版本以上的版本,如果你低于这个版本的话,你安装可能会有很多问题啊。 然后呢,首先我们来可以看一下对应的安装,我们可以看 note 刚 v 的 时候我们可以看到我,我现在这个版本就是二十二点二点一啊, 就是刚刚满足的这满足这个版本,但是如果你呃没有安装或者说版本过低的话,你可以通过这个网址里面去安装 t r s 版本啊,大家记住一定要下载那个 t r s 版本,然后把它安装好就可以了。这里的话我就不过多说 node 怎么安装了,因为这个东西视频很多啊。 然后之前的话我也讲过 node 怎么安装,然后第二步呢,就是去安装这个欧拉玛,欧拉玛的官网呢?是在这里啊,我们打开就是这是这个网址啊,网网址打开以后呢是这样的, 可以看到他这边会有一个登录的,当然你可以选,对于你的 mac 还是 linux 以及 windows, 你 自己选啊,你看你的什么电脑,然后呢你可以用这种方法去安装,也可以使用这种方法去安装,这种的话会会更加更加简单的,你直接登录的就可以了, 你把它下载,你把它安装完成以后呢,你直接在终端里面直接是奥拉玛杠 v, 就 上面就大概是这样子,大家可以看一下奥拉玛杠 v, 然后呢他会出来一个对应的版本哈,当然我这个版本比较低啊, 这个,但是,但是他,但是他不影响。 ok, 我 们来继续讲。就是,呃,我们下载完奥拉玛的话,那对应我们需要去下载一些模型,比如说我们现在可以下载一个奥拉玛普千问二点五 的,然后一点五 b 的 一个模,一个模型,因为,嗯,本地电脑的话,你的配置要很高才能下才能去运,成功运行一个比较大型的模型。所以说我这里用了一个很小的模型啊,就是一点五 b 的 模型,我我们就是用来做测试,如果你的显卡比较好的话,你可以去下载更大的模型啊, 然后通过这个命令,当然当然这个命令也是在终端里面,呃,我们这样, 呃呃,自己再补充一下,在终端里面执行啊,大家记住在终端里面就是我们这样子以后这样,好吧,然后直接按回车就可以了,按按好回车以后呢,我们他就会这边就会去做一个下载,下载以后呢我们可以使用欧拉玛 list, 是 这个 在这里啊,我们可以看到我这这里的话有有几个模型,比如说是千万二点五的一点五 b 的, 然后呢千万二点五一点五 b 的, 还有 deepsea 二一一点五 b 的, 当然都是一些小模型啊,然后呢我们继续啊, 当然这个不是,这个是对应的编辑啊,然后呢?呃,这弄好以后呢,就是大家可以看到大概是这样子, 就是大概刚刚我说这个样子吗?对吧?模型。然后这时候呢你可以直接去运行这个奥拉玛瑙前文二点五 b, 就是 我们 一点五 b 啊,就是前文二点五一点五 b, 因为我们刚刚安装的不是这个吗?对吧?当然你也可以选择其他的模型作为测试,因为我们刚刚就是安装的这个模型,就是这个模型啊,所以说我们就在终端里面去启动下这个模型,看看能不能用啊,我们就直接这样在终端里面启动。 呃,可能我电脑比较慢啊,呃,这也没关系,这样等吧。呃,然后呢启动完以后呢,你可以在这个里面直接输入一个,你好,然后呢他大概就会就就大概这样子,就是你好,然后呢他就会回答一个你好,请问有什么可以帮助吗?然后这个的话就是对应你的前文的一个回答。 呃,我这边可能比较慢,可能在运,因为我这边在运行其他东西啊,所以说就比较慢。呃,这里我我们就 先不管它吧,反正就是你这样运行以后呢,它就会出来个这样的一个窗口,当然这个是你好,是我自己打进去的,它就会出来一个这个三个符号的那个,然后然后你在这里输入一些东西,然后呢再进行一些提问就可以了, 然后它就会一个进行一个返回了。那到这一步的话,其实我们的欧拉曼已经安装好了,然后我们这这里的话使用的是 npm 的 方法去安装啊,我们可以再看一下这个,我们之前的话是这么安装的直接,对吧? 这个视频的话前面也有啊,你可以看前面,如果你呃不想通过 note 去安装的话,你可以看我上面一个视频,就是这个视频直接进行安装也也是可以的,然后现在的话我我默认把这个 note 已经安装好了。安装好以后我们就有 npm 吗?当然也是在终端啊, 就行,就是把这个复制过来以后呢按啊这个好了,对吧?好了我们可以看一下。你好,我们来试一下怎么装, 因为我电脑里面还有几个模型在跑,所以说会相对比较慢啊,我我们也不等他了,我们就直接就是你把这个终端这个东西 n p m 一 到杠杠机,然后这这是全局啊,然后在 opencode 把它安装一下,然后然后在终端里面把它输入就可以了, 然后再按回车,然后呢最后呢我们就去可以使用 opencode 去查看一下版本,然后这时候呢它会出来一个版本,对吧?这个版本, 嗯啊对,这是一个版本,你看这下面,这下面会有一个版本号,是吧?然后呢就说明当前这个 open color 已经安装好了,然后呢安装好以后我们在终端里依旧是在终端啊。呃, 我们在我们都写一下吧,以防止大家理解有误啊。这里啊,再加一个这个,然后呢?在这里面,然后你在终端里面继续执行这个 open globe 的 on board。 这这这,说白了就说说白了你在这里啊,他进行回复了,对吧?他进行回复了,然后我们现在把它, 嗯不,哎,卡住了,我又 少少了一个,哎,少少打一个算了,就就先不管他了,就是你在终端里面去执行这个东西啊,执行这个东西以后呢,他就会进入一个向导啊。呃,首先进入第一个向导,他就会这样的,就是你这个东西你在终端里执行以后呢,他就会出来这样的一个界面, 这样的一个界面。让让让你去选择 yes 还是 no? 他 那个他这个意思呢是指的什么意思呢?就是呃卡住了,因为我本地哎,本地在运行,所以说有点卡。电脑 我们这个就先先不管,我们看这个就是他就这这里的意思呢?就是我知晓就是此设备就是仅个人使用这种东西,反正就是说白了就是你需要个人使用,还是说,呃是多用户,然后我们这里的话就默认就选 yes 啊?我们是个人的,因为你我我们是个人。电脑,然后执行完以后呢,他就会出来一个,出来个这个东西啊, 刷这个让你去选择,我们就选第一个,然后分别。什么意思呢?第一个呢就是快速启动啊,当然你可以后面去补全啊, open globe config 就 自动把它给补全。第二个呢就是这个,这这个是手动啊,我我们这里的话就讲快速啊,然后你选第一个,选了快速, 快速以后呢我们这里面他又会出来这样的一个页面,这样的页面里面他就会让让你去选这个三个什么意思?三个的话就是第一个呢就是已有配置,然后第二个呢是更新配置,第三个呢就是重置配置,我们就直接就选第一个,好吧?然后,呃这里就不用管了,我们然后这个选完以后呢,我他会出来个这样的界面。 这里是选模型啊,我们直接就放到这个欧拉玛里面去,就选选了这个欧拉玛,然后呢选择欧拉玛,其实大家注意一下就是, 呃,其实在这个下面啊,在这个下面你继续往那个键盘上下左右的话,就是往往下走的话,它有一个叫做 v l m, 其实它也可以用于连接本地的奥拉玛大模型的,这个这个也是可以的。这个 v l m 呢是一个开源的大模型的那个本地,呃,推理 加速的一个框架,就是,呃你本地运行的话,它它可以进行一个加速啊。呃,我我们这里的话就默认先选这个欧拉玛,好吧?因为我们以前就是在这个,在这个视频之前就是我本地安装这个欧拉玛,它那时候还没有这个选项,好像我印象里记得好像只有这个, 当时还用的这个,但是我们现在这个,呃,你们现在装的版本肯定有这个的,然后你们就选择这个欧拉玛就可以了,选择这个欧欧拉玛以后呢它就会出来个正东西,当然这个一二七点一,二七点、零点零点一,然后幺幺四三四,呃,它默认帮你写好了,你什么都不用改,然后你直接回车就可以了, 回车以后呢他会出来个这样的界面,就这里的话,这里的话是云端加本地,这里的话是本地啊,我们这里的话就默认直接先选对应的本地就行了,好吧?就选第二个,好吧?那个云端我们就不要了,所以我我们选 logo 就 选一个 logo, 然后选完 logo 以后呢,它这里面会看看到这些东西啊,这里的话其实,呃他就 他确实是就是帮你把本地的奥拉玛的一些模型给它列出来了一下,然后呢这里就是我刚刚就是呃装的那些模型啊,当然还还有一些模型。然后呢你可以选择一个你本地有的就是对应的二点五的,比如说我们刚刚这个二点五点零点一,不是二点五点一点五, b 的是 你刚刚下的也是这个,我我们运行的也是这个,对吧?所以说你就选择这个好了,你选择完这个以后呢,它就会出来个这样的界面, 这样界面到这里的话是什么意思呢?这里的话就是让你去选哪个,你通过哪个 ai 去跟他沟通。我们的话就直接跳过啊,我们先 不绑定飞书啊什么之类的,因为我们呃上面视频也讲过就是如何去绑定飞书啊等等之类的,我记得好像这里都有你看连接飞书的,但是我们会还会去增加一些其他的都会说到,然后呢到这一步的话我们就是呃使用跳过啊,用这个跳过,好吧?跳过以后呢,他又会出来一个这东西, 呃对应的搜索服务商,搜索服务商的话他这个服务商是干嘛的呢?就是呃他可以去,比如说 去外部搜索一些东西什么之类的,这里的话我们还是选择对应的跳过啊,选择这个跳过,然后呢 他站起来就会出来这个东西。这什么意思呢?他的意思呢就是是指的是比如说想给 ai 增加一些实时功能,比如说查天气啊,查快递啊等等之类的。我们这里的话,呃,我我我这里选 no 吧, 你选 yes, 你 选 yes 也可也可以啊,选 no 也可以啊,我们我们这里就选呃,就选 no 吧,好吧,我们就这里先选 no, 为了快速的演示啊,选个 no, 然后呢再下来的话它就是是否使用钩子啊,它它会出来个这样的界面, 然后这里的话大家可以看到它是个切切过过手,所以说你我们这里的话就直接你空格以后,它会变成一个实心的,然后回车就可以了。这里的话其实说白了, 嗯,他就是加了一些钩子功能,好吧,就比如说像一些用户,用用户的绘画记忆啊,还有一些对应的命令日记啊之类的,这个我我们后面再说啊, 反正这里的话我们就呃就是这里啊这句话我我们就选第一个写,然后再下来的话他就会出来个这样界面, 这里有三个选项,这三个选项呢第一个呢就是重启啊,一般来说我们改了配置以后都会重启啊,然后再下来个就是重安装,还有个就是跳过,我们这里的话就直接选这个重启就可以了,选第一个,好吧,然后呢再下来的话它又出来出来个这东西。 这什么意思呢?第一个呢是指的是那个终端启动,就是 t u t u i 吧,就也也就是终端启动,然后第二个呢就是网页端的,然后呢我我们这里的话就选择网页端的,第三个就是稍后登录,然后你选完这个以后呢它就会出来个这样的界面, 然后你这里就可以去选他的那个模型啊,然后直接跟他聊聊天就可以了。然后这里的话就相当于,呃,如果他正常来说你去选择第二个就是对应的这个,你选择第二个这个 open ui, 它就会自动打开这个浏览器,如果它没有打开的话,你直接把这个网址输进去,输到网网页上,然后呢它也可以进行 呃访问出来,然后这样到到目前的为为主啊,就是我们大概讲了一下如何通过。呃第一个,嗯,就是 node 的 形式去安装 open globe 的, 以及 呃安装好本地的欧拉玛,嗯,加加载模型,然后呢使 open globe 的 与本地的模型进行一个通信啊。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

今天我将跟着大家一起本地步数加码四,接入 open core, 彻底告别托肯焦虑,接下来跟着我操作。 这里我们先进入 elama 的 官方网站,进入官方网站过后,我们直接点右上角的 download 下载,我们这里是 windows 系统,选择下载 for windows, 点击这里, 这里就等它下载好。下载好之后,我们这里就直接双击运行,这是它的安装界面,我们直接点安装这里,等它默认安装好。 好了,这里 elama 就 安装好了。然后我们到这个地方 elama 的 官方网站,选择 models, 这个地方选择 command 四, 然后这里我们选择我们的模型,这个模型的选择我们根据我们的显卡显存大小来选择。我们这边看一下我们的显存是多少, 这里看到我使用的是四零七零的显卡,显存是十二 g b 的 显存,十二 g b 的 显存的情况下,我们可以选择这个九点六 g 的 模型,这个一四 b, 这个我们直接点进去,选择一四 b。 点击进去过后,我们直接复制这条命令,然后运行一个 cmd 窗口, 直接粘贴这里,它就会欧拉玛会自动地给我们安装这个模型。呃,这里等的时间是比较长的, 这里模型已经下载下来,并且运行起来了,我们向它发送一条消息,试一下你是谁, 反应还是可以的,这就跟了我们信息回答了。好了,在这里过后呢,我们就可以把这个窗口关闭掉, 关闭掉过后,在 lama 这个地方我们去选择这个模型,在这个位置也就可以和它进行通话了。 比如我们问他一句,你可以帮我做些什么, 他已经帮我回答了,在这里呢,我们因为我们是在本地虚拟机上安装的,所以而且我们为了方便以后可以在其他计算机上也可以调用,我们在这地方设置这个位置 点,这个位置点设置这个允许在网络上运行,把它开起来点了就可以了。 好了,我们下一步就开始配在 open core 上配置啊,在这里我们进入虚拟机之后,我已经执行了 npm i, 刚接 open core 全曲,安装 open core 的, 我们这里可以执行一下 mini, 看下我们安装的版本。 openclock 杠 v 是 安装的最新版本二零二六点四点五版本,然后我们执行 openclock on, 在 这里我们进行一个调试,这个地方我们 yes, 这里选择快速,这个地方它是让我们选择大模型,呃,大模型它这里有,我们选择本地的这个位置点确定 这里我们直接就选择本地的,不要选云,上面是带云端的,就选择本地模型。 这地方让我们选择模型,我们选择这个,这就是我们刚刚这个就是我们刚刚下载好的模型,就是 直接回车。等一下, 这里让我们选择通讯工具,我们这直接跳过,暂时不管这个,直接跳过。 呃, scale, 我 们这边也选择否先进行最简单的安装 网关,我们就直接重启, 选择 open ray web ui 好 了,我们看一下 open core 运行起来了没有。 open core getaway style sta 好了,已经运营起来了,我们进去看一下, 这边需要 token, 我 去看一下 token 是 多少,关于 token 的 话就是我们,我现在是在虚拟机里面安装的, 我要重新打开看一下,在虚拟机里面安装,我们就直接去通过这条 mini 访问我们的虚拟机, wsl 的 虚拟机访问,然后无斑图选择 home 目录,选择我们的用户, 然后这里选择点 opencloud 这个文件夹,然后这一个 opencloud json 让我们看一下,到 git 里面去,这个地方就是我们的 talking, 复制粘贴下来到这个地方,点连接好了,我们尝试给他发一条消息,你是谁? 在主位置这个地方,我们可以看到这地方是我的模型。 我再问他一条消息,你现在使用的是什么模型? 看这里已经是我当前运行的模型 工具,在这里我们就可以看到了,我们现在整个 open call 来使用的是我们本地模型,就不需要去购买 token 了。好,今天内容就这么多,谢谢大家。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

如何本地部署 openclog? 无需付费,无需 api, 可调用多种大模型,适合想尝试但是分币不花的同学。今天嘴对嘴教会你,记得一键三连鼓励一下。第一步,环境准备,我们先来安装 get, 点击电脑开始菜单,这边输入 powershell, 然后右击以管理员身份打开,输入上面这一段代码,注意空格,然后按下确认键,等待安装即可。这边已经提示我们安装成功了。第二步,安装 elama, 进入欧拉玛官网,点击右上角的下载,这边有三个系统版本可供选择,大家根据自己的系统自行选择,然后复制上面这段代码,打开之前的 power shell, 把刚才的这段话复制进去,等待下载安装 已经提示安装成功了,我们点击开始菜单,找到刚才安装的欧拉玛,打开欧莱曼以后,我们发现这边有很多模型可供选择,我们也可以自行选择模型,比如我选择最近刚发布的千问三点五模型。第三步,安装模型, 大家根据自己的配置找到合适的参数进行下载,复制上面这一段代码,然后点击开始菜单,输入 cmd, 把刚才复制的代码复制进去,等待下载安装即可。 由于模型比较大,大家需要耐心等待,我这边直接跳过了,我们显示已经安装成功了,我这边输入你是谁,他会跳出思考过程,然后说我是通一千问系列最新的模型。接下来我们回到奥拉玛,点击左上角的设置菜单,打开 expose alama to the network 这个选项, 然后往下拉,找到 context list 这个选项,把上下文长度设置六十四 k 到一百二十八 k 之间,如果你显存高,可以调高。第四步,安装 openclaw, 我们进入 openclaw 官网复制上面这段代码,记得不要看错了,它有 mac os 版本的。然后重新打开 powershell, 把刚才复制的代码复制进去,跟之前一样等待安装即可。这边显示已经安装,我们点击允许我们输入 alama launch openclaw, 然后点击确认键。 接下来可以通过 tab 键来选择你想要的模型,因为之前我们下载了快三点五模型,所以我们直接选择这个。安装好以后,我们复制上面这个链接到浏览器打开即可。 看到这里就恭喜你成功安装了 openclaw, 下一期我会教大家如何链接 qq, 实现全自动工作,小伙伴们别忘记点波关注哦,咱们下期再见!

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

安装前确保已经安装了 node js gate, doeslu boot to alama 和适合本地电脑的大模型在 doeslu boot to 中运行。 alama 在 alama 的 环境下开启 openclaw, 打开 web view 测试,安装成功。

我又干了好几天的 oppo 可乐,跟大家爆一个特别大的好消息,就是跑本地大模型的我现在能稳定的运行千万二十七 b 的 三点五二十七 b 的 这个模型了。 这个模型本来我都已经放弃了,因为奥拉玛在那个 oppo 可乐下面接起来经常超时,根本跑不了。 不管你是跑千万二十七 b 还是三十五 b, 三十五 b 理论上还要更小更快一点,但是它就是跑不了, 哪怕用 cpu 卸载什么的降低速度,但它奥拉玛反应稍微慢一点,它就超时了, oppo 可乐就彻底死在那了。本来我之前是 换了千万三十四 b, 因为我二十二 g 的 显存就是二零八零 t 的 摩根二 g 显存,装这个十四 b 我 去社区找了一个 awq 的, 它加载完只有十 g 左右, 但是上下文一塞进来马上也充二十二十多 g 的 显存。我是装了 vl m vl m 这个框架,它的好处是确确实实驱动这 oppo 可乐是确实比 oem 快, 但是最大的问题,我现在碰到的最大的问题是它这个没有办法设置 cpu 卸载,不知道是我的问题还是我搜了很多文档没搜到,也就是这个模型不管怎么样都要往这个检测里面塞,它好像 没有让你一旦撑爆了,他就不启动或者启动不了,所以导致什么二十七 b 三十五 b 这样的相对先进一点的三点五的模型塞不进来,三点五你只能塞 那个九 b 的 模型。而且更可恶的是九 b 模型在 v r m 就是 aw q 的 版本都没有,只有隐身版,我觉得可能设置各方面更复杂一点,官方版就到。千万三, 那请问三十四 b 其实我在 v l m 框架下跑的还是算顺利的,但是就这么说,你就我我就配一个问题,之前我们是调试编程,他是一个道理,调试编程他能不能用编程的调试工具 接受他的反馈错误就看这个模型智商的问题。我现在这两天用的是让他 找一个 t t s 的 语音接口,不管是 t t s 还是什么千万 t t s 还是什么爱智 t t s, 你 自己去找你配一个 t t s 的 接口给我合成男生女生的各种声音, 我想的是以后我弄一些那种口播,或者弄一种那种播客什么东西,每天让他自己生成一个播客的文案,再用一个声音把这个播客文案给他合成成语音,我们是不是再去配一点画面,夸就上传了,这他就自动能做一个自媒体, 甚至说画面我们就用固定的,什么类型的,比如中东打仗的就用油田的是吧?弄好几种那种视频,让他自己去跟声音合成在一起,就画面给他固定死了就几百种画面,你在这里面给我挑就行了, 我想这就可以做自媒体了,就合成语音这一部。千万三十四 b, 就 死活跟你说我没有权限,我无法调试,我找不到,这跟之前跑编程是一模一样,所以你要玩 open clone 就千万三点五,我跟你讲,九 b 的 模型都能理解这个东西,也就是说白了就是三点五是今年发的模型,他都能理解我们可乐的这个框架跟这种怎么去使用,但是千万三是去年的模型, 他的模型他就不理解,你是待在我们可乐个里面,他可能能操作一点,但是他关键时候他开始吐说,我不能,我需要你,你来验证, 这很讨厌。所以这是第一点。为什么放弃十四 b 的 模型,但是偏偏我二十二 g 这么大的显存只能跑三点五九 b, 我 又不甘心,因为我公司那个 十二 g 的 显存的那个三零六零也跑三点五的九 b 模型也跑的很舒服。那到我好不容易从十二 g 显存变成二十二 g 的, 还让我跑三点五的九 b, 心里不舒服,对吧?二十七币跟三十五币总是卡在那个超时,结果我就这两天刷那个头条帮我刷到了,就这样一条,他之前我问 ai 都没有问出来如何设置超时时间的, 终于我我在头条上看到了,我就把它试了一下,果然,果然一般。这个欧文可乐的超时是十分钟,是六百秒, 你要设置多少?我开始设置三十分钟,他能干活,但中间有一干了大概十几个小时又卡一下。那我现在设置四十分钟,四十分钟两千四百秒, 语音合成,什么事都能干了,我觉得这很好,也就是说他的现在做法是,我现在本地跑大模型的做法是用奥拉玛 妈妈要配置啊,我把配置的这个标定发在这好了,要配置 cpu 卸载就是人工在 c m d 里面要设定这个模型,你只跑多少层?现在二十七 b 这个模型我跑五十六层, 就我跑五十六层,剩下的挪到内存里面去,这是它总共大概应该有六十四层,挪掉一点。 沃腾可乐这边超时是长一点,你自己本地跑慢一点无所谓,其实我觉得慢点无所谓,总之他要一个人一直的不屑的在那工作。所以现在解决的问题是 v l m 没有跑通更大的模型放不进去。 奥拉玛能跑更聪明的哇,二十七币千分,三点五,二十七币这个模型综合实力真的好,就不用废话,康之就可以干活。这点上是我跑了这么多粉底,包括三十五币那个模型,我认为都没有二十七币这个模型聪明, 真的,二十七 b 这个模型给我的感觉真靠谱,三点五五,三点五九 b 那 模型我公司不是一直在跑吗?我认为也没有二十七 b 这个靠谱,这个确确实实好,所以给大家分享里面解决,第一 就是 cpu 卸载,我给大家说在奥拉玛下面的设置,第二就是我们可乐怎么把这个超长延时给他设置出来,你甚至可以设置的更长,这样一来 他就有希望自己自动工作二十四小时不再停下来。这工作二十四小时不管怎么样,这个消耗的 tucker, 如果你用在线模型,就算他比在线模型慢个三五倍, 那消耗的 tucker 就是 你省下来的 tucker, 费用也是挺多的。如果你能给他一个让他二十四小时一直在那边不停的工作的一个任务,那就太好了。你想,比如说写小说,让他一直写,哈哈哈,比如说生成图片,比如说之前有人试他剪辑视频,我觉得剪辑视频就算了, 反正你可以给他想,比如说让他编一个游戏,自己调试啊,调试错误自己重新再改写代码这种等等等等,反正能让他自己花很久时间去干的活,而不是总是停下来等你啊。 我这就我的努力,现这是阶段性成果,具体活还没有真的派给他干,我们接下来试一下派活,如果你有个 好的,比如说怎么样能让他本地模型跑的更流畅,更聪明更快,同时不出错不报错,而且还有什么活是可以让他一直干下去的, 不要老是干个五六个小时,他干完了停下来说等你指令。那怎么样让他二十四小时自己干什么活的分量以及第一分量是能够干到二十四小时以上的,第二个是中间不停,中间不会再卡下来,等你指令 是怎么样去给他这个指令的。好吧,这个大家交流一下,也帮我下一步帮我提醒一下大家交流一下这个经验。根据评论区我也在改善我的地跑 open klo 的 效果,那就是我们今天要聊的事。

哈喽哈喽,我是大海,很高兴又和大家见面了,昨天呢,大海给大家录制了一个教程,就是在我们本地的这个电脑上去安装我们本地的大模型欧拉玛啊,然后呢再去用我们的虚拟机安装一个 open close, 然后实现我们完全本地化养虾的一个全过程,对吧?不需要偷啃,也不需要花钱, 但是呢,很多朋友反映说这个安装过程还是比较复杂,尤其是安装虚拟机和后面半段,这个安装 open close 啊就云里雾里了,最后可能还是安装不好,那么今天呢,大海就给大家来一个更快速的方法,大海直接把自己的这个 ym 虚拟机昨天安装好的这一套打包成一个压缩包,大家下载下来一解压就能用了,对吧? 当然这个 openclo 这个本地大模型还是要需要大家自己去安装一下,根据自己的实际需求和你的电脑的配置,然后去安装一个属于自己的模型,那么下面这个 openclo 的 安装大家可以直接一步带过了,对吧?我们来看一下今天这个 教程啊,首先呢我们就要安装一个虚拟机,然后呢把这个大海的虚拟机压缩包打开,修改一点点内容,然后咱们直接就给他访问,非常的方便。那首先第一步我们来安装一个 vm 虚拟机啊,这一步如果说已经做了的朋友,你就跳过这一步,直接看第二步,对吧? 大海这里呢去安装一个啊,没有下载的同学呢,你就去这里下载一个,直接去安装这个 vm 虚拟机,它是向下兼容的,如果大家想使用我今天打包的这个程序,你必须版本至少要高于我昨天是十七点六点四,所以大家这个版本至少也是十七点六点四,不够的你就去升级到这个版本, 点击下一步接受下一步。这个地方呢,安装的时候我们自动安装这个对应的程序啊,以保证我们能使用。 然后呢什么什么我们下一步,对吧?其实就是一直下一步就行了,然后我们直接下一步,下一步 安装好,这里已经安装好了,我们点击完成。然后呢我们就开启我们的这个 v m v 二迅疾,开启了之后呢,大家这个地方不要新建,也不要这个打开,对吧?把大海打包的这个迅疾给它下载下来啊,我给大家提供了网盘链接,随便选一个进去下载好, 然后这个下载出来的安装包就是长这个样子,一个无邦图六十四位的 vip 压缩包。然后呢你就自己找自己的固态硬盘,比如说我,那这个盘是固态硬盘的吧?我我新建一个文件夹进去, 我这个压缩包呢,打包是两 g, 解压后是五 g, 所以 说大家最少最少你的那个固态硬盘上要留十 g 到二十 g, 对 吧?去给它用来运行,如果说你想很好的体验的话,至少也得五十 g 左右啊, 这个地方我们直接去给它放进去,放进去之后我们直接给它解压缩,全部解压缩就可以啊,好,解压缩好之后呢,我们就可以直接从我们的这个虚拟机里头去打开虚拟机,找到你刚才解压缩的这个文件夹, 然后呢里头会有一个六十四位文件,我们直接打开它,好,然后你就打开了这个虚拟机,点击虚拟机,然后给它设置,主要是看看大海设置这个四核八 g 你 能不能带动啊?你的电脑的硬件配置比四核八 g 低,你就 把它改的小一点啊,不然太大那个开启不了。接下来就是这个选项,这里呢,我们选到高级,看看他有没有起用这个侧通道缓解的禁用啊,一定要把这个地方勾上好,这个地方勾完成之后,我们就可以直接开启我们的迅疾啊,这个地方弹出了我已移动或者我已复制,你就随便选一个,我选择我已复制。 好,这里我们就已经登录了,对吧?登录名是无邦图,登录的密码是大海增援网,无邦图 密码是大海资源网啊,好,然后这就登录了,对吧?登录了之后呢,我们要去远程连接一下,不然这样操作太麻烦了,你点击上面的虚拟机 s s h, 我 们去连接到 用户名呢,我们还是无绑图。然后呢,我们直接选择连接,然后这里呢?连接的时候他问你 yes no, 你 就 yes, 对 吧? 然后呢, password, 就是 大海资源网,对吧?盲书就可以。好,我们就进入了我对应的这个地方啊,大家进来之后呢,就是如果你要去试用一下,那没问题,如果说你试用了之后感觉不错,你准备长期用的话,大家一定要把自己这个乌帮图系统的那个密码改一下, 这个改密码的命令就是这个搜索 password, 呃,乌帮图,这是改这个乌帮图登录用户 的这个,嗯,登录密码,然后你速度 password, 就是 后头不加用户,不加误绑图,那他改的是这个 root 权限的密码,然后这两个密码都应该改一下,因为这个大海的视频暴露在公网上的,你将来要长期使用你这个密码,别人能访问到啊,这,这不太好,大家还是要去改这个密码的哦,密码现在都是大海资源网。这原程连接了之后呢,咱们就可以把这个地方关掉了,把虚拟机关掉,我们 点击叉,然后让他在后台运行,因为这里我们远程连接了吗?就可以直接去操纵他,然后呢我们去输这个 ipaddr 啊,看一下他的本机地址是多少,右键粘贴进去,回车, 然后呢找到这个 e n s 三三,然后下面有一个 int, 对 吧?然后你看这个地址和昨天不一样了,昨天是呃, 幺六零幺二八,我今天变成了幺九二幺六八二四七幺二八,对吧?你要记住这个地方是二四七幺二八,把后半段记住,一会咱们会用到。好,知道这个之后呢,我们接下来就 s s h 转发小龙虾,对吧?我们直接在这里去给他搜索 powershell 啊,找到这个 powershell, 然后我们去打开,然后呢 powershell 里头就是用这条命令,对吧?把它复制一下这个地方,我们右键粘贴进去,然后呢把最后这个改一下,对吧?这是二四七点幺二八啊, 回车,然后输入一下你改好的登录密码,我这里还是大海资源网,对吧?回车,好,然后你就转发成功了,然后我们就可以直接通过这个下面这个幺八七八九这个带这个的去登录了啊,我们直接在这个浏览器就去 黏贴,然后他就访问了,对吧?访问了之后呢,我们就用我给你的这个登录 token 密码给他 连接好,就登录了,就和大海昨天就长的一模一样了,对吧?当然现在有一个很很大的问题,是什么呢?就是现在咱们这个连接是连接上了,对话不了,因为你这个电脑上还没有欧拉玛大模型,而且即使你有欧拉玛大模型,你这个连接这个地方也不对,对吧? 啊?我说你好,他开始一只猩猩转圈圈了,对吧?很多朋友都是这个问题,所以说呢,咱们还得给大家演示一下这个欧拉玛的问题啊。 那么今天呢,大海是给大家做一个快速演示,如果你想详细的了解欧拉玛的安装和具体如何去选择配置和模型,去看大海昨天的教程,非常的详细啊,非常详细,讲了大概十五分钟,欧拉玛 好,这个地方我们直接去安装,然后呢,如果说不会的朋友,你就去参考我昨天的这个文档教程啊,就是这一篇,这一篇开开篇就是安装欧拉玛啊,好,然后呢,弹出这个,我们直接 install 欧拉玛的这个下载地址,如果说大家下载慢的话,在昨天的这个文档里, 他有对应的这个网盘分流链接,大家去我的网盘里下载,速度会快一点啊,奥拉玛的官网呢?我们这里要访问一下,一会要下载一个模型,我今天呢就选一个小一点的模型,为了给大家演示嘛,对吧?咱们看千分三点五最小的模型是多大? 千分三点五最小的模型是零点八 b, 二 b, 四 b, 咱们就来个零点八 b 的, 对吧?最小的这个只要一 g 嘛。这个模型,然后呢这个复制上, 今天是为了演示,快啊你,你实际上零点八 b 在 电脑端根本没法用,零点八 b 这种模型是给手机准备的,是给移动端准备 各种小设备。安装好了之后呢,咱们先不管他,根据咱们昨天的教程,还要给他去配置一个全局的系统变量啊,我们直接在这个 windows 里这里搜索系统变量,然后呢编辑系统环境变量,打开这个窗口,点击环境变量,然后去下面系统变量里头点击新建,然后呢把咱们这个欧拉玛 host 给它复制进去, 然后呢变量值复制,我这个幺幺四三四啊,大家都是同样的粘贴,然后呢直接点击确定就行了。这个地方我们点击确定修改了这个环境变量之后呢,我们要重启一下欧拉玛啊,把这个欧拉玛在这里去啊,去给它退出, 然后呢我们再重新把这个安装的欧莱玛去给它打开好,然后接下来呢,我们是要找到这个 windows 真机 ip, 我 们从这里呢搜索一个 cmd, 在 这个界面下呢,我们去给它输入一个 ip config, 也是在这里复制就行了, 复制,然后在这里去粘贴,回车找到这个 vm。 net 八下的 ip 为四地址啊,今天你看我变了,变成幺九二幺六八二四七点一啊, 把这个 ip 地址给它复制出来,在浏览器里头黏贴,然后呢去给他后头加个英文的冒号,加上欧拉玛的端口。幺幺四三四, 回车允许啊,这个地方呢就可以看到我们访问对应的地址,幺幺四三四,欧拉玛 is running, 对 吧?能看到这个就说明行了。然后接下来呢,我们就是去给我们的 open close 把我们的欧拉玛弄上去,这个欧拉玛还没有安装咱们对应的这个大模型,对吧?咱们刚才复制的大模型 在这里啊,咱们把这个重新复制一下,然后呢在这个里头我们右键回车,然后让欧拉玛去拉取对应的前文三点五的镜像啊,整好了咱们可以在这个窗口里试一下啊,你好 好,前文三点五啊,这次不不错,虽然是零点八 b 啊,但是他还能回答,行,然后我们把这个地方关掉就行了, 这个欧拉玛已经安装好了,然后就是看我们的教程,对吧?现在我们这都已经搞定了,然后最后就来到了最后一步了,欧拉玛的模型也准备好了,我们就来到这把这个网关和模型重新配置一下啊,这里复制 啊,在这里呢,我们去右键粘贴进去,然后去回车,然后这里呢?首先我们是 yes, 对 吧?然后呢?呃,我们来,呃,这个快速开始, 然后呢我们去升级数据,就是选择第二个,然后这个地方我们的欧拉玛我们去,呃,选到欧拉玛回车,然后呢你看这个地方,这个地址就不对,对吧?这个地址我们要用哪个呢?幺九二点,幺六八点, 呃,二四七点,幺幺幺四三四,就是用这个地址啊,把这个复制一下, 这个地方右键粘贴进去,然后给他回车,这个地方他让你选是本地还是云端家本地,大家一定要选云端家本地,因为你一选本地,他就开始给你拉取那个超大的模型啊,这个肯定是不行的, 那么想要设置这个云端家本地,你欧拉玛就得登录云端账户才可以啊,没有欧拉玛账户的同学呢,你就在这里你去注册一个啊,大家最好是用啊,比如说 altlook 邮箱,就是微软的啊,比如说这里我就用一个 altlook 邮箱啊,然后呢它会让你创建密码,然后呢它就会给你的这个 邮箱里头去发一个验证码。好,然后呢还需要一个手机号,我这个地方呢用我国内的手机号啊,咱们国内手机号前头就是加八六,好也正常收到了, 这样我就注册好了欧拉玛的账户,然后就能登录了啊,你就拿你的这个欧拉玛,把欧拉玛界面打开,然后呢你会看到这里可以找到你刚安装好的模型,我这是千万三点五零点八币啊,刚安装好的,然后呢你点击左上角这个 呃 city, 然后呢点击这个登录,然后它会跳转到你的网站账户,你直接点击 connect 连接 好,这个时候你这个奥拉玛账户你就登录上,而且呢登录这个账户有一个好处,就是云端大模型能免费用啊,只不过它每个月每一天都有限额,那么具体限额的消消耗量什么的,大家去看昨天的视频啊,我们这里就可以选择了,在这里我们选择 云端加上本地的大模型,然后这里呢我们就可以找到我们本地的模型,比如说这里可以找到我们欧拉玛三点五零点八 b, 就是 咱们刚刚安装的,我们直接回正,然后呢剩下的这些内容咱们就不需要,对吧? 全部都是稍后再设置,这个地方设置我不需要,然后呢空格不需要 网关,咱不需要的网关咱们已经登录了,这个地方我们直接退出,然后呢也是等一会再设置好这个地方我们就搞定了,对吧?搞定了之后呢,我们把这里我们重新去给他刷新一下,然后模型这里呢我们就可以选择我们刚刚安装的千问三点五零点八 b, 对 吧? 好,然后我们来尝试的和他对话,你好,这个地方你会卡住对不对?那你当你这个地方卡住的时候,你就先切换一个其他模型,先给他刷新,对吧?先给他切换一个云端模型啊,这里,比如说我给他切换一个这个, 哎,啊,来了来了,稍微等待了一下,你好,我是你的 ai 助手,然后千分三点五零点八币,对吧?没问题,这个地方呢我们就已经完成了我们的快速配置,只要大家把这些包什么的安装包下载好,那么大家也能像大海一样在十几分钟的时间内呢,把我们这个大模型配置好,直接本地用起来, 好吧,那么大家注意使用的时候呢,要注意去修改自己各个地方配置的那个密码,不管是系统登录密码还是 open clone 登录密码相关的这些具体的设置呢,大家可以返回去看我昨天的视频,好吧,那么咱们今天视频就到这里结束,我们下期视频再见,拜拜。拜拜。

大家好,我是航灾,今天呢我准备给大家介绍一下在迈克迷你上如何来安装欧拉玛,欧拉玛就是最简单的尝试本地大模型的方法之一了啊, 有了欧拉玛呢,我们就可以创建一个本地的大模型,和他进行一些简单的聊天呢,或者是给其他程序啊提供一个免费的 api, 如果你的本地设备足够强大的话呢,你甚至可以给龙虾 open club 啊提供一个靠谱的大圆模型,不过这是一个未来的梦想啊,不知道大家有多少人的设备满足这个需求。 然后呢我们就来开始今天具体的内容。首先呢我们来看一下文档啊,在好用载当中,我们直接左侧这里啊就有一个五三零欧拉玛的安装和使用,我们点击一下, 然后我们点击网盘分享,然后我们继续向下啊,这个里面呢一共三个文件啊,其中呢一个是文档,一会我们说接下来的两个文件呢,是我给大家下载好的客户端啊,一个是 d m g, 也就是 max 上使用的,一个是 ex, 这个呢就是 windows 上使用的啊。然后呢我们来看一下文档, 文档当中呢一共有三部分内容啊,第一部分呢就是欧拉玛的官网,第二部分呢是我们一些具体要使用的内容,第三个呢就是我好用在的官网,大家爱学学用就可以了。然后呢我们先说一下欧拉玛的官网,欧拉玛的官网呢,一共有两个啊,一个呢是它真正的官网,另外一个呢是它 github 的 官网, 我们可以一起来看一下啊,至于命令呢,一会用到的时候一起说,这里呢就是欧拉玛的 github 官网,如果需要什么内容呢,可以直接到 release 这里面来下载啊, 不过我们一般呢直接使用欧拉玛点 com 这个官网就足够了。这个官网当中呢,右上角这里就是登录的,也就是下载点击一下 这个里面呢就可以选择是 mac os 或者是 windows, 然后点击下面的登录的,就可以下载你对应系统的客户端了。我这里呢给大家演示一下 mac 系统当中客户端如何来使用啊。在 mac 系统当中,我们直接双击这个欧拉玛,点 app 直接投入到这个应用文件夹里面就可以了。 好的,这样就可以了啊,接下来呢,我们在应用程序当中找到欧拉玛,然后进行点击,这里就是欧拉玛啊,我们双击 第一次运行的时候呢,它会提醒你一下啊,是从互联网下载的,问你是否要打开,我们直接选择打开,现在呢我们就已经进入到了欧拉玛的主界面啊, 然后呢我给大家说一下它的初步设置和使用。首先呢我们先来设置一下啊,因为只有一步设置非常简单,我们直接上滑啊到最上面的菜单栏,然后呢点击一下欧拉玛这个图标,这是一个小羊驼嘛,然后点击 setting, 也就是设置 这个里面呢,只有一项啊,需要打开,也就是说把欧拉玛暴露到局网,这样的话局网其他设备才能够正常的访问欧拉玛, 比如说你的 windows 系统啊,你的丽江系统啊,如果你想使用这台设备的欧拉玛开通的服务,那么你要把后面那个开关啊,直接点击打开一下,下方刚才也看到了出了一个 c 五,这样呢就已经成功了啊,然后还有一个我们再说一下啊,底部这里还有一个上下文长度,默认呢是四 k, 比如龙虾 open 可乐啊,他就要求一定要十六 k 起步,所以说如果你之后有其他程序需要更大的上下文,你需要在这里呢进行一下调节,只有这么两个选项啊,需要说一下,别的呢就没有了。然后我们把这里啊直接关闭一下, 在接下来使用呢也非常简单啊,在这里你可以选择具体的模型,比如说我们点击一下啊,默认的是这个 g m 三啊, 我们可以不用,我们可以向下选择,比如说啊,我们这里选择一个千万三四币,我们点击一下,然后这里呢你随便打一个字,比如说这里呢打一个你好,然后一回车,如果没有这个模型的话,它就会自动进行下载了,我们稍微等待一下,等待它下载完毕就可以了, 大家可以看到现在这个模型呢就已经下载完毕啊,同时呢他也给出了答复,接下来呢你就可以直接跟你的本地大模型进行对话了,比如说呢,这里我们可以问他啊,你都有什么功能,然后直接回测一下, 因为它是一个思考大模型嘛,它首先呢会进行思考,在思考之后呢才会给你形成一个输出的答案啊,我们还是要稍等一下, 现在呢他就开始进行正式的输出了啊,我们还是要继续等一下。好的,现在呢就已经输出完毕了,这个呢就是你跟本地大模型的一个交流过程啊, 所以说总体使用上啊还是很简单的,接下来呢我再给大家演示一下,你现在已经搭建好了,但是其他的程序如何来使用呢?我们这里呢就以 cherry studio 啊来给大家做一下演示。我们打开 cherry studio 以后呢,这里就有欧拉玛,我们点击欧拉玛之后啊, 我给大家简单的说一下如何来设置啊。首先呢你要填写一下 api 地址,这个 api 地址呢就是你的欧拉玛运行的设备,我这个设备的地址呢就是三幺点二二二,后面的部分呢不要变啊,后面是端口号,再加上一个路径杠为一, 这个呢就是它的一个完整地址,我在文档当中呢也有写。再接下来呢我们就可以添加一个大模型,选择添加,然后呢这里要求你输入模型 id, 我 们看一下这个模型 id 是 多少啊?模型 id 呢就是千问三冒号四 b, 然后我们这里手动输入一下啊,千问三冒号四 b, 然后我们点击添加模型,再接下来呢我们选择检测来看一下效果啊,点击,然后这里默认呢就是千问三冒号四 b 啊,我们点击确定 可以看到连接成功,也就说到这里呢,我们的 cherry studio 啊,已经可以使用我们本地大模型了啊,比如说我们点击这个助手, 然后在最上面这里啊,我们选择一下,这个呢就是我们自己本地的欧拉妈妈,然后就是纤维三四 b, 我 们选择一下,在接下来呢,你就在这里输入聊天信息就可以了,比如说这里啊,你同样输入你好,然后回车可以看到它,同样呢是正常的调用了这个本地大模型, 还是开始思考,然后给你答复,没有什么区别啊,跟刚才我们直接使用欧拉玛本身的客户端呢,效果差不多。好的,这里呢开始答复了,可以看到这个思考模型啊,耗时非常多,二十四点三秒, 到这里呢我们就已经知道如何来安装和使用欧拉玛,同时呢如何和其他的软件来进行对接。整体的使用呢,其实是非常简单的,不过我们如果使用这个存储页面的话啊,它的功能呢还是比较少,但是如果我们使用命令行的话,能管理的内容,同时呢也可以看到更多详细的信息啊, 所以我还是推荐大家学习一些基本的命令行命令啊,这样使用起来呢会更方便。然后呢我们就来看一下啊,命令行都有哪些命令?我这里呢给大家列出了几个常用的命令啊, 前面呢都是奥拉玛这个开头,然后后面第二个呢就是具体的参数,比如说第一个奥拉玛历史,就是列出目前所有已经下载的大模型。第二个呢库就是我们要去拉取某一个大模型啊, 第三个 run 呢就是我们要运行这个大模型,所以说大家如果看头三条命令,如果你之前用刀刃用的比较多的话,你会发现啊,这个命令呢除了前面变成了欧拉玛以外,剩下的部分呢基本都是一样的啊,整体呢还是很好记的。 然后这里呢多加了一个这个沃 boss, 它就可以看更详细的内容,一会呢我给大家演示一下啊。最后呢这有一个 r m, 也就是删除,前面呢我们要说一下如何来进行删除, 然后呢前面我们进行的 run, 也就是运行,后面这里呢我们说了一下如何退出啊,接下来呢我就给大家一点一点的演示一下啊, 首先呢我们这里打开一个终端啊,接下来呢我们就可以一条一条的运行命令了,比如说啊,首先我们看一下欧拉玛 list, 我 们直接复制,然后呢在这里右键粘贴,然后回车 可以看到现在这里面呢我们就有了一个大模型,就是我们刚才下载的千万三四 b, 所以 说如果你使用终端的话啊,你刚才跟别的软件进行对接呢,你都不用手敲这个模型了啊,因为有一些模型啊,它的名称还是比较长的,所以说你直接可以复制一下,直接滑动一下啊,然后就直接复制了,或者是你再右键一下都可以啊,它就直接复制了, 然后到你的软件当中直接粘贴就可以了,这样用起来呢比较方便。这个呢就是历史的作用啊,就可以看到你现在里面有多少个大模型了。然后第二个呢就是铺,它就是用来拉取大模型的,具体拉取的大模型名称呢,就是后面这个啊,但这个名称怎么来的呢?我给大家说一下, 我们打开欧拉玛的官网,然后第二个啊就是 models, 这个就是模型啊,我们点击一下,现在呢我们就来到了模型这个页面,里面呢,就列出了目前所有热度比较高的模型啊,当然你也可以在上面进行搜索,比如说那你直接搜索千问, 可以看到千万所有的模型呢就都列出来了啊,比如说我们选择一下这个千万三点五啊,我们点击一下,然后这里就写了啊,欧拉玛瑙,然后千万三点五,你直接复制,然后在终端中粘贴就可以了。当然啊,如果我们想要别的模型的话,也可以, 因为这里我们向下滑动一下就可以看到啊。如果你刚才直接选择欧拉玛瑙切问三点五默认的呢,它就拉取的是这个九 b 的 模型,因为这个呢是 latest 的, 如果你后面不加这个模型大小的话,默认拉取的就是这个啊。我这里呢给大家说一下我使用的 mac mini 它的使用情况。 mac mini 呢,最多是能跑到十四 b 的 模型,大概跑到十抽根左右吧。十四 b 以下的模型呢,一般都可以跑九 b 呢,是一个相对比较适合的模型。不过如果你跑 open cola 那 种需要十六 k 上下文的,你就跑不了九 b 了,就只能跑四 b 啊,因为上下文呢,同时要消耗一部分内存, 所以说这种最适合的九 b 呢,如果再加上十六 k 的 上下文,它所需要的内存呢就比较大了。我曾经直接把麦克迷你啊直接给跑死机了,它自动重启了啊,在我之前使用麦克迷你的时候,我几乎就没有听到过它的风扇的转动啊, 但是自从我测试 ai 开始啊,麦克迷你风扇呢就会经常听到了,也就是说 ai 啊,对于它的性能压榨呢,还是很严重的。 所以说,如果你需要一个大的上下文,你就只能跑到三点五四 b 了。如果你只使用默认的四 k 上下文,那么你是可以使用到九 b 的 啊,当然如果你不需要很大的上下文,同时你也能够忍受速度的话,你其实呢是可以跑到十四 b 的, 比如说前面有那个 coder 十四 b 嘛,可以跑一下,没问题的, 我们这里呢就以切问三点五四 b 为例啊,给大家看一下,我们直接点击一下后面的复制,然后呢我们回到终端里面来啊,我们直接输入欧拉玛,然后铺,然后直接右键粘贴,然后直接会撤, 稍微等一下呢,他就可以直接去下载了啊,而且这个和刀客一样,刀客我们也可以先铺,然后再 run, 但是如果我们直接 run 的 话,刀客里面如果这个镜像没有,他会先去下载,然后就直接运行了 欧拉玛。同样啊,你可以直接运行欧拉玛 run, 这样的话,如果里面没有这个模型的话,他就会直接先去下载,然后呢就会自动运行了啊,我们稍微等一下可以看到啊,你用命令行下载的话,速度是要比刚才用的那个客户端啊下载速度要快的多,所以说我建议大家啊,尽量呢是用命令行来下载。 好的,这里呢就下载完毕了啊,我们稍微等一下,这个速度是要比刚才的客户端要下载快非常多啊,然后这里我们就可以执行下一条命令啊,就是欧拉玛瑙了,我们直接到这里面来啊,直接复制一下欧拉玛瑙,然后同样啊这个模型的名称,切问三点五四 b 邮件粘贴,然后回车 出现这个符号呢,我们同样啊可以开始跟他正常的对话了,比如说这里同样啊,我们输入你好回车, 同样呢这里又开始正常的输出了啊,没有什么区别,但是这次的速度呢,可以看到啊,快很多。然后如果我们想退出的话啊,就是底部,这里就是给大家说了, 你可以用两种方式来退出,一种呢是 ctrl 加 d, 一 种呢是杠 e x i t, 我 们这里输入一下啊,杠 e x i t, 然后回车,现在呢我们就重新回到命令行终端了,这是第一种方式啊,然后我再给大家说一下啊,你后面加上这个沃 boss 有 什么区别啊?这个是详细的意思,我们直接把这条命令再一起复制一下, 实际上就是在刚才的欧拉玛 run 后面啊,多加了一个参数而已。我们同样啊右键粘贴,然后回车,然后这里呢我多说一句,你都能做什么?然后回车, 这里呢它就开始正常输出了,然后我们稍微等一下啊,可以看到啊,上面就是它的思考过程,下面这里呢就是它具体的输出过程啊,整体的速度呢还是比较快的, 如果你加了 woobos, 在 最后这里呢就可以给你一个整体的输出啊,第一行呢就是它总共的消耗的时间,一共呢花了三十九秒, 然后呢这里有一个加载的时间,也就是把模型加载到内存里面去啊,一共呢是一百一十七毫秒,在下方呢这是一个提示词的数量,也就是刚才我给他发的提示词啊,当然一般里面还包括一些系统提示词,所以说呢,它一共是十三个桃痕啊。 再接下来呢这些提示词的处理,一共花了二百六十五毫秒,再接下来呢,提示词的处理速度是四十九 tock, 接下来呢,就是输出的部分了啊,输出的部分呢,一共输出了六百四十八 tock, 花了三十八秒,相当于呢,每秒是十六点七七的 tock, 大家经常关注的呢,其实是最后这个啊,也就是每秒能输出多少 tock。 所以 说,如果你习惯之后呢命令行的话,你就能看到很多更加详细的信息,而且你习惯之后呢命令行和图形界面那个差距并不大。 而且最主要的是啊,如果我们一般使用本地大模型的话,一般也不会用它这个客户端也不会用这个命令行啊,因为都是我们要通过其他的程序来进行调用。这部分呢,主要是用来检查一些信息啊,比如说某一个大模型,它是否速度足够快啊, 这一次呢,我们直接摁 ctrl 加 d 啊,同样也是直接退出了。有的同学可能会问,你为什么用 mac 来演示,你为什么不用 windows 来演示呢? 就是因为我 mac 这个核显啊,本身还算是可以跑,大模型呢,还是能跑的动的啊。如果我用 windows 的 核显来跑的话,我那个是十一代的 a u c, 它的核显啊,也就只能跑动二 b 的 模型,而且速度呢,还挺慢啊。 所以说,如果你还想用 n s 来跑的话,如果你没有一个好的显卡的话呢,那个速度啊,就会更慢了。如果大模型太小的话,智商实在是太低,我觉得四 b 啊已经是底线了。 再向下我觉得只能在手机上回答一些简单的问题,还可以,在电脑上呢,已经不适合了,欧拉玛呢是一个入门的好程序,但是它并不是 mac 上使用最好的一个程序啊。后面呢,我还会给大家介绍其他的程序,如果你对这方面内容比较感兴趣的话啊,可以持续关注 上面这里呢,也已经把所有的命令都介绍完了。最后这里呢,就是刚才给大家提过的啊,你需要在其他程序上调用的时候需要写的地址,你只需要把里面的 ip 换成你自己设备的 ip 就 可以了。 好的,这就是本期视频的全部内容,如果你觉得这期视频对你有帮助的话,欢迎点赞评论转发,一键三连,当然也别忘了关注我们,下次见!

各位企业老板们不要再为 open core 疯狂消耗 token 费用和泄露隐私数据而烦恼了,作为石油化厂商,今天带大家体验一下。用 open core 加 r i g flow 加千万本地部署一个拥有知识库且可以不断进行优化学习的微信客服机器人。 我们在云桌面后台创建一个 linux 虚拟机,分配二十四 g 显存,在上面安装 openclo 和 r a g f o, 然后部署欧拉玛并运行千问三八 b 模型。配置好后,在 openclo 上输入提示词,让 openclo 学习知识库文档和工程师的回复内容。 然后上传一些产品使用文档和常见问题解决办法,其中一个是 pdf 的 产品使用文档,另一个是 txt 的 问答。对。做好这一切后,我们用几个问题测试一下。首先测试逻辑推理能力,提问,十个一零八零 p 双频云桌面用户需要多少宽带? 他给出的回答是,二乘四,再乘十等于八十兆,完全正确。再测试一下文档搜索能力,提问,如何禁用 usb? 可以看到他的回复是基于文档搜索后推理的,而且非常准确。可见在通用模型的基础上投喂大量企业内部支持和微调,再经过长时间升级训练,可以极大提高企业的生产效率。

我只需要和我的龙虾小助理说一句话,他就立刻帮我打开 windows 注册表编辑器,并且定位到我需要修改的注册表的。像我只需要又跟龙虾小助理说一句话,他就会自动帮我打开 我的谷歌浏览器,并且直接打开我想访问的页面。太棒了,那我现在想打开我 windows 电脑的安全中心,那我只需要再跟他说一句话,他就可以快速的帮我打开我 windows 电脑的安全中心了,免去了我点击各种菜单的麻烦。 nice, 你 知道这是怎么实现的吗?那这个视频我就跟大家来分享一下。大家好,我已经在 windows 系统里安装好了 openclaw, 并且用它连接上了 windows 环境中的 elama, 使用的是 elama 云端免费的大语言模型作为 openclaw 的 大脑。安装完成之后, 我就来实际体验一下。今天这个视频就跟大家分享安装好之后该如何使用 open klo。 我 的频道主要分享 windows 使用技巧,所以这期也会重点跟大家讲如何用 open klo 在 windows 上执行各类操作。 我已经实际用了一段时间,整体体验下来还是挺好的,也确实很有意思。这个就是我在 windows 上安装的 open klo 的 web ui 的 管理端,通过浏览器来访问我。这个 open klo 的 网关也是安装在这个 windows 上的。 在我第一次使用小龙虾 agent 去执行 windows 命令之前,我需要把这个浏览器和这个网关进行一下配对。 那这个主要是出于安全的考虑,只有配对之后,这个小龙虾 agent 才能够去 调用 windows 系统自带的命令。我们先运行命令 openclaw devices list 运行这个命令,你看看它会显示出来有一个判定的区域,那这个判定的区域就代表有一个客户端需要跟这个网关进行配对, 那我们怎么配对?我们运行一下下面这个命令, openclaw devices approve 两个横线 latest, 那这个命令就把最后一个请求配对的这个客户端或者这个设备给它配对好了。这个时候我们再运行 openclaw 空格 devices 空格 list 回车,你看 安定的区域就消失了, care 的 区域显示我们这个配对成功了。那现在我们回到这个 openclaw 的 web ui 管理端,我们看一下它使用的大烟幕将是 default kimi k 二点五 cloud 欧拉玛就是我们在我的物理机上部署的一个欧拉玛本地模型,使用的是这个欧拉玛云端的提供的模型。我们点击左边这个聊天的菜单,打开这个聊天的页面,就可以跟这个 open cloud agent 进行聊天了。那我跟他说第一句话是,你现在的身份是电脑专家旺财,我是你的老板,对话中请统一称呼我为老板。 点击发送,那这个命令就发送出去了,现在他返回信息,说好的老板旺财已上线,有什么需要帮忙的吗?无论是技术问题,文件处理还是其他事情,请尽管吩咐他这个回答非常的人性化, 让人感觉的确是一个助理在给你回复。既然这个旺财小助理工作这么积极,那我们就给他分配一个任务,先试试他的 能力怎么样。打开 windows 设置里面的安全中心,点击发送,看他能打开吗? 说好的弹出一个权限请求的窗口,我们点击有漏,他果然打开了 windows 安全中心,这个任务执行的还是不错的。那我们大家看,在这个聊天界面右上角有两个图标,一个是跟一个大脑似的,一个是跟一个小扳手似的。这个图标显示的是你这个 open call 助理,他的思考的过程会在这显示出来,那这个图标显示的是 这个 open class 里调用工具会有哪些,它也会显示出来。你看这里边信息有很多,这个就是调用工具的这个信息,点击这个图标就显示出来了。那这些信息对 我们来讲其实有的时候是有用的,你可以了解一下这个处理的思考过程,以及他都调用哪些工具,如果出问题也方便你去调试,方便你去了解一下他调用的工具有什么问题。那如果你要先这个信息太多了,你就可以把这两个按钮全都关闭掉,那这样他只是显示最终给你呈现的信息。 那我们现在再给它发布一条命令,你帮我打开本地注册表,并且定位到这个注册表的,像我们点击发送,看看它能执行吗?要求权限给它权限,怎么没有结果?可能刚才我这个系统重启了一下,我们再粘贴这个命令,让它运行一下。啥情况 哦,又要求权限了?点击 allow 命令执行出错,不支持按的连接符,好在连接 allow, 它又使了另一种方法。 好,现在这个注册表编辑器的确已经打开了,而且他的确定位到了这一项没有问题。我们再看看这个浏览器里他说什么,说老板,注册表编辑器已经为您打开了,并且应该会自动定位到这一项了。 我们再给他一个任务,打开 google 浏览器,并且访问 opencloud 点 ai, 发送又请求权限。 hello, 打开 google 浏览器,的确打开了 opencloud 点 ai 很好,这三个任务他完成的都很棒。如果你也想让 ai 帮你实现某个 windows 操作,欢迎在评论区里告诉我。最后别忘了一键三连关注我。感谢您的观看,我们下一个视频,再见!

朋友们知道吗?这个 openclaw 可以 免费的使用,我们不使用 api, 我 们只用本地的一个大模型来代替,那就是今天我给大家说的欧拉玛, 可以看到这边欧拉巴的安装我已经写好文本了,今天我们就跟着这个一步一步走,我们给我们的 openclaw 部署一个本地的大模型,这个方式比较适合我们轻度的去玩,或者是我们新上手这个 openclaw 去练习用, 因为本地不说大冒险毕竟不如网上这个 api, 但是它是一个很好的练手的一种形式。废话不多说,我们开始,那这里呢?我直接是给到了大家安装的一个代码, 我们复制代码,如果你也是这个 windows 去你的 linux 系统可能会碰到什么问题,比如说碰到我们这个叫 z s t d 这个支持,没有这个东西我们怎么安装?我们用这个代码去安装,安装完这个代码以后,就这个代码执行完以后,我们就可以进行正常的一个安装, 这里我们就等待这个欧拉玛安装完成就可以了。那接下来这个时间我们可以去看一下我们想在本店跑的一个大模型,让我们直接搜索欧拉玛的官网,直接来到这个 models 里边, 这里大家可以看到有好多种模型,这里我推荐大家使用千万三点五,在这里有好多个模型,点一下理由,大家根据自己的显卡的现存多少去选择适合自己的模型。那比如说如果目前我是一个什么,我是一个二零七零, 二零七零,他只有八 g 的 显存,而且目前我们运行这个顽徒的迅疾,他已经占了二点三,也就说我们只有多少五点五点七的一个显存,五点七的显存正常我们大概只能跑个一个 四 g 左右的一个大模型,那目前看下来我这块显卡只能跑这个三点四,也就是千万三点五四 b, 这个四 b 应该是已经量化过了,之前的一个原生的四 b 应该是九 g 左右了, 我们可以选择这个模型去跑,那如果你是四零九零,这里推荐你可以使用 r 七 b, 我 们可以四零九零可以跑一下这个模型应该都是没有问题的。当然如果你是什么二零八零的双卡,这个之后我会说我组了一台二零八零的双卡, 他就可以跑更大的一个模型,那接下来我们就等待他安装就行了。我们把我们这样跑的模型我们记一下,这期视频其实也反反复复的做了好几次,那主要老杨也是个代码新手,所以说在中间会遇见遇见各种各样的一些事情, 后来经过我的一些查询,也把这些问题解决了,那基本上我就把这些遇到的问题都给大家去总结在这里面。这里我们拉玛安装好了,它已经系统级的运行了,这个是自动运行的,为了方便之后我们去看后台数据,我们这里建议把自动运行拉玛的 server 给它关闭。 那所以说这款我已经写了,之前我是下了模型以后,他就关闭了整个系统级的自动运行,后来就是这个模型丢了,所以说这里我们直接去执行,让他不要运行,然后禁止他的一个自动 set 访看是否运行成功, ok, disable 就 可以了,那接下来我们就可以去代码让他运行,那我们自己启动了,运行以后我们就可以看到什么宝莱玛的一个后台, 方便我们后面去监看他是否会出现问题,这样看起来比较方便,下面我们就去拉我们这个模型,这里我用刚来讲,我们就用这个四 b 复制一下,那么再开一个命令终端,我们再开一个终端,用这个欧拉马库,这里我们就进行等待就行了,等他下载好这个模型就可以。 ok, 到这里其实我们这个就已经装好了,我们看一下欧拉马 list, ok, 可以 看到这里有个千万三点五四 b, ok, 接下来我们直接把我们这个 openclaw 的 ap, 呃,就是 mod 它的模型给配置过来,我们 openclaw 直接选择 local, 然后我们选择我们的 model, 接下来我们就找一下找什么,找一下这个 customer provide, 选这一项,这里的它就自动是欧拉玛的, 我们打开斜杠 v 一 pass api key, 这个 api key 随便填,我们随便填一个,行了,它是一个 openai 形式的,这个模型的 id 这里一定要填对,直接去复制也行, 它是三点五冒四 b, 嘿,那这里就应该可以找到了,嘿,已经找到了,这里回车就行了,接下来我们 continue, ok, 那 这里我们就已经把这个模型配置给我们的 open cloud, 我 们 open cloud gateway, 他 说这个已经运行了, 也是自动运行的,我们 gateway restart, 让它我们这个 gateway 重启一下, ok, 看到其实这个后台上已经读到了,我们这个 就是 openclaw 调用它,我也没打开,还是报的一下,我们找一下这个网址,复制一下,打开浏览器很牛,这里就出现一个什么问题了,可以看到这个反应非常的慢,为什么 在这后台就能看到什么?就是 limit, 也就是它上下文限制多少?四零九六,我们这个 openclaw 给了多少?给了一万零一百六十七,所以说这个是远大于这个四零九六的,所以说他就把这个画开始裁切了, 这就是他的问题。那关于这个问题昨天也是研究了不少,可能我比较小白,这里给到大家一个解决方案,在这里这是我记录的 limit 四零九六 给的这个 promote 就是 提示死这么长,然后他就会出问题,他就反应非常的慢,那我们来解决这个事。回到这个命令符,首先你看你先下载的是默写,比如说我们看一下这个默写,那可以看到他的上下文,他默认的 给可以给到就是二六二幺四四,那这个二六二幺四四是远大于这个奥拉玛,他给的限制四零九六的,所以说我们需要新建模型来解锁这个限制,我们把如果你下其他模型,把这个代码改一下,把它我们导出,我验证它是否存在, 找到了我们编辑它,这里可以看,我们需要在这个 essence 这上面去加一行,是吗?加一行我们把它这个上下纹的长度给扩大, 这里我这块显卡加到三十二 k 就 可以了,因为我们用这个方向键来到给回去了,把这段复制进去,然后 ctrl 加 o 回去, ctrl 加 x 退出, 只有我们改了这个,用这个 modify, 我 们重新去新建一个模型,这个新建模型这块的名字根据你自己的改的去修改,比如说你改成六十四 k, 就 改了六十四 k, 好 标记加某拉玛 list。 那 可以看到我们新建这个模型,就通过这个四 b 新出来这个模型它已经存在了,这叫三十二 k, 也就是我们上下文调整到三十二 k 了。 接下来我们这个把我们的 openclaw 它的 model 重新改过来,这里复制一下,把这个复制一下来到 model 还是 custom provided 这块,还是斜杠 v e a b i k 边数这块,把这个新的模型名字输进去,哎,找到了, ok, 我 们在 openclaw restart 一下,就 getaway restart 一下,包括刚刚我们刚打开这个文本,如果你是觉得回答质量差,你就可以适当调整这些参数,再去新建好,我们回到网页里刷新一下, ok, 我 们再 set new, 看这个反应,可能还会提示这个提示词过程吗?没有了, 这样我们就把相当于把这个模型给配置好了,这样我们就打个招呼, 可以看到这个后台不停在提示他,其实在做这个正常的一个输出,这个都已经没有问题了,那这里已经给大家完全讲完了欧拉玛的一个配置,包括我们中间会遇到的一些,比如说的这种问题啊,山下文的一个问题, 这个四比模型现在就完全的可用了,其实我们这块二零七零他跑的时候可以看已经七点五级了,进行起来速度还是可以的,没有说速度特别的慢。怎么测试?给我写一片三百字 关于 ai 进化的文章,三百字的文章,你看一下我们这个四 b 它发现怎么样? 其实这个 token 怎么讲?它的速度是可以的。只有三百字吗? 只有三百字吗? 这有三百字吗?我数不过来,问问他, 就是他可能载入了会慢点,但是这个字数的话就是说他的投屏速度还是可以的,所以说四 b 在 我们这个二零七零上都可以爆。当然大家我觉得你们的显卡可能会更好,那比如说如果你真的是一个,比如说幺零六零之类的卡, 我不太建议跑,但是也有这个这种的特别小的,但是我没用过这个啊,我会感觉特别傻,但是四 b 用下来只要你不是这个扣定,就是我们这个编码做很多的话,应该是没什么大问题啊。 这场对话包括帮你写文案,他都是怎么讲可以去胜任的。好了,今天就到此为止,谢谢大家。

一分钟教你 open 科二本地话部署 open 科二怎么安装到电脑!最新方法来了,让你告别慢慢错,新手小白也能分分钟轻松养龙虾!话不多说,直接安排。首先我们打开视频右下角分享,左滑选择分享, 然后打开手机搜一搜,再搜一搜,搜索办公软件大师这个界面下滑,找到后选择进入,在文字栏输入关键词 open core 并发送,最后复制蓝字部分在电脑上打开就可以下载了。接下来是 open core 怎么部署到电脑的具体方法,这里加载完成,进入后选择立即部署 这个界面,稍等片刻,接着我们自动安装,然后等待加载好后进入文件夹里,打开 open com 安装包,选择合适的位置开始安装,等待完成后进入软件,在下方框里输入好, 接着下一步,在弹窗中选择确定。进入新的窗口后,这个位置有详细的安装教程,任何不懂的地方都可以查看教程解决。下面我接着演示 这里点击第一个安装大模型这个界面可以看到里面有六云大模型合集,质朴青年 deepsea、 火山 mini max 以及千问等等。这里就以 deepsea 为例给大家演示一下。我们选择这里的访问按钮, 进入新的页面后选择登录这里,我们填入内容后开始登录。进入后我们在右侧下滑找到这个选项,接着选择新建,填写好描述后选择提交。接着我们将鼠标挪动到这个位置,选择复制,将复制好的内容粘贴到刚刚的这个框内,完成后确定。 接着稍等加载,出现这个弹窗后选择确定。接着我们只需启动服务,启动成功后,上方的状态会显示正在运行,这时我们点击打开龙虾,进入后就能开始使用 open core 了。怎么样?这个简单靠谱的 open core 本地化部署方法你学会了吗?

好,朋友们大家好,在上一期呢,我们在 open globe, 也就是小龙虾上完成了大模型和飞书的对接,那么呢,呃,完成对接之后,我们也会发现它对于 token 的 消耗是非常快的, 那么有没有种方法它在使用 token 呢,可以几乎为免费的方式。那么今天呢,在这一期内容当中,我给大家分享一下,我们把大模型通过 alama 部署在本地的一种 可清晰的分析。那么在视频的最后呢,我们一起来讲一下这种方式呢,他的一些优缺点。好,那么今天呢,我们先完成把大模型部署在本地,让他免费跑起来。这种方式好,首先 咱们先打开奥拉玛这个软件的首页叫做奥拉玛,他是什么呢?大家可以把它理解为这个奥拉玛是一个管理本地大模型的一个管理工具平台, 他本身并不是大模型,但他负责呢,把大模型对接到本地,这样的一种工具本地化部署。 那么我们访问首页之后,大家会发现哈,他会告诉我不同的平台不同的安装方式。那么由于呢,我今天录视频的时候采用的是 windows 平台,那么这里面呢,他告诉我有两种方法,一种呢是直接在 power share 中 把这段命令复制粘贴并运行,还有一种方法呢,是可以把奥拉玛他的安装软件直接下载到本地,然后来安装。那么呢,我强烈建议大家呢,选择第二种方式,也就是当 loft 直接下载, 那么这个下载呢,由于它的这个服务器是在外网,所以呢它的整个下载速度非常慢,但是我们可以通过右键选择链接,然后呢在 下载工具啊,比如说迅雷这样的软件当中来粘贴他的下载连接,那么这个下载速度就会非常快啊,大家也可以看到整个下载软件下下来呢,他有一点 好,下面呢咱们来看一下他的安装过程哈,这个安装过程应该是比较简单的,咱们就按照他的提示一步一步来安装,然后开始执行点击过程, 那么大家可以看到这个安装过程是比较快的,当安装完成以后呢,我们会看到阿拉玛他的这样一个对话界面,那么首先呢我们在这个地方呢去设置一下,他有一个选项, 我们可以看一下在这有一个 context 的 lens 上下纹的长度,也就是我们跟这个大模型对话啊,它能够加载一些记忆长度,那么这里边呢呃最好是在三十二 k 到六十四 k 这样的一个范围,那么可以保证咱们的对话呢要更流畅一些啊,好,选择完以后呢它会自动保存, 那么这个时候我们可以把这个对话框给它关掉。那么紧接着呢,奥拉玛它是通过在配置大模型,然后呢在本地对话一种方式,那么它的大模型大家可以看到哈在这 有一些大模型的选项,那么首先呢我们可以在这去下载或者用命令下载,那么这里面该如何选择呢?我们来到他的官网上,咱们来看一下,在官网当中呢奥拉玛他提供了一些 models, 也就是咱们选择大模型 好点进来以后,我们看到他各种各样大模型的介绍,那么其中呢对于中文咱们使用比较友好的呢,是这个千问三点五 好,开源的免费,我们可以直接把它呢部署在本地,那么这里面有些参数我简单给大家解释一下啊, 包括它这里面有一些零点八 b, 二 b, 四 b, 九 b 等等,那么这些数据呢,代表它的模型参数的数量, b 是 以 e 为单位,那么四 b 呢,就是四千个 e 的 一些模型参数,那么嗯,它消耗的是咱们显存, 当显存越大,那么你可以选择的这个模型参数就可以越多,当然越多,他的回答效果呢,包括等待时间也会更好一些,那么因为我是,嗯,咱们测试阶段在这里面呢,我们选择一个零点八 b 来做一个实验哈, 好,那么在选择完了以后呢,他会告诉我们你选择的这个版本,他的一些相关的一些 安装方法命令。好,那么在这呢,我们选择零点八 b, 然后通过奥拉玛瑙这个命令来去执行,那么在打开这个新的窗口当中呢,咱们输 alama, 然后加上杠两杠 version。 好, 咱们可以看到它的一个 alama 的 版本号生成了,就代表安装成功,那么安装成功以后呢,我们通过 alama, 然后加上 pro 这个命令 去下载一个它的大模型,那么这个大模型呢,根据刚才的在这个页面上面,我们选择的版本是希望用零点八 b, 那 么把这个大模型的名称复制一下,然后在库后面呢粘贴 好,它就进入到了安装大模型的这个阶段。好的,那么大家可以看到这里呢,它显示 success 就 代表大模型呢,安装下载已经完成了, 那么我们需要注意呢,他的大模型如果是这个参数越多的话,他的大模型的大小会跟着越来越大。好,因为咱们选择是一个基础版本啊,零点八 b, 所以 它的大小只有一气左右。 好,那么此时呢,咱们可以把大模型先把它刨起来哈,来观察一下,用 alma 这个命令加上 ron, 再带上刚才的大模型的名称,我们可以在他的首页上复制一下好,然后右键粘贴进来,运行一下 系统问我们呢,你可以在这发个消息,我们说你好, 好,大家可以看到这个时候呢,他的大模型已经开始在思考啊,那么紧接着就会有他的一个回答, 那么就说明咱们现在大模型在本地部署啊,已经完成了,那么接下来下面一步呢,我们开始准备把它对接给 open globe。 好, 那么在这呢,如果大家还没有去安装本地的 openlab 的 话呢,可以去参考我的上一个视频,我们去把本地 openlab 先安装好,然后再来完成接下来的对接工作。好,那么怎么去在 openlab 上面对接咱们本地大模型呢?那么下面呢,咱们需要在一个新的 powershare 上。 好,那下面呢,咱们通过这个命令 openclaw 加上 config 来配置 openclaw, 那 么上一次呢,我们已经完成了一些它的大模型和非输的一些配置工作。好,这里面呢,我们选择 这一项叫做 customer provider, 自定义它的 provider, 这个幺幺四三四呢,就是奥拉玛他的访客号,那么咱们需要在这个地址后面跟上一个斜杠,带上 v 一。 好,记住,一定要带上 v 一 作为他的 url 访客地址 好,然后在这会填写一个 api key, 选择第一项粘贴,那么这个 api key 填什么都可以。 好,这里面呢,我们一定要选择第一项 open ai 好, 然后在 model id 这儿把我们刚才选中的这个模型名称继续复制右键粘贴好。它有一个效应过程, mortification successful, 代表效应充够 好,当我们看到这个 mortification successful 就 代表它的 教你通过成功,然后呢这个 end point id 保持默认就可以了,它生成的其实就是一个自定义的本地地址,加上一个端口号好,然后敲回车。那么模型的别名这里面呢,我们可以任意哈,因为它只是一个别名,咱们可以把,比如说把它叫成奥拉玛, 叫回车。好,那么这部分配置工作咱们就结束了,其他的部分呢,就可以忽略啊,把它结束肯定有好,如果你还没有启动龙虾的服务,那么我们还需要通过这个命令 opencloud get away 来把龙虾的服务器弄下来,然后呢才可以通过页面来访问它。好,访问之后呢,我们在这看一下它的代理好,然后选择预览 overview, 那 么大家可以看到啊,在这呢,它选择的首选的模型 primary model。

opencall 不是 那种再来一个聊天框的 ai 工具,而是一个运行在本地设备的个人 ai 助手网关。它的核心逻辑是用一个中心网关把常用的消息服务直接连接到 ai calling agents。 简单来说,它不是让你去适配 ai, 而是把 ai 养进你最习惯的消息生态里,让它在后台替你办事,而不是单纯的开个窗口聊天。 对于第一次上手的人,最推荐的安装方式是执行 alama launch openclaw 这条命令最关键的地方在于它把整个流程全部自动化了,从环境安装、安全提示到模型选择,甚至连网关守护进程和搜索插件都帮你配置好了。这是目前最不容易翻车的路径, 能让你直接跳过复杂的环境配置,进入使用阶段。如果你更倾向于标准的安装流程,可以使用官方提供的安装脚本,直接在终端执行 curl 命令即可完成部署。这适合那些希望快速安装但又想遵循官方标准路径的用户。 如果你需要完全掌控安装过程,可以走手动安装路线。首先通过 mpm 局安装最新版 openclo, 然后执行 armo 的 命令安装守护进程。 这里要注意环境要求,推荐使用 node 二十四版本,二十二点一四以上也可以。系统方面,虽然三大平台都支持,但 windows 用户强烈建议在 wsl 二环境下运行,这样稳定性更高。 最后一定要跑一遍 version doctor 和 gateway status 这三个验证命令,确保网关状态正常,避免后续配置时出现莫名其妙的报错。安装完成后,首先执行 opencloud channels login 完成身份验证, 接着运行 openclock gateway, 并指定端口幺八七八九来正式启动网关。启动后,你可以通过浏览器访问一二七点零点零点一端口幺八七八九进入本地管理仪表板,所有的核心配置都存储在用户根目录下的 openclock 及 java 文件中。到这一步,你面对的就不再是一个简单的本地模型, 而是一个能够接管多种消息入口的 ai 网关。这里必须强调 opencloud 的 安全逻辑,它采用的是单用户信任模型,而不是那种多人共用的共享总线设计。这意味着它假设使用者是唯一可信的人。如果你把一个带有工具权限的 agent 开放给多个互不信任的用户, 任何一个人都能在权限范围内影响这个 agent 的 行为。为了避免这种情况,最稳妥的办法是在操作系统、用户主机或者网关层面做物理隔离,确保每个人拥有独立的运行环境。 接下来是关于插件的严重警告。 openclaw 的 插件是以 in process 方式加载的,这意味着插件运行时的权限和 openclaw 主进程完全一样。简单来说,安装一个不明插件就相当于把一段未知代码直接接到了你的网关大脑里, 它能做你系统里所有 openclaw 能做的操作,所以千万不要随意尝试陌生插件。建议在配置文件中使用 bug 四段,把可信的插件 id 盯死,只允许运行白名单内的代码。 最后,在性能配置上有两个关键点,第一,本地模型的上下文窗口至少要设为六十四 k, 否则在处理复杂的消息线程时, ai 会很快忘记之前的对话内容。 第二,如果你想让 ai 具备联网搜索能力,除了安装 web search 插件外,还必须先执行 olama sign in 完成认证。只有满足了足够的上下文和正确的认证,这个网关才能真正稳定地获取实时信息并维持长对话。 为了让新手能稳步上手,建议把部署分成几个阶段,第一天,先用 alamo watch opencloak 把基础环境跑通。第二天,不要急着接太多平台,先通过 configure 命令连接一个你最常用的消息渠道,确保链路畅通。 第三天,进入权限收束阶段,你需要修改 opencloak json 文件,设置 allow from 次段和 main 规则, 防止网关被无关人员随意触发。第四天,执行深度安全审计,运行 security audit deep 命令检查潜在漏洞。如果发现问题,直接加上 fix 参数进行自动修复。只有完成了审计,这个 ai 助手才算真正安全。 如果你处于共享私信或者共享收件箱的复杂场景,需要特别注意绘画隔离,这时需要配置 session csv 参数,将其设置为 per channel peer 或者 per account peer, 这样可以确保 ai 在 处理不同用户的消息时,绘画记录是完全隔离的,不会出现信息穿线的情况。