你调用的是本地大模型,效果怎么样?一般做点简单的事情是没有什么问题的,不要做太复杂的,因为他处理能力确实有限啊。什么删个目录啊,建个文件,看一下本机的运行效率等等这些简单的问题, 包括什么?发个邮件,收个邮件,查个东西都没问题啊。但是不要做什么深度思考的一些东西, 因为他很傻,他很聪明,但他很傻。这怎么来说呢?听起来这句话有点互斥。那确实是他很聪明,但是他很傻,可以吗?这个答案配合本地大模型,可以省一些模型接口的费用。然后呢,把可以把一些简单的模型看怎么来交给本地的模型来做,这样不就省钱了吗?
粉丝1194获赞3.0万

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。

我们在前面安装这个 open 可露的时候,所使用的模型是智普的模型以及还有阿里百联的模型,但是这些模型的话都是属于在线的呃,它会需要很多个 talking, 那 这些 talking 呢,我们是需要花钱去买的, 那当然呢,也有人去反映这个在线的模型啊,它所消耗的 talkin 很多,所以说这个时候有人就想我们能不能使用本地的模型来部署 这个呢?当然是可以的,我们可以先到那个欧拉玛的网站上面去看一下啊,在他的首页这里面有一个 openclo, 我们点击进来啊,这里面没找着,没关系,我们往下拉一下,往下拉一下之后,因为这个 clubbot 已经改变为了这个 openclo 了,我们在这里面选择这个 openclo, 然后呢我们往下面拉,往下面拉的话,这里面的话呢,他就会有一些他所推荐我们所使用的这些模型。那么我们就建议呢,各位就是使用的时候就直接使用他所推荐的那些模型 啊,现在在我的环境这里面呢,我已经是把这些模型呢给它拉取下来了,那你使用其他的模型的话,可能还是会有一些问题的。 那下面的话呢,我们就开始去配置一下这个模型,点击这个 open clone, 然后呢我们点击这个 config, 点击 config 之后呢,继续找到这个 modus, 然后有一个 private, 然后这里面咱们就开始去添加一个模型 and you try, 那 这里面我给他一个名字叫欧拉玛好了, 这个名字你自己可以自己随便去取都可以。然后呢我们这个 api 的 这个位置呢,你可以选择这个是 compilation api key 的 话呢,这个可以随便去写 啊,因为我们的这个欧拉玛它不需要这个 k 去验证,这个你随便写什么都可以啊。 然后呢这里面我们选择 i p r k os header, 勾选上 bios ysl, 这里面的话,你就加上我们的这个欧拉玛的这个地址, 那么这里面的话,我现在的地址是端口是幺幺四三四,那这里面我们写的时候就是 h g d p 冒号本机,你你可以写任何的,你主机上的任何的一个地址都可以,零点零点幺, 这里面的话我们写上端口幺幺四三四,这里面一定一定要把这个 v e 给它加上去。 如果说你不加这个 v 一 的时候,那我们去访问的时候,他可能就是,对吧?你问他问题,然后呢他就回复的时候就是一个空的,什么都没有,所以说这里面一定要加上一个 v 一 才行。 然后呢我们继续往下拉,找到这个 modus, modus 的 话,然后呢我们选择这个 and, 选择 and 的 之后,然后在这里面 api 的 这个位置呢,我们也是选择 open i, 它的这个我们就选择 max talkings, 然后它的这个上下文的这个窗口呢,我们给它设置一个比较大的一个值就可以了,随便你去设值。 继续往下拉好,然后这里面有一个 id, id 的 话呢,就输入我们的这个啊模型的名字就可以了,比如说我这里面就直接使用 gptos 二十 d。 好, 那么然后呢我们继续往下拉,这里面有一个 and, 把它选择为这是一个 text 的, 然后这个 man talking 的 话呢,你也可以随便去写,我就直接写上一个四万就可以了。这个你随便去写, 然后给它起一个编名,我们就写成这是为一样的就可以了。这是我增加了一个模型。 那然后呢,我们你看啊,在它的官方网站上呢,给我们推荐了好几个模型,其中还有一个是 glm 四点七的,对于 glm 四点七,它这里面的话使用的是一种语音环境,我们这里面点击这个 mod 的 话,它不是让它是直接使用的,是在线的一个模型, 我们在这里面的话呢,也来给它加过来。在我的环境这里面的话,你看有一个 glm 四点七 club 的, 这里面的话,这里面呢,我也是给它拉取下来了。好,所以说我这里面再次增加一个新的模型,这几个我都给它加过来。 好,在这里面我们再次点击一下这个 and。 好, 然后呢,这里面我仍然选择的是 open i complexions。 然后呢这里面也选择 manage tokens。 窗口的话,我们在这里面你随便去写一个都可以 继续往下拉。然后这里面 id, 我 们把我们的这个镜像来给它加上去,就是 g, p, d, o, s s 的 这个 y 啊,这个是应该是选择的是 glm 四点七的,这个我们加第二个镜像。第二个模型 input 的 这个位置呢,咱们也选择 text 的, 这个位置的话,就随便去写一个比较大的值就行了。 这个名字的位置呢,我们也给它起一个命名,也叫的是 g m g r m 点 g cloud。 好, 第二个模型呢,我现在也是给它添加过来了。 那当然了,我们也可以再次去添加一个我们这里面添加的模型都是官方它所推荐的模型。 然后呢我现在再来添加一个其他的模型,这个呢,他并没有出现在官方推荐的这个文档这里面,咱们现在来看一下是否会有什么问题。我这里面选择枪顶三杠十四 b。 好, 这次去添加一个模型。好 and, 好的,现在这里面来给它收起来。好吧,这里面的话,我们仍然选的是它。好了之后,这里面选的 max tokens, 这个呢,我们就随便的去写一个比较大的值就可以了。 然后这里面 id, 我 们就把这个谦问三十四 b。 我 再说一次,谦问三十四 b, 这里面并没有出现在它的这个推荐模型这里面。 input, 这里面点击 text, 这个值呢?我们也直接输入一个比较大的值就行了。好,这样的话我现在添加了三个模型,点击 save, 咱们现在去看一下它的这个配置文件,点击打开 点击之后呢,这里面你看有一个 private 的,是百炼的,这个是我们在前面的时候已经添加过的奥拉玛。这里面的话呢,我增加了三个模型,一个是 gpt osss 二十 b, 还有一个是 grm 四点七克拉的,那还有一个是铅汞。三十四 b, 然后呢我们往下面拉,找到这个 agents, agents 的 话,这里面的话,这个模型的话咱们现在继续来给它添加过来,把这几个模型现在来给它加过来好了。好吧,呃,这里面的话,我就直接啊往后面去写, 这是一个这是一个,这是一个。 那这里面的话,我们直接选择的是维欧拉曼、 欧莱曼的这几个模型,咱们现在来手动的来给它加过来,然后 g p t o s s s 二十 b 二十 b, ok, 这个是添加过来了一个了,然后呢我们再把剩下的两个模型也来给它加过来。呃,还有一个叫做这是为 g r m 四点七 cloud 的 这个呢,我们现在也是把它的名字记 r m。 好, 那然后呢我们再次来给它增加一个,还有一个是千问三十四 b 的 铅汞三十四 b, 这个边名的话呢,我也给它起名叫做这是为铅汞三十四 b 就 可以了,那这里面的话,我现在额外的额外的增加了三个模型,那然后呢,我们现在使用其中的某一个模型,把它设置为是默认值, 比如说我这里面就是这是 default, 就是 设置的是它的默认值。 ok, 好, 我现在使用 g p o s s s 二十 b 的 这个模型保存一下,咱们现在开始去做测试,点击这个 chat, 好, new session, 打开一个新的脸际,新的绘画。 好了之后呢,咱们现在来跟他去沟通一下。你好,请问你是哪个模型? 它这里面的话,因为使用的是比例的模型,它这里面其实是会消耗比较多的这样的一个 gpu 的。 好,它这里面的话告诉我们说使用的是欧莱玛 gpt 二十 b 的 这样的一个模型。好,然后你可以随便的去交流就可以了。 好,请问是哪个模型? 好?这里面告诉我们说是欧拉玛 g p t o s s 二十 b 的 这样的一个模型了, 那当然呢,我们现在去换一下,我刚才讲咱们刚才看到的时候,它这里面实际上是会消耗比较多的 gpu, 那这个时候有的同志说我笔记本上面跑不起来,对吧?跑不起来,那么大的这个,呃,那么大的这个,呃这个模型,那没关系,我们可以直接使用什么呢?我们可以直接使用它的这个云端的这个模型, 也就是直接使用 g m 四点七 cloud cloud 的 话,它本地并没有去下载什么模型。 那这里面的话,你首先你得你要是想使用这个模型的话,首先的话你得要在欧拉玛的网站上自己去注册一个账号,记住了,你得要注册一个账号,注册一个账号之后呢?然后我们在命令行里面 去登录一下,在这里面有一个登录的这个名字。 好,欧莱玛,我们现在去登录一下,那这里面的话,你看我现在已经是登录了。那如果说你没有登录的话,比如说我举个例子来说,我现在把它给退出来,我不登录了, 不登录了之后呢,我重新去登录,你看他这里面的话是会给我一个链接,给我一个链接之后,我们在这里面把它切到我们的地址栏这里面来,他会问我们是否要去链接,当然了网站这里面你得要先去链接一下才可以, 这种方式就算是连接成功了,连接成功了之后我们才能够去使用这个云端的这个模型,我们可以试一下,好让 你好,我们来看一下他是否能够正常的去回复,你看此时是可以正常的去回复的, ok, 退出来就行了。那这里面的话,他啊我们这里面直接使用免费版的就可以了,你不用去花钱去购买什么,直接使用的是这一块免费版的,他也够我们去用的了。 那这里面的话呢,我们现在去换一下这个模型, glm 四点七 cloud 的 这个模型。好,我把它给换掉。换掉之后呢,然后我们现在重新的去跟它去做一个沟通,点击这个 new session。 好,我们现在开始跟他去交流。你好,他这里面的话就可以跟我们正常的回复了。请问你是哪个模型? 原来使用的是我们一开始刚刚所做的练习,使用的是这个 gpt osss 二十 b, 那 现在的话使用的是 grm 四点七 club 的。 那这里面你看它告诉我们说现在用的是什么?叫做是欧拉玛里面的 glm 四引擎 cloud 这样的一个模型。 那我们现在再次来给它换一个模型,我本地这里面,在我本地这里面有一个千米三十四 b 的 这个模型呢,实际上是可以正常去使用的,我们现在来打开看一下。 好,请给我写一篇两千字的作文。 那你看啊,我这里面使用的时候它是可以正常去使用的,看到了没,它消所消耗的 gpu 其实也是蛮多的,跑起来也是蛮快的,没有什么问题。我 ctrl c 终止了,对吧?你可以等一下也行。好,我们退出来吧。 好的,反正我现在就想说明的是什么呢?说明的就是我的这个千万三的这个我的千万三的这个模型啊,是 正常是可用的,对吧?然后呢,我们现在把它换到哪里面去呢?换到我们的这个 opencloud 里面来,我们看一下能否正常去使用。好,我选择这个千问三十四 b, 把它换成是默认的, 找到这个 agent 千元三十四币,那这个呢,就是我们的加载过来的这个模型呢,已经保存退出,然后这里面的话呢,我们现在再次去跟他去沟通 new session。 好,那这里面咱们现在来问一下你。好,他这个不稳定,我们也就是说使用千万三的这个模型的话,呃,他可能就不是很稳定,有的时候你看现在可能是正常的,但有的时候呢,他可能回复的时候就不是很正常。 好,你看这里面回复的时候,现在就已经是不正常了,也就是有问题了已经,对吧?那在我本地跑起来的话是正常的,但是呢,我们在 open clone 这里面去引用它的时候,运行起来的话,则可能还是会有问题的, 所以说我们在使用模型的时候就直接使用它所建议的这些模型就可以了。 那当然了,如果说你本地的这个啊机器配置的比较高,你可以直接使用千万三 q 的, 那如果说你所使用的这个配置不是很高的话,那这里面的话呢,我们就可以直接使用是 glm 四引擎的,这是属于是语音环境上的一个啊模型,那它这里面的话并没有什么限制, 对吧?你可以看一下,它这里面并没有告诉我们说可以免费使用多少 talking, 超过这个 talking 就 不能使用了,它这里面并没有这些要求,所以说我们直接使用在线的也是非常方便的。那如果说机器配置不高,那么我们就可以选择它机器配置比较高,对吧?你就完全使用本地运行的这个模型, ok, 你 就可以选择它。 这是我们如何让 open globe 使用欧拉玛所部署的模型?大家可以自己来尝试一下。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

今天一个视频教会大家不花一分钱去安装和使用 open k 二的,然后而且是一百二十 b 的 云端模型,今天纯干货分享,按照我的操作步骤来,基本上一次就可以成功。然后如果你现在没有时间的话,可以点赞收藏加关注, 然后以后慢慢看。然后我现在这台 macbook pro 上演示,没有 mac 的 话也没有关系,只要是一台电脑就可以, windows 和 mac 都可以。然后因为 mac mini 比较省电,比较适合七乘二十四小时运行。然后我们开始第一步,首先你需要去解决自己的网络问题, 网络问题我没有办法去解决,解决完之后,你可以先打开这个网站,然后这个网站我会贴到视频的简介里面一个登录的,如果你是 windows, 它就会匹配 windows, 如果你是 mac, 它就会下载 macs 的 安装包。然后我刚下了一个,下载完成之后呢,把软件拖到 这里,因为我已经安装了,所以替换一下, ok, 我 已经其实已经有了,如果你是正常的话,现在就可以打开奥拉玛这个软件。然后你会看到这里可以选择各种各样的模型,这后面带云的这个就是云上模型,云端模型也可以用。然后我选的是这个 gpt 一百二十 g 的 云的模型,它会提示让你登录,然后你点这个登录, ok, 呃,我之前已经登录过了,如果你是一个登录界面的话,你可以选择你有的那个账号登录就可以了,很简单。然后现在已经登录了,我说一个你好, ok, 现在是可以用的。这是第一步,我们已经完成了。然后我们来到第二步,打开这个网址,这个网址我也会贴到下方,然后全是英文,看不懂没有关系,也不用翻译,有用的,其实就这几行,就这四行。然后我们首先第一步复制这个代码, copy 一下, 然后搜索终端,打开终端,这是我之前打开过的,打开终端之后粘进去,然后直接回车就行,然后他现在在慢慢安装,然后可以看到这个地方在加载,然后安装速度取决于你的电脑网速。 ok, 第一行代码已经执行完毕,现在我们打开浏览器 开始直进第二行,然后依然是直接回车,然后我们已经到这个页面了,然后现在在键盘的上下左右去切换,按左边选择 yes, 然后回车,然后有一个快速安装,我们点快速安装,就第一个不用选它,直接回车,然后这个这个页面比较重要, 他现在是让你选择是用哪一家的这个服务,然后我们不选,我们选最下面这个,然后我们选第一个,然后这里会有很多这个,然后还不用管,选这个 k 第一个。 ok, 这个地方是让你选用哪一家的聊天软件,因为你需要用聊天软件去跟他沟通,然后这个我们需要选一下,我们选第一个, 然后这里会让你输一个,呃, bot talking, 然后这时候我们先这个页面先放一边,千万不要关掉,然后我们打开我们的聊天软件,然后去搜索 bot father, 这个是之前我已经新建过的,如果你从来没有用过的话,这里应该是一片空白,然后点 start, 这里有很多选项,没有关系,点 new boot, 然后我可以这里是选名字,可以选择一个,好,我选这个名字, ok, 这里再输入你的自定义的,你可以随便自定义一个名字,他说这个不行, 那我们就随便起一个, ok, 这个名字可以,然后记得这一串,这有个 api, 把这一串字母复制一下,这就我们需要的那个 api, 然后直接粘到这个里面回车。 ok, 这里是问你需不需要技能,你可以选择是 然后第一个继续点回车这些技,这些下面就是技能,现在我们不安装,因为这些安装非常的浪费时间,我们直接回车,可以后面慢慢安装,没有关系,回车这个时候我们需要按下空格,然后再回车, 局部这些全,全是 no, 全是 no, 全是 no, ok, 全是 no, 这个也是直接跳过好,按空格再回车,好,到到这一步了可以直接启动,那这一步可以直接回车。好, 需要 u i 依然是回车。呃,如果你是 safari 浏览器的话,可能会失败,所以你要复制到那个 chrome 浏览器里面,然后现在我们就已经进入到了这个 colobot 的 这个后台里面,但是还有一个就是我们还没有给它配置大脑,现在这个页面我们关不关都可以,然后我们再新建一个终端页面, 新建一个窗口,打开我们刚刚那个浏览器,就用这个浏览器,然后翻到第三个,我们继继续复制,然后回车, 这个页面其实就在选择,就选择复制第四行, ok, 这里是让我们选择是用哪个模型,有 g p t, 一 百二十 b 的 模型,还有纤维三,也是四百八十 b 的 云端模型, 这个看你个人习惯,我现在就选这个 g b d, 好 吧,如果你选择的话可以点回车,回车点个叉就是回车,但是一次只能选一个。这个你可以后后面慢慢根据每个模型的不同属性去选,然后你选择,选择完之后,我现在选择一百二十 b 的 模型,选择之后摁 tab, 摁 tab 之后 ctrl 点回车, 这时候他问你是不是要启动这个东西,你现在摁 y 再摁 y 哦, ok, 我 们现在可以直接启动它了。 ok, 已经启动了,然后我们来到这个后台模型问一下。 ok, 已经可以启动了,进入我们刚刚新建的这个 bot 里面,点击 start, 它会发出一串神秘代码。没有关系,我们只需要这个复制这个出来,然后你把这串代码后面的换成你的,然后前面跟我一样就可以,然后复制 粘到,我们可以新建一个窗口,好,回车。好,这样就可以了。 ok, 我 们在这个页面问一下。你好, 出现这个报错的原因是因为刚才在安装过程中,我没有把安装终端给关闭,所以刚才在替换那个模型的时候没有替换成功,因为软件在运行当中,所以我在前面剪辑的时候增加了那个建议关闭的提醒,你把它关闭之后就可以不会出现这个报错。但是如果你出现这个报错之后,可以 把所有终端都关闭,然后新建一个终端,把第四行代码重新执行一下,重新选择一下模型就可以解决。 他能够解决一些比较棘手的问题,尤其是你不在电脑,你可以让他给你发文件啊,这种我觉得还比较实用的。 这个基本上就是可恶 boss 安装的全过程,然后是使用的本地的欧拉巴模型,但是云端的模型,然后如果你有任何不懂或者是有报错或者是没有解决的问题,可以私聊我,或者是在这个评论区下面留言都可以,如果看到的话会尽量帮你解决好,就这样。

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

本期视频继续为大家分享 openclaw 的 使用技巧还有使用经验,并且还会为大家重点演示 openclaw 中 a 整数的高级使用方式。 通过最近这段时间高强度的使用 openclaw, 我 最大的感受就是 openclaw 可以 说是二零二六年最伟大的 ai 智能体,而且在未来几个月还会有更多基于 openclaw 二次开发的各种变体出现, 并且人人都会有自己的 openclaw, 甚至可以实现。人类只需要给 openclaw 下达指令,一切工作都会由 openclaw 自主完成。 因为最近几天所有的编程任务我都是直接向 openclaw 下达指令,然后由 openclaw 完成所有的开发工作,所以说 openclaw 堪称 aia 整合的终极形态。 好,下面为大家详显是 opencloud 的 使用经验还有使用技巧。首先我们得设置一下 opencloud 的 模型容灾机制,在这里我让 opencloud 可以 出当前模型容灾的配置代码还有文件路径, 然后这里就是 opencloud 给出的模型容灾配置文件的路径。然后我们可以详细看一下我这里是如何配置的这个模型容灾机制。首先这里是配置的核心容灾, 这里我设置的这个主模型就是 ospec 的 cloud ops 四点六模型,也就是这个模型,只要它的额度没有耗尽或者没有被限制,那么在这个主 agent 中,也就是当前对话的这个 agent 中,它默认调用的模型就是我们设置了这个 ospec cloud ops 四点六模型。 假如使用了这个模型,额度用光了,或者是出现了问题,或者是被限制了,然后就会从这个 fallbacks 列表中率先选择 open in i codex 的 gpt 五点三 codex 模型, 假设这个模型也不能用,那么就会选择谷歌 antigravity 中的 cloud ops 四点六 sync 模型,所以做了这个模型熔灾机制,哪怕我们所使用的这个主模型,它突然没有额度不能使用了,那么在 opencloud 中,它也会自动切换到 fourbacks 列表里的这些模型。 像这样的话,我们就能保证哪怕主模型出了问题,然后我们的 openclaw 也能正常地来使用,而不会因为我们设置的主模型出现额度限制,然后整个 openclaw 都不能使用的情况。 所以说我设置的这个熔灾机制,它的执行流程就是当 isopec 它的模型不能用了之后,就会自动切换到 openai 的 codex, 如果 openai 的 codex 还不能用的话,那就自动切换到谷歌的 anti gravity。 想设置这个模型融灾机制非常简单,我们只需要在这个代码文件中添加好我们作为融灾机制的其他模型就可以。而且在这里我还实现了多认证还有 token 的 轮换。在这个配置文件中,我登录了 openai 的 codex, 然后这个认证方式就是 oos, 在 这里我还登录了 osmopy 的 账号,在下面这里我还登录了两个 anti gravity 的 账号。假设在使用 anti gravity 的 情况下,比如说第一个 anti gravity 的 账号,因为额度被限制了,那么就会自动切换到第二个 anti gravity 的 账号, 像这样的话,我们就能实现 antigravity 两个账号的轮询。而且在下面这里我还为我创建了这些 agent 分 配了不同的模型,像这个创建方式与分配方式,我在上期视频也为大家演示了,比如说这个 agent, 它使用的模型就是 cloud ops 四点六模型, 然后我还创建了用于文档编写的 agent, 给它分配的模型是 antigravity 里的 cloud 三奈特四点五模型。 所以大家想自己设置的话,只需要更改这个文件,然后加入你所增加的这些模型,然后也可以直接让 open cloud 为你去新增这些容灾的这些模型。 下面再为大家讲解一下 open cloud 中它的记忆搜索的功能,在这里我直接用提示词让它将记忆搜索的配置文件路径还有配置的这些内容将它展示出来,这个文件路径就在这个位置。 然后我们看一下我是如何设置 openclaw 中它的记忆搜索的这个功能。在这个配置文件中就可以看到它会解锁 openclaw 它自带的记忆系统以及解锁 sessions。 而且这里我开启了它的实验性功能,也就是 session memory, 将它设为了 true。 在 魔性提供商这里我设置的是 gemini, 在 这里就是设置的 gemini 的 api key, 在 它的魔性 id 这里我使用的就是 gemini 的 amber 零零幺这个模型。在这里我之所以使用 gemini amber 零零幺这个模型, 而没有选择用开源的 q m d 这个项目去实现记忆解锁,主要是因为 q m d 它需要下载 g g u f 模型,还需要实现常驻后台进程,而且占用内存还有 cpu, 所以 我选择了使用 jimmy 的 安邦尼模型, 像这样的话就能实现只需要设置一个 api key 就 可以实现混合搜索,从而让 opencloud 越用越聪明。下面我们再看一下第三个技巧。第三个技巧就是用云端的 opencloud 来连接我本地的 micros 系统, 在这里并没有用到内网穿透等操作,因为我使用的是云端的 opencloud 与本地的 micros 通过 node 进行配对,也就是在本地 micros 上通过 ssh 反向隧道连接到云端的 opencloud。 然后我们可以看一下这个架构图。首先云端的 opencloud 它就相当于一个真正的 agent 和大脑,它能通过路由工具来调用其他的 agent 和 server 来实现 node 指令的分发, 它可以通过 web socket 的 指令将指令通过 node 发送给 micro s 来实现调用相机实现屏幕截图,实现执行命令等操作。在本地 micro s 上它就是使用的 ssh 反向隧道出站连接, 因为它是主动出站,所以不需要内网穿透,也不需要端口映设等这些复杂操作,而且我们只需要用命令来启动这个 node 就 可以。下面我们就可以看一下这个效果。 首先我们打开本地的终端命令行为,确保它真的是通过 node 进行配对。我们可以直接用这条命令直接将本地的 get 位彻底关掉,我们直接执行这条命令,这里就将我本地的 get 位彻底关掉了。然后下面我们只需要在命令行中来启动 node 就 行。 我这里将启动方式做成了快捷命令,我只需要输入 a g i, 然后就可以启动,我们直接启动好,这里提示正在建立 s s h 隧道,然后我们就可以回到 open cloud, 然后给他下达一个任务,让他从云端来操控我本地的 micro s 系统。 在输入框我们可以先输入一个指令,我输入的是检查本地 micro s 和你是否建立了连接,然后我们看一下它输出的状态是怎样的, 在这里它很快输出了状态,在这里就是我的 micro s 连接状态,就是在线所具备的能力,就是浏览器调用等等能力, 在这里就是 micro s 隧道正常运行,可以执行远程命令。在这里我们就可以给它下达一个任务,我输入的任务就是通过 micro s 上的 cloud code 调用浏览器发一篇 expost, 内容就是你对 opencloud 未来发展的预测。然后我们直接发送,看一下它能否通过云端调用我本地 micros 上的 cloud code, 再通过 cloud code 调用浏览器实现发布 x post, 它自动打开了我本地的 micros 上的浏览器。 好,可以看到它自动打开了 x, 并且自动输入了要发布的内容。 好,可以看到它这里发布成功,然后这里提示发布成功。这样的话我们就实现了让云端的 opencloud 通过 node 操控我们本地的 cloud code, 实现浏览器调用。 下面我们就可以输入提示词,将云端 opencll 与本地 micros 通过 note 配对的步骤写成笔记,这样的话大家就可以将笔记发给自己的 opencll, 让自己的 opencll 根据笔记来实现配对。在这里就是他给出的笔记,像这些笔记我会放在我的簿刻中,大家可以从我的簿刻去查找。 好,下面继续为大家讲解 openclaw 中 agent 的 更多使用方式。在这里我创建了四个 agent, 并且放入了四个群组,我创建了这四个 agent, 它们的作用就是一个开发团队的详情,这四个 agent 呢就相当于四大专职的 ai 成员, 其中这一个 agent 呢是负责写代码的,这个 agent 呢负责进行测试,然后这一个是负责文档维护,还有这一个是监控这些运行状态的。 我创建了这四个 agent, 他 们的运行方式跟之前视频里为大家演示的是不一样的。目前我创建了这四个 agent, 它完全是由主 agent 进行调度, 而且具备三种协助模式。第一种协助模式就是限性流水线协助模式,也就是由主 agent 作为调度中心,它作为总指挥,它会根据我们下达的任务, 将任务委托给下面的这四个 agent, 最后就会根据我们下达的开发任务产出最终的成品,包括代码、文档等内容。 它支持第二种写作模式,也就是依赖图。并行写作模式,首先可以根据任务来声明依赖关系,依赖满足之后就会并行派发多个 agent, 比如说有主 agent 进行调度,可以同时调度这个用于文档维护的 agent 呢,还有代码编辑的 agent 呢?然后再并行调用这两个 agent 呢? 最后再并行调用运行测试的,还有编辑文档的,最后给出最终的审查还有交付。像这样的话,我们就实现了一个更加灵活的 agent 的 写作工作流。然后我还实现了第三种写作模式,也就是多 agent 的 辩论, 我是受 cloud code 的 agent teams 的 启发来实现的,像这样的话,我们就可以在 open cloud 中实现让我们创建的 agent 进行多阶段的辩论, 首先我们只需要提出一个辩论的问题,然后由主 agent 进行调度,然后创建这一些控制文件,然后就进入了第一轮辩论,主 agent 呢就会派发任务给这三个 agent 呢, 然后这三个 agent 的 辩论结果再由主 agent 收集,然后再进入第二轮的辩论,再由主 agent 来生成这些任务,再委派给这三个 agent, 到这一个阶段就会进行综合决策,这些辩论内容就会汇总给主 agent 进行综合决策,最后给出最终的建议, 像这样的话我们就能真正发挥出 open class 它的多 agent 的 优势。下面我们就可以测试一下这三种协助模式中的第一种,然后我们只需要在这个主 agent 中输入提示词就可以, 我这里输入的提示词是让它使用 team task 限行模式开发一个 python 脚本功能就是抓取这个网站的前十条新闻,然后我们直接发送,看一下这个效果。 好,这里提示这个任务已经完成。当任务完成之后,我们就可以看到这四个群组里,这些 agent 分 别输出了自己所完成的这些任务。第一个阶段就是由编辑代码的 agent 还编辑代码。第二个就是由测试的 agent 进行测试,包括十一个测试全部通过,百分之九十八覆盖率。 第三阶段就是文档编辑的 agent 来编辑这个 readme 文档,包含安装,使用方式等。最后就是由这个审查 agent 进行质量评分,评分结果就是生产级的代码, 然后它帮我们实现的这个代码就保存在了这个位置,这里还给出了运行方式,像这样的话我们就实现了这个多 a 帧的场景中限性流水线的这个写作模式, 由于时间有限,剩下的这两个场景就不再为大家测试了,我已经把它做成了 skill, 然后大家只需要将这个 skill 安装到自己的 open cloud, 然后就可以在 open cloud 中使用这三种模式进行项目开发。

家人们,今天来给大家讲讲 openclaw 大 模型的本地部署流程,不过我真心劝普通玩家别轻易尝试我自己的五零九零显卡折腾这个快被我玩坏了。好多朋友在评论里问,每天的 token 得花不少钱啊? 我跟大家明确说,如果你的任务量很大,那真的得花费不少,说不定一晚上 token 就 够买套房子了。我自己尝试过本地部署 g l m 四点七,大致流程是这样的,首先你得在性能足够的服务器上部署欧莱玛, 通过简单的命令就能把模型下载下来。接着再用命令打开防火墙和端口访问,之后在 opencloud 的 配置文件里按照特定方法配置,然后重启网关,这样就能运行了。 但我还是得强调,普通玩家真别用消费级显卡来弄这个,像我的五零九零一百二十八 g 内存,每秒也就只能处理八到九个 talk。 而 openclaw 跟大模型沟通的时候,上下文非常的长,而且几乎每时每刻都会同时开多个病房,体验感那叫一个差。当然了,土豪朋友随意哈。家人们,你们会考虑在本地部署 openclaw 吗?要是你们有相关经验或者想法,欢迎在评论区留言补充。


openclaw windows 系统详细安装部署教程来了! openclaw, 一个能让 ai 大 模型像人一样操作你电脑的智能助手,今天就带你花两分钟在 windows 系统本地部署小龙虾。操作步骤很简单, 首先前往官网安装 node js, 这里我们直接下载稳定版本即可。下载完成后,打开文件夹,点击进行安装,安装的选项全部默认。 安装完成后,使用管理员模式运行终端,使用指令查询 node 点 js 的 版本号。 接下来开始安装相关指令,可前往评论区领取,可以看到安装已完成。接下来进行具体配置,输入指令后,这里默认为不同意,我们改成同意 yes, 这里选快速安装 quickstart。 由于我之前配置过一遍,所以这里选择更新 模型。以 glm 为例, apikey 可以 前往官网获取接入的聊天软件,我们先跳过安装 skills, 选 yes, 选择 npm 安装软件包预设 skills 我 们也跳过,这里是第三方应用的 apikey, 相关设置都选 no, 给出的三个 hooks 最好都勾选上。由于之前配置过官网服务,这里我选择重装 reinstall, 等待它安装完成。 抽象 bot, 选择 open the web ui 配置完成后,我们就进入 open cloud 界面进行简单的尝试。比如我们让它在 c 盘创建一个文件模型,回复我们文件已创建,那我们进入 c 盘检验下, 可以看到确实已经创建,说明我们本次的安装部署成功了。关注我,解锁更多开源软件操作小技巧!

今天来做一个二零二六年至今的 ar 大 模型本地部署全科普,跟大家讲明白到底什么人要做本地部署,什么行业适配本地部署,什么硬件匹配,什么样的本地部署需求,这些在这一期都有答案。 在这一期,社长会按照模型分类、硬件门槛、设备适配、部署目的,理性选型这个顺序,一步一步化解大家的本地部署焦虑,也平息一下评论区无穷无尽的争论。每次看到这个评论区,我脑子里面就是这段画面,七个中队,七个中队 好像手里有七个中队就可以暴打天下了。为什么会造成这种情况呢?社长大概是知道原因的,因为多数人会把大模型和 deepsea、 千问划等号。其实现在的主流大模型按功能已经分化出了五个大类。第一类也是本地部署中最常见的类型,叫上下文推理模型, 它的核心作用是处理文本相关的任务,从日常对话、文档总结到代码编辑、法律、医疗检测、销售、文本解析都靠它。特点是侧重逻辑推理,对视觉音频处理能力弱,也是硬件门槛跨度最大的一类。 正因为他的硬件门槛跨度大,所以他也成为了评论区炒翻天的元凶。关于硬件门槛的问题,社长等一下会展开来说。这里先介绍模型分类,上下文推理模型,国内的有这些,我罗列在了左边,国外的有这些,我罗列在了右边,需要详细了解的可以暂停观看。 第二类是纹身图,纹身视频模型,这类模型侧重视觉内容生成,纹身图门槛相对较低,纹身视频门槛较高,对算力显存要求更苛刻。目前国内主流的模型如下,第三类是声音合成配音模型, have you forgotten who promoted you to this position and who did everything? 这类模型侧重音频生成,分为通用配音和专业配音两种,门槛跨度比较大,轻量版可以个人部署,专业版需要企业级硬件。 第四类是多胞态融合模型,这类模型是全能型悬设,可以处理多种任务类型,但硬件门槛普遍比较高,大多适合企业部署, 后续如果推出轻量版的话,也可以个人尝试一下。第五类是行业垂直模型,这类模型是二零二六年本地部署的热点, 针对性极强,仅适配于特定行业,大多需要付费授权,部分开源模型可以自定义微调。当然,这类模型针对的也不是普通人或普通企业,就不展开说了。接下来就讲讲大家比较关心的硬件门槛问题。 为什么有的模型能用洋垃圾搞定,比如好几年前的特斯拉 v, 一 百显卡,旧的 cpu 什么的,有的却必须上顶级配置。 市长从技术底层拆解一下,结合二零二六年模型的特性,讲一讲核心逻辑,再补充一些特殊硬件门槛模型。先明确一个核心前提,大模型本地部署的硬件门槛取决于模型参数、规模、计算精度和任务类型三个方面。这个很好理解,参数越多,显存或内存的需求就越大, 量化精度越低,硬件要求就越低。任务类型的现在一般分为生成类和推理类,生成类比推理类更耗算力。如果你只是上下文推理,而且对于上下文的长度要求不高,这就给了洋垃圾生存的空间。 以特斯拉 v 一 百十六 g 显卡为例,它的 f p 十六算力只有一百二十五 taylor flops, 放在二零二六年性能远不如 rtx 四零九零五零九零 a 一 百这些显卡。但首先,常文本推理的核心是上下文窗口的 talking 处理,侧重显存占用控制,而不是瞬时算力爆发, 计算过程是逐个 talking 推理,所以单次计算量不大。其次,二零二六年的长文本推理模型,无论是采用 m o e 架构优化,还是基于琳尼尔架构做优化,都大幅降低了对显卡算力和显存的需求。因此,基于这两点的 v 一 百显卡才能顺利上港。 那纹身视频模型为什么不能用特斯拉 v 一 百这类显卡?纹身视频是目前本地部署门槛相对高的模型类型,哪怕是轻量版生成十秒视频, 也几乎无法用 v 一 百流畅运行。这主要是两个方面的原因,一是纹身视频需要逐帧生成,加帧间连贯性优化, 单次计算量是纹身图的几十倍甚至上百倍,这种瞬时的算力爆发,不是 v 一 百这类显卡能够撑得住的。二是二零二六年主流纹身视频模型都要依赖 tensor core 核心,用于光线追踪、帧间融合, 而 v 一 百类显卡的 tensor core 核心性能薄弱,无法适配模型的核心优化,即使强行部署,生成的视频也会出现帧断裂、模糊、色彩失帧这些情况,失去实用价值。 除了上面提到的显卡硬件门槛,还有一些特殊硬件门槛模型,比如专业声音合成配音模型,这种模型的核心门槛除了看显卡之外,对 cpu 和内存的要求也比较高。再比如多模态融合模型,需要大显存的多卡系统加大容量内存。 其他还有些特殊门槛的行业垂直模型,和我们普通人相隔较远,就不一一列举了。那哪些模型能用个人电脑或者洋垃圾搞定呢? 哪些必须上好的配置呢?接下来社长就按使用场景加硬件成本谈一下设备适配的问题,再来给大家明确一下个人、中小企业、大型企业分别适合哪些模型,避免大家盲目跟风配硬件。 首先是个人电脑或者洋垃圾可以搞定的模型类型,依次是上下文推理模型、纹身图模型、声音合成配音模型,这几类模型用个人电脑就能轻松搞定, cpu 最低 i 七八七零零 k e 三二六六六 v 三,显卡最低特斯拉为一百十六 g r t x 三零六零十二 g, 内存三十二 g ddr 四硬盘最低五百一十二 g, 固态总投入甚至低于五千块钱,可谓是花小钱办大事的典范了。 然后是必须上好配置的模型,依次是纹身视频模型、多模态融合模型、行业垂直模型、专业声音合成配音模型,适合企业、专业工作室重度需求者的需求。企业是追求时间、效率和稳定性的, 谁也不愿意看到工作交给 ai 后, ai 也干不完,还老出问题,那就太耽误事了。比如社长最近对接的一个项目, 要求一天要转一千小时的语音,转文字最好控制在八小时以内完成,这样这台机器白天可以用来跑十人并发的大模型,晚上用来语音转文字, 这就相当于基本上让他二十四小时不停歇的干活了。这种配置那必须要上好的,如果他撂挑子不干了,工作就落下了,损失的可就不只是工作量那么简单了。企业级配置基本上都是三万起, 而且最近因为内存硬盘、显卡涨价,随便配一下都要四万加了。所以无论是企业或者个人,如果不是有明确的部署目的, 不要轻易来找社长配机器,因为这里面不只是硬件的投入,还有后续软件开发部署的成本、操作机器的学习成本,这些都是必不可少的支出。至于机器硬件配置,社长就不展开了,前面的视频也都有讲解,有兴趣的可以翻一下前面的作品。 下面就来说一说评论区说的最多的争论其实没有绝对的好坏,核心是模型适配,不同设备有自己的适配场景,也有明确的局限性。 a m x 三九五、苹果 mac mini 与英伟达 d g x 基本上可以归类为个人轻量企业级 ai 整机方案,它们都支持上下文推理与轻量纹身图,但纹身视频能力差异显著。 ai max 三九五和 mac mini 仅能跑低分辨率,轻量纹身视频对于重度高覆盖场景效率不足, d g x 则可以流畅运行全类型纹身视频适配。专业创作与企业高覆盖需求。三者核心差异在于 tensor core 的 支持算力规模与内存扩展能力, 需按需选型,毕竟对于一个靠 ai 短视频获得收益的创作者来说,一天发一条视频和一周发一条视频还是有很大区别的。 标准塔式主机确实看起来很笨重,它的核心优势是可升级,支持多卡兼容,性能强劲, 搭配不同的硬件就可以适配市面上所有模型的显存和算力,需求,能力比较全面。随着模型需求的增加,还可以通过升级 cpu、 内存、显存、硬盘来进行适配。当然,它也有它的缺点,体积大、功耗高、成本高。对于个人来说,性能过剩了, 所以没有最优的设备,只有最适配的设备,争论谁更好没有意义。核心看你要部署什么模型,满足什么需求。 最后,社长要说的是理性选型的问题。对于个人,如果你对于大模型没有明确的使用需求,可以先从个人电脑洋垃圾开始进行低成本尝试,慢慢发现硬件配置跟不上了,再向更好的硬件迈进。 对于企业,同样也要有明确的需求,比如采用云端的方案,要支付高额的 talkin 费用,那你就可以选择本地部署,通过一次性的硬件投入来降低成本。 比如你是敏感行业,很看重数据安全,本地部署就是你的合适选择。比如你的企业在生产环节或是业务环节需要大模型来代替人力工作,同样可以选择本地部署。如果你只是要写写文档、计划书啥的, 也不涉及到啥秘密,在线的就挺好的,完全不需要折腾本地部署大模型了。如果你还没有明确需求,单纯好奇,那更没有必要本地部署,即使配了机器,大概率也是在配完之后用过几次就闲置了。 希望大家理性选型,按需部署,不盲目跟风,不刻意贬低别人,根据自己的需求预算选择最适合自己的方案才是大模型本地部署的核心意义。毕竟技术的价值从来不是追求高端,而是解决问题。 另外有很多人真的是单纯好奇,私信我,我还要花很长时间科普,有时候一下子半天就过去了。还有很多人自己都没想好需求是什么,就跑过来说要做大模型本地部署,这也基本上问着问着就没啥下文了。社长毕竟也有工作要做,所以想要咨询的朋友们先明确自己的需求,避免浪费彼此的时间哦。

给大家展示下我的大龙虾,首先介绍下本地的欧莱玛用的千问三,然后展示下欧莱玛本地速度, 然后展示下大龙虾十倍速。

扣你鸡娃,我是小孙。时隔多月,今天教你们在手机上本地部署一个 ai 模型,不用联网,也不需要复杂的命令行操作,关键还可以搭配破甲模型使用,它就是 pocket top。 这是个轻量级 ai 模型运行框架,界面超简单,支持 d u f。 呃,这种适合手机跑的模型,完全不用代码基础。 第二步,去哪找模型?我这里为你提供两种方法,一、摩乐社区浏览器搜摩乐社区, 进去直接找想要的模型,下载导入即可。二、我的网盘资源找不到破甲模型,迅雷搜索鱼鱼的保障,进资源盘就能看到怕甲模型文件和提示词,保存下载后直接导入即可。网盘里我还放了往期视频的资源,需要的可以了解一下。 第三步,导入模型超简单,在网盘下好模型文件,然后来到传输页面,点击左上角的下载,等到模型下好后,点进去,点右上角,打开本地目录, 就可以看到刚刚下好的模型。然后选择移动,选择手机系统文件,这里随便选一个记得住的文件夹临时放置,我就放在电脑目录,然后就可以退出。来到 pocket 号,打开 pocket 号,点击右下角的 go to model, 这个界面的模型不用管它,需要科学上网才能下载。先点右下角有个加号,点它选添加本地模型,添加本地模型,找到你的模型,等着加载完成。导入后,模型会出现在我的模型 列表里。重点来了,每个模型右边有三个按钮,第一个,删除不想要的模型直接删。第二个,设置,这里能加提示词,这里就不多说了。第三个,开始聊天,点它就能跟 ai 进行友好互动了。 这次就有人要问了,这手机上部署有个傻子 a a 有 啥用?这手机上部署个傻子 a a 有 啥用?重点来了,破甲模型和角色提示词。我在网盘里准备了提示词库,让他帮你写小说,甚至模拟特定角色聊天。当然了,咱得用在正道上。在这里要特别提醒大家, ok, 好,虽然能让我们在本地现运行 ai, 但任何工具的使用都要遵守法律法规和品牌规范。分享的模型和提示词仅限于合法合法合法合法正当的学生创作与交流,严禁用于诈骗、钓鱼、传播违法信息或其他危害他人及社会的行为,请大家务必使用。尊重隐 私,保护数据安全,让技术真正为生活带来便利,而不是风险。不要当罕见的人,就这么简单。从找模型到聊天,全程离线,隐私拉满,方便便捷。今天教程就到这,我上次正式更新时 到现在应该有两百多天了,中途也有一些朋友来催更或者来鼓励我,我也非常感谢各位!还有,以后我可能会选择更换其他形象来更新视频,所以孙孝川小课堂可能要绝版了。

各位家人们,这期视频我们来讲解 openclog 的 本地部署啊,然后呢,我们再接入一个飞书,然后我们通过飞书去操作我们的 openclog 啊,现在我们介绍一下 openclog 到底是个什么东西啊? open openclog 呢,它原名叫做 club boat 啊,大家听这个名字就知道了啊,就是一个机器人 啊,是一个机器人程序啊,听起来挺好听的 club boat, 但是为什么改名叫 openclog 呢?原因很简单,因为这个名字呢,跟 isobik 旗下的大模型 club 啊,冲出了人家是大公司嘛, 就他连夜给他这个作者发了律师函,律师函的啊,就他这个律师函说这个作者连夜给他改了个名字啊,中间,中间起了一个过渡名字叫 motobot, 然后后面呢最终定为 open club, 那 么 open club 其实这个项目的最终名字了,那这个呢?其实是一个个人项目呢?这是个什么东西呢?这是一个 agent, 这是一个智能体对话的智能体啊,那我们可以给他指令,然后呢他可以回答,还能主动去操作我们的系统,然后整理文件,甚至呢自动编辑代码去完成任务啊,总之功能是很强大的啊, 有人说这个 agent 其实已经出现过太多太多 agent 了,为什么这个东西能够爆火呢?主要就是功能比较强大,它是一个部署在本地的 这么一个项目,呃,可以充当个人助手啊,去,你替你去操作这个电脑,那现在我们就来部署一下这个项目啊,部署这个项目呢,比较简单哈,我们如果说你用的是 mac 或者 linux 电脑的话,直接执行这样的一个指令就可以了,这是一个一键安装的奖本, 那如果是 windows 呢,你就这个样子啊,那么 windows 呢,可能会出现一些意外啊,因为毕竟来讲啊,就是 windows, 它还是一个以图形化操作为主的这么一个操作系统啊,就是说指令,指令这一方面啊,其实大元模型对它的指令呢,语料不是很多,不是特别的熟练,所以呢,有时候会出现意外, 所以我们建议还是使用这个 linux linux 系统或者 macos 系统来来去跑这个项目啊。如果说没有这个 linux 系统啊,大家可以装个虚拟机啊,在个人电脑上面装个虚拟机,那我电脑上面就是装的就是一个虚拟机啊,然后所演示的过程呢,就是用虚拟机来给大家演示啊, 你装一个 oppo 网,然后在里面装一个 open 处就可以了。另外其实你用一个虚拟机跑的话,其实更安全一些啊,因为它要获得比较高的权限,所以呢,你一不小心可能会把你电脑上的文件给删除了啊,那可能麻烦就大了,对吧,所以建议还是用虚拟机,先把 这个玩熟了之后,然后再去个人电脑上面,个人电脑上面去跑啊,那我们只需要执行这样一行命令就可以来就可以去进行啊,可以去安装这个项目了啊,帮我把这个命令,那我们可以到官网上面去复制一下这个,复制一下这里面 copy, 把它粘贴到这里面来,我们回车一下啊,这个它需要比较长的时间啊,因为这里面做的事情还是蛮多的。比较长的时间啊,另外加上我这里面做的事情还是蛮多的时间啊,另外加上我这里面做的事情,就不演示这个过程了哈, 我把这个过程呢记录下来给大家看一下,就当你之前玩那那好整点之后啊,没过段时间就会出现这个安装的过程,这过程呢,主要就是三步啊,第一步它会装这个 node。 这第一步啊,因为我们的这个项目本质上呢,就是其实就是一个一个 一个一个 node 项目啊,就是一个 top grid 的 一个项目,所以需要有这个 node。 然后呢,我们需要按住 git, git 呢,就是通过它去拉取这个 有个服务器上面的代码。嗯,接下来就是按住这个 open 啊,按住这个呢,好,安装完之后呢,接下来就各种选择了,就很简单各种选择啊,那这里选意思是 no 啊,其实这个是要确认一下你到底要不要去装这个东西,为什么呢?因为它有一定的 a rescue, 有 一定的风险啊,因为它需要获得比较高的权限,会有一定的风险, 默认选择 no 啊,这里选择 yes, 不 然到这一步就结束了啊。而且接下来就是一个快速安装啊,按快速的这个配置啊, quick start 啊,那么首先第一步就是配置我们的模型,因为它是使用大模型来进行做 规划的,那模型的主要大部分,大部分模型其实都是国外的模型模仿也有 special 啊,有部分是国内的啊, me max 月之艾米亲吻制服 a 啊,这个随便你怎么选啊, 我这边自己选的是这款 ai, 因为我有它,因为我有它的这个 open, 有 它的 api key 啊,你,当然你有哪一方面的,就是你有 memax 或者 v 上面的 api key, 你 就选择对应的就可以了,对应大模型就可以了啊,那么选择对应大模型之后,就是说我们选择完之后啊, 那么紧接着它会有一个会,会说你去输入这个 api key, 当然你可以在跳过,因为到时候我们会回过头来再去配置也可以啊。好,那配置完这个 api, 配置完这个大模型之后,紧接着就是 配置这个 channel, 就是 配置这个频道,其实就是我们要跟他进行你要听的这么一个一个一个社交软件,那社交软件基本都是国外的,都是国外的,到时候我们可以装一个飞书的插件,通过飞书来指挥它那设置,你们可以去跳过 skip now, 对, 那是跳过的意思,当前跳过, ok, 咱们解决下来就是各种各样的配置了,这里面你就按自就这,这里面就是很接下来的配置很随意了啊,比如 skills, 就是 要不要配置 skills, 当然你可以选择要不要装这个 skills, 这个后面配置也可以啊,当然你可以全部选 no, 也没关系啊 啊,这个不需要任何 skills 啊, ok, 然后这里全部就可以都跳舞啊,都可以啊,这里面选跳舞,然后 no 啊,都可以,都没关系的啊, 这里也可以跳过,这是有 hux, 这是一些歌子啊,歌子就是用来记录一些消息的,记录一些信息,记录日日的啊,记录记录一些绘画的啊,当然你这里面可以勾选啊,勾选,怎么勾选呢?非常简单,你移移动这个上,你去移动我们的键盘上面的上下键啊,就可以在上面,这个可以在上面键切换了,然后呢切到哪里你就可以点这个,点这个 space 就是 空格键啊,点这个 space 空格键啊,然后就可以选选中对应的目录了,那么选择之后呢,你可以多选,选完之后的话回车就可以了。 ok, 那 么点完这个到这里基本上转完了啊,回车之后,接下来我们就会看到什么呢? 看到我们的,看到我们这个东西啊,就是看到我们的这个聊天界面啊,它会打开一个界面,这就是聊天界面,我们可以直接在这里面跟我们的 萝卜根根根根根根根根根根根根根根根根根 根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根 碰飞书,点 c n 这个网站,然后接下来紧接着我们进入开发者获产,这个地方的获产进来之后呢,我们需要去创建企业资金应用,我这里已经创建好几个应用了,对吧?创建好几个了啊,我们再来创建一个,点进这里面创建就可以了,然后就企业描述,那你就企 业名,应用名称啊,你先写下应用名称,随便写一个,比如说叫 boom boom 啊,就是描述啊,吧啦吧啦,随便打一点啊,这里是应用的图标啊,点创建,创建,创建完之后,接下来我们去啊,我们去添加一些权限给大家。呃,看一些权限啊,看权限的话,我们这里面 是跟通讯相关的权限,我们点点这个权限的名称,这里面啊确认开通权限,然后就会,然后就会开通很多权限啊,开通权限之后呢,这里还有一个非常重要的东西,就是这个事件与回量啊,这里面定位方式,我们点保存啊,这里会出现一个应用未,等一下 点保存哈,就是我们使用常连接接收事件,你点保存的话,它会出现这么一个东西叫应用未建立常连接哈,应用未建立常连接什么意思?就是别没有人跟他连接哈, 这个时候怎么办呢?这个时候我们要回到我们的,回到我们的这个 linux 这里面来啊,就是我们这里面要去去配置一下,这里面就是我们要去跟跟我们的非输产生一个连接啊,那么这里面需要去装我们的插件啊,装我们的非输啊, open open close, 然后呢?把非输装这个插件,然后这个插件插件我就装好了,装好之后我就不再去装了哈。 啊? ok, 那 么你装好,那么这里面我给大家演示一下怎么去进行配置啊?非常简单哈,我们使用 open globe 这个指令 let's configure, 这个时候就是配置我们的模型和我们的 channels, 嗯,这里面需要等待一下啊,稍微稍微等待一下,需要一点时间啊,这个就是很慢哈,就是感觉就是非常慢,因为它是一个用 script 写的这个项目,其实很慢啊。好,我们选择这个 look on machine 本地机器啊,选择这个会变相好,这里面会有 配置啊,这个时候我们就可以配置什么呢?可以配置模型,模型可以配置一下,就是如果当时没有设置模型的话,或者说模型后面要改换模型,是吧?这里面可以继续设置个模型。 ok, 比如说我们,呃设置一下自己,因为我们已经设置自己本了,比如说你这里面选择 memax, 那么这个时候你可以选择模型啊,比如说我们这里面选择我们的 mini max m i d e 啊,回车一下。好,那么这个时候呢就会输入我们的 mini max api 啊,把复制粘贴在这里就可以了啊,然后我这里已经配置过了,我就不配置了。好吧,我们现在 大家演示一下,就是模型怎么去进行配置啊?这个时候我们再再重新走一遍,我们来配一下我们的 channel, 就是 比较它就比较慢啊,需要等,然后我们选择 local 本地的哈,好,这里面我们选选择 channels, 那其实不仅 channels, 它的这个什么 has has check, 健康检测啊, skin 啊,都都可以配置啊,所以你前面如果说没有配好的话,没关系啊,没有配好没关系,然后我们重新再指向 comfig 这个指令,就可以再来配置它。好,我们这里面选择 channels。 好, 可以,这里面 好,那么这里面我们选择什么呢?拆这里面大家看一下啊,嗯,它默这里面啊 channel, 它这里面选择说的是 channel stat status, 就是 啊,我们的频道的状态啊,然后这里面呢是飞书 con contacted 啊,就是我们飞书已经连上了哈 啊,飞书已经连上了,但如果说是第一次的话,它会出现啊,飞书的这个配置啊,要你去输入这个,哎,这个,这,这个东西啊,叫什么呢?叫 a p id 啊,和我们的 a p script, 所以 在这你到凭证去寻找到 a p id 和我们的 a p script 啊,去配置就可以了,这是我现在因为之前配置过来已经配好了,对吧?配好了,所以呢,我这里呢直接跳过这个了啊,然后呢回车一下,我们回书啊, 啊? ok, 那 么这个时候它就是可以修改这个配置啊,修改这个配置我们再来看一下啊,我们点 modify settings, 就是 修改这个配置。好,我们修改一下啊,我们点回车一下,修改一下啊,它说已经配置好了,它说飞书的这个已经配置好了,对吧? 啊?需不需要保持它啊?如果说我们选择 no 的 话,就不保持,对吧?就会重新配置,所以我们这里选择 yes, 就是 说已经配置过了,我就不配置了,好吧, ok 啊啊,所以说域名 open, 我 们选择这个 open 的, 这里面记得选 open 啊,选这个 open 呢,就是开放所有的这个群组啊,如果说你选择 overlist, 那 么它是就是像是设置一个白名单一样啊,到时候需要你去配置这个一些群组啊,那就比较麻烦啊,直接选 open 就 可以了。好,那么这个时候又回到这个 select channel, 让你选择这个东西,对吧?啊?因为刚才已经选过了,是吧?选过了,这个时候我们点 finish 啊,就完成 啊,然后我们再什么呢?他说配置 pos 呢?那我们现在 no 啊,因为配置过了就不不配置了,对吧?好,那么现在我们选择 continue 继续啊, ok, 好, 现在就已经整个领域就跑完了,对吧?啊?整个领域就跑完了, ok 啊,就是我们再回到这边来哈, 回到这边来,因为他必须这个全世界也回到这个地方。你只有,只有什么呢?只有刚才那个东西,那个连接了之后啊,你这里面才能什么才能这里面选择保存的时候才有用啊,然后再添加一个订阅事件就可以了啊,是这样子的, 好了,现在我们因为我这个一切都已经配置好了,我再给大家,现在我们来演示一下啊,就是我们在飞书,我们通过飞书的这个机器人怎么去操作它啊?现在我们这里边,因为我这边已经启动好了,启动好的话,我这里面把它的这个聊天界面再打开一下。啊,现在我们打开那个聊天界面啊,打开那个聊天界面呢?我们可以选择我们的 open log 啊,选择这个布置一下来啊,然后这里粘贴一下, 就打开了个聊天面板,我回这一下啊,所以需要稍微等待一下。好,现在已经现在就打开了, ok, 它这里有个提示打开了啊,好,我们点击一下这里面, 对吧?先打开了是吧?好,打开,现在其实我们就可以跟他进行沟通啊,比如说我们随便搜个,呃, what's your name 啊?因为我这个打不了中文。 what's your name 啊?他说他没有名字啊, still don't have a name 啊,现在是没有这个名字,是吧?啊哈, ok, 这个是我们在 加上自然,你要在界面和他进行沟通啊,但这不是我们啊,最常使用的工具,最常的工具应该是我们的飞书啊,好,现在我们打开飞书的客户端啊,大家需要装个飞书的客户端啊,我们来演示一下,好吧。啊,这个飞书客户端啊, 就是他,我们这边就是你装完这个,就是你装完那个机器人之后啊,他会这里有一个提示给你啊, 啊,你是可以打开这,他会有个开发者小助手在这里面,他会有一个提示给你,你直接打开这个应用就可以了啊,打开这个应用就可以了,然后这里面出现你的这个聊天窗口啊,好,那么现在我们在这里问问题,好吧,在这个飞书这里面,比如说啊,呃,我就不问你是谁了,好吧,我就问一个非常简单的问题啊,就, 呃,就是说帮我读取啊,读取这个 source list 下面的内容啊,这个是用来配置这个进校语言的,我们来问一下,我们要他帮我们去把这个内容复制给我们看一下,好吧, ok, 帮我读取到 source list 里面的内容,他会不会回复我啊?遇到了非说 a p r 权限问题,需要管理员读取联系人信息啊? 好, ok, 授权之后他给读了,他给我内容了,好吧,哎,这个是 social list 文件内容 啊,作为他说这个配置文件里面是 open two i 十二点四系统的软件员使用了阿里员的剑像。啊, 那你还可以干其他的事情啊,你还可以用它去做其他的事情,比如说打开这个浏览器,打开这个百度啊,都是可以做的啊,那如果说你给它装了这个 skill 之后,还可以做一些更专业的事情啊,都是可以做的。好,那么关于这期视频我们就到这里面啊,下期视频我们再见。

教你使用 overclock 想要使用大龙虾 overclock 啊,也就是可欧德布切,但又担心消耗的饕餮太多,花费太多钱, 同时呢也担心一些安全性的问题。那我接下来这个视频教你使用 overclock 连接本地的大波形,这样咱们就可以免费无忧地去使用你的 ai 助手了。好的,我接下来它怎么用啊?一个视频给你讲清楚它这个实现呢,其实比较简单啊,总共分为 三步。第一步呢,首先咱们先去安装一个本地大模型平台,然后安装完成之后呢,在本地大平台里面去安装你想装的大模型,然后装完大模型之后呢,第三步,使用特殊的命令 来启动 open curl 就 可以了,仅有三步,非常简单啊。好,那么接下来呢,我就带大家一步一步的实操一下。咱们首先先给本地的电脑去安装本地大模型平台欧拉玛,也就是这只可爱的羊驼啊,那为什么我本地的大模型需要去安装欧拉玛呀?欧拉玛就相当于一个平台, 比如说啊,我需要在网上买东西,那这时候我先要去下载一个某宝某多多,类似于这种电商平台,那么这些电商平台呢,其实就和欧拉玛是一样的,然后在欧拉玛里面有各种各样的毛豆啊,各种各样的本地模型, 我们是可以安装的,这时候呢,我们点击毛豆啊,就可以看到像最近比较火的 k 二点五,智普的四点七啊,以及某问的模型啊,这些模型都是有的, 那我们可以去选择相应的模型安装到本地。好,那么首先呢,咱们点击 download 啊,然后下载一个文件,根据不同的电脑下载相应的文件,然后下载完文件呢,它长得就是这样啊,咱们双击一路下一步就行了。 然后安装完成之后呢,它会打开这样的一个界面,然后在这个界面里面,你可以在右下角去选择相应的模型。您下载啊这块呢就给大家去说一下啊,模型的参数越小,那么它占用的空间也就越小,对于你电脑配置的要求也就更低,但是 它回答的质量可能相对来说就不会很好,所以大家要根据自己的情况来选择合适的模型进行使用就可以了啊。当然它其实还有比四 b 模型更小的,有个零点五 b 的 模型,那我这一块呢,你是搜索不到的,但是咱们在它的平台网页上是可以去找到的, 然后咱们可以使用这个命令去安装也是可以的啊。 no, 这时候去复制这个命令,好,然后去打开咱们的命令窗口,然后使用欧拉玛 raw 啊,然后这个时候呢,就加上咱们的这个更小的模型,零点六 b 的 啊,然后把 value 值进行一个替换好撬回舍,这时候他就会去下载咱们指定的模型,并且进行安装,等他的安装完成之后呢,咱们本地的模型就有了。好, ok, 那 么等待一段时间之后呢,等他出现这个 success 啊,安装成功就说明他已经安装完了,安装完了,这时候咱们可以去问他,你是什么大模型? 好,敲回去。 ok, 那 这时候他就会一些思考,思考完之后呢去回复啊,我是,呃,谁?什么什么大模型啊?我拥有什么什么样的能力,对吧?好,那到这儿咱们已经安装好了,安装好了之后呢,接下来咱们就可以使用 open call 大 楼加了。啊,那么怎么使用啊?这个时候非常简单啊,我们只需要使用 olama launch open call 这个命令就行了。 啊,那我复制这个命令,打开一个窗口,它意思是啥呀?就是使用 olama 来启动 open call 啊,你启动的时候呢,自然而然它就帮咱们会进行部署的啊,你,你不需要使用 open call getv 来启动了,你就使用欧拉玛 launch open call 启动就行了。好,咱们来启动了。 好,然后启动的时候呢,它让你去选择本地的模型,那我本地的模型呢?撞的就是某问三啊,这时候咱们敲回车,敲完回车之后呢,那么是否继续啊?这时候要按 t 把键的,所以咱们按 t 把键啊,旋中,然后再回车,这时候它让你选择是否去保存一个存储的路径啊,那我们选择 继续啊 y 就 行了。好,选择完成之后呢,这时候大家可以看到了,他就开始去打开 open core 的 一个服务,并且给他设置本地的某问三的模型了。 好,那么这时候选择完成之后,咱们稍等片刻之后,咱们就可以使用 web ui 的 这种方式来访问了。好,这时候咱们来试一下啊,在 web ui 里面啊,可以看到他目前是在线的。那我这时候问他,你是 你是什么大模型,然后点击 send 发送。好啊,这时候, ok, 他 说了我是大模型。这时候呢,虽然他没有告诉咱们他是什么大模型啊,但我这时候可以继续问他,你是本地大模型吗? 好,然后点击发送。 ok, 他 说了我是本地大模型,对吧?啊?他没有告诉你这个名称啊,然后,但是呢,我后面问他是不是本地大模型的时候,他就说他是本地大模型。那 那么咱们其实从日制里面也能够看得出来,它的这个模型以及像 agent 的 调用都使用的是本地欧拉玛千问的这个模型啊,这个时候如果你把欧拉玛的这个服务你给它关掉啊,你给它服务给它停掉,停掉之后这个时候你再和它对话,问它在吗? 这块是没有任何信息的,这块就说明你的模型是有问题的。那这也从侧面上去证明了,咱们现在调研就查本地的这大模型,那么使用本地大模型有什么优点和缺点呢? 它的优点就是我在本地调用的,所以我不需要花费任何的费用,消耗再多的 top 我 也不怕。然后其次呢,是使用本地的大模型的隐私性相对来说是比较好的,因为我用的都是本地的嘛。但是它的缺点是本地大模型回答的质量,它可能比商用大模型 执行任务的能力要差一些,回答的质量要低一些。另外呢,本地大模型它对于电脑的配置是有一定的要求的,所以呢,大家就根据自己的需求来选择,到底是要调用线上的大王。

大家好,你现在看到的是我在飞书里和一个 ai 机器人对话,看起来很普通对吧?但这个机器人背后的大模型不是 chad gpt, 不是 cod, 也不是任何云端 api, 它是智普最新开源的 glm 四点七 flash, 一个三百亿参数的模型。此刻正跑在我自己的电脑上,用的是一张四零七零 super 显卡,而且我这台电脑和飞书之间 隔着一台只有三核 cpu, 四点五 g 内存的小服务器,没有昂贵的云端 api 费用,没有数据隐私担忧,完全本地化部署。整个架构是这样的, 我的本地电脑运行欧莱玛和 glm 四点七 plus 模型,通过 f r p 内网穿透,让云服务器能访问我本地的模型。 服务器上运行 openclaw, 作为 ai 助手的大脑,飞书通过 web socket 长连接和 openclaw 通信。 接下来我会手把手带大家完成这整个部署过程。如果你也有一张十六 g 显存的显卡,想零成本打造自己的私有 ai 助手,这个视频一定要看到。最后, 话不多说,现在开始部署。首先下载一个适合跑模型的驱动,接着在欧拉玛官方网站上下载欧拉玛,注意选威严系统版本,不要错选,下载完成后双击运行,点击安装, 安装完成可以在终端运行 olegma version 查看 olegma 版本,运行 olegma pro 加模型名称可以下载对应的模型。最后运行 olegma run 加模型名称就可以在本地运行模型了。这里提问一下, 看到输出说明欧莱玛本地运行模型成功,下面我们开启内网穿透,这样服务器就可以调用我们本地的欧莱玛模型了。首先进入服务器 下面,在服务器创建一个 f r p 的 文件夹,然后进入这个文件夹目录下,下载 f i p 解压 f r p 压缩包,进入刚刚解压的文件目录下,创建配置文件 f r p s。 点 to mail 下面启动服务端,然后我们可以用这条命令来验证服务端是否开启。 接下来需要开放防火墙,如果大家可以打开这个页面,代表着服务器的内网穿透已经成功开启服务器的端口,让其与服务器的端口进行连接。 和服务器一样,首先创建 f r p 文件夹,进入该文件夹目录下,运行这条命令,下载客户端 f r p 的 压缩包, 对压缩包进行解压,下面同样进入该文件目录下。接下来创建配置文件。配置完成后,接下来启动客户端, 可以看到 star proxy success, 这说明我们的内网穿透已经完成了。当然我们还可以在服务器当中刻录一下这个幺幺四三四端口, 可以看到欧拉玛是有回应的。如果大家想更方便地操作服务器或者看到里面的内容,这里建议给服务器安装一下 one panel, 这里选择中文简体,因为我已经安装过了,所以这里省略了一些步骤,没安装过的朋友可以根据提示进行下一步,最终会得到面板的地址、账号以及密码。然后根据这些信息进行登录,就可以打开服务器的 one panel 了。 大家看这里就可以看到我们刚刚创建的 f r p 服务的相关文件。下面说一下如何在服务器向部署 openclaw。 首先将项目源码克隆到服务器上,接下来在服务器中运行这两条命令去安装 node js。 二十二, 接下来运行这四条命令,安装 pmpm 和 openclaw。 最后运行第五条的命令,进入 openclaw 配置向导, 运行 open cola 配置向导,这里选 yes, 选 quit start 因为我们要使用的是本地电脑的欧拉玛模型,所以这里我们先进行跳过,这里进行全选。 选第二个 intermodel menu, 这里我们删除模型,选择填入我们的欧拉玛 glm。 四点七 flash 模型选择跳过 选 yes, 这里选择 no, 选第二个,这里按空格选择跳过这部分可以都先选择 no, 这里选择跳过这里我们就选择 restart。 按回车这里选择 do this later, 然后去手动配置 olemma 模型,选择 yes。 完成 openclaw 的 配置后, 接下来需要编辑这个 json 文件,确保服务器的 openclaw 可以 正常调用本地的 olemma 模型。这里说三点编辑 json 文件需要注意的地方,第一点是 openclaw 要求的最小上下文是一万六千 tokens, 第二点是配置的模型 id 要与 olemma 实际模型完全一致。第三点是 getaway bind, 这里需要修改为滥。配置好后就可以在服务器上下载飞书插件并开始配置机器人了, 大家可以在飞书开放平台申请并配置机器人。下面需要在权限管理这里开通以下显示的权限,点击开通权限即可添加。 接着需要在事件与回调这里进行添加事件配置订阅方式选择长链接,然后添加机器人进群以及接收消息这两个事件。 注意看这里的两个应用凭证,下面会使用到 机器人配置完成后,在版本管理与发布这里进行发布,这里是清晰的飞书开放平台的配置步骤。在开放平台配置完机器人后,我们运行命令,安装飞书插件, 紧接着运行下面四条命令,在服务器中配置飞书。刚刚提醒注意的两个应用凭证,现在需要分别填在这两个命令中,然后重启 open class, 打开飞书, 添加下你配置的机器人后,便可以和它进行对话了。如果完成到了这一步,那么恭喜你拥有了一个完全属于自己的 ai 助手,可以在飞书里随时调用。而且最棒的是,它没有昂贵的云端 api 费用,没有数据隐私担忧,完全本地化部署。