我看很多人说自己的 open core 网关总是容易掉啊,其实最主要的原因是你给他配的模型配的太少了,因为 open core 他 要工作的话,他必须得要有模型调用的, 就好像你手机要用是必须联网的一样。所以你给他多配几个模型, 他这个模型用不了,他就会自己切换到,你给他调度协议让他切换到另一个那个模型去就可以了。我和大家分,我给大家看一下我现在给我的二瓶可乐配的那个模型啊, 我刚刚我是给他配了三个模型,然后我让他做了一下测试。嗯,他给我的建议就是主力的用,嗯,谷歌的,这个 谷歌的,然后备选 deepsea 官方的,然后这个不是免费的硅基流动,这后面这两个不是流动的,但因为硅基流动是聚合平台嘛,它就 给我是这样的建议啊,所以你如果有这个问题的话,你也给他多配几个。还有就是最好不要贪那个便宜说, 呃,买那些第三方超便,超级便宜或者免费的。老实说,现在的这个大模型的算力,他就是像电和 和水一样,你看现在哪里有免费的电和水给你用吗?没有的,都是需要有一定付费的 啊。我的这个谷歌的这个是他们官方就有免费的额度,所以我要用他做主力模型,费用肯定基本上没什么费用的。然后, 呃,并不受官方我都是花钱买的, 所以你这样配置的话肯定就不会掉的。而且最稳的肯定就是这种官方的。第三方的接口的话可能是不那么稳,但你选那种相对比较大的第三方也是不错的, 所以你网关容易掉的问题,其实这样解决就 ok 了。
粉丝217获赞4827

今天跟大家讲一下这个在小龙虾里面,他这个的模型是怎么切换的,那我当前这个模型是 glm glm 五的模型,那如果说我要切换成呃 glm 四点六 v 的 这种模型,那该怎么切换呢?那切换里面我们有这么几种办法。 呃,先给大家说一下,一种我们先打开一个终端,在这个终端里面呢,我们输入这么一个命令,叫 openclock apple color, 然后呢 o d l 是 model 四,那设置 set j ai, 这是智普的那个前缀 j ai, 然后写杠 g l m 杠四点六 v, 那 这个就是切换成把把这个默认模型切换成 g m 四点六 v 的 版本,然后我们敲回车一下, 敲回车完之后呢,它这里呢会告诉我们模型已经设置成功了,然后呢我们给这个小龙虾呢的网关重启一下, 重启一下,这个可以重启一下, 那重启完之后呢,我们回到这边来,我们去刷新一下这个浏览器,你看它当前呢这一个会增加了,多增加了一个叫 g l m 四点六 v 的 这么一个呃默认模型, 那这个呢是我们切换模型的一种方法,当然大家这里看到的这是一种呃通过它这种内置的这种 p p n 的 一个命令, 呃可以设置的,那如果说呃这里面的那个模型默认的模型不在我们的小龙项链表里面,比如说像 deepsea 这这种模型,那要怎么设置呢?因为 deepsea 它是不能通过这种呃简单的命令去设置,它只能通过自定义的呃 模型去设置,那它这边呢有两种,一种两种命令,一种是直接通过什么通过这种呃非交互模式的这种条命令就可以执行,比如说像这个, 比如说像这种像这种一条式的命令,它这里是什么呢?它这条命令呢?它这个是什么?呃是像这个参数呢?是。呃 执行非交互模式,使用非交互模式。那第二个叫 modelcare 了,这一个呢?按本地模式配置网关,这个是按本地模式配置网关。那第三个是什么呢?第三个是使用自定义的 api t 接入,这个是使用指定 api t 接入的参数。那第四个参数呢?这个第四个就是给这个呢?呃提供商命名为叫 dbseek, 对 吧? 那第五个这个参数呢?这个是什么?这个说明让它兼容 openai 的 协议。那第六个呢?第六个是什么设置?呃, deepsafe 的 这个接口地址。那第七个是什么呢?第七个是,呃设置默认模行为 deepsafe chat。 那第八个这个呢?那就简单了。第八个这个就是填写我们在数据库上创建的这个 api t, 这个就是 api t 的 序号。那第九个这个是什么呢?确认接受非交互模式的风险提示,一定要加这句话,要不然如果说少了这个,它上面的这个就执行不成功,那我现在来给他执行看一下 啊,这里已经告诉我们。呃, justin 呢?已经备份了,然后呢?这里也执行完成了。那执行完成之后我们要记得什么?记得是,呃,我们要给它一个重启网关,网关重启一下。 网关重启完之后我们直接在这上面刷新一下就可以了啊,刷新一下它当前这个 deepsea 的 这个什么?呃,模型已经加载进来了,那我们可以直接什么跟这个呃, 我们直接问用 deepsea 看一下 它,这里会回复我们是由深度求索公司那一个研发的这个大模型, 那这个模式像这种方式呢?都是用一条的命令方式,那还有没有办法用?呃另外一种方法呢?就不用一条命令,我们用那种直接 on 使用的是什么? openclock on board 这条命令呢,就是类似于刚刚安装的时候我们去执行,那我接下来也给大家去演示一下这个呃,我们用这种命令,使用 openclock, 使用这样子的粗俗化的方式去呃配置我们的 deepseek 的 这个呃模型。那首先呢,我现在呢先给它做一个啊,先把这个呢做一下来还原。其实所有我们所有配置的这个 wincore 的 这些配置参数都在这个文件里面,我先把这个删掉, 删掉完之后复原这个文件, 我重命名一下,我复原这个文件之后呢,我们我在这里呢先给他什么,先把它网关 重启一下啊,重启完之后我们确认一下是不是恢复到我之前的呃初设设置,我刷新一下啊, 这已经呃复原到最早的之前的设置了。好了,我现在呢给大家去演示一下这个什么呃通过这个叫做 open, 通过这条命令怎么去呃配置我们的 deepcom 这个模型,那我们执行这条命令叫 opencloud on board 的 这个命令, 那这个执行完之后呢?他就是我们,就像我们第一次安装的时候会告诉我们这个呃一些风险信息吧。完了我们给他确认一下这个选择 yes 啊,这个还是继续选择 quickstar, 那 这里呢告诉我们什么配置,是否继承原来的值,那我们选择第一个就可以了。 use assign 就是 继承原来的值, 那关键就是这些位这个位置了,这个位置这里的模型驱动商呢?有这么多个,那我们要选择哪一个呢?我们选择的是这个叫做 custom, 因为这里没有 dsp 的 那个默认的夫商,所以说我们这里要选择的是自定义的 夫商,那我们选择这个回车,那回车完之后,关键这个位置的 api, 那 个 api base url, 这一个要改成什么?就是我们的模型的接口地址, 这里的接口地址呢?要改成我们的这个叫 deepsafe v 一 的这个默认模型,那我们啊路径改一下,黏贴进来,就一定要改成这什么 a p i deepsafe, 点 com 点 v e 这个 u r 的 地址呢?是兼容 openai 的 接口模式。那我们回车,那这里呢?我们是什么?呃,黏贴那个 api key 的 值,那我们把 api key 的 值黏贴进来, 然后呢这个位置这里有三个参数,是选哪一个呢?我们要选择的是什么?叫做呃,说明兼容和 ai 模式协议,然后我们这里选择第一个兼容 open ai 协议, 那这里呢? model id 又是什么呢? model id 呢?这里呢是设置默认模型,也就是这个提供了哪些的默认模型?然后我们选择呃,输入 d e e p s e k 默认模型,然后显示 a t, 其实就是这一个, 其实就是呃这个位置接口文件里面的这个,其实就是这个, 其实就是这个。这个 deepsafe 提供的这一个叫做什么?推理模型跟聊天模型,然后我现在先选择的是聊天模型,叫 deepsafe chat 的 这个模型。好了,那我们给它 model id 选择了 deepsafe chat, 那这里的是什么呢?那 point id 又是干什么的呢?那 point id 它其实是是模型的一个小名,那我们这里的小名呢?也可以叫让它默认叫 custom api, 这个默认的也行,那我们选择用默认值吧。 那第二个是这个是别名,那这里的别名呢?我们也可以不填,没关系,我们直接敲回车也不填。然后第三个,这什么使用的一些我们交互的方式吧,那这个我们直接跳过啊,这里呢也是直接跳过, 然后这个是配置技能,那技能像我们之前也配置过了,我们可以选择 low, 也可以选择 yes 或者点 yes, 在 这里面跳过也行。我们先跳过,那这后面都是跳过了啊,像谷歌的,国外的这些 a p i 我 们都跳过,目前都没有申请 好了,那这个是不可使的,这个也跳过,那现在最后步呢?这个是什么呢?我们再重启一下就可以了。重启网关, 重启完关之后我们选择的是什么?还是继续选择 open 的 web ui 的 这个方式,然后呢它这里呢?它这里呢?你看它这种方式也可以把这个 deepseek 的 这个模型给它配置进来,那这个就是我们呃默认的这种, 呃自定义的方式,把 deepseek 的 一些那个 a p i 呢?呃配置到小龙虾里面去好了。呃,这个今天呢,呃,跟大家讲的这个第三方的 a p i 呢?呃就到这里了。

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。

用这个 open color 真的 不要去随便切模型啊,我现在真的是深受其害,本来我这个小龙虾大费周章把它部署好了, 然后但是因为我之前用过那个 gpt 的 模型嘛,我发现那个很聪明,然后后面我最近今天下午我重新重装了一下,我用了 gmi 的 那个模型, 我发现他回答问题始终不如 g p t 聪明,我就想把它还是想切回那个 g p t, 然后切回来之后我跟你们讲,你看就一直报这个什么四零零是是什么找不到配置,然后我问了一下这个机迷你这个谷歌 ai, 他 说这个好像是 是属于 oppo 可乐,它现在一个属于它的 bug, 就是 说你切换的模型有的时候就会导致这种情况就用不了,现在除非说可能一定要我切回机迷你才才可以,哎。

哈喽,大家好,这期视频主要讲一下阿里百炼模型的自动切换的问题,之前有网友说百炼模型比较容易用光,单个,单个切换非常麻烦,那么这个视频里面我们介绍了怎么去把百炼模型多个模型同时写固配置文件,这样避免出现每次应用中出现切换的问题。这是我们 现在之前的 opencore 的 配置文件。我们首先看到在 opencore 的 配置文件里面有一个 models, 这个就是选择到模型,然后这里面有一个模式是 merge, 这个 merge 就 表示是合并啊,可以合并的意思 or widers, 就是 指现在我们这个模型的提供商,我们看到现在这个提供商这里有一个 blend 摆列啊,摆列就摆列,然后这里有一个摆列,下面有一个括号啊,它就对应着 这一些内容啊,它对应的这些内容,那么我们其实只要再加一个其他的 这样的一个模型的名称就可以了,那么这个模型的名称呢?我们还可以,就是还是用白练啊。嗯,其实很简单,就是这里,从这里我们把它 copy 一下。 copy 到哪呢? copy 到这个地方啊,这个你要对齐啊,就是这里有一个方括号,对吧?我们看到这里这里模式这里有一个方括号, mod 这有个方括号,那么这个方括号中间都是,中间都是。 呃,这个括号呢?都是一对一的啊,这个方括号是跟这个匹配的,是吧?那么这个方括号呢?它就应该跟这个匹配,也就是这个方括号是到了这个模式这里 mod 这里是吧? 那么这个大括号它就应该是对的方括号的下面这个括号 这个对齐了吧,那么这个摆链的这个第一个模型就应该是对到这个位置上的大括号,好在这个大括号这个位置我们加一个 模型就可以了,用一个小的分号,然后再往下加这个模型,那么我们先加的时候呢,我们可以把它先拷贝出来, 然后黏贴啊,这个里面就是我们这里是百炼,是吧第一个模型,那么我们在这里可以写百炼二第二个模型, 然后这个东西是不变的啊,这个 key 也不变的,这两个都不变,然后我们要做的就是把这个 id 给换掉就可以了,那么我们可以去查百炼的 这个模型的本身的这样的一个列表啊, 我们看到百炼模型本身的列表啊,我们找一个, 比如说天文 plus, 我 现在这个模型它是有的,我就把这个改成天文 plus 就 可以了, 改成天文 plus 就 可以了啊,然后,嗯, 我们在这个 agent 下面啊这里,然后大家要注意我这个写法啊,一定要写成数组的形式。我们前面我做实验的时候呢,有两个问题,第一个就是 four four bags, 忘了加 s, 还有一个就是没有写成数组的形式,所以大家一定要参照我的数组形式的写法仔细看一下, 然后我们用同样的方法再加一个哈,这样就有三个不同的模型类别在上面,后面根据你的需要可以加任何任意多个, ok, 这期视频就到这里啊,如果大家觉得有帮助,别忘了点赞加关注支持,感谢大家,我们下次见 哦,等等我们可能再验证一下,然后,嗯,我们打开 open core 的 对话窗,我们再验证一下,确认没问题啊,应该是没问题的。好,我们下次见。

有粉丝问模型该怎么更换,那么我们今天就来讲模型怎么选择以及更换。 那我们首先去了解一下这个模型什么是模型,以后不懂的东西都可以直接问豆包,我们直接就把目前市面上的所有能够支持龙虾的这个模型去进行一个比较,是豆包出的结果。 那么在这个表上你们就可以知道为什么你们的龙虾会反应这么慢,这里是有响应的,比如说这种三秒的。 好,那你看这里,他说这个是第一,那我们就今天就用这个来做一个例子,是如何去接入这个 p, 因为很多人他可能第一次上来,他就去接了 type c, 可能比较简单接入,接完之后就不知道怎么改,那今天教怎么改? 那我们得先去这个官网, 这个它是目前应该是全国第一的,豆包说了感应最快,但是价格不便宜, 那我们在这里找到这个 building plan, 进来的时候我们就会选一下套餐, 买了这个试一下,给你们解释一下这些是什么意思,比如说一百 rounds 五个小时,什么意思呢?就是五个小时之内你能够问他一百次,比如说现在从十点到下午的三点, 我只能问他一百次,如果一百次过后就更不了了,就他不会反应了,是这个意思,如果你,如果你觉得不够,那你就可以开这种一个小时可以三百次,还有这个两千次, 建议啊,普通人我觉得还是这个就够了。好吧,你们自己看,那我们怎么接入呢?首先在这里啊,有一个购买之后啊,它这里会有一个 e, 然后用了这个 key。 好,我们先讲本地的更换,我们在我的电脑一般的吸盘这里会有一个用户找到,你的用户在里面找到这个 open ai 的 登录, 然后在这里会有一个 opencloud 的 追神文件,这里一定要备份啊,特别是新手一定要备份,如果不备份的话,出了问题就很难搞。复制一下, 三月十三号好了,有了备份就不怕了,它它什么问题,我们大不了就把它这个删了,然后再来这里把这个回复就行了。 找一个好的编辑器啊,如果你用这个文档打开的话, 如果是这个打开的话 就不太好看了,可能编辑的时候会容易出问题。找个好编辑器, 这里好处是你可以这个括号都能对应,这样对的上。好了,不说那么多,怎么改呢?首先做了一个保存,保存之后这里是有备份的,就不用看了,我们来去找个 deep sync, 这样 deep sync 我 们从头到尾复制一下,比如说你的这个 改一下 mini mix 类型,这样子给它加上,这里也要加,相当于就是加一个模型吧,它是可以在那个 mini 画像龙虾这一款。首先先加一个手动画, 我们抄 dips, 这里注意啊,一定要用英文,就是英文字母的逗号,不要用中文的,用中文的不行。 这个叫什么呢?叫什么?那这样子不能怎么配置啊?找个包,找个包。那怎么接入吧, 试一下, 这个是名字,名字是随便啊。嗯,然后这个地址,这个请的地址可以切换成不能接 d c 的, 在这里不知道 v e 就 行了。 这是什么?这是默认,比如说你配置之后,你重启之后它用哪个模型,这里直接默认 d c 嘛?现在可以在这里加一个 这后面的名字,在这里你写啥就是啥, 哦,应该上面这个,上面这个,嗯,这个这个定了一个是 id, 然后写完之后要 ctrl 加 s 保存一下,一定要保存,不保存不生效,好,保存,我们试一下重启一下 旧版的这个是要后面有个 stop, 好 像新版的那个三点八的好像就直接就给了位就可以启动,这个呢?根据自己的实际情况启动一下。 刚才我们只是配置了,有没有发,如果聪明的小伙伴会发现我刚才是没有配置这个 key 的, 没关系啊,我们启动启动。哦,这个没改, 要改成,要改成这个, 这个系统保存再重启一下, 在吗? 哎,看到没有没有配置 key 的 时候,这里就会应该有很多同学会发生会遇到这种情况,不知道是 t 配不对还是什么,反正他就是一直没有回弹,对吧?就是因为没有配置 key。 那 我们再来到这个目录下, 找到这个 adns, 我 们可以先看一下这边的配置,没有电了,默认翻启动,这里没有,然后我们找到这个目录还是这个目录,然后这里有个 adns, 有 个 me, me 里面有个 adns, 在 这里找到这个 models, models, 然后打开 在这里就就是什么呢?在这里就是你之前配呃,所有的这个代理这个模型的这个 t, 这也是 d c 的, 然后 d c 直接叉。这里要讲一下这个跟这个是有区别的,我们去看一下它的官网, 那这个 d c 小 号也挺多,六千多万,然后看官网在这里 他这也说了啊,这其实是两种,一种是这个 duck, 一 种是 resident。 resident 的 话是什么?深度思考,也是说如果你要用来干活,应该是要 face, 如果你只想聊天,那就是这个。 我们选的话,应该是选,应该是选这个,那样去干也是我这边配置的,这样去干不好,不管这个是另外的是什么,来我们看它,我们之前在这里手动加了这个 excel, 然后你保存重启之后呢,我们才会自己在这个窗口去生成对应的 配置。啊,这是我们刚才配的,感觉我们配的错了,因为我们是想当年的,并不是它官网的一个标准的模型的 id, 这才是它生成的官网的标准浏览器。然后这个这个是什么呢?这个应该是它所谓的这个, 那我们刚才那个应该是这个,这个应该就叫应该是这个,那就是对应上了,那也就说我们自己写的这个错了,要换成他的这个,我们过去换一下,直接换一下, 我们这里抄的是这个。 好, ctrl s 保存一下,有些好像 ctrl s 保存它就能生效,试一下能不能生效,在吗?还是不在哦,那就是没生效, 那我们重启一下试一下。 哦,不好意思,忘了,没有生效是肯定的呀,因为 key 还没配,因为 key 还没配,知道吗?刚才我们去保存,其实它是生效的,你看我们之前制定的那个,它已经删掉了,已经没有了,那么理论上我们问它在吗?它肯定是不在的啊, 应该不在。那好,我们应该去配一个 key。 key 在 哪里配呢?在这里有个 model, 这个目录下有个 model, 之后还有一个这个,我们打开它,这里会有一堆配置,我看一下 哦,这个是我之前配过的。那为什么呢?不行, 搞了半天终于找到问题在哪里了,大家一定要注意啊,复制的时候一定要小心,再扫一个 h, 好 吧,再扫一个 h, 保存。 这边不管这边,可能这边这边不用管这边等下子我们重启一下,自己写起来,这里这里的 key, 它到时候也记得写,我们重启一下好了。你看这里这个文档它到时候也记得写,我们重启一下 好了。你看这里这个文档它到时候也记得写,我们重启一下好了。它会不会把那个改掉? 哎?这改过来了吗?它附它,也就是说这个文档跟这个文档都会,可能都会被外面那个实时写进来,重启就会写进来,我们先问一下,应该可以。 嗯,好了,我问一下你现在什么模型 好?检测一下当前所有模型的响应时间。好了,我们看一下, 现在就是可以检测出来当前的这个模型的时间。这个可能有问题 啊,这是第一种啊,就是改这个配置文件的另外一种,其实很简单,你直接就跟他说,跟他说就行了。你直接把那个这个复制下来, 复制这个啊,到这里,然后你就说帮我添加一下 mini man 的默契,然后再把这个这个给他回车,应该就行了。但是在这个操作之前啊,你一定千万千万,你还是得到这里来,先把这个备份一下,这样去搞,如果他搞错了,搞怎么样了?因为他搞错了,他会重启这个网关,重启之后, 如果它重启之后,它切换成默认的是那个 mini max, 万一它没配成功,没配好它就不会跟你兑换了,就像刚才一样,它就不会跟你兑换了,你问什么都不会反应了。这个一定要注意,你可以先先把这个保存了,保存好 出问题了你就把这个删除了,也删掉,然后你再把你刚才这个复制一份,再改成这个名字,再重启完关就恢复到你之前了,这个一定要注意一下。好,今天就讲到这里。

各位朋友,今天我要给大家介绍一下我们龙虾的控制中枢纽,之前我给龙虾建了个办公室,现在给他整一个更专业的面板,支持多个模型供应商同时接入感切换模型。 咱们先看看这个面板,面板左边是快速控制龙虾的区域,这里有打开 ypu 的 按键,还有重启哦喷科尔的按钮、检查版本升级以及故障修复的功能。沙箱模式设置了三个等级,包括安全白名单和关闭选项, 最后还有停止服务的按钮。左边控制栏把原本需要在终端操作的采用指令都集成在一起了,上面能看到 cpu 负债、内存占用、存储使用率以及活跃的指令数, 这些都是龙虾运行时硬件的显示磁标。面板下面是整个龙虾的矩阵,要是龙虾的某一带泥被触发,对应的绿色灯就会亮起,等会由我给大家演示一下。 这个面板最大的便利之处在于可以自定义多个接入模型的供应商,你可以在这里填写 r、 p i 进行联通, 连通之后就能看到模型管理界面。在模型管理里,你可以添加自定义的模型,要是有新模型出现,直接搜索就行。 比如我随便添加一个挂孔模型,要是它是多模态模型,点击 v 键就能把模型添加进来, 添加成功后就能看到它已经在列表里了。这里还能无缝切换所有子弹里的模型, 同时可以查看子代理的设定下边界。点击应用之后,日子里面的默认模型就会改成 glm 的 四点七,这样一来就极大地方便了有多个模型供应商接入的情况, 能轻松解决每个子代理的模型切换问题。接下来我给大家测试一下,我们刚刚问了你现在是什么模式,大家可以看到这边的指示灯已经亮了,现在我们使用 ko 的 这个代理,看看他的灯会不会亮。大家看子代理正在运行,他换起了工具,模型也修改了。 现在抠的纸代理开始工作了,他把任务交给纸代理审查了。抠的纸代理主要负责代码相关工作,他更注重代码质量和非速度。以上就是这个控制中控面板的整体情况了,关注我还有更多好玩实用的 skills。

cloud bot 究极进化, open cloud。 听说你把 cloud bot 装在了 mac 上,平时就专门买了个 mac mini。 这样的好处是啊,极致省电,自带 skills, 直接用。缺点就是苹果的设备太贵了,最新的丐版也要快四千,这价格都能直接买个新手机了。没必要。你要是实在心痒要忍不住。记住要买最新的 m 四 芯片,别买英特尔。听我这么一劝,你可能就把谷歌当成了 a p p, 开箱即用,而且还有傻瓜式文档,并支持各大主流聊天软件。但这里有个硬伤,云厂商默认提供的都是自家的模型, 你想切模型?不好意思, model set a field。 不 过别担心,我后面会提供解决方案。云服务器不是白给的,你要为存储为流量掏钱,而且数据都在云端,全靠文件,还要受限于服务器的公网贷宽。我强烈推荐的方式是用虚机或者吃灰的旧电脑 操作系统选误班图,好处是充分利旧,不用为设备额外花钱。除了应用模型啊,数据都在本地,本地配置和云端配置是通吃的。哪怕你买了云服务器,我也可以教你任意切 款模型安装过程就不用我教了吧,一句客命令,三分钟完事,重点是选哪个 provider。 阿图强烈推荐 openroot 最省心省力,不用瞎折腾。没有 openroot 的, 直接去注册个账户,再充个五到二,支持国内的支付工具。模型的话首推 mini max 二点一国产模型速度快,比 sunet 四点五便宜十倍,效果还不错, 重度氪金玩家请勿呢。选择地表最强 offs, 四点五聊天的话没必要开浏览器哈,无论你装的系统有没有桌面,你就 call the bot t u i m 的 就可以直接开聊。你说廉价模型玩腻了,想切个 offs 四点五奢侈一下,可 model 就是 切不动。恭喜你,踩到了他的大坑,我来把你拽出来。想自由切模型,得盯住 call the bot 点 jason 这个 文件,只需要关注一个配置,像 agent 点 models, 这是个白名单,只要你切的模型不在这里面,就会报错。解决方案很简单,要么把 agent 点 models 直 删除,要么把你的目标模型加到这个白名单里就好了。以 kimi 刚发布的 k 二点五为例,前几天 cloud bot 还没更新,但我已经通过添加自定义模型的方式提现,在 cloud bot 里用上了有可能的配置,在下方记得截图,按照我的格式配就行了。 添加完毕后,不需要重启 get 位服务,只需要在对话框中先创建新对话,再选择我们刚配的模型就好了。这里还有一个坑,那就是 cloud bot 中模型的命名,它用的是 provider 正斜杠 model id 这样的方式。前面我选的 provider 是 open loder, 那 么在选模型的时候就要以 open loder 开头,比如你要切到 open 四点五,就要用 open loder astropic cloud ops 点五。我刚才配 k 二点五的时候, proverb 写的是 custom, 就 要用 custom motion ai k me k 二点五搞完模型啊,配聊天软件是最简单的,直接让 clubbot 帮你就行了。最后来看见 clubbot 的 star 数已经从周一的二十 k 涨到了现在的一百二十 k, 这应该是打破多个记录了。项目的创始人 ps 也是个传奇,他早年写了个 ps pdf 软件,然后直接爆火了,你说这是偶然运气?可在 clubbot 之前,他已经写过 n 多个软件了。那句话叫啥嘞? 发起对生命的撞击,你得多撞击一下才能撞出来东西。很多人说这是一场 hype, 是 营销炒作,但各个大厂的收入是实打实的,为何 mini 的 销量再创新高?各大云厂商的 koop 专用服务器光速上线,各家模型的 koop 消耗量必将迎来一波上涨。巨神智能还未到来,但我们首先通过 koop 看到了 agent 操作电脑的另一种可能,后续肯定会有更好玩的东西出来,我们拭目以待。关注我,下期讲解二月六日,人类重返月球,一个星际文明五十四年的等待。

open club 整挺火,后台私信主要关注两个问题,一,小龙虾是什么?二,怎么安装?因为我和我的关注者都不是什么 ai 专家,大多可能是因为小龙虾很火比较好奇,我就言简意赅了,小龙虾不是什么新的 ai 模型, 他是一个利用 ai 的 工具。如果你不给小龙虾分配模型啊,他是连聊天都没法聊的。如果给了他模型,那就厉害了,他可以读写操作你电脑上的所有文件,甚至接入其他程序的接口,操作这些程序,帮助你工作好了。第二个问题, openclaw 怎么装呢?上个月底一个上海粉丝啊,花了五百块装 openclaw, 离谱。 其实官方是有脚本的,安装起来并不麻烦,但是网上的教程却存在不同的安装方式的 原声安装和类似于虚拟机的 wsl 安装。这里各位不要被这个说法迷惑了,好像虚拟机就不太专业,不太灵活。实际上呢, windows 的 原声安装受制于安全策略,装好之后的 opencll 权限仅限于一个指定的文件夹, 反而是 wsl, 你 可以理解成微软的官方虚拟机啊,它的权限是可以控制你整台电脑的,这样才可以真正帮助你工作。而且后面小龙虾玩够了,你只要把这个 wsl 卸载, 电脑还是干干净净的,不像原生的安装方式啊,需要手动清理很多垃圾。第二个不同呢,就是接入方式的不同。如果你已经在电脑上部署了 ai 模型,那就可以直接让小龙虾调用,完全免费。但是这个工作效率嘛, 受限于你的电脑配置,像我这台电脑,真实体验下来并不好。而第二种方式是使用像千问呢, deepsea 这些官方提供的 a p i, 就是 你坐在家里,让他们的云服务器给你跑 ai 模型,这个体验就太爽了,缺点就是需要付费。当然喽,每家都是有免费额度的, 你可以挨个注册嘛,嫖完了所有的免费额度,再决定要不要付费。所以呢,我这里的安装教程就是 windows wsl 安装加上云端模型的接入。安装步骤拢共分三步,第一步,环境安装。先安装 wsl 搜索框,输入 power shell, 右键管理员运行, 输入 wsl install 回车,等待安装完成重启。 重启之后进行 linux 的 安装,再次 power shell, 输入 wsl install 乌班图二十四点零四这个版本回车。 安装完成后会提示设置 linux 账号,可以直接回车,然后设置 linux 密码,这里它不会显示你输入的字母,你就自信地输入简单的密码,然后回车并再次确认输入密码。 再回车之后,会发现命令符变成绿色和蓝色了,说明我们已经进入 linux 虚拟机了。第一步我们的环境就配置好了。第二步就是 open color 主体了,直接在命令框输入回车,等待完成, 直到出现黄色字体,就表示这个炙手可热的 openclaw 已经完成安装了。紧接着最后一步,配置 openclaw, 控制方向键向左回车回车。到了选择 ai 模型这一步,我选择用千万来做示范,控制方向键向下找到千万并回车, 选中弹出的网页链接, ctrl 加 c 复制并粘贴到浏览器,登录千万账号。这一步的意思是告诉千万允许 open color 调用它的模型,如果没有账号呢,咱就注册一个。确定授权以后,回到 open share 的 界面,这里也同时得到了响应键盘回车 配置技能。这一步,选择下面的 skip 跳过,然后继续选择 skip 跳过,一路选 no。 到了这一步,把除了 skip 之外的四个选项用空格键全部选上,按回车确定。最后一步,选择第一个回车, openclaw 也部署完成了,我们已经可以和他交流了,教程也结束了,更多的高阶功能需要安装一些额外的 skill, 这个就靠你自己摸索了。当然了,你也可以直接问你的 openclaw。

兄弟们,上期说到怎么给 openkey 切换大模型,但是呢,可能你哪一步设置错了,或者是模型 id 写错了,切换之后呢,小龙虾就直接崩了,怎么办呢? 首先在 ai 与代理 models 把之前建立的付费模型给删掉,重新按照正确的方式再填一次,保存后复制模型的名字或者聊天,输入斜杠 model 模型名字,回车发个消息测试一下, 当不出现错误信息,并且呢,他在思考的时候都能修复好了。如果遇到问题啊,记得发在评论区哦,看到了呀,就会帮你解决的。

今天大家只需要跟着我的开源教程,复制粘贴我做好的直击源代码的提示词,就能掌控龙虾从安装到卸载中一切事物,直接跳过使用龙虾的自然熟悉阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会一本书,甚至可以让安全加固也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的 web ui 界面,然后我们再打开准备好的安装文档,复制这个提示词,发送之后,模型会帮我们自动安装飞书插件 连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具,相当于龙虾的虾钳,但现在刚装好,是残血版。 接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态,测试一下,让他用隐私模式打开我们自己的 chrome 浏览器,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。 成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。 能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂一本书,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他读的那本书的本地文件路径。发送后稍等一下,龙虾就可以直接吸收这本书的精华内容。 接下来我们测试一个这本书的相关问题,看看他有没有用这本书的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于书里的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 gpt 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了,我们虽然无法彻底解决安全风险,但可以做个看门狗等方式给安全做个加固。 用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 ready、 热铁摘药,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找和安装它。自动安装好了之后,我们可以发个消息测试一下, 稍等一下,他会使用这个 skills。 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 api key 才能激活的 skills, 建议大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的。最后,在使用中,大家如果觉得 token 消耗太多,可以用这个提示词发送之后模型会根据你的过往使用情况和 tokens 的 消耗强度进行优化,并不是简单的直接调低各种参数,模型优化完成后就告诉我们,预估可以节省百分之三十到百分之五十, 如果不想用了或者想重新安装,就用这个提示词。一句话,把龙虾卸载的干干净净,所有痕迹全部清除。卸载完成后,我们打开 y b u i 刷新测试一下,看不到界面就是成功了。这期教程,我们把龙虾从安装到满血,从净化到安全加固,全程只用自然语言,没用一行代码的完成了, 文档和提示词都开源免费分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留言交流。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

一个视频告诉你龙虾欧根库奥背后的原理到底是什么。如果你拿大模型给他发一个消息,那么他就会根据你的消息给你一个回复,这样你就得到了一个最原始的 ai 聊天工具。然而,大模型只能根据你发送信息进行单次的回应。你们聊了这一句,忘了上一句,压根无法进行有效的对话。 于是你灵机一动,每次发送新消息时,都会把旧的聊天记录打包一起发过去。有了上下文,模型终于有了记忆,你们终于可以愉快的聊天了。可你很快又发现了一个问题,虽然此时的模型有了记忆,但仍然没有改变你一句我一句的聊天形式。只要你不主动给他发消息,他就原地挂机,不会理你。 可你不可能一天二十四小时守在电脑前给他写提示词。这样一来,他就只能帮你做一些琐碎的小事,无法自动帮你完成一些长期复杂的任务。当然,这也难不倒聪明的你,既然你没办法盯着他干活,那么设置一段程序自动盯着不就好了吗? 于是你动手写了一段简单循环脚本,每次大模型输出后,都让他自己判断任务是否完成。如果判断任务还未完成,那么脚本就自动把刚才的对话记录重新喂给他,让他继续思考。直到模型认为自己已经大功告成,在输出中调用 finish 结束函数,整个循环才停下了。 当然, ai 偶尔也会脑子抽筋,陷入死循环或者疯狂报错。于是你又顺手给脚本加了最大循环次数限制,脚本终于稳定了下来。 这样你就得到了一个简易的 agent, 它可以在你离开电脑时也能独立的思考工作。可新的问题又随之出现,模型累积的上下文越来越长,眼看着就要达到模型的输入上限了, 如果继续循环下去,模型就再也无法正常工作了。你思来想去,突然想到大模型可以提炼长文本的信息,生成简洁的摘药。 于是你在脚本中加入了一个新的机制,如果当前的对话长度逼近红线,就立刻触发压缩机制,通过提示此要求,模型将对话框中几千字废话浓缩成高度精炼的摘药。 这下终于不用担心模型被超长的上下文撑爆了。不过对话框中的上下文虽然被凝练了,但凝练前的那几千字原声记录你也不舍得删,万一里面有啥重要信息以后用的到呢? 于是你让脚本新建了一个 markdown 格式的绘画保存文件,将这段超长对话一字不落的写入该文件,并保存在绘画文件架。 现在对话框只剩下被凝练后的摘药了, ai 又可以愉快的干活了。但你认为这些摘药也是极其重要的信息。你又按照日期新建了一个 markdown 日制文件,将每次凝练后的摘药也存入了进去。 从此以后,你每天都会按日期新建一个日记文件,专门存储明面后的摘药。如此一来,脚本每次调用模型时,只需要将最近两天的日记文件加入提示词,就能立刻唤醒他的近期记忆了。 就这样,模型拥有了自己的短期记忆。可是光有两天的短期记忆还不够,你想要给它完整一生。于是你又新建了一个叫 memory 点 m d 的 长期记忆文件,将摘录中的那些长期结晶,如用户的私人偏好、项目、重大决策给抽取出来,写入其中, ai 就 拥有了它的长期记忆。 你的脚本只需要带着近期日记和长期记忆去唤醒 ai, 它就能自然流畅的进行长期任务了。而你所保存的完整绘画记录也不会闲着,如果需要 ai 回忆某个久远的细节,它就能去绘画文件夹里一字不落的搜索出来。 有了这套丝滑的记忆系统,你再也不用担心 ai 失忆了,它们就保存在你的硬盘里,直到永远。现在 ai 的 记忆问题解决了,但还有一个问题让你头疼,模型只会输出文本,你该如何让它操控电脑干活呢?一开始你想的简单粗暴, 计算机的底层不过是一些代码命令行,那么直接丢给 ai 一个最高权限的射奥终端,让他直接生成底层的命令,不就能操控电脑了吗?可真正尝试后才发现,这是一场惨不忍睹的灾难。目前的 ai 并不可靠,一个小小的幻觉都会让你的电脑崩溃, 无奈你只好放弃这条危险的底层直连。你想到之前工作时写过一些简单的功能性程序,比如发送邮件、抓取网页的脚本,这些脚本由确定的程序编写,只需要输入相应的参数,就能自动执行并返回确定的结果。于是你灵机一动,将这些写好的程序整合到了你的平台中。 现在你不需要 ai 直接敲代码,只需要让它根据不同的任务脚本生成对应格式的 jc 参数,就能通过这些脚本间接操控你的电脑,不管是浏览网页、整理表格,还是直接读取屏幕、操控鼠标, ai 都能轻松完成。同时,你也给这些脚本起了一个响亮的名字, skill! 一个极其清亮、即插即用的技能拓展框架。未来你还打算将平台全面开源,这样全世界的开发者都能编辑上传各种各样的 skill, 你 的 ai 也将会越来越强。 最后,为了能够让 ai 随时随地的在电脑上接受你的指令,你将平台的网关打通,让模型通过 api 接口与主流的聊天工具对接。 现在,你只需要掏出手机,就能像和朋友聊天一样,在手机上和你的 ai 助手沟通了。恭喜你发明了开源的自主 ai 智能体 openclo, 你 知道他可能还不够完美,但你不会放弃优化,相信终有一天你能做出像人类一样工作的 ai 助手。

在本视频中,我会给大家演示如何找到被限制的功能,最终解除这些限制,如何切换模型,以及如何用 opencar 修改它自身的配置。首先我要给大家演示的是,你可以直接问 opencar, 你 之前跟我说你的配置文件里 限制了网关重启功能,这些文件在哪里?然后 opencar 就 会告诉你 它们在路径, c 冒号反斜杠、 users 反斜杠、 arduino 反斜杠点 openclaw 反斜杠点监制。网关重启的设置并没有明确写在你的配置里,只是这个功能默认没有开启,出于安全考虑,重启命令默认是禁用的。 想要在聊天中开启网关重启功能,你需要把这段配置添加到你的配置文件中,添加之后,你就可以在聊天中重启网关了。但说实话,直接在终端里执行这个操作会更安全, 但我就是想给大家演示一下,如何用这个软件修改它自身的配置。在视频稍后的内容里,我会给大家演示一个更酷的例子。但首先我要给大家看的是,如果我们打开刚才说的这个路径, 进入 open class 文件夹,你会看到所有的相关文件,大家可以好好看看这些文件。首先是智能体相关的文件,这里是我们的核心文件,目前我们这里只有两个内容,智能体和绘画, 后续这些内容会越来越多。双击打开 agents 文件夹,在这里你能看到很多有意思的内容,可以看到我们使用的是 andruplik 的 默认模型,当然我们需要 andruplik 的 api 密钥,这就是运行这个应用的我的 api 密钥。 如果你想的话,可以在这个文件里切换更换 api 密钥,你甚至可以让 open 帮你完成这个操作,关掉这个文件。回到上一集,我们能找到大量不同的绘画记录,还有 session jsn 文件。 在这个 g s i 文件里,你能看到非常多的内容,它基本上记录了你所有的操作历史。回到上一集,我们能看到 canvas 文件夹里面有一个 html 文件,这个主要是给桌面端应用使用的, 当然我们还缺少对应的巧接工具,因为现在 ios 和安卓端其实还没有得到正式支持,我们可以像我现在这样直接从它的官网安装桌面端应用, 所以 macos 上也有对应的桌面端应用。除此之外还有 credentials 凭证文件加。点开它,你能看到 diagram 的 访问白名单,点开之后你会看到只有对应 id 的 用户才被允许访问, 而这个 id 就是 你自己的 id, 所以 只有你自己能和这个应用对话。就像我之前说的,如果其他人搜索到了你的机器人,而你没有设置白名单的话, 所有人都能和这个应用对话,所以这一点非常重要。接下来是 parent j s o m 配对文件,里面包含了所有配对相关的配置,目前我们用的是版本一,其实没有配置真正的配对内容。 然后是 cron jobs 定时任务文件夹,在这里你能看到运行记录,这些就是我们之前执行过的定时任务,还有定时任务对应的 j s o m 文件。接下来是 devices 设备文件夹,里面是配对的设备信息,我们现在用的是 windows 系统,里面当然有你的设备 id 等信息。 盘点 j s o n 文件应该是空的。接下来是 identity 身份文件夹,里面有 device、 j s o n 等设备相关文件,比如传入的媒体文件夹,这里有三个不同的文件,这些文件显然就是我从 telegram 发给这个应用的音频文件, 之后,他用 whisper 转写了这些音频内容。接下来是 telegram 配置文件夹,还有我们的 workspace 工作区,这里面包含了我们之前配置的 comfyui 相关内容,还有 agents md 文件,大家应该已经了解了,可以把这个文件夹理解为整个应用的核心目录。 这里面的文件本质上就是这个应用的系统提示词,它会始终读 so m d 文件,也会读 user m d 文件,它需要记住日期和时间。这里还有更多关于记忆功能的配置,当然如果你想修改的话,完全可以自己编辑这些文件。这个系统提示词的内容相对较多,会消耗大量的偷啃, 所以如果你不想表情符号,直接删掉对应的内容就行。如果你不想要某些特定的工具调用,也可以删掉。如果你根本用不到技能功能,同样可以删掉。所有这些都由你自己决定。你也可以用 opencar 来优化这些内容, 但我通常建议大家不要随意修改,因为这套系统提示词已经做得很好了。当然还有我们之前创建的 comfyui 机能。这里还有心跳检测、身份配置、 so m d 工具配置和 user m d 文件,这些文件大家应该都已经了解了。再往下就是我们之前提到的那些配置文件, opencloud gson opencloud gson 点 b a k 备份文件,还有更新检测文件。我们打开 opencloud gson 文件,这里面有大量不同的权限配置,还有模型配置等等。比如如果你不想再用 cloud sonic 四点五了, 可以直接在这里修改模型名称,也可以让 opencloud 帮你完成修改。如果你想开启更多权限,比如重启网关的权限,就可以在这里添加对应的配置。 这里面还有一些密要信息,所以操作这些文件的时候一定要始终保持谨慎。接下来我要给大家演示的是,我们再次回到 diagram, 我 们现在用的是 and frugic 的 模型, 具体是哪个模型呢?它应该能读 open claw g s o n 文件,应该知道要去这个文件里查找,然后大概率会告诉我们现在用的是 clawsonic 四点五, antropica sonic 四点五,它本质上是 sonic 三点五的更新版本,这就是当前绘画使用的模型等等,这是我们的默认配置。我想要能切换到成本最低的海枯模型, 如果你不了解 andrupy 的 这些模型,直接谷歌搜索 andrupy a p i 模型价格,点开第一个链接就能看到所有的模型信息。这里能看到 opus, 它显然是最大能力最强的模型输出,偷看的价格也相对更高。 我们现在用的是桑尼模型,价格显然更低,而且它消耗的偷砍也比 oppo 少,这是它最大的优势。然后还有 iq 模型,它的价格非常非常低,所以你也可以切换到 iq 模型,如果你记不住模型名称,直接复制就行。我想要能切换到成本最低的模型, 也就是最便宜的模型。我们把这个需求发给他,你能给我做个按钮之类的快捷切换功能吗? 我之前在家里的另一台电脑上试过这个操作,然后他给我做了一个非常好用的功能,我直接点击就能切换。我们大概率在他的管理点击一下就能直接切换了。好了,他的响应速度真的非常快。我们有了嗨酷四点五,这是成本最低的模型。 有了萨尼四点五,这是均衡型模型,还有 opus 四。没错, opus 四并不是能力最强的版本,应该是 opus 四点五才对。但我们现在没有开启联网权限,这就是他不知道最新版本的原因,因为没有联网,他的能力会受到一些限制。 我们来看看文件里发生了什么变化。我们再次打开这些文件,打开 opencloud gson 文件, 我们现在用的还是这个 andruplik 模型,我们直接点击嗨酷最便宜这个按钮。机器人现在正在响应,我们也可以打开调试控制台。在这里你能看到大量的操作正在执行。我们遇到了一个错误, 他回复说嗨酷还没有完成配置,这也是我们在 tabgram 里收到的内容。 方案一,手动将哈库添加到你的配置文件中,我们需要编辑的就是这个配置文件,把对应的模型配置添加进去。方案二,我可以给你讲解所有可用的完整模型名称, 目前只配置了三点四点五,需要我帮你把哈库添加到配置文件里吗?我们打开模型概览页面,搜索模型的准确名称,我要添加的就是这个模型的准确名称。 你能把这个模型添加到我的配置文件里吗?这样我就能用按钮切换了。 我们来看看他能不能帮我完成这个操作。如果不行的话,就是权限的问题,我们也可以给他开放更多权限,如果还是不行,我们也可以手动修改,有时候不给他过多的权限反而更好。 但至少在我上次的测试里,这个操作是成功的。把 hikou 添加到配置文件中,现在重启网关来应用配置,我们直接重启网关,复制这段命令, 打开一个新的终端,也就是 windows power 手粘贴这段命令,重启网关。网关重启完成后,功能就应该生效了。 但首先我们再打开文件,看看配置有没有生效。 我们再次打开 openclaw 文件夹,找到了 openclaw j s o n 文件。在这个 j s o n 文件里,你能看到我们已经把嗨哭模型添加进去了, 现在我们想切换的话,随时都可以切换。现在我们点击 iq 模型按钮,应该就能正常切换了。 但说实话,我个人不太喜欢 iq 模型,我更喜欢 simon 模型,我觉得它是性能和成本的最佳平衡点。现在你也可以添加 oppos 模型,你想添加什么模型都可以。重启完成之后,你就可以在这里切换不同的模型了。我其实不太建议大家随意修改这些配置, 而且在 windows 系统上,权限配置可能不会完美生效。在 linux 系统上,我第一次测试就成功了,在 windows 上我得多试几次才行。 open core 的 开发团队会不断提升系统的安全性, 这也是他们应该做的。而实时修改软件本身的配置其实有利有弊, 这既是它的优势,也是它的短板。这个功能对你来说,可能能用,也可能用不了。如果用不了,直接问 open class 该怎么修改,它就会帮你调整,最终完美适配你的设备。 顺便说一下,你还可以这样操作,下拉,找到 config 配置选项,点击若原始配置标签,在这里你也能看到。可以切换不同的模型。 主模型始终是 sunny 四点五,但如果你想的话,也可以切换到 iq。 在 这里我发现我们填的模型名称是错的,不是三点五。 iq 正确的名称是四点五。哈库。不是所有操作第一次测试就能成功,但对我来说,把这些真实的测试过程保留下来很重要。这操作看起来有点像魔法,但它也会出错。我百分百确定,随着模型变得越来越智能,它们出错的概率会越来越低。 别忘了,我们现在用的是 sonic 模型, sonic 并不是能力最强的模型。我也用 opus 测试过这些操作, opus 的 表现极其出色, opus 几乎从来不会出错, 所以你需要找到适合自己的平衡点。当然, opus 的 成本会更高一些,而做教程的话,展示这种中间状态也很合适。所以我们目前就先用这个配置。我们下个视频再见。

你们等了这么久的 open cloud 净化指南终于来了,今天我带你从残血到满血,一条视频全搞定!先说一个残酷的事实,你装好 open cloud 之后,它其实是个残血状态,默认只有二十五个工具,记忆系统是瞎的。每天烧五十到一百美金 a p i 费用, 就像你买了一辆跑车,但是只开了一档。今天我教你怎么把它开到满血。第一步,安装你需要三样东西, 一个代码执行器,比如 tray 或 cursor, 一个大模型 api key。 推荐 minimax, 最省钱,一个飞书机器人,让 openclaw 能跟你对话。具体怎么操作?打开 tray, 新建文件夹,然后把我给你准备好的安装提示词直接粘贴发送, tray 会自动帮你完成百分之九十九的工作。 安装提示词我放在评论区置顶了。装好之后,第一件事,解锁满血工具默认的 coding profile 只有二十五个工具,发一句话给 openclaw, 帮我把工具权限从 coding 改成 full profile, 它会自动执行两条命令,三十秒搞定。解锁之后,你的龙虾从残血直接满血,所有工具全部可用。第二件事,也是最关键的记忆系统进化。 默认的记忆系统有一个致命问题,它的长期记忆是瞎的,它能记住你说过什么,但搜不到。就像你有一个图书馆,但没有锁影系统,怎么修?安装向量模型, 发一段 prompt 给 openclaw, 让它自动配置本地嵌入模型,推荐用 embedded gemma, 三百 m, 又小又快,免费运行。 配置好之后,它的记忆就从残雪进化成了完全体,支持语义搜索,支持关键词加向量混合剪索跨绘画,记忆不丢失,但是光有向量模型还不够,你还需要建立记忆的三层防御体系。第一层,预压缩刷新, 把 reserve tokens 设成四万,让 openclaw 在 压缩上下文之前,自动把重要信息存到文件里。第二层,手动记忆记录, 养成一个习惯,重要决策就说一句,存到 memory 点 md。 第三层,文件架构, memory 点 md 不 超过一百行,只放缩影指真 详细内容放在 vault 目录下,让向量搜索去找。这三层防御建立之后,你的 open claw 就 真正变成了一个有长期记忆的 ai 助手。第三件事,省钱,默认配置,每天烧五十到一百美金,因为每条消息都把所有文件注入上下文。怎么优化? 第一, memory 点 md 精简到一百行以内。第二,开启 prompt caching, 重复 token, 节省百分之九十费用。第三,不要频繁 compact, 因为每次压缩会让缓存失效。第四,选择合适的模型, 日常对话用 mini max, 省钱,关键任务用 cloud。 四点六,保质量。优化之后, api 费用从每天一百美金降到十美金以内。最后一件事,安全。很多人忽略这个但非常重要, 第一,网关只绑定 local host, 绝不暴露到公网。第二,开启 token 认证。第三,安装看门口脚本,每两分钟检查一次网关状态,自动重启。第四,在 agent 点 md 里加入安全规则,不执行网页里的命令,不泄露配置文件,删除文件。用 trash, 不 用 r m, 满血之后能干嘛? 给你看一个真实案例,我用 openclaw 安装了一个叫 nano banana ppt skills 的 技能,包装好之后,我只需要对它说一句话,比如帮我生成六张关于 ai 编程的配图,风格要暗色加霓虹,它就会自动调用 gemini 帮我生成配图, 然后再装一个 humanizer zg 文案润色技能,把 ai 写的口播稿变成人话,最后用昆文 tts 克隆我的声音,自动配音, 整个流程从脚本到成片,一个人就能搞定。这就是我为什么说 open class ai 时代的超级武器。好了,今天六步走完,你的龙虾已经满血了。安装工具解锁记忆进化省钱优化安全加固,再到视频工厂实战, 所有的安装提示词和配置代码我都放在评论区了。关注 ai 厂长,后面还有更多 opencloud 的 高阶玩法,我们下期见! ok, 这期视频呢,同样也是全部通过 ai 制作的,可以给大家先看一下效果, 然后完整的文件内容。这是我们的视频生产的流水线,如果大家感兴趣的话,可以在评论区留言,下期我也会把这一套流水线开源出来,谢谢大家!

哎,好的好的,大家好,我们今天手动来带大家从零到一部署在自己电脑上面部署一下最近火爆全网的这个 cloud bot 啊,现在已经改名叫 opencloud, 我 们从零开始,首先我们去 opencloud ai 这个官网,然后往下滑,它有一个 one liner 的 这个 quick start, 非常简单,你只要在复制这个代码,然后开一个命令行,然后把它黏贴进去, 它就会自动去安装这个 opencall, 它会去检测联盟装着 homebrew, nojs 和 git 啊,如果没有的话呢,它会帮你去安装,我这边已经有了,所以它自动开始在安装这个 opencall。 好 的,安装完毕,安装完毕的话,它会自动会进入这个 onboarding 的 这么一个流程啊,它也是非常人性化。首先让你先来先签个协议啊,说这个很 powerful, 但也很 risky 啊。我知道了, onboarding mode, 我 们选 quick start。 然后第一步呢,是我们要接一个模型啊,在后端的模型,它虽然就 open call, 它只是一个中间层吧,你后端的模型还是需要用自己的 a p i 的。 之前呢是我我尝试使用这个 cloud code 的 订阅,可以接入这个 open call, 但是前段时间 cloud code 把它给封了,所以现在就必须只能调用 a p i, 所以美国的模型 api 太贵了,所以我们这里选择支持一下国产。我们使用 kimi 的 模型啊, moonshot ai, 然后 kimi 最近也是浪潮了,自己的这个 kimi k two 呃,二点五的这么一个模型啊,能力上据说是跟 opps 四点五非常相像啊,也是很厉害,然后价格可能只有十分之一,所以我们来体验一下,所以我们这里选 moonshot ai, 月色暗面, 然后把我们之前复制好的一个 api key 给复制进去, create a api key, 然后我们选择一个模型,我们就选 kimi k 二点五。然后呢,我们在这里选的是 在第二步呢,是选这个 channel, 就是 call bot, 呃, open call, 它是可以让你用过用你的这个即时聊天软件,然后来调用它的啊,这里就会去配置一下这个即时聊天软件。我在这里选的是,呃, whatsapp, 然后我们来看一下 whatsapp 怎么 link 啊,它会给你二维码,然后我们要拿 whatsapp 扫一下二维码。 好,我们拿这个 whatsapp 刚刚扫了一下这上面的二维码,然后,呃,现在是可以去继续去设置一下详细的配置。 whatsapp, 它里面有一些 phone, 呃,这个是 phone setup 啊, separate phone just for open call。 我 选择用一个单独的电话号码在 whatsapp 里面,然后这里使用,选择 recommended power mode allow form。 说实话不是很知道是干嘛了。嗯,选择 default 好 了,然后下一步呢,是 configure 这个一些技能啊,这里我先不 configure, 但是我们看一下, 呃,这个 open call 它有哪些技能啊?这些技能本质上来说就是它到底能做哪些事情,你可以看它这里有非常多的集成的这个 integration, 就 你的密钥,密钥管理系统 word 是 可以用来发这个 twitter 的, 然后 bear nose 是 可以用来这个记笔记的一些东西,然后有非常非常多的这个,还有什么 g u g 这种 就是 gmail 啊什么的,非常非常多 open ai 啊什么的很多啊,我们这里今天先不配置了,然后回过头也可以再配置,到时候会问你一些问题,要不要这些 a p i key 有 多选? no no, 如果到时候需要的话呢,可以再单独回过头来配置 好。然后最后一步呢,是这个 hook 啊,自动的这个操作,然后它可以在某些特定的环境下面被触发,然后帮你操作。比如说它这里有一个 session memory 的 这个 hook, 就是说它可以在每个赛季结束的时候呢,自动把赛季的这个你们聊天对话记录呢,保存到他们的这个长期的这个 memory 当中。这里我觉得还是开一下比较好,因为 open call 它是自带这种长期 memory 的 功能的,然后如果每每每一次跟他对话,它会更新长期 memory 的 话,你会发现这个 open call 越用越聪明。 好,然后这些都是系统自带的,我就都开了,然后都开了,然后去设置 gateway, gateway 就是 说是呃呃,如如何去开这个?开个关口,然后让可以让这个你在 whatsapp 里面发送的消息被传递到这个电脑上的 open call 里面。这里我之前已经装过了,所以我们在这里的话就是 reinstall 一下。 好,我们这里的 git 已经装好了,我们现在有有有方法去 hack。 我 的 bug 就是 初设啊,初设的话我们可以推荐是走这个 t u i, 也就是它自己会开一个网页,然后这有一个链接好,然后可以尝试发个消息 啊,很可惜啊,消息没有发成功,我要来 debug 一下。哎,好的,刚刚发现是因为自己的那个 kimi 账号没有充钱啊,现在充了钱就变强了啊,我们现在已经可以 跟他对话了,然后我们在终端呢,可以输入这个 open opencloud dashboard, 然后呢我们来重新进进入这个网页的 ui 啊,然后这里呢我跟他说了个嗨,然后他现在会介绍一下自己可以干哪些事情啊?怎么怎么样,怎么怎么样都是英文啊,太,太烦了,我看他看中文那里边啊, 好,他现在等于说一开始的对话呢,他会让你去呃设置一下他的名字是什么,然后怎么称呼我,然后他是干嘛的?嗯,然后同时呢我们我来就展示一下这个我们这个 whatsapp 的 这个能力啊,就你看我们这边, 嗯,其实 whatsapp 上面是可以给大家直接发消息的,然后在这里的所有的信息呢,我们也都可以在 whatsapp 里面跟他呃聊天,然后他就只要你的这个网关是上线的,他就是可以呃去跑的。 那么今天视频就到这里呢,我们就简单的装一下 cloud bot, 未来的话我们也会在这里继续更新一下 cloud bot 到底能在呃能对我的工作流程带来多大的影响啊?期待可以创造更好的内容给大家,谢谢。