哈喽大家好,欢迎回到今天的节目家人们, oh bin ko 憋了整整九天,直接放了个王炸级的里程碑更新,就在三月二十二号到二十三号,他直接把整个底层架构都给换了, 这次更新可以说是从跟上解决了咱们之前吐槽的所有痛点,但也踩了个不小的坑,很多用户更完直接翻车。今天这期节目,我就用大白话给大家把这次更新的核心干货 坑点,还有咱们普通用户到底要不要更,怎么用,怎么靠这次更新抓住变现机会,全给你讲明白,全是你用得上的实操内容,没有半句废话。首先先讲这次更新最核心,对咱们影响最大的部分,插件系统彻底重构, co hob 直接成了官方亲儿子。 老粉应该都记得我之前跟大家吐槽过,欧本可罗之前的插件生态太乱了,你装个技能,他随便从 npm 仓库拉包里面有没有恶意代码,会不会偷你的 api 密呀?全靠硬气新手,根本没法分辨,而且安装也麻烦,我之前装那个自我改进代理, 试了好几种方法都失败了,最后还是 ai 自己给我写了一个。这次更新直接把这个问题从根上解决了。第一,官方推出了全新的插件 s d k, 把之前的旧接口直接全换了,同时把咱们一直在用的可罗哈布技能市场设成了插件安装的优先渠道。 什么意思?就是你现在装技能系统,会先从可罗哈布拉经过官方审核的包,只有官方市场里没有的才会回推到别的仓库,等于官方给你加了一层安全防火墙 前,咱们怕的恶意插件投毒、偷瞄的问题直接解决了一大半。第二,安装门槛直接给你降到了地板上,配套了全新的一键安装命令,你想找什么技能 直接搜,搜完一行命令就能装,不用再搞什么手动导原码配环境,新手也能一步到位,再也不会出现我之前装半天装不上的情况。第三,也是最爽的,直接打通了跨生态兼容,现在 cobo 都能直接用了,等于咱们能用的机能库直接翻了好几倍。 之前别的工具上好用的功能,现在咱们在欧本可上也能直接用,不管是自己用还是做二次开发,变现空间直接大了太多。讲完了最核心的插件系统,再跟大家讲第二大更新,模型能力全面升级, 干活的本事直接上了一个大台阶。这次更新欧本可的默认模型直接升到了 g p t 五点四,同时还支持了最新的 mini 和 nano 版本, ai 的 逻辑推理,长上下文处理,代码生成能力 都有质的提升。大白话讲就是之前你让他写个技能代码,经常出 bug, 逻辑乱要反复改好几次,现在他写代码的准确率、稳定性高了太多,咱们普通人只要给他说清楚需求,他一次就能给你写出能用的成品,做技能开发的成功率直接拉满。 同时对咱们国内用户最友好的是,国产模型的适配也做了大优化, mini max 默认模型直接升到了最新的 m 二点七系列,飞叔、微信这些国内常用的办公通讯工具适配的更好了。之前用国产模型经常出的配置复杂, 接口连不上的问题,这次也全给解决了,用国内工具、国产模型的朋友,体验直接上了一个档次。还有一个很实用的更新,图像生成、语音转文字这些多模态能力现在可以集中管理了,不用再写一大堆复杂的配置文件,新手也能轻松调用。想做图文内容语音拨课,直接就能让 ai 帮你搞定。 第三部分也是咱们之前反复强调的安全防护,全面加固,用着更放心了。这次更新,官方一次性修了十多个高危安全漏洞,包括之前 windows 用户担心的凭证泄露、环境变量注入这些问题全给堵上了,还给 windows 用户加了执行环境沙箱加固。简单说就是,就算你装的插件有问题, 也没法随便碰你电脑里的隐私数据,偷你的账号密码,从底层把安全防线给你筑牢了。除此之外,还加了一键备份恢复功能,换设备不小心崩了,配置也能一键还原,不用再从头配一遍,非常省心。讲到这里,必须给大家敲个警钟, 这次更新有个大坑,已经有很多用户踩了,大家一定要注意,因为这次是直接把底层接口全换了,没有给旧版插件留兼容过渡期。版本刚发的当天大量用户反馈,更完之后,微信、飞书这些常用插件直接用不了了,之前装的旧版技能全瘫痪了,浏览器扩展也崩了, 等于更了个新系统,之前的软件全用不了了。好在官方反应很快,三月二十三号当天就紧急发了修复补丁, 解决了大部分核心故障,但目前还有不少旧版插件没完成适配,兼容问题还在优化那讲完了更新内容和坑点,最关键的来了,咱们普通用户到底要不要更,怎么用?我给大家分人群整理了最实操的建议,照着做,绝对不会踩坑。 第一类,新手朋友,还没装欧本可的朋友,直接闭眼充最新版,不用管旧版的坑。最新版安全安装简单, 直接用可 hot 的 官方审核技能,不用怕踩恶意插件的坑,新手体验直接拉满。之前咱们领的国家超算的免费 tokens, 刚好能直接用。第二类,老用户已经装了一堆旧版插件,用超算平台部署的朋友,听我的先别更,等兼容稳定了,或者超算平台完成版本适配了再更,不然你之前用得好好的自动化流程插件直接就全废了,得不偿失,完全没必要急着一时。 第三类,想做技能开发,靠这个变现的朋友,现在就是最好的入场时机。为什么?因为官方这次把生态彻底规范化了,新的 s d k 和 hop 的 审核分发变现功能全给你铺好了,现在做适配,新 s d k 的 技能 上架之后,官方有流量扶持,而且现在竞争还小,你先做先占坑。之前咱们说的普通人有想法就能靠 ai 做技能变现的路子, 现在官方直接给你把路修平了,只要你能找到用户的痛点,给 ai 说清楚需求,就能做出能上架能赚钱的技能,零成本就能入局。 最后给大家总结一下,这次更新是欧奔克欧从一个小众工具往规范化、全民化走的一大步,彻底解决了之前安全门槛高、安装麻烦、生态乱的三大核心痛点, 虽然现在还有点兼容的小坑,但整体绝对是利好咱们普通用户的。好了,今天的节目就到这里,你有没有更了新版本,遇到了什么问题,或者发现了什么好用的新功能,都可以在评论区留言,咱们一起交流避坑,咱们下期再见!
粉丝334获赞1217

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。

今天跟大家讲一下这个在小龙虾里面,他这个的模型是怎么切换的,那我当前这个模型是 glm glm 五的模型,那如果说我要切换成呃 glm 四点六 v 的 这种模型,那该怎么切换呢?那切换里面我们有这么几种办法。 呃,先给大家说一下,一种我们先打开一个终端,在这个终端里面呢,我们输入这么一个命令,叫 openclock apple color, 然后呢 o d l 是 model 四,那设置 set j ai, 这是智普的那个前缀 j ai, 然后写杠 g l m 杠四点六 v, 那 这个就是切换成把把这个默认模型切换成 g m 四点六 v 的 版本,然后我们敲回车一下, 敲回车完之后呢,它这里呢会告诉我们模型已经设置成功了,然后呢我们给这个小龙虾呢的网关重启一下, 重启一下,这个可以重启一下, 那重启完之后呢,我们回到这边来,我们去刷新一下这个浏览器,你看它当前呢这一个会增加了,多增加了一个叫 g l m 四点六 v 的 这么一个呃默认模型, 那这个呢是我们切换模型的一种方法,当然大家这里看到的这是一种呃通过它这种内置的这种 p p n 的 一个命令, 呃可以设置的,那如果说呃这里面的那个模型默认的模型不在我们的小龙项链表里面,比如说像 deepsea 这这种模型,那要怎么设置呢?因为 deepsea 它是不能通过这种呃简单的命令去设置,它只能通过自定义的呃 模型去设置,那它这边呢有两种,一种两种命令,一种是直接通过什么通过这种呃非交互模式的这种条命令就可以执行,比如说像这个, 比如说像这种像这种一条式的命令,它这里是什么呢?它这条命令呢?它这个是什么?呃是像这个参数呢?是。呃 执行非交互模式,使用非交互模式。那第二个叫 modelcare 了,这一个呢?按本地模式配置网关,这个是按本地模式配置网关。那第三个是什么呢?第三个是使用自定义的 api t 接入,这个是使用指定 api t 接入的参数。那第四个参数呢?这个第四个就是给这个呢?呃提供商命名为叫 dbseek, 对 吧? 那第五个这个参数呢?这个是什么?这个说明让它兼容 openai 的 协议。那第六个呢?第六个是什么设置?呃, deepsafe 的 这个接口地址。那第七个是什么呢?第七个是,呃设置默认模行为 deepsafe chat。 那第八个这个呢?那就简单了。第八个这个就是填写我们在数据库上创建的这个 api t, 这个就是 api t 的 序号。那第九个这个是什么呢?确认接受非交互模式的风险提示,一定要加这句话,要不然如果说少了这个,它上面的这个就执行不成功,那我现在来给他执行看一下 啊,这里已经告诉我们。呃, justin 呢?已经备份了,然后呢?这里也执行完成了。那执行完成之后我们要记得什么?记得是,呃,我们要给它一个重启网关,网关重启一下。 网关重启完之后我们直接在这上面刷新一下就可以了啊,刷新一下它当前这个 deepsea 的 这个什么?呃,模型已经加载进来了,那我们可以直接什么跟这个呃, 我们直接问用 deepsea 看一下 它,这里会回复我们是由深度求索公司那一个研发的这个大模型, 那这个模式像这种方式呢?都是用一条的命令方式,那还有没有办法用?呃另外一种方法呢?就不用一条命令,我们用那种直接 on 使用的是什么? openclock on board 这条命令呢,就是类似于刚刚安装的时候我们去执行,那我接下来也给大家去演示一下这个呃,我们用这种命令,使用 openclock, 使用这样子的粗俗化的方式去呃配置我们的 deepseek 的 这个呃模型。那首先呢,我现在呢先给它做一个啊,先把这个呢做一下来还原。其实所有我们所有配置的这个 wincore 的 这些配置参数都在这个文件里面,我先把这个删掉, 删掉完之后复原这个文件, 我重命名一下,我复原这个文件之后呢,我们我在这里呢先给他什么,先把它网关 重启一下啊,重启完之后我们确认一下是不是恢复到我之前的呃初设设置,我刷新一下啊, 这已经呃复原到最早的之前的设置了。好了,我现在呢给大家去演示一下这个什么呃通过这个叫做 open, 通过这条命令怎么去呃配置我们的 deepcom 这个模型,那我们执行这条命令叫 opencloud on board 的 这个命令, 那这个执行完之后呢?他就是我们,就像我们第一次安装的时候会告诉我们这个呃一些风险信息吧。完了我们给他确认一下这个选择 yes 啊,这个还是继续选择 quickstar, 那 这里呢告诉我们什么配置,是否继承原来的值,那我们选择第一个就可以了。 use assign 就是 继承原来的值, 那关键就是这些位这个位置了,这个位置这里的模型驱动商呢?有这么多个,那我们要选择哪一个呢?我们选择的是这个叫做 custom, 因为这里没有 dsp 的 那个默认的夫商,所以说我们这里要选择的是自定义的 夫商,那我们选择这个回车,那回车完之后,关键这个位置的 api, 那 个 api base url, 这一个要改成什么?就是我们的模型的接口地址, 这里的接口地址呢?要改成我们的这个叫 deepsafe v 一 的这个默认模型,那我们啊路径改一下,黏贴进来,就一定要改成这什么 a p i deepsafe, 点 com 点 v e 这个 u r 的 地址呢?是兼容 openai 的 接口模式。那我们回车,那这里呢?我们是什么?呃,黏贴那个 api key 的 值,那我们把 api key 的 值黏贴进来, 然后呢这个位置这里有三个参数,是选哪一个呢?我们要选择的是什么?叫做呃,说明兼容和 ai 模式协议,然后我们这里选择第一个兼容 open ai 协议, 那这里呢? model id 又是什么呢? model id 呢?这里呢是设置默认模型,也就是这个提供了哪些的默认模型?然后我们选择呃,输入 d e e p s e k 默认模型,然后显示 a t, 其实就是这一个, 其实就是呃这个位置接口文件里面的这个,其实就是这个, 其实就是这个。这个 deepsafe 提供的这一个叫做什么?推理模型跟聊天模型,然后我现在先选择的是聊天模型,叫 deepsafe chat 的 这个模型。好了,那我们给它 model id 选择了 deepsafe chat, 那这里的是什么呢?那 point id 又是干什么的呢?那 point id 它其实是是模型的一个小名,那我们这里的小名呢?也可以叫让它默认叫 custom api, 这个默认的也行,那我们选择用默认值吧。 那第二个是这个是别名,那这里的别名呢?我们也可以不填,没关系,我们直接敲回车也不填。然后第三个,这什么使用的一些我们交互的方式吧,那这个我们直接跳过啊,这里呢也是直接跳过, 然后这个是配置技能,那技能像我们之前也配置过了,我们可以选择 low, 也可以选择 yes 或者点 yes, 在 这里面跳过也行。我们先跳过,那这后面都是跳过了啊,像谷歌的,国外的这些 a p i 我 们都跳过,目前都没有申请 好了,那这个是不可使的,这个也跳过,那现在最后步呢?这个是什么呢?我们再重启一下就可以了。重启网关, 重启完关之后我们选择的是什么?还是继续选择 open 的 web ui 的 这个方式,然后呢它这里呢?它这里呢?你看它这种方式也可以把这个 deepseek 的 这个模型给它配置进来,那这个就是我们呃默认的这种, 呃自定义的方式,把 deepseek 的 一些那个 a p i 呢?呃配置到小龙虾里面去好了。呃,这个今天呢,呃,跟大家讲的这个第三方的 a p i 呢?呃就到这里了。

手动打开 uboot 子系统,输入 opencloud gateway 回车加载完成后,打开浏览器,进入 opencloud 的 web ui 界面, 在 web ui 界面选择聊天窗口,即可与 ai 进行任意对话, 后续更新也可直接在对话窗口让他更新。这里是腾讯部署的技能商店,集成了很多经过严格审核的各类技能,直接复制指令到聊天窗口即可部署商店在安装过程中,我们都会为您默认部署好。 在部署好技能商店后,我们可直接在聊天窗口让 ai 解锁我们需要的技能,直接输入对应的技能名,让 ai 进行自己安装即可。在安装完毕后,可选择让 ai 列出具体的使用说明,以供后续使用。 当然,你也可以在商店页面自行选择后复制口令到聊天窗口安装。更多使用技巧,关注九机实验室抖音账号了解。

上节课我们在本地部署了千万三点五 ai 大 模型,这节课我们继续部署 open core, 并让 open core 对 接上本地 ai 大 模型,彻底告别头肯焦虑,让大家零成本养龙虾。现在看 open core 官网,里面有很多种安装方式, 我们这里啊,使用 n p m 方式,一键安装,运行之前需要先有 node js 环境才能使用 n p m 命令。 node js 安装好后,打开终端运行 n p m i 杠 g 二分 q, 安装完成,运行命令,开始配置,复制过来粘贴。 先问我们啊,是否继续,当然要继续了,用键盘左右方向键选择 yes, 接着选啊,快速开始。这里问要对接什么模型, 这些选项啊,大部分都是对接云端 ai 模型的,因为我们要对接本地 ai 模型,所以要选择自定义。接着问模型的 api 地址,这个地址啊,在 o m x 的 仪表盘里,大家看这里, 复制一下,将这个删掉粘贴我们这里啊,要填的是幺二七点零点零点一,冒号八千斜杠 v 一。 继续啊问模型的 api k, api k 在 管理面板的设置权限设置里, 默认的 key 是 默认一二三一二三,我们不做修改,就填这个,先按回车粘贴过来,兼容性选择 open ai。 接着问模型 id, 模型 id 啊,在管理面板的模型管理器里面,将名字直接复制了,粘贴过来,确定 end point id, 保持默认就行,这个是模型的别名,可以不填,直接下一步。接着问啊,要对接什么聊天工具列表里啊,默认只有飞书。我这里出现的 open code 微信是我后面装的,大家初次安装并没有这个关于微信的对接,我们下节课再来讲, 这里直接选跳过接着问搜索服务现在没有,也先跳过,继续出来。技能的选择,直接按回车。 出来的技能选择,这里推荐只选 clonehub, 按空格,选中按回车键安装,其他的先不要选,可以避免网络有问题一直卡住。其他的有需要啊,后面可以再来安装。我这里列表中没有看到 clonehub, 是 因为我之前已经安装过了,所以看不到,我就直接选跳过。 后面的几个 api 啊,也都是收费的啊,暂时都没有,全都选 no no no no 还是 no 霍克时啊,也选跳过先按空格再回车。到了最后一步了,问我们运行方式,推荐的是在终端中运行,选择后,现在就可以和他直接发消息了。好,我们发个消息, 它会直接在动态中进行回复,当然也可以使用 word 界面进行访问,大家打开幺二七点零点零点一冒号幺八七八九,在这里也可以一样聊天,还可以做各种设置。总结下,安装 open core 需要 load 机制环境,在装好 load 机制后,使用 n p m 命令,可以一键安装 open core, 安装好后,运行命令开始配置文字版,内容请看课程讲英文档, iphone 可乐,现在出来聊天还可以操控你的电脑了,在下节课的对接微信里,我继续演示给你看。

opencloud 又更新了,它的更新是非常频繁的,这次发现功能和用户体验提升了很多,所以我带大家来更新一下。如果你发现之前的版本定时任务莫名的报错无法生效,那这次大版本更新你需要跟上, 别怕麻烦,跟着我操作轻松搞定。第一步就是我们打开终端或者是 power shell, 我 们按键盘上的 windows 加 r 键,它会出来运行窗口,在这里面我们输入 c m、 d, 然后直接确定。我们先来查看一下版本号, 我们输入 opencloud 杠 v, 现在我安装的是二零二六点三点二的版本,现在我们只需要输入这条命令来升级就可以,然后我们直接回车。 在这里如果大家是 mac 系统的话,执行命令之前一定要加一个速度来执行,否则会因为权限问题而更新失败, 这时候我们就更新成功了,但是重点来了,很多朋友升级完成之后发现跑不起来,那是因为新版本重构了数据库和密钥加密逻辑,所以在我们升级之后,我们需要执行一遍这条命令, opencloud dr fax, 这行命令会自动检查你的安装环境并修复配置文件,下面我们来执行一下。 好了,现在我们升级完成了,然后我们再看一下我们升级之后的版本号,我们直接回车,可以看一下现在的版本号就是二零二六点三点幺三,我们一开始的是点三点二,现在就升级成功了,然后我们再启动 web ui, 现在打开的就是我们更新之后的一个 web ui 界面,这次更新最香的地方也就是 web ui 用户体验更好了,我们可以看一下下面指示命令输入窗口,这里就增加了许多提高用户体验的功能,比如增加了上传文件的按钮,还有增加了语音输入, 还有在发送按钮的左侧也有了这个导出对话的一个功能,还有发送指令之后支持停止当前对话,之前我们只能等待响应,现在我们来一起看一下, 我们给他的任务就是今日 ai 资讯提供给我,然后我们发送,可以看一下发送之后这里就是一个暂停的按钮,如果我们选择停止 好了,这时候他就停止响应了,这个功能是非常有必要的。好了,这就是我们升级操作的全流程,本期内容分享就到这里,后面我会带着大家去更深入的了解它,用好它。好了,我们下期再见。

opencloud 刚刚发布了二零二六点三点二二,这次更新呢,只有两个字,暴力。首先呢,我们可以来看到它的模型默认呢,已经支持了 gpt 五点四,而且呢,也可以在五点四上面保持 codex。 然后呢, mini max 也来到了二点七的版本,生产力直接拉满。但如果你不看更新日期就盲目升级,那么你的插件可能会全部停摆。 首先,官方正式推出了 cloud hub, 现在的插件安装就会优先走官方的原,而不是回退到 npm。 更狠的是,老旧的 motoboot 文件夹彻底作废,会全部迁移到这个 opencloud 的 目录下面。所以呢,升级后的第一件事,务必运行 opencloud dr fix, 否则呢,你的浏览器控制和旧版插件会集体罢工。这次更新呢,最懂开发者情绪的功能出现了,斜杠 btw, 侧边提问,以前在常会话里面问个常识题呢,会污染整个上下文,现在直接输入这个小命令 秒回答,而且不占塞省的内存。另外呢,安卓节点现在也支持搜索通话记录和短信了。 你看,你的 ai 代理终于能像个真正的私人管家一样帮你看看谁给你打过电话了。然后呢,作为安全老兵,这次必须给这次的 sandbox 点赞!更新这个版本呢,分堵了 glibc 的 哎,在这分堵了 glibc 调优利用和 jvm 注入漏洞,连 windows 下的远程 smb 频剧劫持都被毒死了。所以现在呢, open cloud 正在从一个好用的工具变成一个安全的防御堡垒。 代码要写的优雅,环境要跑得更稳,还没有升级的兄弟赶紧可以尝试一下 update 命令或者 npm 命令去把它升级到最新的版本。好,我是一轩,想看更多硬核玩法吗?关注我,带你真的用 ai。

有粉丝问模型该怎么更换,那么我们今天就来讲模型怎么选择以及更换。 那我们首先去了解一下这个模型什么是模型,以后不懂的东西都可以直接问豆包,我们直接就把目前市面上的所有能够支持龙虾的这个模型去进行一个比较,是豆包出的结果。 那么在这个表上你们就可以知道为什么你们的龙虾会反应这么慢,这里是有响应的,比如说这种三秒的。 好,那你看这里,他说这个是第一,那我们就今天就用这个来做一个例子,是如何去接入这个 p, 因为很多人他可能第一次上来,他就去接了 type c, 可能比较简单接入,接完之后就不知道怎么改,那今天教怎么改? 那我们得先去这个官网, 这个它是目前应该是全国第一的,豆包说了感应最快,但是价格不便宜, 那我们在这里找到这个 building plan, 进来的时候我们就会选一下套餐, 买了这个试一下,给你们解释一下这些是什么意思,比如说一百 rounds 五个小时,什么意思呢?就是五个小时之内你能够问他一百次,比如说现在从十点到下午的三点, 我只能问他一百次,如果一百次过后就更不了了,就他不会反应了,是这个意思,如果你,如果你觉得不够,那你就可以开这种一个小时可以三百次,还有这个两千次, 建议啊,普通人我觉得还是这个就够了。好吧,你们自己看,那我们怎么接入呢?首先在这里啊,有一个购买之后啊,它这里会有一个 e, 然后用了这个 key。 好,我们先讲本地的更换,我们在我的电脑一般的吸盘这里会有一个用户找到,你的用户在里面找到这个 open ai 的 登录, 然后在这里会有一个 opencloud 的 追神文件,这里一定要备份啊,特别是新手一定要备份,如果不备份的话,出了问题就很难搞。复制一下, 三月十三号好了,有了备份就不怕了,它它什么问题,我们大不了就把它这个删了,然后再来这里把这个回复就行了。 找一个好的编辑器啊,如果你用这个文档打开的话, 如果是这个打开的话 就不太好看了,可能编辑的时候会容易出问题。找个好编辑器, 这里好处是你可以这个括号都能对应,这样对的上。好了,不说那么多,怎么改呢?首先做了一个保存,保存之后这里是有备份的,就不用看了,我们来去找个 deep sync, 这样 deep sync 我 们从头到尾复制一下,比如说你的这个 改一下 mini mix 类型,这样子给它加上,这里也要加,相当于就是加一个模型吧,它是可以在那个 mini 画像龙虾这一款。首先先加一个手动画, 我们抄 dips, 这里注意啊,一定要用英文,就是英文字母的逗号,不要用中文的,用中文的不行。 这个叫什么呢?叫什么?那这样子不能怎么配置啊?找个包,找个包。那怎么接入吧, 试一下, 这个是名字,名字是随便啊。嗯,然后这个地址,这个请的地址可以切换成不能接 d c 的, 在这里不知道 v e 就 行了。 这是什么?这是默认,比如说你配置之后,你重启之后它用哪个模型,这里直接默认 d c 嘛?现在可以在这里加一个 这后面的名字,在这里你写啥就是啥, 哦,应该上面这个,上面这个,嗯,这个这个定了一个是 id, 然后写完之后要 ctrl 加 s 保存一下,一定要保存,不保存不生效,好,保存,我们试一下重启一下 旧版的这个是要后面有个 stop, 好 像新版的那个三点八的好像就直接就给了位就可以启动,这个呢?根据自己的实际情况启动一下。 刚才我们只是配置了,有没有发,如果聪明的小伙伴会发现我刚才是没有配置这个 key 的, 没关系啊,我们启动启动。哦,这个没改, 要改成,要改成这个, 这个系统保存再重启一下, 在吗? 哎,看到没有没有配置 key 的 时候,这里就会应该有很多同学会发生会遇到这种情况,不知道是 t 配不对还是什么,反正他就是一直没有回弹,对吧?就是因为没有配置 key。 那 我们再来到这个目录下, 找到这个 adns, 我 们可以先看一下这边的配置,没有电了,默认翻启动,这里没有,然后我们找到这个目录还是这个目录,然后这里有个 adns, 有 个 me, me 里面有个 adns, 在 这里找到这个 models, models, 然后打开 在这里就就是什么呢?在这里就是你之前配呃,所有的这个代理这个模型的这个 t, 这也是 d c 的, 然后 d c 直接叉。这里要讲一下这个跟这个是有区别的,我们去看一下它的官网, 那这个 d c 小 号也挺多,六千多万,然后看官网在这里 他这也说了啊,这其实是两种,一种是这个 duck, 一 种是 resident。 resident 的 话是什么?深度思考,也是说如果你要用来干活,应该是要 face, 如果你只想聊天,那就是这个。 我们选的话,应该是选,应该是选这个,那样去干也是我这边配置的,这样去干不好,不管这个是另外的是什么,来我们看它,我们之前在这里手动加了这个 excel, 然后你保存重启之后呢,我们才会自己在这个窗口去生成对应的 配置。啊,这是我们刚才配的,感觉我们配的错了,因为我们是想当年的,并不是它官网的一个标准的模型的 id, 这才是它生成的官网的标准浏览器。然后这个这个是什么呢?这个应该是它所谓的这个, 那我们刚才那个应该是这个,这个应该就叫应该是这个,那就是对应上了,那也就说我们自己写的这个错了,要换成他的这个,我们过去换一下,直接换一下, 我们这里抄的是这个。 好, ctrl s 保存一下,有些好像 ctrl s 保存它就能生效,试一下能不能生效,在吗?还是不在哦,那就是没生效, 那我们重启一下试一下。 哦,不好意思,忘了,没有生效是肯定的呀,因为 key 还没配,因为 key 还没配,知道吗?刚才我们去保存,其实它是生效的,你看我们之前制定的那个,它已经删掉了,已经没有了,那么理论上我们问它在吗?它肯定是不在的啊, 应该不在。那好,我们应该去配一个 key。 key 在 哪里配呢?在这里有个 model, 这个目录下有个 model, 之后还有一个这个,我们打开它,这里会有一堆配置,我看一下 哦,这个是我之前配过的。那为什么呢?不行, 搞了半天终于找到问题在哪里了,大家一定要注意啊,复制的时候一定要小心,再扫一个 h, 好 吧,再扫一个 h, 保存。 这边不管这边,可能这边这边不用管这边等下子我们重启一下,自己写起来,这里这里的 key, 它到时候也记得写,我们重启一下好了。你看这里这个文档它到时候也记得写,我们重启一下 好了。你看这里这个文档它到时候也记得写,我们重启一下好了。它会不会把那个改掉? 哎?这改过来了吗?它附它,也就是说这个文档跟这个文档都会,可能都会被外面那个实时写进来,重启就会写进来,我们先问一下,应该可以。 嗯,好了,我问一下你现在什么模型 好?检测一下当前所有模型的响应时间。好了,我们看一下, 现在就是可以检测出来当前的这个模型的时间。这个可能有问题 啊,这是第一种啊,就是改这个配置文件的另外一种,其实很简单,你直接就跟他说,跟他说就行了。你直接把那个这个复制下来, 复制这个啊,到这里,然后你就说帮我添加一下 mini man 的默契,然后再把这个这个给他回车,应该就行了。但是在这个操作之前啊,你一定千万千万,你还是得到这里来,先把这个备份一下,这样去搞,如果他搞错了,搞怎么样了?因为他搞错了,他会重启这个网关,重启之后, 如果它重启之后,它切换成默认的是那个 mini max, 万一它没配成功,没配好它就不会跟你兑换了,就像刚才一样,它就不会跟你兑换了,你问什么都不会反应了。这个一定要注意,你可以先先把这个保存了,保存好 出问题了你就把这个删除了,也删掉,然后你再把你刚才这个复制一份,再改成这个名字,再重启完关就恢复到你之前了,这个一定要注意一下。好,今天就讲到这里。

首先我们打开 deepsafe 官网,然后选择 epi 开放平台,这时会让你登录,登录后就进入了控制台,然后点击左方的 api keys, 这时候我们点击创建 api key 名称,随便输入一个就行,用来自己进行识别判断的。完成后一定要保存好这个 api, 因为后续无法再看到丢失了,就只能重新新建一个,不过不影响任何使用,倒也不用担心太多。替换的模型配置有两种办法, 第一种是修改配置文件 opencloak, 点 jn 森,但这种方式对于普通用户太过于复杂,可能会改的也不会看我这个视频了, 我们直接说第二种,打开终端,在终端输入 opencloak config, 选择 local, 选择 model, 选择 custom provider api base url, 填 deepseek 的 接口地址 h t p s 冒号斜杠斜杠 a p i 点 d e e p s e k 点 com 斜杠 v 幺, 回车后进行 api key 的 填写,输入你的 ipi key, 回车后选择第一个 openai 的 选项,这时候会让你填写模型的 id, deepsafe 官方现在开放了两个 id, deepsafe chat 和 deepsafe reasoner, 具体区别大家可以暂停看一下,这里我们选择 deepsafe chat 就 够用了。 显示 verification successful 表示成功了,否则就表示有一步没对,后续的两个东西都直接回车即可。最后我们选择 continue 就 完成配置了,最后在命令行重启 openclaw 即可。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

如果你有一个 chat gpt pro 账号,我有个好消息要告诉你,你可以在 open cola 中使用 chat gpt pro 账号。 方法是添加 codex 模型,而且非常简单,我们只需要运行两个命令就可以完成了。正如你所看到的,我只是添加了我的 chat gpt pro 账号,就成功把 open a i codex 模型加进来了。接下来我会一步步教你怎么做。现在这个流程非常简单,我们只需要两个命令,只需在你运行 open cola 的 终端里输入第一个命令。 我也会把这个命令放到屏幕说明区,顺便按下回车键。现在它会引导你完成导入流程,但我们不需要修改任何数值, 我们只是要追加我们想要的新配置,所以按左键,然后选择 yes i understand, 然后选择快速启动 quick start。 然后在这里我们直接使用现有的默认值。非常重要,我们不想更改任何东西。我们只是想在 open class 上追加一个新模型,所以我选择保留现有值。然后这里非常重要, 你会看到它给了你一个 u r l, 它提示你在本地浏览器打开这个 u r o l, 所以 我要复制这个 u r l, 然后粘贴进去并按回车。接下来会要求你登录你的 openai 账号,所以我现在进行登录。登录后,你需要确认你想用 g p t 登录 codex, 所以我点击继续,然后会打开一个非常奇怪的页面,但不用担心,一切都是正常。你唯一需要做的就是复制地址栏里的 url, 然后回到运行 openclot 终端,按照提示操作粘贴重定向 url, 我 就粘贴进去并按回车, 这样基本上就选定了配置。现在这里我不改任何东西,因为我不想新增 bot。 我 选择不,因为我只想处理 chat gpt 配置。 按回车键,然后我将重新启动网关。重启网关非常重要,因为这样网关才能识别你新增的模型。但这里我选择稍后再做, 因为我们还需要运行扫描命令。接下来我们要运行的扫描命令是这个,我也会把命令放到说明区,然后按回车。这个命令会覆盖配置, 并添加 openai codex 作为默认模型。所以现在技术上, openai codex chat gpt pro 账号已经在使用中。为了测试它是否工作,我在终端里输入 opencloud ui, 打开界面, 然后你会看到下面显示 agent main open ai codex。 我 也可以问他,嘿,你当前使用的默认模型是什么? 然后你会看到他回答,是的,我当前使用的默认模型是 open ai codex gpt five point three codex。 就 这样, open ai 已经添加, 你基本上可以免费使用,因为你有 gpt pro 账号。如果你有任何问题或遇到困难,在评论区留言,我非常乐意帮助你。如果您觉得视频有帮助,请点赞并订阅。已查看更多类似内容,感谢观看,下个视频见再。

在配置小龙虾的时候,这里有不同的模型可以供我们选择,但是呢大多数都是国外的模型, 那很多小伙伴说我更喜欢使用 deep seek 模型,要如何配置呢? ok, 那 这个视频中咱们就手把手教大家如何在 opencloud 小 龙虾中配置 deep seek 模型。好,我们看到当前这个页面就是我们之前配置好的小龙虾的 web 页面, 在这里面我们输入任何聊天内容,它都会返回一个错误信息,这是因为这个模型 and topic 咱们没有配置,我们要配置的是 deep sec。 那 怎么配置呢?接下来跟着我的流程。首先我们在这个页面中找到这里的设置,这里有个配置, 然后我们找到模型在这里 models, 那 么配置方式有两种,如果你会编程的话,你直接找到这个路径,在这个接私文件中进行配置。我先给大家演示一下, 直接打开你电脑中的访达,然后点击这里前往粘贴一下这里的路径。好,现在就已经找到这个文件了,然后打开你的一个编辑器, 比如说我这里就使用文本编辑 sublime, 这是每一项配置,比如说 agent tools, message 等等等等,咱们就给它添加,到最后这里添加一个逗号。接下来就是咱们的 provider 模型的设置,这里呢给大家准备了一个文档,大家可以直接粘过来, 直接把这个文件全部粘过来,这是一个新的一项叫做 models, 那粘过来以后,我们会发现这里有一个 api key, 它是 deepseek 的 api key, 那 么我们需要访问 deepseek 的 网址,查看一下它的后台, 找到 api 开放平台,充值完成以后,这里有一个 api keys, 点击它,然后点击新建 api keys, 输入一个名称,比如说我们就叫做这个 open crawl, 直接复制它,然后把它保存到一个地方,然后把你的 api key 添加到这里,保存这个文件就 ok 了,这是你会编辑代码的情况下, ok, 我 们还原回去。 那小伙伴说如果不会写代码,不会这么操作怎么办?非常简单,我们直接就在这个配置页面中来进行添加。 ok, 那 接下来咱们看一下怎么添加。首先咱们找到配置,找到 models, 然后这里 model parameter 模型提供商,点击它, 点击这里的 a, d, d entry 添加试卷,咱们就在这里进行添加,其实无外乎就是把刚才内容这里添加了一遍,咱们叫做 deep seek, 起个名字, 然后这里选择模型,选择模型的时候呢,这里没有 deep seek, 咱们可以选择这个 open ai competition, 因为什么呢?因为 deep seek 它是兼容 open i 的, 所以说你选择它是没有问题的。接下来这里填写 api key, 也就是我们刚才在 deep seek 中复制的那个 api key, 把它填到这里,好,下一项,这里咱们选择 api key 的 形式, 接下来这里有个 base ui 二, base ui 二,我们应该填写这个 base ui 二, 这样的话它就会请求 deep seek 的 这个 api, 然后继续 model list, 这里是额外的选项,咱们点击 a d, d, a, p i, 选择这里,我们还是选择 open a i, 然后继续 content window, 这是文本长度,对应的就是它,把它拷贝过来,然后点击 cost, 这些全部设置为零。 id, 这个 id 呢,咱们就叫做 deep seek chat input, 点击 a, d, d, 然后选择文本形式 t y 七 ok, 最大的 token 这里咱们设置为八幺九二 name, 这个 name 呢,咱们就叫做 deep seek chat。 好,全部填写完成以后,点击这里的 save, 现在呢就保存成功了。保存成功以后,咱们再回到聊天系统这里,那此时它的回复是,我是 deepsafe chat 模型, 这也说明咱们现在 deepsafe 配置成功了。如果你在配置过程中遇到任何问题,请在评论区告诉我,关注我,带你玩转小龙虾!

兄弟们,上期教大家怎么在 nas 里面一键部署 openclaw, 以及怎么进入控制中心,以及目前默认使用的大模型是什么?那就有好兄弟要问了,我就不爱用免费的,我就爱用收费的,收费越贵我越开心,怎么办呢?好办,在配置里啊,找到 models, 点击第四个 model providers, 第一行呢,有个 enter, 点它到了下面这里啊,有个 customer 杠一名字,你可以随便改啊。 model provider api adapter 这里啊,选择付费大模型对应兼容的接口协议工具,然后在这里输入你付费大模型的 api key base url 啊,这里输入你的套餐专属连接,然后呢,在这里点击 add。 api, 同样选择付费大模型对应兼容的接口协议工具啊。 id 这里点击 add。 如果你的付费大模型指的是文本和深度思考啊,那就选择 text。 如果这是文本深度思考和视觉啊,那就再点一下 add, 选择 image 名字这里呢,就随便填写一下。然后呢,将 resending 打开,然后回到聊天啊,检查一下模型状态,输入你现在有哪些模型,看它的回复后啊,输入切换到 ok, 你 的收费模型就切换好了。为什么不输入给他,让他自己配着呢?因为这个模型啊,他可能有一点傻,他不一定会按照你的要求去输入你想要配置的模型 id, 可能会自动调用免费的 id, 然后呢,就导致小龙虾直接崩溃。那如果模型设置错了,小龙虾崩溃了怎么办呢?哎,别急,下期告诉你。

赶紧薅羊毛,英伟达免费送无线头肯免费用缤米 k 二点五, mini max m 二点五,流量无上限。一个视频教会你怎么免费注册领取,怎么接入锅锅捞小龙虾,使用干货两分钟,先收藏后观看,总共分为三步,第一步,我们先访问英伟达的官网,接受 我们的 qq 音箱 autolok 邮箱,点击下一步, 点击进去,点输入我们的密码,选择我们的验证模糊,点击创建。去邮箱,接受我们的验证码,粘贴验证码,点击确定,点击下一步, 这里随便取个名称,点击创建账号。第二步,获取免费 ipikey, 这里需要认证过后拿到我们的 ipkey, 这里点击 wordify, 这里就需要我们填写我们的手机号,加八六,一定要加上八六点深扣子, 输入我们的短信验证码,点击 word。 好, 这下我们就成功注册,接下来我们去得到 a p i t 我 们选择我们需要的模型, 这里选择 mini max 二点五,选择右上角的 vioq, 点击 jerry 的 api key, 生成我们一个秘钥,我们需要保存 api key model 备用。第三步,接入我们的小龙虾,我们打开 opencloud, 点击 ai 与代理,点击 model, 点击添加 entry。 划到最后,我们看你这个名字,取一个名称, 选择 open api competition, 输入我们的 api key, 打开我们开关,输入 base url, 然后添加, 选择我们的 open api complete id, 名称就是我们的模型名称,点击添加,这里要选择 text 好, 名称选择好,点击保存,这儿点击 open, 打开我们的接收文件。我们可以搜索 primary, 在 models 中添加和我一样的内容,然后再更改 primary 为我们的新节点名称, ctrl s 保存关闭,重启我们的 get, 选择我们新加的模型,询问它。 如果这个视频帮助了大家,请点赞收藏,关注我,多一个程序员男朋友点赞收藏。

open club 整挺火,后台私信主要关注两个问题,一,小龙虾是什么?二,怎么安装?因为我和我的关注者都不是什么 ai 专家,大多可能是因为小龙虾很火比较好奇,我就言简意赅了,小龙虾不是什么新的 ai 模型, 他是一个利用 ai 的 工具。如果你不给小龙虾分配模型啊,他是连聊天都没法聊的。如果给了他模型,那就厉害了,他可以读写操作你电脑上的所有文件,甚至接入其他程序的接口,操作这些程序,帮助你工作好了。第二个问题, openclaw 怎么装呢?上个月底一个上海粉丝啊,花了五百块装 openclaw, 离谱。 其实官方是有脚本的,安装起来并不麻烦,但是网上的教程却存在不同的安装方式的 原声安装和类似于虚拟机的 wsl 安装。这里各位不要被这个说法迷惑了,好像虚拟机就不太专业,不太灵活。实际上呢, windows 的 原声安装受制于安全策略,装好之后的 opencll 权限仅限于一个指定的文件夹, 反而是 wsl, 你 可以理解成微软的官方虚拟机啊,它的权限是可以控制你整台电脑的,这样才可以真正帮助你工作。而且后面小龙虾玩够了,你只要把这个 wsl 卸载, 电脑还是干干净净的,不像原生的安装方式啊,需要手动清理很多垃圾。第二个不同呢,就是接入方式的不同。如果你已经在电脑上部署了 ai 模型,那就可以直接让小龙虾调用,完全免费。但是这个工作效率嘛, 受限于你的电脑配置,像我这台电脑,真实体验下来并不好。而第二种方式是使用像千问呢, deepsea 这些官方提供的 a p i, 就是 你坐在家里,让他们的云服务器给你跑 ai 模型,这个体验就太爽了,缺点就是需要付费。当然喽,每家都是有免费额度的, 你可以挨个注册嘛,嫖完了所有的免费额度,再决定要不要付费。所以呢,我这里的安装教程就是 windows wsl 安装加上云端模型的接入。安装步骤拢共分三步,第一步,环境安装。先安装 wsl 搜索框,输入 power shell, 右键管理员运行, 输入 wsl install 回车,等待安装完成重启。 重启之后进行 linux 的 安装,再次 power shell, 输入 wsl install 乌班图二十四点零四这个版本回车。 安装完成后会提示设置 linux 账号,可以直接回车,然后设置 linux 密码,这里它不会显示你输入的字母,你就自信地输入简单的密码,然后回车并再次确认输入密码。 再回车之后,会发现命令符变成绿色和蓝色了,说明我们已经进入 linux 虚拟机了。第一步我们的环境就配置好了。第二步就是 open color 主体了,直接在命令框输入回车,等待完成, 直到出现黄色字体,就表示这个炙手可热的 openclaw 已经完成安装了。紧接着最后一步,配置 openclaw, 控制方向键向左回车回车。到了选择 ai 模型这一步,我选择用千万来做示范,控制方向键向下找到千万并回车, 选中弹出的网页链接, ctrl 加 c 复制并粘贴到浏览器,登录千万账号。这一步的意思是告诉千万允许 open color 调用它的模型,如果没有账号呢,咱就注册一个。确定授权以后,回到 open share 的 界面,这里也同时得到了响应键盘回车 配置技能。这一步,选择下面的 skip 跳过,然后继续选择 skip 跳过,一路选 no。 到了这一步,把除了 skip 之外的四个选项用空格键全部选上,按回车确定。最后一步,选择第一个回车, openclaw 也部署完成了,我们已经可以和他交流了,教程也结束了,更多的高阶功能需要安装一些额外的 skill, 这个就靠你自己摸索了。当然了,你也可以直接问你的 openclaw。

open curl 连续九天没有更新,全网都在问,出事了还是在憋大招?今天答案出来了,是大招,而且很猛。三点二二,预览版刚刚上线,这 次更新的核心不是加功能,是补窟窿。先说安全,如果你在 windows 上跑 open curl 之前有个漏洞,你可能不知道,攻击者只要构造一个特殊的 file 路径,在你加载媒体文件的时候就能把你的 windows 登录凭证悄悄发出去。 三点二二,把这个口彻底堵死了。另一个更隐蔽的漏洞是 unico 的 零宽字体,攻击者可以在审批提示里塞入不可见的字体,让你看到的命令和实际执行的命令不一样。对公网部署用户,这版是必须更新,不是建议更新。 插件层面是一刀切换,写就 api, opencl extension api 直接移除,没有兼容层,没有过渡期,所有第三方插件必须迁移到新 sdk。 同时插件首选分发渠道从 npm 切换到 claw hub 官方维护审核更严。模型方面,默认模型切换至 gpt。 五点四, mini max 升级到 m。 二点七,新增通过 google vertex ai 调用 claw 的 通道。新一版 open claw 传递的信号很清楚, 从快速迭代堆功能转向认真做工程。当前为预览版 beta, 正式版即将发布,关注新智园,秒追 a s i。

openclock 三月二十二号的重大升级版本终于来了,这次新版本的发布呢,大概有十八项重大的改进,七十三项新增加的内容或者是更新。这一版本的更新呢,重点在于插件生态的全新升级,新增加了不少的新的模型和提供商,安全与沙箱进行了强化, web ui 以移动端的体验进行了优化。整体的方向呢,是让 openclaw 更加模块化安全跨平台,并且呢支持更多的 ai 的 模型与集成。如果你是手动进行的更新,更新完成以后 要记着运行一下这个命令, openclaw dr 杠杠 fix 来完成迁移配置。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。