先在模型切换页面添加模型,多添加几个不同模型有自己不同的思考问题的方式,通用的问题会有不同的答案。添加完模型我们去添加 agent, 也就是龙虾分身 创建的,每个分身都选不同的模型, 添加完成后,一次型测试,分身的状态及风格 都到齐了,你更喜欢哪种风格?
粉丝134获赞401

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。

兄弟们,我终于养出了一只会做三 d 模型的龙虾,而且是大龙虾!我可以用一句话,生成三 d 模型。我可以用一张图生成三 d 模型, 我还可以用一张图纸生成三 d 模型。今天一分钟教会你。首先,你需要给你的龙虾准备一个擅长做三 d 模型的 vip, 比如牛肉 forty, 它的空间吸出注意力机制生成的模型不仅快,而且细节没毛刺,不需要你手动修补,能让你快速生成高精度的三 d 模型。其次,给你的龙虾配置一个做三 d 模型的 skill, 比如我这个祖传的 skill, 不 仅能纹身三 d, 涂身三 d, 甚至还能图纸 升三 d。 最后还可以转换成三 d 打印和游戏开发用的各种格式。最后一步是把这个 skill 放到龙虾的 skill 文件夹里,然后让你的龙虾帮你配置需要的解析工具,并且把之前准备好的 a、 b、 a、 k 发给他就搞定了。你看,把这个图纸发给他,他会先根据图纸做出二 d 效果图,然后再生成三 d 模型。是不是很屌? 以后不管是做游戏,搞三 d 打印,只需要动动嘴,我就有个全年货待命的三 d 效果图。专家为我服务了,帮我把这个图转成三 d 模型。 skill 和使用方法我都准备好了。点赞关注,轻松获得!

啊,大家好,呃,今天溪水哥给大家做一期关于 open color 的 这个 model 模型的配置,今天给大家讲的全面一点儿把。呃, 给大家分享一下我们怎么安装 model, 然后 openclaw 的 内置的这些 model 是 什么样子,有哪几种类型,然后做一个介绍,然后再给大家针对每一种类型做一个案例的分享,会举一个具体的例子给大家讲一下怎么配。 最后就是如果你的本地呃 openclaw 有 好多个模型的话,你怎么去切换它?对,就是如何切换 model。 好,我们开始第一部分,呃安装 model 的 这种大模型,呃,现在是一共是五种类型啊,就是 open clone 支持的五种类型有五种,一种是 api key 的 这种方式就是需要你把 api key 拿过来, 呃,这里面像 kimi 啊, mini max 啊, open ai 啊 clone, 然后还有智普都是属于需要你把 api key 拿过来 对进行配置,然后还有呃像 on os 的 这种方式,就是它会跳转到官网,然后呃你登录完了之后自动跳,自动授权,授权对,像谦问式这种, 呃,然后再就是自建的这种,就是你需要配置那个他的那个服务器地址,然后和 key, 这个就是 deepsea, 属于这一类的。最后就是还有那种聚合的, 就是,呃只需要配 key 就 行了,像这个 open root 这种,呃,它就属于聚合的。 还有一种就是欧曼,欧曼大家应该听得非常多,是本地模型,它的模型呢?那个点就是需要呃本地安装,然后端过,通过端口访问,然后它最大的就是呃它因为本地跑嘛,最大特点就是托肯是免费的 啊。对,一共是这五种类型,然后我们怎么配置呢?嗯,配置大概分为七步就完成了, 很快。对,如果你会的话,就是安装起来会非常快。我们依然首先还是要打开我们的这个命令窗口,如果我们的同学是 mac, 那 你就需要打开终端就行了。如果你是 windows 的 话,你就需要打开那个 pro shell。 如果你在 windows 是 装了 wsl 的 话,那你就打开 wsl 里面,点开之后你会有那个 u 帮图,你打开 u 帮图,如果是 linux 的 话,那就直接是命令窗口了就 ok 了。然后第一步呢,我们就需要这个啊,输入 open curl config, 也就是配置文件, 就是配置配置文件,然后选完了之后,你就选你的那个。呃,就是你在 git 会在哪个地方跑,然后你选 local 就 行了。 然后配置你要配置什么?它里面有好多种,就是你要配置你的 channels 呀,有配置你的这个 web tools 呀,对吧?然后还有配置 model 的 呀,对不对?你选个你的配配置就行了,就是选你的那个类型, 然后最后就是,呃,然后你就就选择选了 model, 之后你就选这个 这个谁,谁给我打电话,然后你就选那个千问,比如说啊,我是配的千问啊,你选模,选模型的话,你就选哪家模型就行。 然后选完模型了之后,这个模型有可能是让你 apikey 的, 有可能是让你弄那个 onos 的。 还有一种就是自建, 对,如果是 api key 的 话,你后面就粘贴 api key, 如果是 onos 的 话,你就需要登录去授权。如果是自建的话,你就需要这个啊,把你那个服务器的地址和 key 都要配置好。对,配置完了之后就输入这个,就是网关,重启 open clock, get away, restart 就 行了。 这就是啊,分为这几步啊,后面等会给大家讲案例啊,具体讲案例,然后这里给大家接下来讲一下内置的 model provider 介绍,也像我们 open core 到底支持哪一些? 呃,这个大模型,呃,你看这个第一类就是国际主流的啊,就是这几家,这几家我们好像都玩不了,玩起来比较费劲,要转要转好几站,对吧? 对,像这个 openai 的 呀,美国的,对吧?然后这个啊, cloud 呀,对不对?谷歌的是不是这个 gork 的, 对吧?还有这个法国的,这几个呢,都是需要填 apikey 啊,谷歌呢,是需要除了 apikey 还可以用 onos 的 方式去验证的, 然后国内的,这是国内的,国内的大家应该配的比较多了,对吧?这个像 mini max 啊,对不对?然后月之一面呢?然后千问呢?百度的呀,对吧?然后阿里巴巴的 这个字节,它有海外和海内的,然后小米还有智普。对,这几家呢,都是支持。呃,支持这个 apikey 的 只有这个。呃,谦问是需要 onos, minimax 也支持,两个都支持验证的方式。 然后这种呢是大家用的少,我们就不过不做过多的去介绍,但是它的那个默认配置里面是支持这些的。这个里面有两个得重点说一下, 一个是欧莱玛,欧莱玛是可以啊,他这个工具可以把一些开源的模型直接拽下来,拽在你本机本机上,这种最大的特点,刚才说了,就是什么呀? 最大的特点其实就是啊,再打一遍就是免费。对,但是啊,对你的本机的机器要求就比较高了,像你内存呢?显卡啊,对吧?然后这个呢,就是开源的,这个就配置,一般的人是整不起来的。 然后这个呢,呃,也是用的比较,这种方式用的比较多,像 deepsea 就 需要通过这种方式去配置用户自定义的方式, 这是我们整个呃整个 model 的 前面的介绍, 然后好,现在给大家分享几个案例,每一种类型的案例。第一种就是我们分享一下 kimi, kimi 怎么配置 kimi, 这种就是 api key 的 这种方式去配置啊,我们依然还是打开这个,呃,就是这怎么多了一个 依然打开这个,呃,命令窗口输入 openclo, 对 吧? openclo config 这儿输完了之后,它就会呃让你选择你是在本地 get 会是在本地跑还是远程跑,所以我们这个地方就选本地 local 就 行了。 然后选完这个之后呢,它就会跳到这个界面,让你呃你要配置什么,这里面可以配置你的什么工作空间呀,对吧?然后你的 web 的 工具啊,是吧?然后你的网关呐, get away, 对 不对?然后你的 channels 就是 你的这个渠道配飞书 还是配微信,对不对?这就是技能 skills, 它也是官方的技能,对吧?这个就是配置,这里面我们选 model 就 行了,选模型,对,模型选完了之后呢,我们就呃到了这个界面,这个界面呢就是大家看看你自己想用的是哪一个?我这给大家呃 分享的是 kimi 的 啊,我们选 kimi, 选完之后它就会让你输入,呃,是是 api key 了,这个地方因为我用的是 kimi code, 所以 我就选这个, 这个选完了之后呢,就让我粘贴这个啊 api key 了,我就这个地方,这个 api key 就是 在你的那个 kimi 的 后台去建,建完了 key 之后,然后直接粘贴过来就可以了。 这一步是这样的啊,然后这选这个回车完了之后就这个把 key 粘贴进来,这样就配好了。 这个是 api key 的 方式配置,然后再给大家分享。接下来分享的是谦问的这种 onos 的 配置,这个跟上面的这个 kimi 的 配置完全不一样的,我们在这个 model 这个地方选择的是 这个工业上模型。是,呃,是 q 问,这就是千问的,千问想完了之后,它就会自动跳转到千问的这个网站上,然后你就需要登录,登录完之后授权点确认就可以了,确认完了之后呢?呃,就配置完了。 然后还有一种就是 deep seek, deep seek 是 需要用这种方式,也叫 coster profiler 这种方式去配置的。 我们在这个 model 这个这个地方选的呀,就得选这个 custom provider, 选这种方式就是自定义方式,这种方式呢,你选完之后它就会让你配置 api base url, 对, 这个地方就是要配它, 如果是你是 kimi 的 啊,那个 deepsea 的 话,就来配这个,然后输完这个之后,他会让你粘贴你的 key, 然后你把你的那个 key 粘贴过来,输入你的 key。 对, 输入 key 完了之后,他会他会问你这个选项怎么选,你选第一个就行了。对, 这是关于这个的这个啊,然后再就是,呃,你就输入你的啊那个 model id, 这个 model id 我 们输 deep seek 杠 chat。 呃,为什么输这个呢?等会儿我告诉大家 为什么是输这个,然后一会后面都回车就行了,这样的话这种就是呃 deep seek 的 这种配置, custom 这种配置就这么来配的, 然后关于刚才那个 base u l, 还有那个那几个东西该怎么配呢?是这样的,你打开这个 api 的 官网啊,打开谁有电话给我 api 的 官网,然后打开 api key 开放平台,开放平台之后呢?呃,你就会,就会看到呃,那个文档里面就会看到这个内容,这里面会看到这个就是 base 与 r, 这个就是 model id, 一个 deep seek 杠 chat, 还有 deep seek 这一个,然后这个是关于呃那个啊 custom 这种配置,然后最后装了这么多模型的话,我们该怎么去切换模型呢?我现在又装了千问的,又装了 kimi 的, 呃,切换的方式是这样,你在命令窗口里面输入 openclaw models list, 你 就把你的所有的 models 全部列出来,列出完了之后你看它就这么显示,显示完了之后你再配置用这个命令就行了。 openclaw models set, set, 这后面是个名称啊,这个名称就是你的这一列,一定是按照这一列来啊,你输少了,输多了都是不行的,所以你看我这个地方是百炼千问斜杠, 对吧?这个千问三点五杠 plus, 就是 这个,这个就是你切换你的这个模型的命令。对,呃,这就是今天给大家做的分享,内容有点长,嗯,大家看完了,我们相互学习。好,谢谢大家。

在配置小龙虾的时候,这里有不同的模型可以供我们选择,但是呢大多数都是国外的模型, 那很多小伙伴说我更喜欢使用 deep seek 模型,要如何配置呢? ok, 那 这个视频中咱们就手把手教大家如何在 opencloud 小 龙虾中配置 deep seek 模型。好,我们看到当前这个页面就是我们之前配置好的小龙虾的 web 页面, 在这里面我们输入任何聊天内容,它都会返回一个错误信息,这是因为这个模型 and topic 咱们没有配置,我们要配置的是 deep sec。 那 怎么配置呢?接下来跟着我的流程。首先我们在这个页面中找到这里的设置,这里有个配置, 然后我们找到模型在这里 models, 那 么配置方式有两种,如果你会编程的话,你直接找到这个路径,在这个接私文件中进行配置。我先给大家演示一下, 直接打开你电脑中的访达,然后点击这里前往粘贴一下这里的路径。好,现在就已经找到这个文件了,然后打开你的一个编辑器, 比如说我这里就使用文本编辑 sublime, 这是每一项配置,比如说 agent tools, message 等等等等,咱们就给它添加,到最后这里添加一个逗号。接下来就是咱们的 provider 模型的设置,这里呢给大家准备了一个文档,大家可以直接粘过来, 直接把这个文件全部粘过来,这是一个新的一项叫做 models, 那粘过来以后,我们会发现这里有一个 api key, 它是 deepseek 的 api key, 那 么我们需要访问 deepseek 的 网址,查看一下它的后台, 找到 api 开放平台,充值完成以后,这里有一个 api keys, 点击它,然后点击新建 api keys, 输入一个名称,比如说我们就叫做这个 open crawl, 直接复制它,然后把它保存到一个地方,然后把你的 api key 添加到这里,保存这个文件就 ok 了,这是你会编辑代码的情况下, ok, 我 们还原回去。 那小伙伴说如果不会写代码,不会这么操作怎么办?非常简单,我们直接就在这个配置页面中来进行添加。 ok, 那 接下来咱们看一下怎么添加。首先咱们找到配置,找到 models, 然后这里 model parameter 模型提供商,点击它, 点击这里的 a, d, d entry 添加试卷,咱们就在这里进行添加,其实无外乎就是把刚才内容这里添加了一遍,咱们叫做 deep seek, 起个名字, 然后这里选择模型,选择模型的时候呢,这里没有 deep seek, 咱们可以选择这个 open ai competition, 因为什么呢?因为 deep seek 它是兼容 open i 的, 所以说你选择它是没有问题的。接下来这里填写 api key, 也就是我们刚才在 deep seek 中复制的那个 api key, 把它填到这里,好,下一项,这里咱们选择 api key 的 形式, 接下来这里有个 base ui 二, base ui 二,我们应该填写这个 base ui 二, 这样的话它就会请求 deep seek 的 这个 api, 然后继续 model list, 这里是额外的选项,咱们点击 a d, d, a, p i, 选择这里,我们还是选择 open a i, 然后继续 content window, 这是文本长度,对应的就是它,把它拷贝过来,然后点击 cost, 这些全部设置为零。 id, 这个 id 呢,咱们就叫做 deep seek chat input, 点击 a, d, d, 然后选择文本形式 t y 七 ok, 最大的 token 这里咱们设置为八幺九二 name, 这个 name 呢,咱们就叫做 deep seek chat。 好,全部填写完成以后,点击这里的 save, 现在呢就保存成功了。保存成功以后,咱们再回到聊天系统这里,那此时它的回复是,我是 deepsafe chat 模型, 这也说明咱们现在 deepsafe 配置成功了。如果你在配置过程中遇到任何问题,请在评论区告诉我,关注我,带你玩转小龙虾!

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。

展示一下,就是我在我这台 macbook 部署了本地龙虾,并且在这一个 lm studio 的 这一个框架里面去运行大模型,随便运行的一个本地的模型,就是一个 英伟达的 nano 四 b 的 模型,非常的有意思,因为它很小,在我电脑上面运行的话没有太大的负担。 这个 lm studio 开了本地模式,应该是这里看设置这个位置,开发者开了这一个 llm 服务,就是已经对接好了,我电脑也装了龙虾了,就是 openclore 已经部署好了, 在这里面也可以跟龙虾交流。我想展示的是在这哎,已经也不输在苹果端的微信了,就是已经绑定了微信的 clawbot, 你 来一段自我介绍好吗? 就直接发给他,之后就直接在这里面可以看到他运行的过程,是可以显示的,就这个位置,就这里他就在跑, 只不过回复的有点慢,可以看到发了这么久,哎,现在来了。那就说作为 opencloud 的 平台什么助手。那你帮我拼一下百度吧,看看能不能拼通。 很明显这个识别不准,对方正在输入, 太慢了,还是得对接那种 a p i 接口才会快, 那样可能也和我这个电脑是有关系,百度点 com 看看他会不会。其实部署本地话也只是拿来玩一下,毕竟硬件的水平有限, 体验比较差,只是玩一下就是这样子。这是可以回复,但是可能是这个模型太差了,只有四 b 的 这个模型 运行的话都不怎么烫。我之前运行的是阿里的三点五九 b 的 模型,也可以用它大概有六 g 多就聪明多了,但是非常的发烫,就这个位置, 现在呢,我就运行了这一个比较简单的四 b 的 模型,它占用的内存不高,但是呢它的能力也有限, 回复的非常的慢,有兴趣的话可以去大件,就是基于 lm studio 来部署本地模型。然后呢,又部署龙虾,如果能用 macdong, macdong 它是统一内存版本的,它可以内存可以当显出来用,正常的话 用 mac, 我 觉得优化是比较好的,比 windows 运行这些模型的话,比 windows 体验真的好很多,而且也比较省心一点,比较容易就可以达到一个比较理想的效果。好了,那本期视频就到这里了,我们下期再见, see you guys。

大家好,这里是小凡 ai 研习社,我是小凡,本视频是上个视频 openclaw 最新版 windows 安装教程,超详细的补丁片。上个视频我在 onbody 流程的模型提供商选择环节特意选了千问 ohother 来演示, 主要是因为它免费易用,而且只需要网页授权,不用一开始就跑去别的平台注册和管理。 iprkey 对刚接触 openclaw 的 新手特别友好,我本来的想法是先让大家把重心放在 openclaw 的 安装和首次配置上,模型这块后续放到 reconfigure later 阶段再慢慢讲。但该选项在后续新版本中已被官方移除。 b 站和抖音上有一些同学来问, 没有这个选项的话,其他模型提供商该怎么配置?所以这期我专门再带大家演示一遍其他模型提供商的配置方法,帮大家顺利把 openclaw 跑起来。 如果大家想了解千问 uau 被移除的原因,可以查看这个官方 issue。 简单来说,是千问团队主动与 opencloud 沟通,取消了千问的 uau 认证方式。另外,我也顺便集中解答一下大家在各个平台留言问的比较多的问题。 一个是新版本在 onbody 完成后没有自动弹出 web ui, 另一个是 gte 安装包下载太慢怎么办? 没有亲吻 o o 则的话,我们再拿 mini max 给大家演示,理由是它的控制台页面比较简洁,注册、登录以及管理 ipr k 都相对友好,而且前期的免费额度也足够使用。另外它还是 opencloud 支付 peter 本人在公开场合推荐过的模型, 你也能看到,选项里 mini max 后面还标着 recommend 的 推荐标识,按回车后进入到 mini max 配置详情。我们看到有四个选项,选项一和三括号中标识了 c n, 是 让国内用户用的。选项二和四括号中标识了 global, 是 让海外用户用的。因为国内和海外的语言、登录、验证、支付方式都不一样,所以 mini max 的 主站点和控制台页面也就有两套。 如果你是在国内站点维护 ipr k 的, 那么你要选择选项一和三。如果你是在海外站点维护 ipr k 的, 那么你要选择选项二和四。 大部分同学都在国内,手机号和支付方式也都是国内的,那肯定是在国内控制台去管理 ipr k, 所以 我们就用国内站点来演示,对应到选项里就是选一或者三。那这两个又该怎么选呢?其实就是认证方式不一样。 选项一是 i p r key 方式,需要我们去控制台复制 i p r key 再粘贴过来。选项三是 o o z 方式,会自动弹出 mini max 授权页面,你只要点击同意授权就行,不用手动复制粘贴密钥,跟上节课演示的千问 o o z 是 一样的。 mini max 的 o o 的 方式只针对 token plan 套餐,如果你没买 token plan 套餐,用这个选项只会送你一天。 token plan 基础版试用有效期实在太短了,所以暂时不打算购买套餐的话,就不建议用这种方式。 在安装配置 opencloud 的 新手阶段,我更推荐大家选选项一,它既支持 token plan 套餐的 iprkey, 也支持按量计费的 iprkey。 最重要的是,新用户完成实名认证,会送你有效期为九十天的十五元代金券,可用在按量计费的 iprkey 上。 配置之前我们需要到 mini max 开放平台去生成有效的 ipr key。 在 国内主站右上角登录,这里选择 ipr 开放平台,也可以直接通过我提供的直达链接 进入到 mini max 开放平台的登录页面。来到开放平台登录页之后,选择手机验证码登录新号会自动注册。注册登录后点击这里进行实名认证,在弹出框里选择合适的认证方式。我这里选的是个人实名认证下的设备。扫脸认证, 第一步,输入姓名和身份证号码。第二步,用支付宝扫码之后在支付宝上进行人脸识别。实名认证成功后,在系统通知里会收到十五元代金券已到账的提醒。来到余额页面就能看到可用额度为十五元代金券已经成功到账。 我这边因为已经使用过一部分,所以显示的额度会少一些,建议你设置一个余额预警,防止超支了。接下来我们来到接口密钥这个页面,维护我们的 i p r k。 这里默认会有一个创建好的名称为体验中心的 i p r k, 我 们可以直接使用这个默认创建的, 但是我更建议重新再创建一个,因为这个默认创建的 ipr k 是 无法删除的,万一不小心泄露了,你也没法作废,会有安全风险。点击创建新的 ipr k 这个按钮,在弹出的输入框中输入密钥名称,再点创建密钥进行提交, 提交之后,列表中就会多出一条 i p r k。 我 们输入的秘钥名称只是用来做备注标识的,真正的 i p r k 是 一长串由平台自动生成的字母,后面我们需要用到的时候,直接点击复制,把这串 i p r k 粘贴过去就行。 我们回到终端,带大家完整配置一遍。模型供应商这里选择 mini max, 回车之后选择第一项回车。接下来会提示我们输入 ipr k, 我 们再回到 mini max 开放平台,把刚刚创建的 ipr k 复制一下, 在终端这里鼠标右键即可粘贴进来,粘贴时注意一下,复制完成回到终端后,直接鼠标右键就能粘贴。过程中不要再用鼠标左键点击终端的黑屏区域,不然粘贴内容会被覆盖掉。 如果真出现这种情况,重新回去复制一遍再回来粘贴就可以了。粘贴好后,回车后续的步骤就和我们之前配置千问 o o z 一 致了,这里同样让我们选择一个默认模型,我们就保持默认的第一个选项 keep current。 回车之后模型配置就结束了,后边的流程就和上个视频基本一致了,比如接下来就是配置聊天渠道了。 最后再简单跟大家说一下免费额度用完该怎么处理。十五元的免费额度用完后,以咱们目前的配置,你可以直接充值,充值有额度就能继续使用了。但日后你要长期用 opencloud 的 话,我不建议大家直接充值, 因为它是按 talking 使用量计费的,而 openclaw 本身非常好, talking 按量计费很不划算,更推荐大家选择固定包月的计费方式。在 mini max 里叫 talking plane, 在 阿里云、百念百度、千帆、火山方舟这类平台一般叫 coding plane, 这类套餐性价比更高,也更适合长期使用。如果大家购买了 talking plan 的 话,模型需要重新配置一下,因为咱们这里带大家配置的 iprkey 是 按量计费的, talking plan 的 iprkey 是 另外一套,二者不够用。购买了 talking plan 之后,在接口密钥会多出一组 talking plan key, 你 得换成这组 iprkey 才会走。 talking plan 模式 最直接的体现是按量计费的, ipr k 是 以 sk 杠 ipr 杠开头,而 talking plan 的 ipr k 是 以 sk 杠 cp 杠开头。虽然目前还没教大家怎么配置 talking plan, 但凭借咱们这两期视频学到的内容,大家完全有能力用 mini max 的 talking plan key 来配置大模型。另外, mini max 对 于 talking plan 的 配置还支持 o o 的 认证方式,也就是前边带大家介绍过的选项三 视频这里也不过多介绍了,大家有兴趣可以尝试一下。支持储备完全是够的。 没有自动弹出外部纠 i, 这也是很多同学问我的一个问题,我测试了二零二六点三点三一和二零二六点四点一这两个版本,发现 onboarding 完成后,确实是既不会自动弹出外部纠 i, 也不会让你选择使用 t u i 还是外部纠 i 打开。 目前还不确定是后续版本都不再自动弹出,还是只是近期这几个版本临时调整。不过没关系,不管是哪种情况,只要发现没有自动弹出界面,直接用上节课最后讲到的命令手动打开就可以了。 一个命令是用来打开外部 ui 的, 一个命令是用来打开 tui 的。 带大家演示一下我当前的状态就是 on body 刚完成,外部 ui 没有自动弹出,这时候我执行一下 opencloud dashboard, 就 自动在浏览器打开外部 ui 了。 web ui 打开后可以和它简单对话,测试一下是否正常。之后我们再回到终端执行命令, open curl tui 就 打开终端界面了,我们同样可以和它简单对话,测试一下是否正常。 也有不少同学反馈 git 安装包下载太慢,这是因为官方的下载源是 github, 国内访问 github 不 太稳定。大家可以到腾讯软件中心下载,打开后直接在首页搜索 git, 选择对应自己操作系统位数的版本就行。 现在大多应该都是六十四位操作系统了,比如你要下载六十四位的 git, 就 点击这里的立即下载,点击后会弹出这个窗口,选择下方的直接下载,这个立即下载不要点,不然会给你下载腾讯电脑管家 课程文档,可以在同名微信公众号,小凡 ai 延习社回复关键词养虾直接领取。提醒一下,是在微信公众号里回复,不是微信视频号,我是在公众号设置了关键词自动回复。养虾这两个字也千万别打错啦!

很多粉丝也不知道啊,这样的机器放在家里或者是办公室到底是做什么的?很多老板找我定的这个麦克斯丢丢的本地大模型烤小龙虾,这样的话可以帮很多老板省下很多的员工成本, 内存比较高的版本可以跑十个这样的模型,他们都是不一样的员工,可以做不一样的事情。配合 open club 我 们可以做很多自动化,比如说基础的运营,还有财务总监,这些事情全部可以交给他们去做。这个 a 型特就是我的运营总监,而这个是我的财务总监,他们跑着不一样的模型, 帮我解决不一样的问题,像自家的数据全部可以接入进来,这个就是我的财务总监目前在做的事情。主要是这样很隐私的问题,我是不能把合同啊还有财务数据放到网上的,直接本地模型内容完全不会出站,非常的安全。这个东西放在自己家里和公司所有的数据都放在里面。 我的小龙虾只会在本地跑,不会到线上去跑,本地就能看到他的算力消耗以及他的参数,可以全部看的清清楚楚,这样就比较放心。关于运营和销售的话,可以看到他帮我统计我的新的内容的数据以及整理方案,这些都是非常强的干货,比线上模型的数据要更稳定,更真实。 相比线上模型啊,这种本地模型在任何时候不分高峰段和低峰股,然后他对于你的模型精度没有任何影响,你用线上跑的话,一到高峰段你的智力就变低了,所以说本地模型才真正是企业 b 段要用的, 而且你的公司的数据不会上传。如果你希望你的公司是现代化办公,这个 max 丢丢配合本地大模型是最值得入手的。

前面几期视频我们聊在 windows 还有 linux 安装那个 openclaw 的 时候,在选择大模型的时候,我选择的是那个清问,就是打开浏览器就可以进行验证了,最近的这几个版本的 openclaw 是 不支持那一个清问的大模型了,我们在遇到选择大模型的时候应该怎么办呢?我们现在来试一下,我们先打开这个 呃, power cell, 就是 我们先进到那个设置那个 open cloud 的 那一步,我们的 open cloud 安装完成以后,我们就通过那个 open cloud board 来进行设置那个 open cloud, 那 么我们先看一下我们的 open cloud 安装完成了没有 open cloud 杠 v, 那 么这里我安装的是二零二六点三点二八,那么现在我们来进行设置那个 open clock, open clock on board 好, 敲回车,好,到这里的话,我们选择是 那个安装模式的话,我们就选择那个 quick start, 好, 到这里的话就选择我们的大模型了,那么我们在选择大模型的时候就注意,就是 我们上下移动的时候,它就会显示就是我们有哪几种应战方式,比如说我们显示那个谷歌的这一个,那么它就有那个鸡迷你 api key 加上那个 on 这两种应战方式,我们点进来看一下, 这两种应战方法的话,我们都可以选择,那么一般的话,比如说你有那个 api 的 k 的 话,那么我们也可以选择这一个,那么 api k 的 话呢?是需要在那个谷歌里面来进行申请的,那么我们来看一下那个 deep sec, 我 们再申请一下 deep sec 的, 我们看一下这一个,好,我们打开那个浏览器, 好,我们进到那个 deepsea 的 官网来, deepsea 的 官网打开以后,平常我们用的是第一个就是开始对话,那么实际上我们这个是是免费在使用的,如果说我们要在那个 opencloud 里面来用的话,那么我们是要点这一个就是 api 的 开放平台。 好,这里的话我们呃通过自己的方式来登录一下,好,这里的话就根据自己的方式来登录一下,我这里的话暂时那个不捆绑, 那么我们打开以后呢,我们就看到这里有一个那个 api 的 kiss, 这里,那么这里有一个,那么我们点开这里,点开这里的话我们创建一个 api 的 key, 这里的话根据自己的需要来设置名称就行了,我这里的话设置成 openclo。 好, 这里的话点击创建,那么这里的话我们要注意一下,就是创建的这个 api k 的 话,我们只有一次复制的机会,就是我们复制好了以后呢,我们把它保存到那个文本文件里面, 那么我们下一次用的时候,我们再来进行那个拷贝就行了,不然的话我们在这里就要创建完,我关闭以后,那么我们就看不见了,我们可以试一下,我们先把它复制下来,好点一下,复制好我们点关闭, 点关闭以后它这里就变成了那些新号了,我们下次再想用的话呢,就是来这里是没有办法复制的,要不你就把它删除掉,再来创建一个,那么要不就改一下这个名称,但是只能改名称是改不了里面的这些内容的, 所以的话我们创建完了,我们要点那个按钮把它复制下来,然后把它放到文本文件里面就可以了,这样我们把它保存下来就可以了。好,放到桌面上面,比如说是 好保存一下就可以了。好,把这个 key 申请好了以后呢,那么我们就可以来那个 opencl 里面来进行设置了。 好,把这个移动过来一下,我们把那个刚刚我们这一个生成的这一个 key 给它拷贝过来拷贝一下, 那么现在的话我们就选择那个 deep sec, 就是 一定要注意,就是你手上有哪一种那个 api k 的 话,我们就选哪一种,那么这里的话是有很多种方式,那么我们可以根据自己的那个 就是需要来选择,我们在上下移动的时候就可以看到就是它支持哪些方式,比如说像那个谷歌的,它就支持两种方式,一种是那个 gimini api k, 还有一种是 on 的 方式,那么我这里的话就用那个 deep sec api 的 key, 那 么 key 的 话就是在那个开放平台来进行申请就可以了。好,我们敲回车, 敲完回车我们把刚刚拷贝的那个 key 给它粘进来就可以了。好,我们点一下鼠标右键,那么就粘进来了,那么粘进来以后我们敲回车就可以了,我们就可以往下一步走了。好,这里的话就是选择那个模型,那么我们可以用那个 deepsafe 默认的这个模型就可以了。好,敲回车就可以了。 好,这里的话我们跳过好,这里的话是那个搜索的那个服务商,我们也是跳过好,这里的话我们不配置,然后这里的话我们也是不开起,我们敲一下空格确认就可以了。好,往下面走 好了,到这一步的话,它就在安装那个网关了。好,我们回到这里,来到这里的话,我们的 opencl 就 已经配置完成了,那么这里主要聊的就是那个大模型的选择,那么大模型的选择的话,我们在用的时候就是根据那个 opencl 的 提示,就是它支持哪几种方式, 比如说 deepsea 的 话,它支持那个 api key, 我 们可以通过它的开放平台的话就获取到了那个 api 的 key, 那 么在这里创建 是这里的话,我们要注意一下,就是养龙虾是比较耗那个 tokens 的, tokens 的 话,我们是需要那个通过这些方式来获取到的,那么这里的话是需要注意的,不然的话你就是那个通过了那个 api key 的 那个认证以后,但是你 进来还是用不了的,因为你这里是没有剩余的 token 的, 所以的话你是需要通过这些方式来进行获取的,那么这个是在那个呃各个那个大模型上面都需要做的一步操作,那么 apikey 的 话,我们就通过这个方式来进行获取了,所以说我们在用的时候就是我们一定要注意一点,就是整一个那个 呃养龙虾的话是比较耗那个 token 死的,那么我们也可以在网上找到一些其他相关的一些免费的一些 呃就是 tokens, 那 么这种的话我们实际来看一下就行了,这里就不介绍了,只说我们刚刚出来印证,就是我们在 openclaw 里面来怎么设置这一些那个 api key, 就是 我们选择什么样的大模型,那么 大模型的选择的话,可以根据我们自己的实际情况,比如说你现在已经在用豆包了,那么你如果是有那个豆包的 token 的 话,那么我们就把豆包的那个 api 的 key 给它设进去。如果我们有那个 deepsec 的 那个 token 的 话,那么我们就把那个 keep safe 的 api 可以 给它设置到那个模型选择里明器就可以了。那么这里就是我们在用那高喷 cloud 的 时候,选择大模型的时候需要注意的一个问题。

你知道吗?两个 mac studio, 两个总监,两个 agent 帮我干活,这边还有四个备用的,这是一个什么体验呢?如果你说花费很大,那就没有价值了。你看我现在在电脑里面跑了这么多个模型,一个模型匹配一个它的专业能力,对应的一个 agent, 看看它能干什么? 你那些线上模型为什么你问豆包啊?他们总是给不到你想要的答案,主要是这个 a 帧你没有自己训练,这个东西放到你家里,你训练的所有知识都放在这里面,所以说让他帮你写一篇脚本, 他写出来的和线上模型写出来的完全不一样,因为他最了解你的业务,这些模型都是我自己训练的, a 帧的 skill 各方面都是优化过的,所以他给我的东西基本上非常好用,你看到的每一篇我的视频,基本上我全部用它搞定, 最主要你放到这个里面使用,没有一分钱消耗,当你开始跑的时候,他的风上疯狂的旋转,那样的话你的算力永远放到自己家里。 而且就算是你是工作室,三五个人同时用,没有任何压力,因为一个 a 键特匹配一个模型,内存再宽也不会被压占满,那样的话压力非常的小。我现在这四台就准备部署更多的 a 键特,那我一人公司用六个 a 键特可以搞定我所有的事情。 而且我上篇视频专门讲了这个千万三点五的量子的 ops 的 模型,这个是一个蒸馏版本,用本地的这个只需要三十左右 gb 的 现存,也就是说你基本上一个六十四 gb 的 max 九九可以把你的这个能力压在买 线下,基本上跑没有任何压力,而且他的智力水平比国内的很多模型要强很多,线上的你那一种在高峰时期你的智力还会被降至,所以说本地大件大模型,这个是未来的趋势。如果你有预算的话,搞个这个东西,弄个艺人工作室, 解决你现在团队绝大多数问题,帮你写文案,分析各种数据,多多做财务报表,帮你审核合同,这个东西完全够。 后期我会针对这所有模型给大家讲一下哪个模型适合什么样的业务。你大概了解完你就有个 ai 的 基础了。而且对于 opencloud 的 使用场景,我们适合工具调用的哪一个模型,以及我要创建一个 agent, 它适用于哪个模型,我都会给大家讲到这个价值非常大。

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。

哈喽,大家好,我是龙虾差不多两个多月了,这期视频我想简单的介绍一下我如何为龙虾选择一个最适配的模型。今天我会按照计费方式、 token 刷新机制、价格和性能这四个维度来横向给对目前最流行的五个模型提供商。首先要确定的就是你到底是一个轻度用户还是一个硬核用户。 原因很简单,因为龙虾跑一个任务,它的后台实际上会有几十次的模型调用,你以为你只发送一条消息,实际上会刷量你二三十次额度,复杂任务甚至可能达到五十次以上。这就是为什么大部分人会吐槽龙虾吃偷坑的原因。 因此我一直在强调,大家尽量去选择 coing plan, 而不是按量计费。原因很简单, coing plan 是 一种包月套餐,它是一种兜里机制,因此它不会出现那种如果你选择按量计费,一不留神,一晚上就烧掉一座房的情况。 所以说大家首先要判断一下自己到底是哪一类的用户,然后再去选择对应的套餐。第二点就是 token 计算的猫腻,其实这里面有非常玄乎的东西,为什么呢?我会给大家揭秘一下, 每一个 coin plus 实际上都会带有五小时刷新。刷新这个词听起来不错,但是这东西有一些秘密没有人告诉你。比如说百炼火山和 g r m, 虽然都有五小时刷新,但实际上它们有个月度总量上限,也就意味着,你如果密集的跑几天,把你的整月额度全部用完之后,你会发生什么呢? 剩下二十多天,你只能不断地碰到 api rate limit 这个错误提示,就是说你的用量已经用完了,那么 kimi 实际上它是一周刷一次,所以说你会出现一种情况,可能你周一周二刷的比较狠,那你后面以前也用不了了。 所以说这里面唯一个就是真正的所谓五小时刷新,实际上只有 mini max, 就是 mini max 是 没有所谓月度总量这一概念,它就是按照每 老老实实按照五小时刷新一个机制,你只要五小时内用,虽然你五小时内用完了,但是你五五个小时之后你又获得了全新的头壳用料。所以从这个角度,那么五小时刷新这个概念下,还是 mini max 最划算。价格我为什么放在后面?因为很简单, 我认为你既然选择了使用龙虾,那肯定是为了提高工作效率。不论是你用来工作、学习还是处理日常事物,我相信你更看重的是它的能力,而不是价格。但是我们依旧要讨论一下。 这里其实百炼有一个 light 和 pro 版本,一个是四十,一个是两百,它的优点就是它的模型比较全,但是就像我刚才说它是按照调用次数来扣额度的, 那么龙虾重度用户每个月能实际跑的人数会比你想象中的少。另外一个火山方舟,它目前有个所谓的首月九块九套餐,这个是比较划算的,但是它下一个月它的续费 它就比较贵了,所以我大推荐大家去官网上看一下。还有一个就是 kimi, kimi 其实它分的比较细,它有四档,从四十九到六九九, 我说的就是它的七天刷新。我真的比较想吐槽,因为我最早其实用的是 kimi, 但后面不选择用的主要原因就是因为它的七天刷新,真的我有点遭不住,因为可能我用的比较快,我前两天就用完了,我要等一周才能等到它刷新。接下来就是 mini max, 它是 档位分的最多最细,并且它是最不含糊的,它有从二十九,它甚至到八九九都有,它有 入门的二十九 uplus 四十九,额度会翻二点五倍,还有个 max 一 百一十九,再翻三倍。还有极速版,你可以用它的 high speed mode, 这个模型其实是非常适配这个龙虾的,因为它速度执行速度非常快, 从这个价格的角度,我认为 mini max 是 最最不含糊,就是最靠谱的,所以大家可以自己去调研一下,去官网。接下来是性能, 实际上模型的性能直接影响了你的龙虾使用体验,那么我认为又快又好是对一个模型的最好褒奖。那么有没有一个模型同时可以满足快和好呢?有的就是 mini max。 首先二点五的上下文窗口是一百万头克,也就意味着龙虾执行起来的上下文问题, mini max 可以 很好的解决,那么快你可以走极速版,也就是它的 high speed 的 模型,就算是高峰期也不降速任务,不卡壳。实际上在我漫长的使用过程中, mini max 是 唯一一个在一天的表现都非常非常好的一个模型。那么综上来看呢?实际上上下文够长,速度够快,额度机制最适合的也就是 mini max 这一家了。那么最最关键的是,我需要给大家亮出来一张图,请看这张截图。 mini max 是 龙虾创始人 peter 的 官配模型,所以我更理由有理由选择 mini max。 那 么综上所述呢, 给出一个我自己的结论,就是我中间切换了不少国内外的模型,那么综合来看,无论是性价比、能力,响应速度各方面,我认为 mini max 在 使用过程中是最适合弄瞎的。 当然你有也有可能有不同的看法,那么我也欢迎你在视频下方留言,我们来一起讨论。 ok, 今天视频就到这里,谢谢大家。

大家好,我是炎陵,为后续教程的讲解,推荐大家一个便捷快速的安装方式, 虽然它某些方面会有限制,但它安装起来是真的快。后面我会以它为例来讲,它的安装很简单,我这里就不一一讲了。直接进入对话,开始一个运行框架部署,配置好模型,然后进入对话,给他一个简单的设定, 你也可以参考一些角色,像偶像,外国友人啊。让龙虾自己去设定,再配置一下它的运行框架, 这是我借鉴的一些 github 上面的一些大佬的运行框架设定,以及这段时间以来我玩龙虾的一个碰壁。然后重新设计了一个 ai 助手运行框架,主要包括一个五层的记忆供电体系,锁影系统,心跳维护机制和自我总结经验。框架运行会遵循不包含任何个人数据和 topic, 然后敏感数据他不会进入长期机,所以我危险操作都需要用户确认才能执行。当然框架不是万能的,也取决于你模型的智能,推荐使用各家的旗舰模型, 把文件发给龙虾,让他学习当中的内容成为他的能力,然后完全按照这个框架去运行。接下来交给龙虾就行,测试一下他是不是真正用这个运行框架去运行, 再检查一下它的定时任务, ok, 这样子就全部配置完成了。 然后在它的频道里面配置一下我们的飞书,问龙虾要它仪表盘带 token 的 网址,复制网址,去浏览器打开就可以看到它的原始仪表盘,可以进行一些设置和查询。然后让我们打开它的这个插件,把前面仪表盘里面盖染的网关令牌给它复制过来, 开启它对网页的一个自主控制,方便我们后续的一个数据收集。自主控制网页要点一下右上角这个插件,让它开启对浏览器的一个调试, 测试一下让它打开百度网页。 ok, 调试成功。接下来我们进行一个多 agent 的 绑定设置,我们先检查一下当前的 agent 的 状态, 然后了解一下版本的一个设置格式和工作原理。这个一定要这样设置的,工作原理是因为绑定后它每个 agent 是 独立运行,独立存储,然后绑定不同的飞书,让它们之间不会互相串台,方便我们后面给每个 agent 分 配职责任务以及学习相应的 skill 去独立运行它们的工作内容。 如果你像我一样碰到了版本配置受阻,别急,打开它提供给我们的查找文档,找到上面的 files, 然后点击左边的 agents, 点击右边的路由器绑定, 复制上面这段文字发给龙虾,让他去学习。搞定飞书有时候比较慢,你可以在他的原始仪表盘里面看到他已经解决了这个路由器的绑定问题。返回飞书,我们测试一下请问他叫什么和他的工作路径,确定他跟其他的 agent 是 不是独立开来了。 ok, 这里可以看到这是两个 a 帧,然后它们的工作路径是不同的,存储路径也是还可以在飞速里面建立群主,把这两个机器人都拉进去,让它们之间互相协调工作。 这期视频到这里就结束了,这期视频内容比较多,能耐心看到这里的为你点个赞,希望能帮到大家了解 openclo 和使用 openclo。

这是我刚收到的苹果新款 macbook neo, 用它养龙虾,你觉得靠不靠谱呢? 今天我就用它手把手教大家如何配置 macos 版的 open core, 本地部署步骤呢,很详细,需要一步一步往下看,保证成功。建议呢,先仔细看一遍,再跟着操作。第一步,安装 get 苹果自己家的开发者站点,仔细看,这里 搜索 command line force for xcode, 根据我们现在的系统版本,新的呢是 xcode。 二十六点三,点击箭头,点击安装包,下载到本地后,打开后按提示安装就可以, 直到安装成功。这个时候呢,我们点击右上角放大镜图标输入终端,打开后输入这串命令,看到版本号就是安装成功了。 第二步,安装 homebrew, 我 们需要在终端输入这一行安装命令,提醒一下。接下去呢,出现类似的命令,记得暂停视频,复制后可以在千问豆包等大模型工具问一下,以免复制的时候识别错误。 输入后呢,按回车,他会自动开始安装 homebrew 了,这里会问我们通过什么下载 homebrew, 我 们可以输入一,也就是清华大学这个敲回车,然后会要求我们需要输入开机密码, 输入后直接按回车就可以,这里会问我们是否删除之前这台机器安装的红不入,直接输入 y 回车,他会帮我们自动备份。再接下来呢,我们还要按一次回车开始安装红不入,安装成功后会需要我们再次输入密码,直接输入后回车就可以。 接下来会让我们选择哪个国内镜像,这里我是直接按他提示输入五回车,然后我们等待他安装完成,直到出现安装成功的提示后,我们先关闭一下终端界面,然后呢,在程序屋重新打开它,让配置生效。 这里有个提醒,如果你是 mac os 二六之前的版本,你呢也可以先按照第二步安装 homebrew, 安装完毕了之后呢,再安装 git 就 比较简单了,直接在现在重新打开的终端里输入 pro install git。 回车后呢,它就会帮你自动安装完成了。 第三步,安装 node js 仔细看 node js 官方界面左下角,点击 macos 安装程序,获取后呢,打开安装包,后面按提示安装,直到安装完成。 第四步,安装 open clone, 再次打开终端,输入这个命令回车就可以了,不用管它。再输入这条命令回车,只要输入正确,依然不用管它。之后我们再输入这行命令, 这个时候他会要求我们输入开机密码,回车后他就开始安装了,我们需要稍微等待一下,看到终端里有类似这样的提示,里面的具体数据呢,我们可能会有不同,不用在意。这说明欧邦克洛安装成功了,但是还没完。 第五步,配置 openclore 配置之前,我们需要先输入这行命令,这个命令的作用呢是删除我们本地已经安装过的飞书插件目录,以免后面引起冲突。输入后按回车就可以。接下来还需要输入 openclore on board, 启动 oppco 初识化配置向导,这个时候你就能够看到龙虾的 logo 了。这个呢,有一个官方风险提示,我们要继续只能选择 yes, 可以 用左箭头键选择按回车确认。这里我们只要保持 quick start 模式,直接回车就可以。 这里就是需要我们选择我们的 oppo colo 准备连接的大模型了,基本上覆盖了目前主流的大模型,如果你已经有创建过某个大模型的 api, 就 可以通过上下箭头键选择插播一个大模型 api 密钥配置。 我这里给没有创建过大模型 api 密钥的小伙伴演示一下我自己在用的 kimi 的 mojito ai api 密钥的创建过程。首先是 kimi 开放平台, 然后呢左侧选择 apikey 管理,之后在右侧点击新建给他取个名字,比如 opencore bot 项目,这里选择一个就可以了,然后点击确定,这个时候呢,我们就可以看到密钥了,这个密钥一定要保护好,不要让人看到,要不然被有心的人拿去的话,他用的就是你的额度了。这里不是点确定,而是点击右侧的这个复制按钮。 好,再次回来,我们可以点击程序屋上的终端,这里我们选择刚刚注册的 kimi, 也就是蒙秀的这个敲回车这个位置呢,我们根据实际情况,我们刚刚是注册的国内的,需要选择点 c n, 这个选择好后回车 这里我们因为是直接复制密钥的,所以直接在 face 的 api key 这里回车就可以。 ok command 加微把我们刚刚复制的密钥直接粘贴回车后,我们保持它默认的这个就可以直接回车。 这里会要求我们选择使用哪个聊天软件来通讯。目前呢,我们可以直接用向下箭头选择到最下面的 skip for now, 这里会涉及一些准备步骤,我们可以在视频后面再配置,选择 skip for now 后回车, 如果跳出设置 provide 后,依然先选择最下面的 skip for now。 先跳过回车,这个时候他会问我们是不是现在需要配置 skills 了,我们可以选择 yes 看一下,你用向下箭头键往下看,每一个的后面呢都有详细的场景说明, 如果有你需要的,可以选中它后敲一下空格键,再敲一下就是取消。这里我们依然先选择 skip for now, 反正后面呢还可以配置的空格键选择再敲。回车, 这里有一系列需要我们配置各种平台的密钥的,我们暂时也都可以先选择 no, 如果你的确已经有密钥了,当然也可以选择 yes, ok, 来到这里 hux, 我们也先用空格键选择 skip for now。 回车,这里会跳出一个窗口,我们先选择允许。然后呢,终端这里会问我们用什么方式起用 boot, 我 的建议是 web ui, 对我们普通用户来说也会更直观一点。选择后,回车,这个时候他会自动打开一个界面,这就是和 oppo cola 的 一个聊天界面了,我们可以先和他聊一下,比如我们可以用中文说一句你好,收到他的回复,呵呵,证明我们的配置已经成功了。 原则上来说,我们的小龙虾呢,已经养殖成功了,但是还有一步更重要的,才能够方便我们用聊天软件随时随地的给他下达干活指令。 也就是呢,即使我们在外面,也可以用手机上的聊天软件给他下指令。那么我们用目前口碑相对更好的飞书来举例。第六步,创建飞书机器人。 首先是飞书开放平台,我们可以准备一个个人账号,登录后点击右上角开发者后台,这里呢,点击创建企业自建应用,给他起一个名字描述,这里也随便填写一下, 选择一个图标,或者呢也可以自定义上传一个图标,然后点击右下角创建,这里我们点击添加机器人,暂时点击左侧的权限管理,点击开通权限 搜索框,这里我们输入 i m 冒号,注意这里的冒号呢,是需要切换到英文输入法的冒号的, 这里我们可以把全部都勾选,点击确认开通权限,这个位置有一个提醒,你看一下应用发布后,当前配置方可生效, 我们需要点击提醒这里的创建版本,这里我们输入版本号,按照他的提示,比如一点零点零更新说明,这里呢,我们也可以写上创始人版本下滑,点击保存,点击确认发布。 ok, 飞书机器人创建完毕。第七步,连接 oppo 克洛和飞书, 依然是在终端输入 open core config 回车,这里选择 local, 这里我们选择 channels 回车,然后是选择默认的这个 config link 回车, 这里呢,我们找到飞书回车这个位置,我们得选择 download from npm 回车安装飞书渠道插件这个位置,选择 yes 回车。稍等片刻后,需要输入飞书的 app, 先按一下回车, 之后再是飞书的开放平台左侧,点击凭证与基础信息,点击 app secret 这里的复制键,再是回到终端 command 加 v 粘贴回车,这个时候还要我们输入 app id, 再次在飞书开放平台点击这里的 app id 下面的复制键,然后呢,再到终端 command 加 v 粘贴回车,这里通讯方式选择 web socket 回车飞书这里我们选择 cn 的 这个就可以回车。 是否允许群聊使用?我的建议是选择下面的 open 回车,下一步可以直接用向下箭头键快速下滑到底部,选择 finished 确认配置完成,这里呢,问我们的是配置私信访问策略,这里需要选择 yes 回车之后这个位置,我们可以直接选择 perry 回车,这个菜单里我们可以选择到底部的 continue 回车。 ok, open core 和我们的飞书正式配置完毕。 最后环节,我们在终端输入 open core get away 启用它。再是在飞书开放平台选择左侧的事件与回调,点击订阅方式,这里的按钮 确认是这个默认的长连接,点击保存这里再是点击添加事件,搜索框里输入接收消息,将接收消息勾选,点击添加按钮,再是点击左侧的权限管理,点击开通权限。 搜索框里呢,输入通讯录,把这个获取通讯录基本信息勾选,点击确认开通权限,再次点击右下角的确认,这里依然会看到版本发布后当前修改方可生效的提醒。我们还是点击创建版本,输入新的版本号,比如一点零点一 更新说明,这里呢,我们可以是添加消息,接收能力,下滑到底部,点击保存,点击确认发布。 第八步,与 open core 对 话,我们可以尝试拿起手机飞书,点击开发者小助手下滑,找到我们前面命名的那个应用,点击打开,我们可以给他也发一句问候,比如你好, 这个时候呢,你会收到这样的一个安全配对提示,不是错误,是为了安全起见生成的配对码, 我们只要复制提示里最下面的这行命令,在终端里再次输入回车, ok, 显示配对完成后,回到手机飞书再给他发你好,很快呢,就能够收到他的回复了, 哦吼,正是在我们 mac 上部署完成了 open core, 同时呢,也可以用手机上的飞书,电脑上的飞书,随时随地的给他下指令了。 这就是完整的 macos open core 本地部署教程了,适用所有的苹果电脑 制作,不容易,有用记得点赞分享。接下去呢,还会有如何配置 skill, 如何省托坑等等的一些必备技巧分享,大家记得持续关注。如果大家还想了解如何一键云部署的话呢,也可以留言,需求多的话,我也来做一条详细的教程。

兄弟们,上期教大家怎么在 nas 里面一键部署 openclaw, 以及怎么进入控制中心,以及目前默认使用的大模型是什么?那就有好兄弟要问了,我就不爱用免费的,我就爱用收费的,收费越贵我越开心,怎么办呢?好办,在配置里啊,找到 models, 点击第四个 model providers, 第一行呢,有个 enter, 点它到了下面这里啊,有个 customer 杠一名字,你可以随便改啊。 model provider api adapter 这里啊,选择付费大模型对应兼容的接口协议工具,然后在这里输入你付费大模型的 api key base url 啊,这里输入你的套餐专属连接,然后呢,在这里点击 add。 api, 同样选择付费大模型对应兼容的接口协议工具啊。 id 这里点击 add。 如果你的付费大模型指的是文本和深度思考啊,那就选择 text。 如果这是文本深度思考和视觉啊,那就再点一下 add, 选择 image 名字这里呢,就随便填写一下。然后呢,将 resending 打开,然后回到聊天啊,检查一下模型状态,输入你现在有哪些模型,看它的回复后啊,输入切换到 ok, 你 的收费模型就切换好了。为什么不输入给他,让他自己配着呢?因为这个模型啊,他可能有一点傻,他不一定会按照你的要求去输入你想要配置的模型 id, 可能会自动调用免费的 id, 然后呢,就导致小龙虾直接崩溃。那如果模型设置错了,小龙虾崩溃了怎么办呢?哎,别急,下期告诉你。

这个是温州周先生去定的一套 max studio m 二 ultra 的 六十四 g 的 版本,那么他想做什么呢?他想做的其实有一点,就是把 nars 里面的电影他想去下载, 那么他只需要跟小龙虾去说啊,我想下载电影,比如说我想看钢铁侠,那么说了之后,小龙虾会自己去下载,下载到 nars 里面,然后并进行分类,因为他之前也是买了 nars 啊,所以这个是非常方便的。那么你他如果一旦出现什么问题,比如说不能下载啊,或者其他原因,你直接去跟他说,你帮我解决这个问题就 ok 了 啊,这个是非常非常方便的,那么你不需要自己做任何操作,也不需要去问任何的人,因为小龙虾他就已经足够聪明了,那么他就想做的一点,还有呢,就是他需要去拉他的一些流水,然后去给小龙虾,然后小龙虾帮他去分析他这个月的流水到底怎么样啊,然后哪一些有各种的问题什么的都会跟他说,然后提出一些建议,这也是很重要的。 再其次呢,就是帮他省一些合同啊,然后合同的,因为合同有的合同非常长,几十页上百页,那么你丢小龙虾之后,他可以自己去看,看完之后给你一个这个合同里面一个呃比较合理的一些建议,哪些需要改动啊,哪些是还不错的,然后哪些是啊 对我们有可能有一些不好的地方什么的,他全部都会分析清楚。那么如果你家里或者工作上也需要一个这种非常的事的话,那么其实这样一套是非常不错的。

openclaw 保姆级安装教程,搭配免费大模型,让你唱完龙虾,十分钟搞定 openclaw openclaw 最近实在太火了,但是自己搭建的时候难免会出现各种问题,比如这样的这样的, 所以很多人已经开始做起了上门安装五百一次的生意。这里教你小白安装法, 包括环境配置、权限问题、下载速度等等,看完不仅立省安装费,你熟练后甚至都可以接上门安装的单了。我们直接开始第一步,安装 no js, 虽然 opencon 官方文档并不要求我们提前安装 node js, 但先把这一步做完,可以避开很多坑。首先来到 node js 的 官方下载页面中,点击 windows 安装程序按钮开始下载。但是由于 node js 的 服务器在国外,所以下载速度会很慢, 也可以通过 node js 中文网来下载,下载速度会有明显提升。下载完成后,你打开安装包, 安装位置可以保持默认,也可以选择你想要安装的文件夹。接下来呢,我们就一路无脑点击下一步, 然后点击 insert 开始安装,这里要稍等片刻,完成后点击 finish 按钮, note g s 就 安装好啦。第二步,安装 get get 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 get 的 配置有关, 所以安装了 get 可以 提前避坑。来到 get 的 官方下载页面,根据电脑的架构选择对应的下载链接开始下载。下载完成后,打开安装包,点击下一步, 这里同样可以保持默认,也可以选择你想要安装的位置。再往后,如果你不是专业的开发者,不必纠结这些配置,一路点击 install 开始安装, 等待一小会儿。安装完成后,我们可以把这个对勾给取消掉,它会打开 git 的 更新说明网站,对安装没有影响,然后点击 finish git 就 安装完成啦。第三步,安装 openclaw, 在菜单栏搜索 powershell, 这里要注意以管理员身份运行,然后会打开一个大黑窗口。为了避免 powershell 默认策略太严格,等着安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略, 这里输入 y, 然后回车表示同意这一次修改。为了避免 npm 源导致的下载失败问题,我们需要切换 npm 镜像的下载源,输入一下这个命令,然后回车运行。 很多人安装的时候都会出现这个报错,这个错误的本质是 npm 在 执行 get 操作时拉取仓库或者依赖失败导致的国内访问 get help 困难。先把 get 协议强制切换为 https, 输入一下这个命令,回车运行。上面三条命令能避开很多坑,确保我们一次性安装成功。然后我们再输入这个 open cloud 的 官方安装命令,并回车执行。 这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络或专业网络访问此应用?点击允许。当你看到一句来自 open club 的 欢迎信息,就说明 open club 已经安装成功啦, 不过这还没完。第四步,配置 open club。 open club 会展示一段话,提醒您使用它可能存在风险。问是否继续? 这里可以按键盘上的左方向键选择 yes, 然后回车确认继续回车。 下一步需要选择 open class 背后的大模型服务商有很多选择,比如 open api、 千问等很多。这里教大家使用免费的大模型。我们先选择 v l l m。 第五步,配置免费大模型。