大家好,今天用最通俗的大白话,一次性把大模型、欧鹏科尔、龙虾、豆包手机这三个东西彻底讲清楚。先记一句话,分清三者关系。大模型等于会思考的大脑, 欧鹏科尔等于能动手干活的手脚加管家,豆包手机等于把大脑加手脚焊死, 它是在手机里的定制终端,一个负责想,一个负责干,一个是直接打包好的成品。 首先, openclaw 和大模型到底啥区别?很简单,大脑 vs 手脚大模型。比如 gpt 豆包,它只会思考、 推理、写方案、给步骤,但他不能自己动手操作手机、电脑,你让他整理邮件、做表格, 他只能告诉你怎么做,你得自己动手。而欧鹏科奥龙虾,他没有自己的大脑,必须接打模型才能用, 但他能干实事,能接管你的电脑,手机自动打开软件,点按钮、填表格、 发邮件,一句话全流程自动干完。所以他们不是竞争关系,是搭档关系,没有大脑,龙虾就是空壳。 没有龙虾,大脑只能动嘴,不能动手。再看 oppo 和豆包手机的区别,这俩看着都能让 ai 自动干活,但完全不是一个东西。 oppo 卡尔是免费开源的软件框架, windows、 mac、 安卓、苹果全都能用,想接哪个大模型都行, 自由度极高,但需要你自己折腾,权限高,隐私风险也大。豆包手机是字节和中心座的定制硬件,只能在这台手机上用,系统深度集成,权限严格管控,更安全、更稳定、 更省心,适合普通人,开箱即用。简单总结, oppo kart 是 通用工具,随便折腾。豆包手机是专属终端,拿来就用。那很多人会问,为啥网上对 oppo kart 评价那么高,对豆包手机却很挑剔? 核心就四点,第一,一个是免费玩具,容错率高。一个是三千四百九十九元的商品,容错率几乎为零。第二,大家看 oppo pro 只看长版, 看豆包手机却专调短版。第三,海外个人开源项目自带即刻滤镜, 国内商业产品天然容易被严格要求。第四, oppo pro 靠用户自发传播,豆包手机靠厂商推广,舆论逻辑完全不一样。还有一个灵魂问题,中国技术那么强,为啥没先做出 oppo pro? 记住,不是做不出,是不想,不敢,没必要现在做。一、国内大厂要赚钱,不会花大力气做免费开源,没有盈利模式的工具。二,伯彭科尔是即可小众需求, 国内优先做大众刚需。三、国内合规严,不敢放开系统最高权限做这种工具。四,国内都在卷大模型底座,没提前重视执行层这个赛道。 五,海外是个人驱动开源,国内是大厂主导,生态不一样。最后一句话总结,不喷科尔和豆包手机,没有谁比谁高级。 oppo 壳自由开源,跨平台,适合即刻和开发者。豆包手机稳定流畅省心,适合普通用户。我们不是做不出龙虾,只是限阶段选择了更适合大众, 更商业化的路线,未来国内一定会出现属于我们自己的现象,即开源执行工具。我是 ai 喵讯,关注我,下期继续用大白话讲懂 ai 科技。
粉丝50获赞202

从截图可以看到,脚本已经检测到你的 windows 系统,你已经输入 y 确认安装 node js, 现在正在自动通过 winget 安装 node js, 这是 openclaw 部署的前置依赖,必须完成才能继续。接下来你只需要做一耐心等待, node js 安装需要几分钟时间,窗口会显示下载和安装进度,不要关闭 power shell。 二、后续自动流程 note js 安装完成后,脚本会自动继续安装 openclaw 主体全部安装完成后会提示 openclaw installed successfully。 三、安装完成后的操作输入 openclaw on board 驶驶化配置,一路回车默认即可输入 openclaw gateway star 启动服务浏览器访问 http, 一 百二十七点零点零点一一八七八九打开控制台。注意事项, 如果中途出现网络卡顿或下载失败,脚本会自动重试,或者你可以按 ctrl 加 c 终止后重新执行安装命令。你的电脑只有四 gb 内存,安装期间尽量关闭其他软件,避免内存不足导致安装中断。 等你看到 openclaw installs successfully 提示后,告诉我一声,我再带你完成初步化和启动步骤。需要我提前帮你准备好初步化和启动的命令,到时候直接复制粘贴吗?

这个视频呢,他不是教程,这个视频是我打算就是帮大家来验证一下如何用豆包 ai 来安装 opencloud。 今天开始呢,我打算 就是拍摄一期关于我想要装安装小龙虾的这个视频,可能会遇到一些问题,但主要是通过这个 vlog 来记录一下,我相信呢,在安装过程中肯定会遇到一些问题,呃,就看到时候我们怎么去解决这些问题。 我把它拍成视频记录下来,可以给我们普通想要安装小龙虾的人一些参考。现在呢,我打开了 b 站,我搜了一下,就是首先我,我不知道这个 openclaw, openclaw 小 龙虾和 g p x 的 g p t 的 区别,那我我现在准备去看一下它到底区别是什么?看 所有工作文件按日期分类归打生成,没有操作权限,没有执行能力,更没有跨软件、跨流程自主完成任务的能力。 而且绝大多数普通 ai 依赖云端服务,数据需要上传使用,有成本交互模式单一,只能一步一步接受指令,无法自主规划任务链条。而 openclove 代表的是执行式 ai 的 全新范式,它和普通 ai 的 区别可以总结为三个核心不同, 第一,从给答案到干成事。普通 ai 是 顾问指出主意, openclaw 是 员工直接落地,你说一句,整理本月所有工作文件,按日期分类归档,生成一份汇总清单,普通 ai 会整个流程全部闭环完成。 第二,从云端依赖到本地优先,各类大模型和一样能力 ai 解决的是信息监控,信息不资源灭了框架。 openclaw 的 爆火从来不是偶然, 他击中了当下 ai 行业的痛点,大家需要从文化和整体结构完成更复杂的综合任务,打破软件之间的壁垒,实现跨应用、跨平台的自动化操作。更深一层看,普通 ai 解决的是信息获取和内容生成的问题,降低的是思考和写 做成本。而 openclaw 解决的是操作自动化和任务执行的问题,解放的是人的双手和时间,它把人从重复繁琐、机械的电脑操作中解脱出来,填表单、整理数据、监控信息、批量处理脚本运行。这些原本要花几小时的工作,交给 openclaw 几分钟就能完成。 对于上班族,他是高校助手。对于开发者,他是自动化工具。对于普通用户,他是零基础就能用的数字管家。这也是为什么腾讯会投入资源免费帮用户云端部署。为什么央视力挺,因为它代表了 ai 从对话时代走向执行时代的关键一步,是普通人也能触摸到的 ai 普惠。 一场千人排队的活动,一个接地气的昵称,一款开源开放的框架。 opencloud 的 爆火从来不是偶然, 他击中了当下 ai 行业的痛点,大家需要的不是更会聊天的机器人,而是真正能帮忙干活、能提升效率、能保护隐私的实用工具。他没有华丽的包装,没有高昂的定价,凭借开源、安全、能执行三大核心优势, 迅速成为全民追捧的对象,让养家从程序员圈的小众玩法变成全网参与的科技热潮。对于我们普通人而言,不必纠结复杂的技术架构,也不用深究底层逻辑, 只需要明白, open klo 是 ai 走向实用化、平民化的重要标志,他让人工智能不再遥远,不再抽象,而是变成一只可爱的小龙虾,走进每个人的。有点赘述啊,我得看一下 啊。也就说啊,从这个视频里面我是直接用 b 站搜了一下,也就意味着 open klo 这种小龙虾呢,就是 从语言模型变成了执行层面的一个模型。呃,把它变成执行层啊,现在等于说要记录一下。嗯,小龙虾,小龙虾是什么 是什么呢?执行,执行专门就是它的重点是用来执行执行端的。 把它从大语言模型,原来是就是只是聊天机器人,现在变成可以行动的机器人。 嗯,大致是这么一个东西。这个视频呢,它不是教程,这个视频是我打算就是帮大家来验证一下如何用豆包 ai 来安装 opencloud, 或者说如何自己通过网上搜索遇到问题,然后去问,找方法来自己安装 opencloud 小 龙虾这个这个平台。

欧肯烤装好了后是不是还不知道用什么大模型?我的小龙虾任务经常跑一半就断档,一开始以为是我指令写的不行,甚至开始怀疑是龙虾不行,目前做不了这种复杂的任务,整了好久,最后发现是模型问题,我换了一个高智商的模型就没有问题了。 首先推荐的是小龙虾专属王者 glm 到五 turbo, 龙虾场景专属全链鲁士配中文墙工具调用比较精准,而且出了龙虾套餐,费用方面也还行,非常推荐。其次是 mini xm 二点一 m 二点五, opencall, 抓取分拣都不重,任务成功率本居全球前领,完美是 k w p s 飞书还有起飞,还有小龙虾营销文案,供应链分析,本地政策解读精准。如果只是想要入门款,那推荐豆包 opencall, 入门首选 免费,中文流畅,国内直联,但是复杂推理与工业级精度一般,更做多调用的工作就不推荐了。最后推荐的是 jammy night three twenty one flash, 推理能力全球第一,抓取分拣加工成功率全球最高,但是国内无法直联,需特殊网络,所以如果对 opencool 有 极限性能需求的 还是很推荐的。总结下来就是国内免费入门的推荐豆包 c 的 二点零,国内高性价比 open coil 主力推荐 mini max m 二点五,国内垂直专用全电路推荐 g l m 到五 turbo, 能外网极限性能多模态推荐 jammin i 三点一 f s 企业长文档安全推荐考德萨尼 t 四。想要了解更多 ai 干货关注我!

想知道如何让你的 openclaw 真正操纵你的浏览器吗?你看我让他在网页打开豆包,他就帮我打开豆包,帮我完成我的指令。 再来看我需要 b 站视频数据,他同样能自动解锁并整理数据发给我。龙虾已经完全像我自己的双手帮我去操作所有浏览器的操作了。 这里需要注意,以前的 openclaw 操作浏览器是通过截图加上自带的大模型去分析截图。这个方案有三个致命的问题,一、受分辨率影响太大。二、动态内容经常误判。三,速度慢, token 消耗巨大。这次用的方法是通过 chrome 官方调试协议 c d p 直连浏览器,不再截图拆, 而是直接读取倒木数和羽翼结构百分百精准,速度快十倍,抽根绳百分之九十。一句话解释,从看图猜操作升级到直接读懂页面,这不是小优化,而是直接换赛道。以前 ai 隔着窗口帮你想, 现在 open call 直接进你的浏览器帮你干。你最想看哪个自动化场景的深度演示?欢迎评论区一起交流谈论。

有粉丝问模型该怎么更换,那么我们今天就来讲模型怎么选择以及更换。 那我们首先去了解一下这个模型什么是模型,以后不懂的东西都可以直接问豆包,我们直接就把目前市面上的所有能够支持龙虾的这个模型去进行一个比较,是豆包出的结果。 那么在这个表上你们就可以知道为什么你们的龙虾会反应这么慢,这里是有响应的,比如说这种三秒的。 好,那你看这里,他说这个是第一,那我们就今天就用这个来做一个例子,是如何去接入这个 p, 因为很多人他可能第一次上来,他就去接了 type c, 可能比较简单接入,接完之后就不知道怎么改,那今天教怎么改? 那我们得先去这个官网, 这个它是目前应该是全国第一的,豆包说了感应最快,但是价格不便宜, 那我们在这里找到这个 building plan, 进来的时候我们就会选一下套餐, 买了这个试一下,给你们解释一下这些是什么意思,比如说一百 rounds 五个小时,什么意思呢?就是五个小时之内你能够问他一百次,比如说现在从十点到下午的三点, 我只能问他一百次,如果一百次过后就更不了了,就他不会反应了,是这个意思,如果你,如果你觉得不够,那你就可以开这种一个小时可以三百次,还有这个两千次, 建议啊,普通人我觉得还是这个就够了。好吧,你们自己看,那我们怎么接入呢?首先在这里啊,有一个购买之后啊,它这里会有一个 e, 然后用了这个 key。 好,我们先讲本地的更换,我们在我的电脑一般的吸盘这里会有一个用户找到,你的用户在里面找到这个 open ai 的 登录, 然后在这里会有一个 opencloud 的 追神文件,这里一定要备份啊,特别是新手一定要备份,如果不备份的话,出了问题就很难搞。复制一下, 三月十三号好了,有了备份就不怕了,它它什么问题,我们大不了就把它这个删了,然后再来这里把这个回复就行了。 找一个好的编辑器啊,如果你用这个文档打开的话, 如果是这个打开的话 就不太好看了,可能编辑的时候会容易出问题。找个好编辑器, 这里好处是你可以这个括号都能对应,这样对的上。好了,不说那么多,怎么改呢?首先做了一个保存,保存之后这里是有备份的,就不用看了,我们来去找个 deep sync, 这样 deep sync 我 们从头到尾复制一下,比如说你的这个 改一下 mini mix 类型,这样子给它加上,这里也要加,相当于就是加一个模型吧,它是可以在那个 mini 画像龙虾这一款。首先先加一个手动画, 我们抄 dips, 这里注意啊,一定要用英文,就是英文字母的逗号,不要用中文的,用中文的不行。 这个叫什么呢?叫什么?那这样子不能怎么配置啊?找个包,找个包。那怎么接入吧, 试一下, 这个是名字,名字是随便啊。嗯,然后这个地址,这个请的地址可以切换成不能接 d c 的, 在这里不知道 v e 就 行了。 这是什么?这是默认,比如说你配置之后,你重启之后它用哪个模型,这里直接默认 d c 嘛?现在可以在这里加一个 这后面的名字,在这里你写啥就是啥, 哦,应该上面这个,上面这个,嗯,这个这个定了一个是 id, 然后写完之后要 ctrl 加 s 保存一下,一定要保存,不保存不生效,好,保存,我们试一下重启一下 旧版的这个是要后面有个 stop, 好 像新版的那个三点八的好像就直接就给了位就可以启动,这个呢?根据自己的实际情况启动一下。 刚才我们只是配置了,有没有发,如果聪明的小伙伴会发现我刚才是没有配置这个 key 的, 没关系啊,我们启动启动。哦,这个没改, 要改成,要改成这个, 这个系统保存再重启一下, 在吗? 哎,看到没有没有配置 key 的 时候,这里就会应该有很多同学会发生会遇到这种情况,不知道是 t 配不对还是什么,反正他就是一直没有回弹,对吧?就是因为没有配置 key。 那 我们再来到这个目录下, 找到这个 adns, 我 们可以先看一下这边的配置,没有电了,默认翻启动,这里没有,然后我们找到这个目录还是这个目录,然后这里有个 adns, 有 个 me, me 里面有个 adns, 在 这里找到这个 models, models, 然后打开 在这里就就是什么呢?在这里就是你之前配呃,所有的这个代理这个模型的这个 t, 这也是 d c 的, 然后 d c 直接叉。这里要讲一下这个跟这个是有区别的,我们去看一下它的官网, 那这个 d c 小 号也挺多,六千多万,然后看官网在这里 他这也说了啊,这其实是两种,一种是这个 duck, 一 种是 resident。 resident 的 话是什么?深度思考,也是说如果你要用来干活,应该是要 face, 如果你只想聊天,那就是这个。 我们选的话,应该是选,应该是选这个,那样去干也是我这边配置的,这样去干不好,不管这个是另外的是什么,来我们看它,我们之前在这里手动加了这个 excel, 然后你保存重启之后呢,我们才会自己在这个窗口去生成对应的 配置。啊,这是我们刚才配的,感觉我们配的错了,因为我们是想当年的,并不是它官网的一个标准的模型的 id, 这才是它生成的官网的标准浏览器。然后这个这个是什么呢?这个应该是它所谓的这个, 那我们刚才那个应该是这个,这个应该就叫应该是这个,那就是对应上了,那也就说我们自己写的这个错了,要换成他的这个,我们过去换一下,直接换一下, 我们这里抄的是这个。 好, ctrl s 保存一下,有些好像 ctrl s 保存它就能生效,试一下能不能生效,在吗?还是不在哦,那就是没生效, 那我们重启一下试一下。 哦,不好意思,忘了,没有生效是肯定的呀,因为 key 还没配,因为 key 还没配,知道吗?刚才我们去保存,其实它是生效的,你看我们之前制定的那个,它已经删掉了,已经没有了,那么理论上我们问它在吗?它肯定是不在的啊, 应该不在。那好,我们应该去配一个 key。 key 在 哪里配呢?在这里有个 model, 这个目录下有个 model, 之后还有一个这个,我们打开它,这里会有一堆配置,我看一下 哦,这个是我之前配过的。那为什么呢?不行, 搞了半天终于找到问题在哪里了,大家一定要注意啊,复制的时候一定要小心,再扫一个 h, 好 吧,再扫一个 h, 保存。 这边不管这边,可能这边这边不用管这边等下子我们重启一下,自己写起来,这里这里的 key, 它到时候也记得写,我们重启一下好了。你看这里这个文档它到时候也记得写,我们重启一下 好了。你看这里这个文档它到时候也记得写,我们重启一下好了。它会不会把那个改掉? 哎?这改过来了吗?它附它,也就是说这个文档跟这个文档都会,可能都会被外面那个实时写进来,重启就会写进来,我们先问一下,应该可以。 嗯,好了,我问一下你现在什么模型 好?检测一下当前所有模型的响应时间。好了,我们看一下, 现在就是可以检测出来当前的这个模型的时间。这个可能有问题 啊,这是第一种啊,就是改这个配置文件的另外一种,其实很简单,你直接就跟他说,跟他说就行了。你直接把那个这个复制下来, 复制这个啊,到这里,然后你就说帮我添加一下 mini man 的默契,然后再把这个这个给他回车,应该就行了。但是在这个操作之前啊,你一定千万千万,你还是得到这里来,先把这个备份一下,这样去搞,如果他搞错了,搞怎么样了?因为他搞错了,他会重启这个网关,重启之后, 如果它重启之后,它切换成默认的是那个 mini max, 万一它没配成功,没配好它就不会跟你兑换了,就像刚才一样,它就不会跟你兑换了,你问什么都不会反应了。这个一定要注意,你可以先先把这个保存了,保存好 出问题了你就把这个删除了,也删掉,然后你再把你刚才这个复制一份,再改成这个名字,再重启完关就恢复到你之前了,这个一定要注意一下。好,今天就讲到这里。

哈喽,大家好,给大家说一下怎么去做这个,用豆包安装咱们的 overclock, 首先打开咱们的浏览器搜索,首先在浏览器搜索咱们的官网,会跳转到首页,然后往下滑,往 下边滑的时候有这个快速入门这个选项。然后现在打开我的豆包,点击这个小电话的标志,里边有一个共享屏幕,语音通话能看到吧?对,点击进去以后这有个共享成功。然后我就问豆包你好,豆包你能听见吗? 能听见,有什么可以帮你的?紧接着我又继续问他,我现在想安装这个,你能帮我跟着安装吗? 可以啊,你复制美元 curl f, s, s, l, h, t, t, p, s colon slash slash open claw dot ai slash install dot shape bash 这条命令 在终端粘贴运行,根据提示操作就行。注意你系统得是 macos, windows 或 linux 哦,这时候打开我们的电脑的终端就可以了,把这段代码粘贴上,然后就根据进度可以直接问豆包就可以了。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

朋友们知道吗?这个 openclaw 可以 免费的使用,我们不使用 api, 我 们只用本地的一个大模型来代替,那就是今天我给大家说的欧拉玛, 可以看到这边欧拉巴的安装我已经写好文本了,今天我们就跟着这个一步一步走,我们给我们的 openclaw 部署一个本地的大模型,这个方式比较适合我们轻度的去玩,或者是我们新上手这个 openclaw 去练习用, 因为本地不说大冒险毕竟不如网上这个 api, 但是它是一个很好的练手的一种形式。废话不多说,我们开始,那这里呢?我直接是给到了大家安装的一个代码, 我们复制代码,如果你也是这个 windows 去你的 linux 系统可能会碰到什么问题,比如说碰到我们这个叫 z s t d 这个支持,没有这个东西我们怎么安装?我们用这个代码去安装,安装完这个代码以后,就这个代码执行完以后,我们就可以进行正常的一个安装, 这里我们就等待这个欧拉玛安装完成就可以了。那接下来这个时间我们可以去看一下我们想在本店跑的一个大模型,让我们直接搜索欧拉玛的官网,直接来到这个 models 里边, 这里大家可以看到有好多种模型,这里我推荐大家使用千万三点五,在这里有好多个模型,点一下理由,大家根据自己的显卡的现存多少去选择适合自己的模型。那比如说如果目前我是一个什么,我是一个二零七零, 二零七零,他只有八 g 的 显存,而且目前我们运行这个顽徒的迅疾,他已经占了二点三,也就说我们只有多少五点五点七的一个显存,五点七的显存正常我们大概只能跑个一个 四 g 左右的一个大模型,那目前看下来我这块显卡只能跑这个三点四,也就是千万三点五四 b, 这个四 b 应该是已经量化过了,之前的一个原生的四 b 应该是九 g 左右了, 我们可以选择这个模型去跑,那如果你是四零九零,这里推荐你可以使用 r 七 b, 我 们可以四零九零可以跑一下这个模型应该都是没有问题的。当然如果你是什么二零八零的双卡,这个之后我会说我组了一台二零八零的双卡, 他就可以跑更大的一个模型,那接下来我们就等待他安装就行了。我们把我们这样跑的模型我们记一下,这期视频其实也反反复复的做了好几次,那主要老杨也是个代码新手,所以说在中间会遇见遇见各种各样的一些事情, 后来经过我的一些查询,也把这些问题解决了,那基本上我就把这些遇到的问题都给大家去总结在这里面。这里我们拉玛安装好了,它已经系统级的运行了,这个是自动运行的,为了方便之后我们去看后台数据,我们这里建议把自动运行拉玛的 server 给它关闭。 那所以说这款我已经写了,之前我是下了模型以后,他就关闭了整个系统级的自动运行,后来就是这个模型丢了,所以说这里我们直接去执行,让他不要运行,然后禁止他的一个自动 set 访看是否运行成功, ok, disable 就 可以了,那接下来我们就可以去代码让他运行,那我们自己启动了,运行以后我们就可以看到什么宝莱玛的一个后台, 方便我们后面去监看他是否会出现问题,这样看起来比较方便,下面我们就去拉我们这个模型,这里我用刚来讲,我们就用这个四 b 复制一下,那么再开一个命令终端,我们再开一个终端,用这个欧拉马库,这里我们就进行等待就行了,等他下载好这个模型就可以。 ok, 到这里其实我们这个就已经装好了,我们看一下欧拉马 list, ok, 可以 看到这里有个千万三点五四 b, ok, 接下来我们直接把我们这个 openclaw 的 ap, 呃,就是 mod 它的模型给配置过来,我们 openclaw 直接选择 local, 然后我们选择我们的 model, 接下来我们就找一下找什么,找一下这个 customer provide, 选这一项,这里的它就自动是欧拉玛的, 我们打开斜杠 v 一 pass api key, 这个 api key 随便填,我们随便填一个,行了,它是一个 openai 形式的,这个模型的 id 这里一定要填对,直接去复制也行, 它是三点五冒四 b, 嘿,那这里就应该可以找到了,嘿,已经找到了,这里回车就行了,接下来我们 continue, ok, 那 这里我们就已经把这个模型配置给我们的 open cloud, 我 们 open cloud gateway, 他 说这个已经运行了, 也是自动运行的,我们 gateway restart, 让它我们这个 gateway 重启一下, ok, 看到其实这个后台上已经读到了,我们这个 就是 openclaw 调用它,我也没打开,还是报的一下,我们找一下这个网址,复制一下,打开浏览器很牛,这里就出现一个什么问题了,可以看到这个反应非常的慢,为什么 在这后台就能看到什么?就是 limit, 也就是它上下文限制多少?四零九六,我们这个 openclaw 给了多少?给了一万零一百六十七,所以说这个是远大于这个四零九六的,所以说他就把这个画开始裁切了, 这就是他的问题。那关于这个问题昨天也是研究了不少,可能我比较小白,这里给到大家一个解决方案,在这里这是我记录的 limit 四零九六 给的这个 promote 就是 提示死这么长,然后他就会出问题,他就反应非常的慢,那我们来解决这个事。回到这个命令符,首先你看你先下载的是默写,比如说我们看一下这个默写,那可以看到他的上下文,他默认的 给可以给到就是二六二幺四四,那这个二六二幺四四是远大于这个奥拉玛,他给的限制四零九六的,所以说我们需要新建模型来解锁这个限制,我们把如果你下其他模型,把这个代码改一下,把它我们导出,我验证它是否存在, 找到了我们编辑它,这里可以看,我们需要在这个 essence 这上面去加一行,是吗?加一行我们把它这个上下纹的长度给扩大, 这里我这块显卡加到三十二 k 就 可以了,因为我们用这个方向键来到给回去了,把这段复制进去,然后 ctrl 加 o 回去, ctrl 加 x 退出, 只有我们改了这个,用这个 modify, 我 们重新去新建一个模型,这个新建模型这块的名字根据你自己的改的去修改,比如说你改成六十四 k, 就 改了六十四 k, 好 标记加某拉玛 list。 那 可以看到我们新建这个模型,就通过这个四 b 新出来这个模型它已经存在了,这叫三十二 k, 也就是我们上下文调整到三十二 k 了。 接下来我们这个把我们的 openclaw 它的 model 重新改过来,这里复制一下,把这个复制一下来到 model 还是 custom provided 这块,还是斜杠 v e a b i k 边数这块,把这个新的模型名字输进去,哎,找到了, ok, 我 们在 openclaw restart 一下,就 getaway restart 一下,包括刚刚我们刚打开这个文本,如果你是觉得回答质量差,你就可以适当调整这些参数,再去新建好,我们回到网页里刷新一下, ok, 我 们再 set new, 看这个反应,可能还会提示这个提示词过程吗?没有了, 这样我们就把相当于把这个模型给配置好了,这样我们就打个招呼, 可以看到这个后台不停在提示他,其实在做这个正常的一个输出,这个都已经没有问题了,那这里已经给大家完全讲完了欧拉玛的一个配置,包括我们中间会遇到的一些,比如说的这种问题啊,山下文的一个问题, 这个四比模型现在就完全的可用了,其实我们这块二零七零他跑的时候可以看已经七点五级了,进行起来速度还是可以的,没有说速度特别的慢。怎么测试?给我写一片三百字 关于 ai 进化的文章,三百字的文章,你看一下我们这个四 b 它发现怎么样? 其实这个 token 怎么讲?它的速度是可以的。只有三百字吗? 只有三百字吗? 这有三百字吗?我数不过来,问问他, 就是他可能载入了会慢点,但是这个字数的话就是说他的投屏速度还是可以的,所以说四 b 在 我们这个二零七零上都可以爆。当然大家我觉得你们的显卡可能会更好,那比如说如果你真的是一个,比如说幺零六零之类的卡, 我不太建议跑,但是也有这个这种的特别小的,但是我没用过这个啊,我会感觉特别傻,但是四 b 用下来只要你不是这个扣定,就是我们这个编码做很多的话,应该是没什么大问题啊。 这场对话包括帮你写文案,他都是怎么讲可以去胜任的。好了,今天就到此为止,谢谢大家。

hello, 老板们好,今天给老板们带来 open claw, 也就是大家常说的 claw bots 全套实操教程。重点强调一点,无需任何魔法,用国内网就能直接操作,全程一步一步录屏,新手也能跟着上手, 咱们不玩虚的。重点演示,一个前置部署加四个核心实操,先做基础部署,再接入飞书,对接火山方舟多款国产模型,比如杜邦 seed code、 智普四点七、 deep seek v 三点二和 kim k 二 thinking 等。 最后微信和 qq 的 接入教程也会安排上,每一步都讲清楚,看完直接能用。现在呢,我们先打开网页,这个网页链接我会发在评论区或视频简介下方。打开后,其实有教程的,我也是按照教程一步一步来的, 基本上半个小时左右就搞好了,真的很快,用起来很爽,直接进入沉浸式实操。现在直接进入部署阶段,直接购买一个云端服务器,一个月九点九元,我觉得很划算了。

有很多粉丝希望我讲一讲这个 open klo 大 龙虾如何把小米的咪莫大模型装进去啊,我们给大家演示一下啊,首先第一步啊,打开这个小米的这个咪莫大模型的官网啊,然后用你的小米账户登录, 登录之后啊,这里可以充值啊,我已经充,大家可以看到我已经充了一百零四块啊。这里有个 api key, 点开 创建一个你喜欢的 apikey, 把它复制下来就好了啊,这个注意,它只会显示一次,然后这个复制好了呢,我们就进入大龙虾,好,接下来我们进行第二步,我们打开一个叫终端的东西啊,输入 open 科洛,然后昂波昂波的啊,二 d 啊,输入这个命令好,就会进入一个类似于配置的 好配置的界面。好,这个时候你选 yes, 好, 选这个 quick start, 好, 继续往下一步,确认 好,到了这个界面的时候,这个叫模型供应商的配置界面,我们直接往下找找找,找找,哎, ok, 这里找到了一个叫小米的啊,大家可以看到小米,然后点进去确认,确认完了之后,这个叫配置 api key now 啊,继续点确认,把刚才你在小米的那个模型网站的那个 api key 复制粘贴到这里啊,进行下一步 啊,然后重启就结束了,重启之后,哎,卧槽,不能关,然后,然后就非常简单,在这我们就直接问,哎对,你 是什么模型啊,然后我们可以看一下啊,问他是什么模型好,我是小米的咪某 vr flash 啊,然后就配置成功了,非常的简单啊,如果你还是不会的话,可以小窗找我。

现在 open class 是 真的火,但 tucker 贵到离谱,随便用用成本就上去了。很多人跟我一样想着用做一层网页代理转发白嫖豆包啥的,以为能省事又好用,结果一测就傻眼,只能聊天发命令根本不执行。 核心问题就一个,你直接转发接口,很多模型本身就不支持放生,靠脸,没有工具调用能力,他只会给你文字回复,不会真的去跑命令调接口,光做一层转发,没有本地解析和执行逻辑,再贵的接口也只是个聊天机器人。想真正免费能执行命令,其实有更稳的玩法, 直接入手一台 m 系列芯片的 macbook, 本地跑千万七币这类开源大模型效果够用,还完全不花头肯费。再用你自己的代理层把请求转到本地模型,自己补上命令解析权限控制执行逻辑, 这样才是真能用不限量还能干活的 ai 代理。想白嫖大模型又要能执行命令,别只做接口转发,本地模型加自己写执行层才是硬核解法。

二零二六年初,我的手机就被 openclaw 刷屏了。于是我满怀好奇,开始探索这到底是什么。 如果传统 ai 模型是帮你答疑解惑的思索者,那 openclaw 是 指用工具的执行者。但它并不是一个全新的模型,而是一个工具调用框架,它的大脑依然要接入大模型来思考和规划。 通过拓展 skills 和 tools, openclaw 应用范围更广泛。而它的上下文记忆机制能让你不丢失历史信息,配合训练引导,不断学习,实时进化突破。 还可以把它对接飞书或 telegram 等通讯软件,方便用手机随地下打指令。我尝试让他写一个页游放在我的桌面。我使用的千问模型答复很快,接下来检查一下,他按照我的要求直接保存在了桌面。 这是个需要双人操作的五子棋夜游。当然,这种工作为了节省 token, 可以 自己来复制代码。这只是一个小测试,但我的新鲜感还没褪去, token 额度却先消耗殆尽。 受硬件限制,本地只能用笨拙的小模型,不仅响应慢,工作质量也完全不达标。我没有购买 token, 学习便止步于此。

全自动的龙虾教程来了,如果说豆包 deepsea 是 半自动洗衣机,那龙虾真的是全自动洗衣机,东西放进去,然后按一个键打开,完了就这么简单。那怎么下载呢?其实跟大家说说这本书的话呢,有非常详细的下载的教程,无论说到是本地部署啊,适用场景,硬件要求,安装步骤,优缺点分析,还有云部署, 阿里云部署,腾讯云部署,火山引擎部署,还有配置各大的国产大模型,以及我们 kimi 傻瓜式部署,适合所有的新手。小白,这本书就连安装到使用给你保姆式的教学,一步到位,我只需要给出一个指令,今天帮我把这一百份邮件全部处理好了,给他好好的回复, 以及把这一百个邮件的重点给我摘出来,我现在加班前,我需要看到他可能就是在短短的时间内做完了小龙虾呢,时代要来了,你准备好了吗?

这阵子全网刷屏的 ai 龙虾 openclaw 能写代码,做自动化,搭全流程工作流,堪称全能数字员工。但很多人想上手,要么本地装环境疯狂报错, docker、 node gs 折腾半天搞不定,要么电脑配置不够直接带不动,纯纯劝退, 今天就给你们保姆级教程,用火山引擎官方云服务一键部署 openclaw, 不 用挑一行代码十分钟就能搞定,成本还贼低。 第一步,打开火山引擎官网注册账号,完成实名认证,新用户还有专属福利额度。首页直接搜 open club, 找到官方预制的一键部署镜像运行环境依赖插件全给你配好了,根本不用自己瞎折腾。选官方推荐的入门配置,两核两 g 完全够用。 完成付款后,单机去控制台按钮, 前往实力列表页查看新创建的实力规格信息。第二步,开通方舟大模型服务,并获取配置登录开通管理页面,选择期望为 opencloud 提供推理服务的模型家族,这里我们选都包 c 的 一点八模型。 在左侧目录处选择系统管理 apikey, 管理创建并获取 apikey。 在左侧目录处选择智能广场是模型广场单机,您期望 open class 使用的具体模型进入其详情页。单机复制按钮,获取模型的 model id。 步骤三,创建飞书机器人并获取配置 创建企业自建应用,登录飞书开发者平台,单机创建企业自建应用按钮,添加机器人能力。 在左侧目录处选择开发配置。权限管理,单机批量导入祈导出权限按钮, 在弹窗中确认权限无误后,单机申请开通按钮, 单机配置按钮,设置权限可访问的数据范围。单机确定按钮,完成操作。在左侧目录处选择基础信息凭证与基础信息,在应用凭证模块中获取并记录 app id 与 app secret 信息。单机顶部的创建版本按钮, 点击页面底部的保存按钮,创建版本确认发布按钮,完成应用发布。第四步,配置 openclaw 飞书 ai 助手登录云服务器实历 执行命令、配置模型和飞书集成的参数。 到这里我们基本完成了配置。在登录飞书开发者平台,选择企业自建应用页签并单机您创建的飞书开放应用。在左侧目录处选择开发配置。 c 事件与回调,选择使用长连接接收事件 并单机保存按钮,在已添加事件区域单机添加事件按钮,在添加事件对话框中选择应用身份订阅页签搜索消息并勾选接收消息, 消息被 reaction, 即消息被取消 reaction 三个事件。单机确认添加按钮,你看不到十分钟直接部署完成。 公网 ip 点开就能用七乘二四小时在线不荡机,响应速度比本地快多了,还不用担心兼容和安全问题。教程都给你讲透了,赶紧去试试,觉得有用的别忘了点赞收藏!关注我,解锁更多 ai 干货!

啊,大家好,呃,今天溪水哥给大家做一期关于 open color 的 这个 model 模型的配置,今天给大家讲的全面一点儿把。呃, 给大家分享一下我们怎么安装 model, 然后 openclaw 的 内置的这些 model 是 什么样子,有哪几种类型,然后做一个介绍,然后再给大家针对每一种类型做一个案例的分享,会举一个具体的例子给大家讲一下怎么配。 最后就是如果你的本地呃 openclaw 有 好多个模型的话,你怎么去切换它?对,就是如何切换 model。 好,我们开始第一部分,呃安装 model 的 这种大模型,呃,现在是一共是五种类型啊,就是 open clone 支持的五种类型有五种,一种是 api key 的 这种方式就是需要你把 api key 拿过来, 呃,这里面像 kimi 啊, mini max 啊, open ai 啊 clone, 然后还有智普都是属于需要你把 api key 拿过来 对进行配置,然后还有呃像 on os 的 这种方式,就是它会跳转到官网,然后呃你登录完了之后自动跳,自动授权,授权对,像谦问式这种, 呃,然后再就是自建的这种,就是你需要配置那个他的那个服务器地址,然后和 key, 这个就是 deepsea, 属于这一类的。最后就是还有那种聚合的, 就是,呃只需要配 key 就 行了,像这个 open root 这种,呃,它就属于聚合的。 还有一种就是欧曼,欧曼大家应该听得非常多,是本地模型,它的模型呢?那个点就是需要呃本地安装,然后端过,通过端口访问,然后它最大的就是呃它因为本地跑嘛,最大特点就是托肯是免费的 啊。对,一共是这五种类型,然后我们怎么配置呢?嗯,配置大概分为七步就完成了, 很快。对,如果你会的话,就是安装起来会非常快。我们依然首先还是要打开我们的这个命令窗口,如果我们的同学是 mac, 那 你就需要打开终端就行了。如果你是 windows 的 话,你就需要打开那个 pro shell。 如果你在 windows 是 装了 wsl 的 话,那你就打开 wsl 里面,点开之后你会有那个 u 帮图,你打开 u 帮图,如果是 linux 的 话,那就直接是命令窗口了就 ok 了。然后第一步呢,我们就需要这个啊,输入 open curl config, 也就是配置文件, 就是配置配置文件,然后选完了之后,你就选你的那个。呃,就是你在 git 会在哪个地方跑,然后你选 local 就 行了。 然后配置你要配置什么?它里面有好多种,就是你要配置你的 channels 呀,有配置你的这个 web tools 呀,对吧?然后还有配置 model 的 呀,对不对?你选个你的配配置就行了,就是选你的那个类型, 然后最后就是,呃,然后你就就选择选了 model, 之后你就选这个 这个谁,谁给我打电话,然后你就选那个千问,比如说啊,我是配的千问啊,你选模,选模型的话,你就选哪家模型就行。 然后选完模型了之后,这个模型有可能是让你 apikey 的, 有可能是让你弄那个 onos 的。 还有一种就是自建, 对,如果是 api key 的 话,你后面就粘贴 api key, 如果是 onos 的 话,你就需要登录去授权。如果是自建的话,你就需要这个啊,把你那个服务器的地址和 key 都要配置好。对,配置完了之后就输入这个,就是网关,重启 open clock, get away, restart 就 行了。 这就是啊,分为这几步啊,后面等会给大家讲案例啊,具体讲案例,然后这里给大家接下来讲一下内置的 model provider 介绍,也像我们 open core 到底支持哪一些? 呃,这个大模型,呃,你看这个第一类就是国际主流的啊,就是这几家,这几家我们好像都玩不了,玩起来比较费劲,要转要转好几站,对吧? 对,像这个 openai 的 呀,美国的,对吧?然后这个啊, cloud 呀,对不对?谷歌的是不是这个 gork 的, 对吧?还有这个法国的,这几个呢,都是需要填 apikey 啊,谷歌呢,是需要除了 apikey 还可以用 onos 的 方式去验证的, 然后国内的,这是国内的,国内的大家应该配的比较多了,对吧?这个像 mini max 啊,对不对?然后月之一面呢?然后千问呢?百度的呀,对吧?然后阿里巴巴的 这个字节,它有海外和海内的,然后小米还有智普。对,这几家呢,都是支持。呃,支持这个 apikey 的 只有这个。呃,谦问是需要 onos, minimax 也支持,两个都支持验证的方式。 然后这种呢是大家用的少,我们就不过不做过多的去介绍,但是它的那个默认配置里面是支持这些的。这个里面有两个得重点说一下, 一个是欧莱玛,欧莱玛是可以啊,他这个工具可以把一些开源的模型直接拽下来,拽在你本机本机上,这种最大的特点,刚才说了,就是什么呀? 最大的特点其实就是啊,再打一遍就是免费。对,但是啊,对你的本机的机器要求就比较高了,像你内存呢?显卡啊,对吧?然后这个呢,就是开源的,这个就配置,一般的人是整不起来的。 然后这个呢,呃,也是用的比较,这种方式用的比较多,像 deepsea 就 需要通过这种方式去配置用户自定义的方式, 这是我们整个呃整个 model 的 前面的介绍, 然后好,现在给大家分享几个案例,每一种类型的案例。第一种就是我们分享一下 kimi, kimi 怎么配置 kimi, 这种就是 api key 的 这种方式去配置啊,我们依然还是打开这个,呃,就是这怎么多了一个 依然打开这个,呃,命令窗口输入 openclo, 对 吧? openclo config 这儿输完了之后,它就会呃让你选择你是在本地 get 会是在本地跑还是远程跑,所以我们这个地方就选本地 local 就 行了。 然后选完这个之后呢,它就会跳到这个界面,让你呃你要配置什么,这里面可以配置你的什么工作空间呀,对吧?然后你的 web 的 工具啊,是吧?然后你的网关呐, get away, 对 不对?然后你的 channels 就是 你的这个渠道配飞书 还是配微信,对不对?这就是技能 skills, 它也是官方的技能,对吧?这个就是配置,这里面我们选 model 就 行了,选模型,对,模型选完了之后呢,我们就呃到了这个界面,这个界面呢就是大家看看你自己想用的是哪一个?我这给大家呃 分享的是 kimi 的 啊,我们选 kimi, 选完之后它就会让你输入,呃,是是 api key 了,这个地方因为我用的是 kimi code, 所以 我就选这个, 这个选完了之后呢,就让我粘贴这个啊 api key 了,我就这个地方,这个 api key 就是 在你的那个 kimi 的 后台去建,建完了 key 之后,然后直接粘贴过来就可以了。 这一步是这样的啊,然后这选这个回车完了之后就这个把 key 粘贴进来,这样就配好了。 这个是 api key 的 方式配置,然后再给大家分享。接下来分享的是谦问的这种 onos 的 配置,这个跟上面的这个 kimi 的 配置完全不一样的,我们在这个 model 这个地方选择的是 这个工业上模型。是,呃,是 q 问,这就是千问的,千问想完了之后,它就会自动跳转到千问的这个网站上,然后你就需要登录,登录完之后授权点确认就可以了,确认完了之后呢?呃,就配置完了。 然后还有一种就是 deep seek, deep seek 是 需要用这种方式,也叫 coster profiler 这种方式去配置的。 我们在这个 model 这个这个地方选的呀,就得选这个 custom provider, 选这种方式就是自定义方式,这种方式呢,你选完之后它就会让你配置 api base url, 对, 这个地方就是要配它, 如果是你是 kimi 的 啊,那个 deepsea 的 话,就来配这个,然后输完这个之后,他会让你粘贴你的 key, 然后你把你的那个 key 粘贴过来,输入你的 key。 对, 输入 key 完了之后,他会他会问你这个选项怎么选,你选第一个就行了。对, 这是关于这个的这个啊,然后再就是,呃,你就输入你的啊那个 model id, 这个 model id 我 们输 deep seek 杠 chat。 呃,为什么输这个呢?等会儿我告诉大家 为什么是输这个,然后一会后面都回车就行了,这样的话这种就是呃 deep seek 的 这种配置, custom 这种配置就这么来配的, 然后关于刚才那个 base u l, 还有那个那几个东西该怎么配呢?是这样的,你打开这个 api 的 官网啊,打开谁有电话给我 api 的 官网,然后打开 api key 开放平台,开放平台之后呢?呃,你就会,就会看到呃,那个文档里面就会看到这个内容,这里面会看到这个就是 base 与 r, 这个就是 model id, 一个 deep seek 杠 chat, 还有 deep seek 这一个,然后这个是关于呃那个啊 custom 这种配置,然后最后装了这么多模型的话,我们该怎么去切换模型呢?我现在又装了千问的,又装了 kimi 的, 呃,切换的方式是这样,你在命令窗口里面输入 openclaw models list, 你 就把你的所有的 models 全部列出来,列出完了之后你看它就这么显示,显示完了之后你再配置用这个命令就行了。 openclaw models set, set, 这后面是个名称啊,这个名称就是你的这一列,一定是按照这一列来啊,你输少了,输多了都是不行的,所以你看我这个地方是百炼千问斜杠, 对吧?这个千问三点五杠 plus, 就是 这个,这个就是你切换你的这个模型的命令。对,呃,这就是今天给大家做的分享,内容有点长,嗯,大家看完了,我们相互学习。好,谢谢大家。

token 是 什么?小龙虾又是什么?大模型是什么?今天用一个视频来一次性说明白三者的前后顺序。小龙虾、 token、 大 模型,小龙虾就是现在比较火的一个 ai 工具,就像一个智能机器人一样,可以自动做一些工作,比如自动点击浏览器查资料,对接聊天工具,进行语音对话和执行任务。小龙虾和豆包都是 ai 工具, 小龙虾更像是数控机床,可以执行复杂任务,但是需要收费,豆包就像文本工具,可以免费使用。不论小龙虾还是豆包,都需要大模型来提供能力, 因为 ai 工具的核心主要依赖于大模型的能力,大模型越聪明, ai 工具就越聪明。那么大模型是什么?大模型就是一个训练过的巨大的资料库, 有文本模型,也有视频模型,比如 g t p cds r zero。 大 模型训练库几乎包含了全网的数据,由于主流的大模型现在都是收费的,所以小龙虾也要付费才能使用。讲了大模型和小龙虾, 再说说 token, 大 模型请求的原数据就是 token 表现形式就是和 ai 对 话产生的数据,那么 token 具体是什么? token 就是 请求大模型产生的原数据。这样说可能你还有点一知半解, 那么就说的通俗一点,用流量这个词来进行对比。流量大家都熟悉,手机上网要产生流量,当手机访问资料,看图片、刷视频都会产生流量。而 token 说白了就是使用 ai 产生的流量,用数字来换算, 一百万 token 约等于一兆流量,所以有人说 token 怎么消耗这么快?因为 token 数字看着大,但是换算成流量来说其实是很少的,一亿 token 相当于一百兆流量,而 token 是 收费的, 那么大概怎么收费呢?这样来说吧,一 e token 大 概就是几十到一百不等,一天如果用得少,大概就是这么多吧,这样来说大家就很容易理解了。