本期视频我来分享一下初步使用 openclaw 的 感受,以及我对它底层工作原理的拆解。最后咱们再来回答那个老板们都很关心的问题,到底 openclaw 能不能当成真正的 ai 员工来用? 成功在 linux 子系统中部署 openclaw 后,我们来看看它的项目文件夹。首先是 lab 文件夹,这里存放的是源代码, 然后最重要的是 opencloud 点 jason, 这个主配置文件里面记录了你要用什么大模型,开哪些通信频道,以及是否启动插件等。像我个人的配置是同时配了 minimax 二点五和 glm 四点七两个模型,一个专门给主代理用,另一个给子代理跑任务, 而且都是买的编程套餐,这样在实际跑起来的时候真不存在 tokens 不 够用的情况。通信上我把 telegram 和飞书两个频道都打开了,它们是可以同时通信,互不影响的。除了配置文件,最核心的就是 workspace, 这个文件夹里面有个叫 agents 点 md 的 文档, 定义了主代理的行为规则。想搞懂 openclo 怎么运作的,看这个文档就够了。主代理在跟你聊天前会先读这个 egns 点 md 文档, 然后按照文档要求依次去加载它的性格定义文档 so 点 md 你 的个人信息文档 user 点 md 以及你最近两天的对话上下文。从这个流程你能看出,主代理本质上就是一个由文档驱动的 ai 编程智能体。 这个 agents 点 md 就是 它的预设提示词,跟咱们平时用的 codex 或者 code code 相比,并没有本质的区别。 我们接着看它的这个预设提示词,你会发现它的特点体现在三个方面。第一是记忆机制,它会把你每天发生的事以时间戳命名,保存在 memory 文件夹里,作为短期记忆。同时它还有个独立维护的 memory 点 md 长期记忆库, 它会定期自动去短期记忆里提炼重要的事件、想法、经验和教训。存到长期记忆里, 如果碰到极其关键的教训,他甚至会进一步补充进他自己的预设提示词 agents 点 m d 中。正是因为有这套机制,你在用的时候才会感觉这只龙虾越用越懂,你越用越聪明。但注意,这套看起来很聪明的机制,依然是由底层文档来驱动的。 如果你给主代理配的大模型,脑子不够用,哪怕你提示词写出一朵花来,它执行起来也是要大打折扣的。第二点是定时机制。咱们平时用 ai 是 一问一答,是你推着它动,而定时机制解决的是让智能体推着你动的问题, 里面具体分为心跳机制和定时任务两种。区别在哪儿?心跳机制 heartbeat 是 到了时间循环,唤醒智能体,让智能体去加载上下文,看有没有该干的活儿。它是智能体驱动的,适合需要理解语义和上下文的场景,比如让它定时处理新邮件。 而定时任务 chrome 则是定时去执行一段固定的工作流。它是程序代码驱动的,非常死板, 就是一个确定的输入,给出一个确定的输出,你用的时候可能感觉不出来,但两者的底层工作原理完全不同。第三点是子代理机制, 那他的子代理是怎么干活的?其实依然是文档驱动的,主代理会在 admin 点 md 里明确规定什么时候该派哪个子代理上场,要派活了,主代理会把任务要求预先存到子代理专属的 skill 点 md 文档里,然后告诉子代理 你去读你的说明书,顺便带上这些出水条件去干活,干完再把结果发回咱们的聊天频道。 这就是主子代理的交互模式,非常简单,其实有些特定任务,主代理自己读 skill 点 d 完全能搞定。之所以要丢给子代理干,一是不占用主代理那宝贵的上下文空间,二是因为有些任务流程是已经固化了的, 让子代理拿一个稍微弱一点便宜点的大模型去跑就行了,能减少调用顶级大模型的次数。虽然有这些好处,但这种简单的原生交互模式是不支持构建多级子代理架构的, 也不支持子代理跟子代理之间的横向交互。所以我一直怀疑,网上那些号称用 openclaw 搭了跨部门团队的标题党, 如果多智能体携同的交互机制这么容易搞定,那像 minis 这种超级项目也就不值钱了。关于上面拆解的项目架构、记忆机制、定时器和子代理的底层原理,我已经整理成了配套文档,老规矩,大家按需自取。 最后回到一开始的问题, openclaw 到底能不能当 ai 员工来用?我的结论是,它适合做个人助理,拿来用好它的记忆功能和心跳机制,它能让你不用盯着屏幕,对着手机说话就能执行操作,有点像能力加强版的豆包或腾讯元宝。 但你要拿它处理复杂任务,它真的远没 ai 编程工具方便。比如我平时会使用 cloud code codex 来开发程序,协助办公,协助创作,是需要一个随时能审查文档、能定向加载上下文的编辑器界面的。 而 opencll 并没有这个编辑器环境。 ai 员工的愿景很丰满,但仅靠 opencll 原生能力是达不到的。 要说现在市面上比较接近的应该是 menace, 但那种疯狂调用顶级大模型 tokens 的 多智能体协助模式,成本代价是咱们普通人承受不起的。网上总有人误导说龙虾不够聪明,是因为你养的时间不够久,或者是没装那么多 skills。 请记住,只要它是一款依靠文档驱动的智能体,文档的精炼干净才是最不应该被忽视的。 所谓的 garbage in, garbage out, 只要你的上下文管理一团糟,哪怕给它配个再顶级的大模型,性能照样大打折扣。我是 cici, 分享那些不吹牛的 ai 实战经验。
粉丝1133获赞2472

我们在前面安装这个 open code 的 时候,所使用的模型是智普的 glm 这样的一个模型, 我们呢是可以通过这个命令行去查看我们当前所使用的模型是什么,那么我们就直接通过敲这个命令,然后我查看到了它当前默认所使用的模型是 glm 四点七,也就是智普的。 嗯,那当然呢,我们也可以在他的这个绘画窗口里直接去问说你所使用的模型是什么,他也会告诉我们 我们并没有配置其他的模型,那我们也可以从他的这个配置文件里面去查看,也就是到自己的家目录里面有一个点 openclo, 然后有一个 openclo 点 jason 这个文件,这里面的话并没有配置其他的模型。 那现在的话呢?我现在想去额外的配置其他的模型,比如说我想使用阿里百链里面的模型,那么我们该怎么样去添加?我们首先在这个外部页面这里面,然后左边有一个 settings, 下面有有一个 config, 我 们直接点击 这样子,那点击好了之后呢,我们在这里面往下面去拉,往下面拉找到这个 mod 四, 然后找到 modus 的 话,然后我们找到这个 private 这个选项, 找到 private 这个选项的话呢,然后在这里面你看现在此时是空的,什么都没有。然后在这里面的话呢,我们就直接点击这个按 ctrl, 也就是添加一个提供商,好按 ctrl, 这里面的这个名字我们可以自己随便去取,比如说我就起名叫做这是为百炼,阿里百炼的平台。嗯,好了之后呢,我们继续往下面看,然后这边的话呢有一个 ipi, ipi 的 话呢,我们在这里面选择是 open ai complexions, 然后呢再往下面这边有一个 ipr k, ipr k 的 话呢,大家就自己到阿里百联里面平台自己去申请一个 ipr k 去切过来就可以了。在我这里面的话,我已经是申请好了,我就直接给它切过来, 然后在这边有一个 ipr k, ipr k 我 们就选择 ipr k, 然后呢就是 alt, 我 们把它给开启, 然后有一个 base url, base url 的 话呢,这里面我们就直接输入阿里百店的这个这个地址好,直接给它切过来就可以了。然后呢我们继续往下面拉,然后这边有一个这样的一个 modus, 也就是我们的模型, 在这里面我们就直接选择添加就可以了。添加的话这里面有一个 ipi, 这个 ipi 的 话呢,我们仍然选择 open ipi。 open ai complexions 好,然后有一个 max talking fee 的 词,我们就直接选择这个 max talking 词,然后继续往下拉,这里面的话就是我们的这个上下文的窗口,也就是最大的这个上下文,这个值呢,你自己可以自己是随便去写一个就可以了。 然后呢我们继续往下面拉,继续往下面拉,然后这边有一个 id, id 的 话,这里面所写的就是我们所要使用的模型,我们现在来选择这个啊,千万三 max 最新的这个模型好,我就直接给它切过来就可以了。 切过来之后呢,这里面的话有一个这个 input, 我 们看一下 input, 点击一下之后,我们选择 text, 在 这里面 input 的 这个位置就是 id, 下面有一个 input, 选择添加,然后这里面我们选择 text, 然后 max tokens, 这里面我们直接输入六五五三六。 好,这边有一个 name, name 的 话其实就是一个编名了,然后我们随便的去写一个名字就可以了,那大家在做的时候就按照我们的这个步骤去填写就可以了,然后我们点击这个 sim 保存, 那这样的话呢,我们的这个百炼的平台现在就算是添加过来了已经我们可以到命令行里面去再次去查看一下,是否能检测到我们刚刚所添加的这个阿里百炼的这个平台。 好,现在已经是添加过来了,添加过来之后呢,他这里面检测的状态也是为 ok, 也是正常使用的。不过呢,这里面的话,你看他所使用的这个模型啊,仍然是质朴的 glm 杠四点七的这个模型。 然后呢咱们可以到配置文件这里面来看一下,他这里面的话,你看就多了这样的一些字段, 多了这些字段的话,这些字段里面呢,它所写的就是我们刚刚所增加过来的。呃,这个阿里百炼的这个模型好, 然后我们刚才讲了这个默认的模型,现在所使用的仍然是质朴的 glm 的 这个模型,对吧?那所以说我们现在想去换一下它的这个默认的模型,这个默认的模型的话,你可以在这个 dashboard 里面去修改, 那你可以点击这个 settings 下面有一个这个 agent, 然后有一个 default, 这个呢大家可以自己去设置。 当然呢我们也可以直接通过修改配置文件的方式去设置,在配置文件里面修改的话,相对于来说可能还是会更容易一些。 然后呢我们直接是往下面拉拉,找到这个 editor 的 这个位置,找到 editor, 找到 editor 这个位置的话,你看这里面就是所能够使用到的这个模型是什么,然后以及它所默认所使用的模型, 我们这里面直接编辑的话,因为这个行数比较短,所以说我们编辑起来相对于来说还是会比较容易一些。 那这里面的话,你前面定义的这个东西是比较长的,我们自己写好像还是比较麻烦,那么所以说我们就直接去改这一块的位置, model, 这里面就是有多少模型。好,我就直接去复制这一块内容,这里面的话呢,我们啊我们直接复制这一块,这两行。好,这里面的话需要给它加上这样的一个逗号, 那这里面的话呢,我们要选择这是为摆链,然后摆链我们往前面去拉,记住这个摆链的这个名字,要保证和我们前面这个 privs 这里面的这个名字保持为一致 就可以了。好,那么我们选择我的这个模型的名字先过来, ok, 这是白练里面所使用的模型, 对吧?那这里面的话,比如说我这里面,呃, alice 就是 它的这个编名了,我可以随便的取一个,比如说千万零三 max, 你 随便取一些汉字也是可以的。 那同样的道理,那如果说你要是想使用其他的模型的话,你自己呢使用类似的方式去做,然后默认的模型是哪一个呢?我们就修改这个 default 这个位置,好,粘贴过来,我们就直接使用的是千万三的这个模型。 好了,那好了之后呢,我们就把它保存,保存完了之后呢,咱们再次打开这个控制台,可以先断开重新连接一下。好,我们稍微等一下,等到它泡起来。好的, 泡起来之后呢,这里面咱们现在命令行里面我们也可以再次去查询一下。 那这里面的话呢,现在此时已经可以看到有了两种模型,默认所使用的是百炼的千分之三 max。 好, 然后呢咱们现在切换到这个绘画界面,点击这个 chat, 那 当然呢,我们可以选择的是 new session 新奇用一个新的模型。好,然后呢我们现在问他说你现在所使用的模型是什么?我们直接把这个请求发送给他,你看这个时候他现在所问的就所回复我们的就是 iphone 三 max 这样的一个模型。 好,那这里面的话呢,就是我们所设置的如何使用换做啊指定的一个模型。那当然了,你也可以使用其他的模型,也可以直接使用奥拉玛所给我们提供的这样的一些模型。 当然呢我们也可以通过这个绘画的方式告诉他去修改模型。比如说举个例子来说,你现在用的是哪个模型, 这个时候呢,他就告诉我们说现在谁用的是纤维曼斯,嗯,然后呢我现在去说请把模型换成 glm, 这个时候呢,他现在已经是把他所使用的模型呢换成了是 glm 的。 然后咱们再次去问他一下,你现在使用的是哪个模型? 原来使用的是纤维 max, 纤维三 max。 好, 咱们稍微等一下,这里面的话,他就是告诉我们现在已经是把这个模型呢换成了纤维三。 好,这里面的话呢?它现在已经是把这个模型啊换成了是千文三 max 这样子。

别再瞎用 openclaw 了,别人用 ai 啊,一分钱不花,你却在疯狂地烧 talk。 今天一条视频告诉你, openclaw 到底能连哪些大模型, talk 又该怎么薅?哪几个模型便宜又好用? openclaw 能连的模型啊,就三类, 国际大厂 g b t cloud, 国产头部空一千万 g l m kimi, mini max, 还有本地的 alama 开源模型,零成本啊,随便跑,想省 talk 啊?记住三招, 第一,新用户免费额度全领一遍。 deepseek 百链智普注册呢,就能白拿几百万的 token, 每月还有赠送的额度。第二,简单任务,用低价模型,复杂任务呢,再上高端。 第三,本地跑开元模型,一分钱不花,如果追求性价比,日常清量啊,用 deepseek 加千万 flash 免费额度就够你用了。中等任务呢,选 mini max g o m 四点五,便宜又稳,复杂推理直接上 cloud, 索尼 g p 四 o 迷你效果顶价格还不心疼?逻辑通了,你一个人就是一家二十四小时无人公司,关注我带你用 ai 早点下班!

这期我们给 openclaw 接上大脑,我们用的是阿里云百炼的 coding plan, 里面包含了宽三点五 plus、 kimi、 glm 等八个模型,几分钟就能跑通。 首先进入到 openclaw 的 安装页面,具体怎么下载,网上教程很多,这里不再赘述。接下来就是安装向导,输入命令 openclaw on board, 接下来按方向键选择 y e s 回车,引导方式选择手动 回车。接下来设置为本地网关工作区目录,直接回车,下面选择模型厂商,我选择下面的阿里云百链回车。认证方式,选择阿里云百链的 coding plan 回车。接下来要获取 coding plan 的 api key, 打开云百链的控制台,登录进去, 找到 coding plan 的 我的订阅,下面复制以 sk 开头的 api key, 复制好后右击粘贴到向导里回车。下面需要选择模型, 我先选择的是第一个宽三点五 plus 回车,接下来一直默认回车, 直到提示是否配置聊天通道,先不配置选择 n o 不 配置技能起用钩子,这里按空格选中暂不配置回车,这里安装网关服务 回车。接着再回车,这里就基本配置完毕并进行对话了,这时需要多等一下,首次启动网关需要等一会就能对话。下面接入剩下的七个模型,在阿里的 callin plan 网页 把剩下的七个模型名称复制一下,在对话框输入,把阿里云百链的这些模型添加进来,并保存至 open claw json key 与主模型的 key 一 致,然后把刚才复制的模型名称复制进去发过去,等待片刻就会提示你已经添加到 open claw 点 json 里。 这里一定要强调两点,一是要写进 openclaw 点 json 文件,二是要表明和主模型 api key 一 致。下面输入命令,验证模型是否真正添加进去。 打开 power shell, 输入 openclaw models list, 现在显示的列表里有八个模型代表添加成功。

大家都说 open club 很好安装,但真正自己上手的时候还是很容易因为各种小问题卡住,最后看起来像是安装失败了。所以今天这条视频我就用零基础也能听懂的方式,带你从头开始,一步一步操作, 你不用自己研究原理,也不用担心哪里看不懂,跟着我无脑作,最后就能把 open core 跑起来。第一步,先打开 power shell, 输入 node version, 如果能看到版本号,说明 node 已经装好了,可以继续。 如果提示找不到 no 也不用慌,这说明你的电脑还没装 no 或者环境电量没配好,你可以先继续跑 opencloud 的 安装命令,很多时候它会自动处理,如果不行就先把 no 装好,再重新打开 powershell, 检查一次版本号。 第二步,执行安装命令,接着在 powershell 里输入官方安装命令,运行之后它会开始安装 opencloud, 并进入首次出场流程。 第三步,安装跑到这里的时候会自动进入这个命令,这一步就是 openclock 的 首次出场向导,简单理解就是软件装完以后第一次带你做配置。 看到这里先不用慌,后面虽然会出现模型、默认配置这些选项,但第一次我们不用全配完,先把程序本质跑起来最重要。第四步,当它让你选模型或者认证方式的时候,先别急着配,直接选 skip for now。 这不是不用模型,而是先把模型这一步跳过去。因为第一次安装最重要的是先确认 open core 个体能不能正常跑起来。如果你一上来就在这里配模型,反而很容易因为认证或者接口问题把自己搞乱。所以这里先跳过,后面我们再单独接宽, 不按提示,在这里按 ctrl c 退出。这不是安装失败,只是说明 open core 已经装上了,但初步还没全部做完,后面我们继续按更稳的步骤往下配就行。 第六步,先不要急着开 dashboard, 因为现在开了大概率也是这种页面能出来,但其实用不了的状态,原因不是坏了,而是 gateway 还没启动,所以正确顺序是先启动 gateway, 再打开 dashboard。 第七步,接下来就在刚才那个 power shell 窗口里,按顺序执行这三条命令,第一条是补本地运行配置,第二条是切到本地 get 位模式,第三条才是真正把 get 位启动起来。 你可以把它理解成先把环境补齐,再告诉它走本地模式,最后正式启动服务。所以这里不要跳着走,就按照这个顺序一条一条执行。第八步,如果你看到这个 power shell 窗口一直停着不要关, 这不是报错,也不是卡死,而是说明 gateway 已经在正常运行。这个窗口一关, gateway 就 停了,所以这里先让它挂着就行。 第九步,重新开一个 power shell, 别动刚才那个窗口,因为刚才那个窗口要让 gateway 的 token 读出来,看到输出的异常串字符后,直接复制保存好就行。 第十步,现在再去开 dashboard, 因为 gateway 已经在跑了,端口也有了,偷看也拿到了,所以这时候输入 opencloud dashboard 才是正确顺序。记住一句话,先开 gateway, 再开 dashboard。 如果返回的是这种提示,不用慌,这不是报错,也不是安装失败,它说明程序已经跑起来了,只是模型还没配置好,所以暂时不能正常对话。 第十二步,接下来开始配置模型。我这里用的是阿里百炼 a p r, 所以 后面我们直接把 disco 接近 open core, 前面页面能开但不能聊天。不是安装问题,而是还没有把模型真正配好。 第十三步,拿到 api key 之后,先在新的 power shell 里设置这三个环境变量,分别是 api key、 base、 url, 还有模型 id。 这一步的作用就是先把库恩接入需要的基本参数准备好。 第十四步,前面的参数都设置好以后,直接执行这条括号的接入命令。这一步就是把括号正式接近 open core, 命令虽然长,但你不用背,完整复制执行就行。第十五步,最后重启一下 get 位。 因为刚刚改了模型配置,所以要重启服务,让新配置生效。最后说一下,第一次配置完成以后,后面每次启动其实只需要两个命令,先 opencloudgateway, 再 opencloud dashboard。 记住顺序,先 gateway, 后 dashboard。 如果你想要我整理好的,可直接复制版,完整步骤可以直接私信我,也欢迎关注我,后面我会继续更新更多 opencloud 的 使用教程。

哈喽,大家好,这期视频主要讲一下阿里百炼模型的自动切换的问题,之前有网友说百炼模型比较容易用光,单个,单个切换非常麻烦,那么这个视频里面我们介绍了怎么去把百炼模型多个模型同时写固配置文件,这样避免出现每次应用中出现切换的问题。这是我们 现在之前的 opencore 的 配置文件。我们首先看到在 opencore 的 配置文件里面有一个 models, 这个就是选择到模型,然后这里面有一个模式是 merge, 这个 merge 就 表示是合并啊,可以合并的意思 or widers, 就是 指现在我们这个模型的提供商,我们看到现在这个提供商这里有一个 blend 摆列啊,摆列就摆列,然后这里有一个摆列,下面有一个括号啊,它就对应着 这一些内容啊,它对应的这些内容,那么我们其实只要再加一个其他的 这样的一个模型的名称就可以了,那么这个模型的名称呢?我们还可以,就是还是用白练啊。嗯,其实很简单,就是这里,从这里我们把它 copy 一下。 copy 到哪呢? copy 到这个地方啊,这个你要对齐啊,就是这里有一个方括号,对吧?我们看到这里这里模式这里有一个方括号, mod 这有个方括号,那么这个方括号中间都是,中间都是。 呃,这个括号呢?都是一对一的啊,这个方括号是跟这个匹配的,是吧?那么这个方括号呢?它就应该跟这个匹配,也就是这个方括号是到了这个模式这里 mod 这里是吧? 那么这个大括号它就应该是对的方括号的下面这个括号 这个对齐了吧,那么这个摆链的这个第一个模型就应该是对到这个位置上的大括号,好在这个大括号这个位置我们加一个 模型就可以了,用一个小的分号,然后再往下加这个模型,那么我们先加的时候呢,我们可以把它先拷贝出来, 然后黏贴啊,这个里面就是我们这里是百炼,是吧第一个模型,那么我们在这里可以写百炼二第二个模型, 然后这个东西是不变的啊,这个 key 也不变的,这两个都不变,然后我们要做的就是把这个 id 给换掉就可以了,那么我们可以去查百炼的 这个模型的本身的这样的一个列表啊, 我们看到百炼模型本身的列表啊,我们找一个, 比如说天文 plus, 我 现在这个模型它是有的,我就把这个改成天文 plus 就 可以了, 改成天文 plus 就 可以了啊,然后,嗯, 我们在这个 agent 下面啊这里,然后大家要注意我这个写法啊,一定要写成数组的形式。我们前面我做实验的时候呢,有两个问题,第一个就是 four four bags, 忘了加 s, 还有一个就是没有写成数组的形式,所以大家一定要参照我的数组形式的写法仔细看一下, 然后我们用同样的方法再加一个哈,这样就有三个不同的模型类别在上面,后面根据你的需要可以加任何任意多个, ok, 这期视频就到这里啊,如果大家觉得有帮助,别忘了点赞加关注支持,感谢大家,我们下次见 哦,等等我们可能再验证一下,然后,嗯,我们打开 open core 的 对话窗,我们再验证一下,确认没问题啊,应该是没问题的。好,我们下次见。

账单来了,账单来了,兄弟们,二月二十四号开始用小龙虾,第一天的免费额度一千一千千是一百万,一百万个 token 第一天就烧完了, 然后从二十四号到二十八号用了。 哇,这是多少?一万千一千万个头肯,然后多少钱呢? 钱在这里,三十五块钱啊,总共花了三十五块钱。三十五块钱,小助手给我干了些什么事情呢? 就是这个女人形象,还有这个小龙虾形象,还有这一个小虾形象,就这么五天,小虾就干了这么点活, 花了三十五块钱。这个 open claw 你 说好玩吗?也没什么好玩的,费钱不?感觉好像有点费钱。

哎,好的好的,大家好,我们今天手动来带大家从零到一部署在自己电脑上面部署一下最近火爆全网的这个 cloud bot 啊,现在已经改名叫 opencloud, 我 们从零开始,首先我们去 opencloud ai 这个官网,然后往下滑,它有一个 one liner 的 这个 quick start, 非常简单,你只要在复制这个代码,然后开一个命令行,然后把它黏贴进去, 它就会自动去安装这个 opencall, 它会去检测联盟装着 homebrew, nojs 和 git 啊,如果没有的话呢,它会帮你去安装,我这边已经有了,所以它自动开始在安装这个 opencall。 好 的,安装完毕,安装完毕的话,它会自动会进入这个 onboarding 的 这么一个流程啊,它也是非常人性化。首先让你先来先签个协议啊,说这个很 powerful, 但也很 risky 啊。我知道了, onboarding mode, 我 们选 quick start。 然后第一步呢,是我们要接一个模型啊,在后端的模型,它虽然就 open call, 它只是一个中间层吧,你后端的模型还是需要用自己的 a p i 的。 之前呢是我我尝试使用这个 cloud code 的 订阅,可以接入这个 open call, 但是前段时间 cloud code 把它给封了,所以现在就必须只能调用 a p i, 所以美国的模型 api 太贵了,所以我们这里选择支持一下国产。我们使用 kimi 的 模型啊, moonshot ai, 然后 kimi 最近也是浪潮了,自己的这个 kimi k two 呃,二点五的这么一个模型啊,能力上据说是跟 opps 四点五非常相像啊,也是很厉害,然后价格可能只有十分之一,所以我们来体验一下,所以我们这里选 moonshot ai, 月色暗面, 然后把我们之前复制好的一个 api key 给复制进去, create a api key, 然后我们选择一个模型,我们就选 kimi k 二点五。然后呢,我们在这里选的是 在第二步呢,是选这个 channel, 就是 call bot, 呃, open call, 它是可以让你用过用你的这个即时聊天软件,然后来调用它的啊,这里就会去配置一下这个即时聊天软件。我在这里选的是,呃, whatsapp, 然后我们来看一下 whatsapp 怎么 link 啊,它会给你二维码,然后我们要拿 whatsapp 扫一下二维码。 好,我们拿这个 whatsapp 刚刚扫了一下这上面的二维码,然后,呃,现在是可以去继续去设置一下详细的配置。 whatsapp, 它里面有一些 phone, 呃,这个是 phone setup 啊, separate phone just for open call。 我 选择用一个单独的电话号码在 whatsapp 里面,然后这里使用,选择 recommended power mode allow form。 说实话不是很知道是干嘛了。嗯,选择 default 好 了,然后下一步呢,是 configure 这个一些技能啊,这里我先不 configure, 但是我们看一下, 呃,这个 open call 它有哪些技能啊?这些技能本质上来说就是它到底能做哪些事情,你可以看它这里有非常多的集成的这个 integration, 就 你的密钥,密钥管理系统 word 是 可以用来发这个 twitter 的, 然后 bear nose 是 可以用来这个记笔记的一些东西,然后有非常非常多的这个,还有什么 g u g 这种 就是 gmail 啊什么的,非常非常多 open ai 啊什么的很多啊,我们这里今天先不配置了,然后回过头也可以再配置,到时候会问你一些问题,要不要这些 a p i key 有 多选? no no, 如果到时候需要的话呢,可以再单独回过头来配置 好。然后最后一步呢,是这个 hook 啊,自动的这个操作,然后它可以在某些特定的环境下面被触发,然后帮你操作。比如说它这里有一个 session memory 的 这个 hook, 就是说它可以在每个赛季结束的时候呢,自动把赛季的这个你们聊天对话记录呢,保存到他们的这个长期的这个 memory 当中。这里我觉得还是开一下比较好,因为 open call 它是自带这种长期 memory 的 功能的,然后如果每每每一次跟他对话,它会更新长期 memory 的 话,你会发现这个 open call 越用越聪明。 好,然后这些都是系统自带的,我就都开了,然后都开了,然后去设置 gateway, gateway 就是 说是呃呃,如如何去开这个?开个关口,然后让可以让这个你在 whatsapp 里面发送的消息被传递到这个电脑上的 open call 里面。这里我之前已经装过了,所以我们在这里的话就是 reinstall 一下。 好,我们这里的 git 已经装好了,我们现在有有有方法去 hack。 我 的 bug 就是 初设啊,初设的话我们可以推荐是走这个 t u i, 也就是它自己会开一个网页,然后这有一个链接好,然后可以尝试发个消息 啊,很可惜啊,消息没有发成功,我要来 debug 一下。哎,好的,刚刚发现是因为自己的那个 kimi 账号没有充钱啊,现在充了钱就变强了啊,我们现在已经可以 跟他对话了,然后我们在终端呢,可以输入这个 open opencloud dashboard, 然后呢我们来重新进进入这个网页的 ui 啊,然后这里呢我跟他说了个嗨,然后他现在会介绍一下自己可以干哪些事情啊?怎么怎么样,怎么怎么样都是英文啊,太,太烦了,我看他看中文那里边啊, 好,他现在等于说一开始的对话呢,他会让你去呃设置一下他的名字是什么,然后怎么称呼我,然后他是干嘛的?嗯,然后同时呢我们我来就展示一下这个我们这个 whatsapp 的 这个能力啊,就你看我们这边, 嗯,其实 whatsapp 上面是可以给大家直接发消息的,然后在这里的所有的信息呢,我们也都可以在 whatsapp 里面跟他呃聊天,然后他就只要你的这个网关是上线的,他就是可以呃去跑的。 那么今天视频就到这里呢,我们就简单的装一下 cloud bot, 未来的话我们也会在这里继续更新一下 cloud bot 到底能在呃能对我的工作流程带来多大的影响啊?期待可以创造更好的内容给大家,谢谢。

这一个 openclaw 很多人说它的费用消耗特别高,在咱们国内的情况上来讲的话啊,其实已经是非常舒服的了。像主播用的这一款其实是一个套餐,它并不是按照 tucker 来去计费的,它是按照请求次数来去计费的,可以看一下 这一个可能就十几二十块钱,它能保你一个月,一个月的话呢,可能说平均一天也就一块钱、两块钱。 然后呢,他能做到的事情,其实这这些大模型,像,比如说他能给你提供的,对吧?千万、 kimi, mini, max 等等这些模型已经是啊,他他现在是在自动执行啊,我让他帮我找一些帖子, 自己弹回来了,已经是非常性价比非常高的了,而且这个不是我打广告啊,我这个用了也有半个月了,你们可以看一下,用半个月这个消耗量是真真实存在的啊, 对吧?但是的话,如果说因为他他首月新用户是有打折,如果说你让我下个月再续费的话,那我可能会去选择那个火山的火山他首月可能就八块钱这样子,这个首月他是七块九,七块九。然后呢,我是当时是用了 快用用满了我才去升级的这一个 pro 的 高级套餐,用的是真的非常舒服的啊。然后首先我建议大家如果是用这个阿里云百炼的 calling plan 的 话,用哪个模型呢?这下面有这些模型, 我问了豆包,他跟我说就是根据数据来讲的话,正常来讲综合能力最强的是这一个,但是啊,但是主播实测下来,大家要用这一个 代码的代码的,好吧,为什么呢?因为你在大龙虾他上面帮你干任何事情,他都是在后台基于基于什么东西来帮你干干的, 基于这些代码来去帮你完成的。你如果这个模型的代码能力不强的话,你跟他说什么?他的执行能力可能就是说有点稍微的不,不是很令人满意。 好吧,今天分享就跟大家分享到这里,就是一个关于 openclaw 的 一个 token, 是 用哪家平台的? 没有广告啊?没有广告,你们也可以去找一下火山的,火山它也有一个类似于这种 coding plan, 首月就是个位数,在你你要是再再听到那些说什么大龙虾,哎呦, 流量费好贵啊,不是流量啊, talkin, talkin 好 贵啊,咱们用不起对吧?直接把那个博主拉黑。 咱们在国内这种需求来讲的话,其实也用不到 open ai 那 些了,对不对?正常来讲的话啊,咱们普通人正常来讲,你要是说那些程序员什么的,或者说有深度研究的,那肯定是模型越强越好,这个是事实, 但是咱们仅仅只是体验来讲的话,对吧?好吧,他又跳过来了,他是确实是在这里执行的,你可以看一下, 我再让他帮我找一些同行的一些帖子,并且整理出来,这都是真实的数据啊,不是他自己生成的各种数据。好,今天分享就到这里。

想问一下各位的小龙虾调用的是什么模型?主播使用的是阿里的千万大模型,宽三点五 plus, 但是主播给龙虾配置这个模型出现了 bug, 想问一下有没有同样用这个模型的兄弟,你们有没有遇到这个 bug? 具体情况是,主播在安装龙虾的时候,按照安装指引的要求输入了阿里云百炼的 apikey, 并且选择了快三点五杠 plus 模型作为默认模型。可是当我与龙虾对话时, 龙虾无法响应,并告诉我 tik 无效访问或者过期。主播以为是我输入了错误的 apikey 或者模型的额度用完或者过期了, 可是我在后台查看发现并没有问题,并且 apikey 确认了几遍没有出错,主播顿时懵逼了,不知道是哪里出错了。随后主播研究了几个小时也没有解决问题,期间尝试种装小龙虾或者生成 apikey 等等手段, 依旧无济于事。最后主播只好去求助阿里的官方人员,对方首先确认了我的模型没有问题, 然后就查看了我的配置文件,不出几分钟,对方就找出了问题所在,并且给出了解决方案。原来是小龙虾的配置文件并没有绑定 apikey。 根据阿里技术人员给的配置文件可以看到,小龙虾的配置文件在 model studio 里缺少 apikey 这个参数,不知道这算不算是一个 bug, 因为主播绑定 apikey 后确实出现了模型选项, 可是配置文件也确实没有 apikey 这个参数。主播虽然纳闷,但是也不管这么多了,于是我修改了配置文件,把参数添加了进去,没想到还是不行,我又又又对比了两个配置文件, 发现了另一个问题, open 窟窿给的悲喜若尔的参数值是这个,而阿里给的参数值是这个,我又又又替换这个参数值。这次我终于能和龙虾对话了,可以看到龙虾终于能回答我的问题,并且告诉我它是什么模型, 让他说中文也是 ok 的。 最后总结,解决这个问题的方法就两步,第一是配置文件添加 apikey 这个参数,没有这个参数就无法使用模型。第二就是修改悲喜 rolo 这个参数值, 改为阿里给的参数值,因为阿里给的接口地址肯定比小龙虾的更准确。想知道屏幕前的各位使用千问模型有没有遇到这个 bug, 如果有的话,你们是怎么解决的?欢迎在评论区留下你的答案。

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。

嘿,欢迎来到这期视频,今天我们来聊一个让很多小白头疼的话题, open core 的 配置文件,别怕,我保证讲完你也能搞定。 首先, open core 的 配置文件叫做 open core 点杰森,默认藏在你电脑的用户目录下,路径是 open core 斜杠。 open core 点杰森拨浪号代表你的家目录。 这个文件用的是杰森 five 格式,比普通杰森更友好,你可以在里面写注是末尾,多一个逗号也没关系,而且这个文件不是必须的,如果没有 open class 会用默认配置自动运行。 配置文件主要分四个模块,第一是 agents, 用来配置 ai 助手的行为。第二是 channels, 配置接入渠道,比如飞书 telegram。 第三是 gateway, 配置网关的端口和认证方式。第四是 session 管理绘画策略。 重点来了,模型配置在 agents 里面,你可以设置主模型和备用模型格式式,提供 entropic, cloud senate 四五, 还可以配置一个模型白名单,只允许用户切换到指定的几个模型。注意, api key 绝对不能写在配置文件里,应该用环境变量,比如设置 andropic 下划线 api 下划线 key, 或者运行 openclaw configure 命令来安全的存储密钥。 opencloud 支持热加载,也就是你改完配置文件不用重启,大部分改动会自动生效。但如果改了端口号这类关键配置,还是需要重启网关,运行 opencloud gateway restart 就 行。 修改配置有四种方式,第一直接编辑文件。第二用命令行,比如 openclaw config set 来改某个值。第三,打开控制台界面,访问本地一万八千七百八十九端口。第四,运行 openclaw config 交互式向导最适合新手, 如果你要同时运行多套配置,可以用环境变量 openclaw 下划线 config 指定配置文件路径, openclaw 下划线 profile 指定环境标识,这样状态目录会自动隔离。 好啦, openclaw 配置文件的核心就这些,记住配置文件放在斜杠, openclaw 斜杠用杰森 five 格式, apikey 用环境变量大部分改动热加载生效有问题评论区见,我们,下期再见。

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。

登录控制台,选择轻应用服务器, 可以看到已购买的服务器,也可以点击创建服务器,可以看到默认会有 open call 服务, 同时可以更换更多的版本,这比自己安装更加省心。 接下来我们开始配置, 点击图标进入配置页面, 点击应用详情, 可以看到我们有配置的引导,一二三步骤,接下去只要按照一步步点击, 再点击配置,初步 配置对应的 kimi 要 不知道的我单独给出说明, 可以看到配置还是很快的。 接下来就可以看到访问的页面, 可以在页面中进行基础的配置,由于平台限制, 我们只能使用摆列模型, 同样点击应用就配置完成。 接下来我们来操作最后一步。

我基于 opencloud 打造了一套自动技能代码开发平台,从气球文档到前后端,最终部署流水线习见 我定系了完整流水线机器多岗位分工,流程标准化推进每一步开发流程,可以在业务管理界面发布任务,这里能够看到业务的流水线信息,还能看到每一个节点与 ai 的 交互内容。它根据架构新的 产建立系最后的运维,当特系修 描绣清新,能够行进自我迭代。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。