oppo cloud 的 大模型怎么选啊?首推性价比最高的 mini max 啊,其次像 kimi 和智浦啊,也都可以。第二呢,要不要选 token plan 啊,也就是包月计划啊,建议还是选的啊,除非你只是上去玩两下立马就卸载了,不然你还是用包月计划划算一些。 像 mini max 最便宜的二十九一个月, kimi 和智浦大概是四十九一个月,那这些钱呢?如果你按量计费的话,可能跑两个任务,哎,就没钱了,就用完了。第三呢,如果你真正想用好 oppo cola, 让它做一个生产力的工具啊,建议呢,大家一定要去想办法尝试一下国外的这三句头啊, gmail, gpt, cola 的 啊,你用完之后就发现,这真的是好员工跟差员工之间的区别啊。如果是差员工的话,他有时候就是反来覆去啊,就是听不懂你的话啊,有时候把你能真的能活活气死。 第四个呢,建议大家至少要有一主一备啊,配置两个模型,那这个备用模型不用太多啊,按量充值个五块钱就可以了。这样的话,主模型如果出了故障的时候呢,你可以迅速切换到备用模型,然后用对话的方式让他去自己去修复,自己去解决。 如果没有的话呢,你可能就得回到那个命令提示符最初的一句一句的指令去给他修复啊,你要懂技术的话还好点,你要不懂技术的话,哈哈,累死你。
粉丝2440获赞1.0万

hello, 大家好,这期视频跟大家介绍一下如何给 openclaw 选择一个性价比最高的模型,因为其实在之前的这个视频中,我主要强调了一下,就是大家可以选择千万这个模型,因为千万这个模型目前是免费的,但是目前呢,我陆陆续续收到一些反馈,他们在使用 openclaw 的 时候呢,实际上千万的免费的拓展数量已经不够用了, 所以这期视频我还是想跟大家介绍一些啊,目前收费的,但是性价比极高的一个模型,那么我最推荐呢,其实大家就是用 kimi 的 coding plan 啊,大家可以去登录这个 kimi 的 这个官方网站,然后选择 kimi code 的, 然后会进入到一个 kimi code 的 这么一个啊主页,大家往下拉会发现它目前有三个套餐,一个四十九,一个九十九,一个一百九十九的啊,本期视频不是打任何广告啊,首先我还是想强调一下,就是目前大家只需要选 四十九,每月的这个就已经足够了,那么怎么去配置呢?我也简单的跟大家演示一下,然后大家只需要打开这个 terminal, 也就是我们的终端,然后输入 openclaw, 然后 config, 然后选择模型啊,选择 local, 然后选择 model, 然后选择这里大家会可以发现有个叫 mc 的 一个英文的名字,大家选择这个之后呢,选择第三个, 然后选择第三个之后,就会要求你输入一个 kimi 的 扣定 api k, 那 这个东西从哪拿呢?其实你只需要订阅之后,你就会可以在你的控制台,然后找到你的这个 api k, 然后如果没有的话,你创建一个就可以了,那么利用这个 这个 api k 呢?就然后再输到这个同城里啊,经过我自己的实测啊,就进行一个中度频繁的交流的话,这个四十九元的套餐是完全够用的。比如说我现在给这个 opencloud 设置了大概十个左右的定时任务,然后每天会在不同的时段去执行这些定时任务。其实执行定时任务都是需要耗费大量的 tokyo 呢,那么在这种情况下,四十九元也是够用的。如果说一个免费的千万的这一个 模型,然后你的 tokyo 的 量超限了,那么你也可以给他配置一个 kimi ko 的, 但是我的建议就是大家可以同时配置这两个,为什么呢?因为 这样的话, open cloud 可以 在用完你免费的千万模型之后,它会 fall back 到你的这个 kimi code 的 这个 coding plan 里,所以大家不用担心说我配置了多个 呃,这个 open cloud 的 模型之后,它能不能够正常的工作,它其实是会有一个执行的顺序的,这个大大家不用担心。所以如果说你的这个千万的免费额度不够用的话,大家也可以去申请一个类似于这个 kimi code 的 coding plan 这么一个东西啊。 ok, 今天视频到这里,然后大家也可以去自己尝试一下。

兄弟们接, gpt 五点四绝对是 oppo 量子性价比最高的模型, gpt 五点四给出来答案绝对比 mini max 和 kimi 给出来的好太多了。可以这么说, gpt 五点四绝对是目前性价比最高的选择了。天呐,我一直都是用的量子四点六,但是那个成本实在是太高太高了, 我必须用量子四点六那种俯模型,再接一个 mini max 作为一个俯模型来完成所有的任务。但现在呢?这个 gpt 五点四真的 随便用,但是唯一一点就是你在部署的时候啊,要在终端里面用代码改一下他这个端口,想省钱又想获得很牛逼的大冒险,这个能力的朋友赶快去试一下吧!这个吉利克斯绝对是你最佳的选择。

在 openclaw 当中,如何免费地使用顶级大模型呢?我们知道 openclaw 本身是比较消耗 talking 的, 原因是在于当你和 openclaw 聊天的时候,它会使用上下文的 talking 调用大模型,从而导致我们使用 openclaw 会消耗大量的 talking。 问题来了,免费的大模型不好用,付费的大模型又用不起,那有没有折中的方案可以让我免费的使用顶级的大模型啊?答案还真有,那么接下来就给大家分享一个价值几千甚至上万的方式,可以让你免费的使用大模型,少花很多钱,所以大家先点赞再观看吧。那么怎么免费用啊?这里呢就给大家去说一下。 我们只需要去 n 平台,然后 n 平台里面是提供了很多顶级的大模型的,而这些大模型都是可以免费去调用的, 大家来看看都有哪些啊?比如说像国内的顶级的 mini max 最新版二点一可以免费的调用,还有像智普的四点七的满血版也可以免费调用。那么像 deep sync, 三点二、 kimi 等模型更不用说了,全部都是免费的。那么我们只需要去 n 平台申请一个 api k, 有 了这个 api k 之后呢,接下来将这个 api k 的 方式使用 open a 的 方式啊,配置到你的龙虾的配置文件里面就行了。 龙虾的配置文件在哪呢?给大家说一下啊。龙虾的配置文件呢,是在当前的用户底下有一个 opencloud 的 文件夹,然后在这个文件夹底下呢,有一个 opencloud 的 json, 然后这时候打开你的 json 啊,因为它内置是不支持这个平台的部署的,所以我们手动去配置它就行了。 手动配置呢,总共有三处地方啊,那么第一个地方呢,就是咱们在 models 供应商里面去添加一个名称,这个名称呢,其实叫啥都无所谓啊,只要后面和咱们的 agent 去对应起来就行了。然后在里面呢, ok, 去写他们家的地址。然后呢,重点这块来了,要去写你的 api k 的 换成你自己的, 用 open ai 的 方式进行调用。然后你调的模型是啥啊?那比如说我这儿呢,就是 mini max 二点一的最新版本。好,然后底下呢进行一个设置啊,这是第一处,先把它进行设置,然后设置完了之后呢,接下来第二处啊,导到你的 agents 里面, 然后将你的 default model 设置成你要调用的模型啊。设置完了之后呢, ok, 在 models 里面同样把这个名称再进行赋值一下就行了。这三个地方全部设置完成之后, ok, 这时候回到咱们的 open cloud 里面,将服务关掉,然后这时候使用命令 open cloud get v 重启你的服务啊。重启完你的服务之后呢,接下来你就可以去问一下你的龙虾你使用的模型到底是啥了。好,那这时候呢,咱们回到龙虾的 使用界面啊,那么咱们去问一下他,我为你设置了新的大模型,告诉我你使用的大模型是啥,咱们来看一下这个大模型 是否是我设置的那个大模型呢?好啊,咱们等待片刻,看到没啊,这就是我设置的 n 公司的 minimax 二点一了,那么到这咱们就可以免费的白嫖顶级的大模型了。我是磊哥,每天分享一个干货内容。

龙虾饲养大评测直接说结论,目前最适合长期养龙虾最稳定的套餐是 mini max pro 极速版。如果你只是想几块钱体验一下龙虾,那这期视频你不用看了,这期视频是准备给长期高频养龙虾的兄弟准备的,咱们先看大盘 cloud 和拆的 gpt, 每百万输出一百零八元 pass 掉 ipsec 虽然比较便宜,但是处理多部复杂指令的时候成功率不高, pass 掉中转站现在价格比较高,并且也不太稳定。 pass 掉 注意看这个 gbt 五点四,它是通过技术手段逆向出来的,性能很强,并且免费,但是有时候不能不太稳定,只能当备用。目前这个只在咱们粉丝里面提供,想白嫖的兄弟可以拿这个去玩。 那我们决赛圈只剩下智普和 mini max 二点七,那这个两个里面我们选哪个呢?首先我直接淘汰到智普龙虾套餐,因为它是按照 talking 计费的,由于龙虾自带的上下文非常长,一天就能消耗一千六百万,真的是心在滴血,所以这个 pass 掉。 那剩下就是 mini max 的 套餐,它的模型虽然比不上国外的,但是便宜。这里面我强力推荐极速版, 为什么呢?第一,它是按照次数计费的,不怕长下上下文。第二,几乎不限流,在龙虾做任务的时候能做到秒回。那这三个里面我最推荐的是极速版 九十八的这个套餐,因为它提供了一千五百次调用,所以也够用了。好了,感谢大家观看,我是多多一个爱养龙虾的产品经理关注我,不止有白飘的 a p i, 还送你一份龙虾 stoking 的 独家技巧,下期再见!

呃,兄弟们,然后接下来我们讲这个模型的选择,这个 open 壳啊,这个 open 壳啊,你如果选模型的话,我只推荐你们一个啊,兄弟们。呃,选 coding plane 这个套餐里面啊,这里面 我很多都开了会员啊,我就这么说吧,里边唯一且能用的只有一个啊,就是这个摆件 coding plane 啊,兄弟们 啊,首先啊,这个百炼 callin play 这个套餐里面,它自带 jamie 五跟 kimi 二点五啊,我不知道它那个跟那个,这两个跟它那个官网的那个 callin play 还有什么区别啊,我只能说很傻,兄弟们, 就不是完全一个层面的,就导致我感觉 千万把林俊阳踢掉有点像。嗯,项羽把兵仙韩信给飞掉了,你知道吗? 我为什么这么感觉呢?因为这个,我觉得百,我觉得团队出现分歧了,我,我大概能知道林雪阳做的大概是什么东西,他做的相当于是个机模,你知道吗?基础模型,就我感觉未来,如果说,哪怕说未来两到三年,如果说 ai 应用出现大爆发的话,需要一个基础模型,我觉得唯一有可能的就是这个百炼千问, 别的都不行,只有千问,但是他把林俊阳踢掉之后,我觉得可能百炼千问要掉队了。好吧,这个千问给你说,强到什么离谱啊, 就你像这个迷你 max 啊,豆包,豆豆包逗你笑,行啊,他干活真不行啊,兄弟们啊,包括这个,呃, kimi 二点五啊,还有智普啊,我都用了啊, 跟百炼差的不是一星半点啊,我为什么这么说,给大家举两个例子啊,你比方说我们欧风壳奥,你安装系统是三点一三, 如果说你要进行更新的话,因为你更新这个系统相当于把整个系统都覆盖掉,重新改写配置,别的模型啊,全军覆没,只有百炼 他可以准确的精准的配置你的底层文件啊。这还不是最夸张的,最夸张的是我用微信连接多 agent 的 平台的时候,如果说你用词不太精准的话, 可能会出现各种 bug, 就 那些模型会瞎改配置,就他们有点傻,但是只有千万做到了。

本地部署 open call 喂养龙虾的大模型,参数是不是越大越好呢?如果你将模型参数、规模与落地效果画上等号,大概率会掉进两个极端陷阱。第一个,要么花上百万部署 ai 大 模型服务器,结果基础办公自动化的活啊,都干不利索。要么明明有复杂的需求, 却就用小模型,最终达不到业务要求。我们先客观的说清楚啊,大模型的核心优势,小模型是真的比不了,它拥有碾压级的复杂逻辑推理能力,能搞定跨领域 步骤的复杂智能体任务,原生全行业知识储备更充足。但这些优势只对真正用的上的场景有价值。对绝大多数个人和中小企业来说,盲目追求大模型只会踩坑。首先是成本的指数,极浪费七十币模型单排的部署就要几十万的硬件成本。而绝大多数业务场景里面, 文档处理、基础客服清亮、代码编辑等高频场景呢,七 b 十四 b 模型完全能覆盖最终的算力利用率不足百分之十。我们就拿 open core 来举例, open core 呢,本身是 ai 智能体框架,不是大模型本身啊, 是需要对接大模型去进行使用的。 open core 在 外网呢,有两个适配的排行榜, pinch bench, 它从成功率、速度、价格等维度呢,评估了全球大模型对 open core 的 适配程度。适配度排行第一的是 chip g p t 五点四,而第二名则是我们国产的千万三点五、 二十 g b 的 大模型。大家意外吗?为什么不是参数更大的模型登顶呢?其实啊,很简单哦,因为 open core 的 核心是快速执行任务, 同等硬件下,七十倍的模型推力延迟是七倍模型的五到十倍,参数越大,反而越容易导致多步骤任务卡顿超时,完全失去了自动化工具的意义。适配 open call 的 效果好坏呢,从来和参数大小没有绝对的界限关系。 所以呢,选型的核心从来不是追求参数天花板,也不是一味的追求低成本,而是精准适配你自己的真实需求。 选模型的核心就一句话,只选对的,不选贵的,先确定好场景,再选择适合的模型。对于个人还有小微商家来说呢,日常就是办公自动化、 清量任务处理基础内容深层,那么其弊的模型完全够用了。但对于大多数中小企业的核心需求是通用办公内部的知识库搭建固定的流程自动化等等。 那十四 b 到七十 b 的 模型是性价比的最优解,既能满足稳定性和准确率要求,又不会带来过高的成本和运维压力。当你有明确的复杂需求时呢,比如金融、医疗、法律等专业领域的深度应用, 需要处理超长上下文、多目众复杂智能体任务,才有必要考虑到更大参数的模型。而且啊,必须配合行业专属的数据完成微调, 不然照样白搭。那么说到底呢,本地部署大模型的核心诉求啊,从来不是追求参数的天花板,也不是一味的压缩成本,而是在数据安全、自主可控的前提下,以最低成本、最高效率完成刚需业务的任务。大参数模型呢,有它不可替代的价值,但只有适合。有明确复杂需求场景, 小参数模型有它极致的性价比,能覆盖百分之九十的用户日常需求。对于 ai 落地而言呢,选对适配场景的模型永远比更大模型重要。

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。

目前市面上有非常多的这个龙虾的部署方案啊,总结下来,对于我们普通人来说,主流的就两种,一种是用这些大厂直接优化好的一个一键式部署,三秒钟就能部署成功的一个方案。还有一种就是买一台 mac mini, 然后去接一个大语言模型去部署。哪一种方案是最好的?那我告诉你,没有最好的,只有说哪一个最适合你啊?我是建筑设计行业的,我经常都要用电脑, 而且用一些比较复杂的各种各样的一些软件,那对我这种人来说,我天然操作电脑的能力就还可以,然后也愿意去研究一些新的东西。如果你也跟我一样是属于这一类人的话,那我告诉你最好的方案就是买一台 mac mini, 然后去接一个大语言模型进行部署。 如果你平时基本上都不用电脑,只是在手机上去操作一些软件的话,那我的建议就是直接在选一个大厂的,然后一键部署。 为什么这么说呢?因为你买一台 mac mini 并不代表你就一定能够把这个东西装上,因为装这个,呃, open color 的 这个过程是有一定门槛的。对于我这种人来说,呃,我操作下来我都是跟着别人的视频一步一步的去操作,而且操作过程中还会出现很多问题,很多 bug, 我 还得去问 ai 怎么解决,然后一步一步的解 bug, 这个过程对于普通人来说真的是相当相当难受,有可能你在装的过程中你就放弃了,那你买了 mac mini 不 就浪费了吗?而且装好那也只是第一步, 那你以后装好之后,你你时不时还得更新,因为它是一个开源的一个项目,并不是一个成熟的大厂做的一个比较成熟的一个产品,也出现了很多安全的问题。有可能你两三天就要更新一次,而且更新了之后,有可能你原来接的飞书的或者其他端口的都断联了,都没法用了,那你又得去解 bug, 去操作半天,这一套操作流程下来, 你真的是会放弃使用龙虾啊。所以我现在建议是这样的,如果你到目前为止,你只是在网上了解了龙虾,但是还没有真正使用,那么你现在先别着急去买一台 mac mini, 你先找一个你信任大厂的去装一下它一键部署的龙虾,先用一段时间。当然我也要提前提醒一下你,一键部署的这个呢,虽然它方便,但是它的权限呢,也会大打折扣,它的能力的上限也会大打折扣,因为你在云端部署的那个本地你根本就调用不了, 就是那台电脑你不知道在哪里,你也看不到它的界面,你只有一个聊天窗口界面,那么你可能大概率感觉它跟你以前的这个 ai 是 没有什么区别的。 然后再加上你还得要接很多这种 a p i 接口,比如说你想要纹身图、纹身视频,那你得要花钱去买它的 a p i 接口,你才能让龙虾完成这件事情。这个怎么理解呢? 就比如你买了一台手机,你不给它付费买流量,你是不能上网的对不对?你不装软件的话,那它也就只能去翻一下这个基础的界面,基础的功能对吧?你不能达到一些比如说剪视频这些功能,所以你在云端用的时候,你大概率是感觉不到它比原来的这个 ai 有 提升特别多的 好。但是我也建议你先尝试在云端用一下,你用完了之后呢,你再去想象一下你有没有使用龙虾的场景。比如说你在公司里或者你生活中有一些比较 复杂的,重复的,但是他的每一步操作呢,都是比较清晰的,你可以把它流程化的一个事情,如果有的话,那我恭喜你,你利用龙虾大概率是可以去提升你的效率的,你把你的整个这个流程,把它跟龙虾用自然语言沟通一下,告诉他你的这个需求,然后让他帮你生成一个这样的一个技能 scale, 让它每一天帮你自动化的去完成。如果你在用云端的过程中,你都发现不了一些使用场景的话,那我建议你现在也先别着急去买 mac mini, 因为,呃,有可能你大概率在短期内找不到你的使用场景,那你就需要等一段时间,等几个月,等各行各业的牛人 把一些技能研究清楚了,把一些需求场景研究清楚了,然后它们就会出一些教程,然后你就跟着这些教程手把手的去用这个东西, 那他大概率是能给你带来提效的。但是我也要提醒一点,那那些人提前研究出来了,他提前使用了,肯定是能够提前享受到红利,然后赚到很多钱的。 那你后使用的人大概率只是在你原本的工作和生活中稍微提点效率。反正最终总结就两点,就是如果你是一个平时不怎么操作电脑的人,你就直接云端一键部署就可以了。那如果你是一个经常用电脑,也经常用一些复杂软件的人,那我建议你现在就直接买一台 mac mini 直接干,或者你以前有一个老的笔记本,那你就用 windows 去本地部署了。但是 windows 本地部署会有一点麻烦。什么麻烦呢?就是它的步骤会多一点。当然我相信对你这种你们会操作电脑人来说都不是问题,因为网上的教程都已经比较成熟了,它无非就是要先安装一个能够用 linux 系统转换的一个系统。 那 windows 系统就是不太友好了啊,有可能你在用的过程中你会发现不太稳定,甚至你自己的电脑,因为,呃,平时用的时候风扇也要转啊,然后电屏幕也要开着啊,然后经常他可能因为温度过高啊,或者什么蓝屏啊,各种问题啊,甚至你的电费消耗也是比较大的啊。如果还没有用龙虾的一些朋友啊,我建议你们从现在开始就用起来。

用了半年 oppo 科尔,一对比第三方 a p i 的 价格,我碗里的饭都不香了,毫无知觉的我又当了半年的韭菜, 说到底还是输在信息差,除了官方平台,我压根不知道还有别的 api 平台能选。于是我就拿着昂贵的官方价,特别认真的扮演一个消息闭塞但消费积极的用户,而且演的特别投入。 后来我第一次看到第三方 api 平台的价格,我人都麻了,同样的用量不到一百块就够了,那感觉像什么?像你用了几年电信天价套餐, 突然发现隔壁联通同款套餐便宜的像是在做慈善,像是在嘲讽你。而且信号套餐宽带质量还差不多。你不是生气,也不是愤怒, 只是单纯有点想报警。我不是后悔用了 oppo 科尔,我是单纯为我烧掉的昂贵 a p r 感到心痛,真的,没有特殊需求的话, 普通用户根本没必要死磕官方价,我这半年算是交学费了,希望兄弟们别再走我这条路。

千万别一上来就给你的 openclaw 大 龙虾街上最顶级的 ai 模型!我们群里有个朋友刚装好 openclaw, 兴奋的跑了一晚上定时任务, 早上一看 api 账单直接扣了五百多块钱,心痛的差点把电脑砸了。为什么会这么烧钱呢?你要知道,大龙虾和普通的聊天 ai 完全不一样, 大龙虾在你睡觉的时候也在持续的吃粮食,吃蒜粒,你的精肺在不断的燃烧,原因是他的心跳机制,每隔几十分钟,他就要在后台自我思考一下我现在该干嘛。如果你连他发个呆,查个日程都用 colo 的 opus 或者 gmp 五这种顶级的大脑的话, 那简直就是在用高射炮打蚊子,钱全烧在无效的运转上面。今天教你一招我独家的穷鬼配置套餐,能够把大龙虾一天的运行成本压缩到十块钱以内。秘诀就四个字, 高低搭配。大龙虾日常的巡逻、收发消息、整理文件,这些低端的工作的智能体验,你就给他配置国产模型,比如 deep sea, 或者节约行程,速度极快,几百万托克呢,也就一瓶水的钱,这样子大龙虾连续工作七天,也就一个外卖的钱啊,非常划算。 只有当大龙虾遇到复杂任务或者做深度决策的时候,通过配置路由,让它自动去调用 cloud 四点五这种顶尖的模型。这样子搞下来,你的 ai 既有顶级架构师的脑子,又有廉价打工人的执行力。 这套大龙虾高低配路由配置文件我已经写好给测试跑通了,你拿过去直接复制替换掉原来的设置就行。老规矩,在评论区留下一句大龙虾,我后台直接发给你,关注江无为,带你花最少的钱,养最强的黑员工。

哎,这就奇怪了, deepsea 和豆包你跟他聊一整天,你不需要花一分钱,但是那个 open globe 啊,一天就可以烧掉你几十块,那这些钱都花到哪里去了呢?我用一个简单的餐厅故事来给你把它讲明白。 你把大模型啊,可以想象成一个非常牛掰的大厨,什么菜他都会做。那豆包这类的应用呢,可以想象成是一个餐厅门口的美食顾问,你问他红烧肉怎么做,他可以给你说的头头是道,但是你听完之后,你觉得,哎,不行, 我得去厨房做。而 open close 是 什么呢?他相当于你直接把大厨搬回了家,你跟他说给我来盘红烧肉,他就不加思索的在厨房里面哭哭哭哭一顿造,然后就给你把红烧肉做好了。 一个是动口不动手,一个是直接动手,他服务的深度是不一样,之所以产生这些成本的差异啊, 他的核心其实就藏在刚才的那个故事里。第一呢,这个燃气费由谁出?大模型每次都需要消耗燃气,动口型的 ai 你 问完他就结束了, 但是动手型的 ai 不是 这样的,他不仅自己要想很多步,他还要调用合理的工具去帮你把这个红烧肉给你做出来。 第二呢,就是厨房设备这些钱谁出?那像 open claw 这种智能体啊,它是需要运行环境的,无论是你自己去部署到云服务,还是真的自己很牛掰,花时间做了一个服务器,这每一分每一秒的计算资源,可都是实打实的成本啊兄弟们。 那这就是为什么它软件本身可以是免费的,但是用起来是一点都不便宜,所以呢,免费的是给你解决方案的一个顾问,而收费的是真正替你干活的一个管家。那你到底是想得到高人的指点呢?还是直接有人代劳?那你就要 刨根清楚,那你是不是愿意每天花个几十块,让一个 ai 来帮你干这些活呢?不妨我们可以在评论区分享分享你的想法。

简单说第一点就是我们在装完呃 open call 以后,呃面临的第一个问题就是模型的安装跟软件工具的选择。 模型的安装大家都知道国内的一些大模型已经相对来说便宜了,但是在经过我这么长时间将近呃三四周吧这样的一个养龙虾的过程而言,还是大量的消耗托克,尤其是新手一开始安装的时候,还是会把你的整个托克吃的干干净净。我举个例子,我在 dvd 里面装充了一百块钱, 我用了两年没消耗掉二十块钱,但是就在我第一天我用了十来分钟吧,在大概二十分钟装完龙虾之后瞬间跑完,这就让我很震惊,我说这个消耗龙虾确实, 而且消耗托肯确实还是很怕人的。所以说我们选择模型,我们最好是选择像 glm 这种有套餐的,或者说是像 啊那个前门最近的这个很便宜的套餐,当然啊,我们我最早选择的时候啊,还都是很容易能买的到的,现在很多人说据说已经抢不到了,尤其是 腾讯也出来一个很便宜的套餐之后,也是很难抢得到,所以这个看大家看运气,千万不要用商用的 api 调用的这种呃大模型,即使是 deepstack 也是很费钱的,这是大家要注意的。

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

第一,不是所有模型都适合自动化,有的模型更适合聊天,有的模型更适合执行任务。第二,你以为模型能用不代表他能稳定,跑流程聊天正常不等于自动化正常。第三,做自动化不要随便切模型,模型一换,输出风格和执行逻辑都会变。 第四, kimi 这类模型更适合写内容,比如文案标题润色,但跑自动化不一定稳。第五,真正做流程写脚本连续执行,还是要选更偏执行类的模型。很多人不是不会用 open globe, 而是模型一开始就选错了。

新手想玩 openclo, 到底选哪个平台的小龙虾最合适?怕买贵又担心不会安装?今天一分钟就给你讲明白,记得先收藏起来。先给纯小白科普一下, openclo 本身是免费的,咱们花钱呀买的其实是平台的一个服务器,还有模型的使用权, 不用自己折腾本地部署和对接 a p i 那 重点来了,六家主流平台对比,我将从收费模式、价格、安装难度等维度来帮你筛选出最合适你的 openclo。 首先是腾讯云和阿里云的 openclo, 它们采用的是服务器加模型收费的模式,优点是便宜,这里推荐阿里云的 openclo, 只需要十八块钱就能够拥有一只自己的小龙虾,但缺点是需要折腾两次付费流程。而且考虑到很多人连服务器是什么都没有搞明白,非技术人员呢,就可以直接 pass 掉这两种了。直接看下面四种就好了。 kimi clo 先排除, 因为它太贵了,且不说功能和其他几家相比起来大差不差,光订个会员就需要一百九十九块钱,直接就是一个劝退了。从价格上来讲,我更推荐火山引擎,它有九块九体验七天的一个套餐,别看时间只有七天,我 敢打赌百分之九十的人呢,在装了 oppo nano 不 到七天就会放弃了,如果是想尝鲜的话,这是一个不错的选择。最后是扣子跟 mini max, 也是我最推荐的两个, 质量其实差不多,一个四十九块钱,一个三十九块钱, mini max 会更便宜一些,但扣子的生态更完善。这里有很多大神已经做好的 skill 呢,可以给 openclaw 来调用,大家可以根据自己的需要来进行选择。这六个主流平台的 openclaw 安装指南,我也整理了一份完整的文档,点个关注轻松获得。

一分钟让你搞清楚关于全球最强开源模型 jam 的 一切。最近谷歌开源了 jam 四,我将用四个问题 让你清晰了解关于 jam 的 一切。 jam 各版本的区别,我家的电脑能用吗?模型怎么部署安装?普通人用来干什么?先说他的四个版本,三一 b 直接冲上全球开源 ai 榜第三名,以前要机房才能跑的能力,现在你家里的高端游戏显卡就能搞定。 轻量版的一二 b 和一四 b 为手机、平板以及中低端电脑设备打造,性能虽不是最顶级,但是绝对好用够用。而二六 b 猫号称总参数两百六十亿,但实际每次思考只用其中三十八亿个,最相关的效果却能媲美两百六十亿, 能理解超长文章以及视频。简单说,无论你是用手机、笔记本还是高性能电脑, jam 四都能给你免费安全强大的顶级模型体验。再说你家里的设备是否能用上?一张图告诉你 jam 四个版本的最低要求。 对于多数人而言,家用的电脑设部署一二 b 一 四 b 完全够用,基本能满足百分之九十的使用场景。另外两个版本对内存要求较高,但是性能出众,属于好马配好鞍。 再说模型安装,整个过程大概十分钟左右。首先下载 lm studio, 然后打开 opencool 或者 id 工具,让它查找你本地配置,给你推荐安装哪个版本。之后在 lm studio 里下载,运行搜索推荐的模型名点下载,最后接入 opencool 或者 i d e l m studio, 提供 open ai 兼容 api, 在 open 框里把 api 地址改成, h t t p l o c a o s t colon twelve three four slash vivo 就 能用 jama 四驱动你的 ai agent 了。 网上攻略一大堆,这里就不展开了。最后说下所有人最关心的能用 jama 做什么?这里推荐三个场景,可以去试试。第一, 构建本地知识库,把工作和学习相关的文件丢给本地 jama, 让他帮你形成系统化的知识。构建个人知识库时进行向量缩影和 anitive, 解锁数据不出本地,安全合规。第二,给家人搭建一个 ai 助手,下载好模型,配个界面,电脑手机都可以直接对话,不花钱不泄露隐私。第三,内容创作 最大优点是无限额度,即便不如部分付费模型,但可以靠大量尝试提升优质内容的概率。千马寺会改写国内企业及政府客户的私部模型格局吗?欢迎在评论区发表你的观点。

大家好,我是三百零,很多小伙伴给我私信呢,包括评论区都在问用什么模型最好?呃,我首先给大家一个结论,就是大家不要去充钱到各家平台,然后使用他们的 a p i, 因为那样是非常非常贵的。呃,先 说个小结论,就是用 coding plan 是 最便宜的,每个平台都有,就包括 kimi, 智普, mini max, 还有腾讯云,阿里、火山,这这几个都有 coding plan 好,我们用到底是用哪一家呢?哪家更便宜呢?我们首先先看一个数据,就是 openroot 是 全球最大的模型应用平台啊,我们国家在前在三月份的前两周已经 登顶了这个模型调用,包括前五都是前四都是我们国家的,包括 mini max 是 第一, kimi 是 第二,然后 glm 第三。然后这几个模型呢,其实是经过全球玩家,就包括啊,国外国内的玩家验证过的啊,哪个模型是最好用的,所以我们就用他们验证过好用的模型就好了,用 mini max 跟 kimi 我 觉得是 ok 的, g o m 也是可以的。然后我们要买阔丁,不但要搞懂一个问题,什么是 a p i 请求次数,什么是 prompt 次数,还有什么是 token 剂量,然后我就先放一下,大家看一看就好了, 然后第四。呃,然后下一个是入门的档位啊,就各家其实入门的档位很便宜,就包括阿里云才七块九,然后火山才八块九,哎呀,腾讯云才七块九,这几个三,这三家大厂的价格都很便宜,但核心是还有没有能买,能不能买的到啊,因为这个我去腾讯云看了一下,腾讯云那个是需要抢的,然后火山阿里可能也还有 大家采购了去看一下,但是作为这个价格本身来说,其实也就不到一杯奶茶的钱。对于对于大家想玩小龙虾,想试小龙虾,我觉得是一个非常好的一个选择。 然后我们挨个说一下模型,首先是 kimi 啊, kimi 是 唯一多模态的,然后能够支持 kimi crow 跟 a 卷集集群的,然后他同时也是用计算 token 的, 就不会说五个小时就限流,所以我比较喜欢用 kimi, 因为我有时候会集中去开发一些东西,所以我选的是一幺九九安岳的套餐,目前还没有,还不用满, 就二十倍的这个用量我觉得还是挺充足的。然后是智普的,智普的大家可以看一下,就是四十九到一百四十九到四百六十九, 然后到 mini max, mini max 是 呃,性价比比较高,然后它是五个小时限时的,也是限限的次数,所以就看我觉得就 mini max 跟 kimi 选一个吧。然后你如果说可以五个小时 就开发不是很集中的话,我觉得用 mini max 也是没问题,因为它毕竟是全球钓用第一嘛,那肯定说明它是最好用的。 然后腾讯云的,腾讯云是每家都有啊,就 im 五, kimi 二点五, mini max 二点五,就这些都有。然后阿里云跟火山引擎也都差不多,因为三三家大厂都差不太多,都是各家的的模型,其实都有配啊,包括火山引擎这里没必要,但他也可以都用 kimi 二点五的。 如果大家不是新手的话,新手的话可以用这个中度的使用模型,但各家其实你要还有更大的需要,可以当场就升级了 啊,不同的人群怎么选就薅羊毛啊,尝鲜的就是阿里云,腾讯云的 light, 就 这些也可以选选择 kimi 二点五的模型,包括 mini max 的 模型,然后剩下这个追求极致体验的就是 kimi, 像我一样,就是你就需要去疯狂的使用,突然有时间,有有有 idea 就 疯狂的使用的,不要半路被卡壳停下来的,那你就选 kimi 就 好。 然后这是五个知识点,就是不要被请求次数迷惑,就一次提问不等于一次请求。 然后五个小时的滚动窗口的平静是很重要的,就是你们就看你们使用的这种平静,因为我自己肯定是很讨厌五个小时的,因为真的是很难受,用五个小时正正正正坐着呢,正写的嗨呢,突然就不让用了,然后你的你的虾又不能工作了,就就这就很烦,所以我用的就是 kimi。 然后涨价趋势,这个确实是已经在涨价了,就原来直普啊, kimi 他 们都有首月优惠的,现在都给取消了。一句话总结,便宜试水就是 mini max, 极致体验就是 kimi。 然后最后我列一下大家这个 coding plan 的 网站,大家可以啊,截图保存,然后后面有需要可以去去去去购买。 然后我最后再给大家再看一下这个模型的调用啊,就是我给大家讲了这么多,其实你可以可以了解到大概各家的一个情况。然后首先呢,我觉得 最好还是 mini max 跟 kimi 里面选吧,因为这是全球人民验证过的,既然验证过咱就不去验证了,咱也不是什么特别大的,也没有数据支持,也不是什么特别大佬,所以用别人验证过的东西就好了,就 mini max 跟 kimi 选一个吧。啊,这是我的建议啊,我的分享到此,谢谢大家。

家人们谁懂啊?我的 openclaw 龙虾终于装好了,本以为能本地爽玩 ai, 结果测个最简单的,你好 直接给我整破房了。先上结论,配置没问题,模型没问题,但 openclaw 调用本地模型,性能损耗严重到离谱。我的环境,本地模型 q n 三比零点六 b i 五八二五零 u 十六 g 内存 wsl 二五零 u 十六 g 内存 wsl 网关。 两组数据一对比,血压直接上来了,直连欧莱玛跑模型,八点五秒就完整恢复模型本身完全正常。 同样的模型走 openclaw 网关整整一分五十五秒才返回结束,性能慢了十三倍,我都能泡好一碗面再回来。等回复了,我换了零点五 b 到三 b, 各种模型只要过 openclaw 就 卡成老年机。问题根本不在模型,就在 openclaw 网关层, 流势响应有巨大缓冲延迟。别怀疑自己,你没配错,是他在卡你 buff。 听我一句劝, 别死磕了,直接切云端模型,阿里云千问 plus 响应稳定一到两秒, a p i m 要配好一行命令搞定,瞬间从折磨模式回到科技本该有的流畅。本地模型优化, 后面有空再公关,现在先让自己用的舒服。如果你也在折腾 openclaw 本地模型,别内耗,不是你的问题,是网关的问题。最后补一句, deepsea 都在劝我别折腾了,听劝。解决方案很简单,上云端模型体验直接起飞,关注我,带你少踩这些技术大坑!

openclock 把模型从 kimi 换成 mini max 效果怎么样?上周啊,把我这只龙虾的大模型从之前的 kimi 二点五换到了 mini max 二点七,至于为什么要换呢?因为用不起了,所以就换了个性价比更高的包月套餐。 而且呢,据说这个 mini max 二点七网上很多人都说模型能力很强,所以正好借机测试一下。先说结论,根据我一周的深度体验啊,并没有发现传说中的有多惊艳。跟之前用过的 kimi 相比呢,个人感觉不出有多大的区别。 目前来看,最大的优点就是便宜,比之前的 kimi 划算很多。对于 openclock 来说,想要换模型就得改配置, 虽然理论上所有的操作都可以通过对话来搞定,但根据我最近的躺坑经验呢,对换模型这种关键操作最稳妥的方式,还得通过命令行配置加手动修改文件。否则啊,因为小龙虾自身的一些 bug, 很 容易把自己给搞崩了,之前就吃过亏的。 而想要完整配置 mini max 二点七呢,要分两个阶段,因为目前版本的小龙虾只内置了 mini max 二点五的选项,所以第一个阶段是通过 openclaw config 这个 mini max 二点五。 第二个阶段啊,再到 openclaw 点 jason 这个全局配置文件里,把其中的二点五替换成二点七,然后重启 get 位,看到对话框显示了这个就代表生效了。 目前我选的这个套餐呢,虽然可以在五小时内调用一千五百次大模型,但根据我的需求根本用不完。 但这不是重点,重点在于它会限制托肯的请求速度,不同套餐限制的速度会不一样,而根据我的使用频率呢,用了大概不到半个小时就弹出了超速预警,而且很快啊,就直接把 api 给我封了, 别等几分钟之后才能够恢复。如果你跟我一样,托肯消耗比较大,可能得换个更贵的套餐。而至于它的实际表现呢,跟之前的 kimi 二点五相比, 我看不出明显差别。该犯的迷糊还是一样会犯,比如抛给他的问题,上下文如果一长啊,该丢的关键信息还是会丢 一些,之前的老毛病也一样没有减少,比如让他添加一个系统的新功能时,有时候会把原来老的给丢了。一句话总结就是,没有网上吹的那么好,但也确实不算差。

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。