你会发现,现在上手 openclaw 的 门槛越来越低,但真正让人头疼的其实是后期的养虾消耗,也就是跑模型 api 的 支出,到底用哪个模型才划算?最近, pinching 专门发布了一个针对 openclaw 的 模型评测榜单,他们的测试方法非常硬核,不跑虚的分数,直接把模型丢进真实的打工环境里, 让他们去自动发邮件、写代码做调研,然后用自动化脚本和裁判模型综合打分,直接算出真实的任务成功率。 榜单看下来有两个核心结论,论绝对实力,头部依然是海外大模型位居前列,排名前三的分别是 crowd、 oppo 四点六、 oppo 四点五和 gemini 三点一,属于追求极致性能的理想选择。 论性价比,榜单做了一张直观的散点图,如果你看向左上角的高性价比象限,会发现国产模型非常亮眼, mini max、 m 二点一、二点五以及 kimi 在 性价比上有着显著的优势。除了这两点,你还可以在榜单里直观对比各个模型在速度、成本、一致性等维度的偏向,按需挑选非常匹配你工作流的那一款。 如果你最近觉得家里的小龙虾干活效率一般,消耗又偏高,强烈建议对着这个榜单给他换个高性价比的脑子试试。
粉丝1266获赞8134

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

地表最强图片生成模型, none of none 二出来了,更厉害的是,你现在直接可以在 open hell 大 龙虾里面直接调用这个模型,生成速度比你用这样的 app 和官网还要快。我们先来看一看这个模型,依旧是很丝滑很自然的改变背景, 也支持局部改变,支持多图片上传生成。这台带你直接看看在 open color 里面是怎么用的,最方便安装 open color config, 然后在 skills 里面找到对应的 open color, 点击回车,然后输入 jimmy 的 api 就 可以用了。好之后我们输入 open color skills, 看 open color 有 没有加进去, 如果加进去的话,这里会写明 open color pro, 然后有个对号。好,那我们直接去测试一下,用同样的提示词,让他帮我们做一幅铅笔画。 好的,我们复制同样的提示来帮我们去完成这样一个东西,主要看他生成的时间,同时我们来到他这个工作文件夹里面,看看到底多长时间的方式已经生出来了,我们直接看看,简直是一模一样,看到了吧,这个是我刚才生出的图,差不多用了十秒的时间,然后这个是官方给我们展示的图,基本上是一模一样。从画面画质来说,这就是如何通过 open 和用最行最快的纳德布纳纳二模型, 而且速度远远快于你在官方网站或者在 app 里面去使用它。如果你已经成功本地部署 open class, 赶紧去试一试最新的 nintendo 二的模型。如果你还没有部署,想要学习怎么部署,我们正好在工具小组里面提供这样的课程,以及如何在 open class 直接调用 nintendo 的 模型生成图。如果你感兴趣,可以看视频主页介绍,第一行会有专人给你更多的信息和介绍。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

今天给大家分享一个项目,让你用最少的钱去用上最好的模型来使用这个 open curl, 因为我们都知道这个 open curl 小 龙虾,它的性能很好,而且非常有意思,但是它的 token 消耗太恐怖了, 如果你要用 open i 的 这种 codex, 五点二,五点三这种模型的话,或者用 cloud 的 这些模型的话,它可能跑一晚上,你明天就欠费了。 今天来给大家分享的这个项目是什么?可以让你把这些 cloud code, 把这种 etgrity 这种应用 它里面的会员额度给它套成 token 来使用这个 open curl。 当然你如果要用在其他地方也是可以的,比如说你想用这 codex 这个模型去在 cloud code 里面使用也是可以的。这个项目本质上就是一个怎么样把这些会员的 token 给它套出来, 把它弄成一个标准的 a p i 的 格式,标准的 open i, a p i 的 格式,让所有的这种应用都可以去调用。 ok, 我 们来看一下,我直接给大家看一下出来的结果是什么样。提起来这个服务,就可以直接到这个网址里面去配置了,这是它的一些仪表盘,你可以配置上你的这些会员 ai 提供商是什么? 一般我们用的话,用这个 codex 的 会比较多一点,像其他的是这种 jammer 或者 ideographic 的 cloud pro, 这种会员基本上就不用考虑了,因为在国内是非常容易被封的, 所以说基本上是不用考虑的。所以为什么要用这个?它的二十美金 plus 这种会员它有一些渠道,它会比较便宜,并且最近最划算的是什么?去买那种 team 的 账号, team 的 母账号,它还可以拉四个子账号,只要几十块钱,它相当于你一共有五个这种 plus 的 二十美金的会员账号,然后你有五个 codex 的 使用量,你只要登录授权, 登录了之后,它的这个网址里面有一个 token, 你 就直接复制到这里面提交就可以了,它可能会报错,但是不用管它,你直接砍看这个配额管理,这后面就可以,只要它这儿是有的,都可以使用, 就是正常可以使用的。还有这些配置面板这些,这个提起来也很简单,大家用 cursor 或者说用 cloud code 直接全选 给它复制,让 cloud code 的 去给你做配置就行了,就 cloud code 的 这些直接给你做配置就行了,但是它还是有些坑,但是 cloud code 呢?这 coser 这些它自己就能解决,它需要自己去配置一个 key, 这个 key 随便是什么都可以。还有一个坑就是我这 cloud code 第一次登录的时候,它把这个这个东西它搞错了, 他以为不需要这个后缀,他一直告诉我这个,我让他检查,他检查了半天才知道他是要要这个的才能登录进这里,提起来也是非常方便。总体来讲这个项目还是非常不错啊,他可以把这种 codex 可以 套出来,甚至你可以把你的端口 去做个内网穿透,或者搭在服务器里面,这个项目你就可以去卖 token 了。我也用这个 codex 这个模型在我的 cloud code 里面去跑了一遍,它是真的有点慢。 codex 这个模型,但是它的准确度这些没太大问题了,感觉跟 cloud code 是 没有本质的区别的,但是效果都还是蛮蛮不错。

我们终于来到了最后一次课,本次课的内容相对来说是独立于这一个 agent 体系的。到目前为止,我们其实已经把我们的 agent 完全完成了。 我们的 agent 体系就左边这一部分,但是你要让它更加的好用,我们可能会希望它能够去定时的执行一些任务。那么这种情况下 我们就需要有一个任务系统,它相对来说是更加偏向于工程化的,就相当于两个东西,它都在 background 的 里面去运行。 现在带大家读一下代码,大家遇到了一个新的代码之后,我们就去找到这个 mai 函数,它有两个地方不一样。第一个 我们使用到了异步函数,这也是为什么它能够在背后运行的一个原因,因为它不会堵塞我们这个 prepare, 看一下它这一次和原来不太一样的地方是什么。我们要增加一个 database, 它会相对来说比较好管理一点。我们再回到 prepare, 我 们已经准备完了我们的 database, 然后我们下一步需要去启动两个东西,一个是 agent 的 运行,那么怎么样让我们的任务调动系统在背后执行呢?用的是五百四十八行的代码 post in it, post in it 指的是我需要去启动我的任务调度系统,那至此我们实际上任务调度系统已经完成了。那么怎么和我们的 agent 联动起来呢? 第三次课的时候,大家还记得如果要让 agent 去执行工具,那么我们通过什么方式去给到这一个 agent? 我 们是不是通过 m c p server? 所以 说我们就要去 create s d k m c p server 里面去定义一下我们的工具, 就相当于我们写了多个函数去执行缩口,然后我们把它包装为了五个 mcp 工具,这就是我们本次课的一个内容。然后我们来运行一下, 我们先裂掉,然后我教他基于当前的时间提醒我半分钟后喝水,这是第一件事情。然后第二件事情呢?每天早上八点提醒我去上厕所, 然后这又是一个任务,然后我们再来问他,请你告诉我现在有哪些任务还没有执行。 当前有一个活跃的用户已经完成了有很多喝水的任务,然后其中有一个活跃的任务就是每天早上八点要提醒我去上厕所,它这里设置的是一个每天执行的任务。所以说我们的 agent 现在已经能够做非常非常多的事情,因为它能够使用命令行嘛, 你看我们这里所有的东西其实都是命令行,你只要有命令行,只要能写代码,那么你的 agent 就 无所不能。然后并且我们通过这种任务调度系统的方式,又通过轮询的方式,能够让模型主动地去触发它的一个任务。这就是第七次课的内容。 到目前为止,我们就已经实现了一个完整的 nano, 一 共就大约是五百五十行左右的一个代码。

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。

还在为龙虾消耗滔天而发愁,那么这个视频给你讲一种方法,让你的龙虾能够免费的调用商用模型,这里面有两个关键点,第一好用,第二免费。那是啥呢?接下来给大家揭晓啊。大家都知道,这两天智普发布了智普五的模型, 在性能上已经达到了 a 公司四点五的模型的能力了,并且超越了 g 公司三 pro 的 能力了。但是大家有没有发现,随着智普五的发布,在官网上咱们可以惊讶地发现它的四点七 flash 免费了,也就是说咱们可以在 opencloud 里面 免费的去调用它的次新模型四点七了,那么这样咱们就找到了一个免费的并且效果还不错的一个模型了。好,那怎么对接啊?啊?给大家来说一下,首先呢,你得确保你已经安装了 openclaw 龙虾了,安装完成之后呢,首先啊,先把你的龙虾服务先结束掉啊,结束掉之后呢, ok, 这个时候 打开你的龙虾的配置文件啊,配置文件呢,就在你当前登录用户底下的 opencloud 文件夹底下有一个 opencloud 点 jason, 把它双击啊打开,然后打开之后呢,咱们去找到三个地方啊,一个呢是 model 啊,在 model 底下去添加一个智普的 model, 这是第一个,然后第二个呢,在 agent 底下将上面你配置的智普的四点七啊添加到你的 model 和 models 里面就行了。 好,那么接下来呢,咱们就添加一下,这时候呢,我去添加到底下,然后加一个英文的逗号啊,然后给它随便去起一个名字,这个名字呢就叫做 j m l 吧。啊, 好, ok, 然后完了之后呢,哎,使用 jason 这种格式,先给它包包装上啊,然后包装上之后呢?好,这个时候咱们需要打开一个之前已经配置好的内容,然后将里面的内容啊复制到字谱里面就行了啊,好,那这时候呢? ok, 粘贴啊,粘贴完了之后呢,就长的是这样啊,当然里面的 base u l 需要改成咱们连接的四点七的地址,然后 api k 呢,需要改成 api k, 然后里面的这些模型呢,也改成现在的模型就行了。 好,那么咱们回到这边啊,它的地址是啥呢啊?地址是这串叉叉之前的,复制它,然后更新到 bash 里面。好,粘贴了,然后完了之后, api k 呢?咱们需要找到你的 api k 啊,然后在界面上咱们去创建一个 api k 啊,比如说啊 test, 随便就几个名字啊,就有了,有了之后呢,把它复制,复制完了之后呢?哎,粘贴到这就可以了啊,然后粘贴完了之后呢,那么还有 id, 模型的 id 和名称啊,那模型的 id 和名称的话,咱们就回到这边,在哪?在这啊,这是模型的名称,复制,然后把它进行粘贴, 然后粘贴就行了,那么这样咱们的 model 就 已经配置完了啊,咱们就有 g l m 这个模型了。好,那么有了它之后呢? ok, 复制它的名字啊,在咱们的 agent models 的 默认模型里面给它换掉,那么咱们是它加上斜杠啊,加上咱们的模型名称,复制它, 然后进行粘贴好,然后完了之后呢?哎,同样的,把整个内容全部复制,来到 models 底下,好找一个地儿啊,随便找一个地儿,使用英文的方式来给它进行粘贴啊,然后它等于啥呀?等于一个括号号就行了,这是一个标准的 get 格式,这个配置完之后呢,意味着咱们整个 open class 对接免费的模型就已经 ok 了。好,那么接下来咱们来看一下效果啊,那么看效果的话,咱们首先先打开命令行窗口,然后输入这一行命令来启动咱们的 open class 啊。好,那么咱们等它启动好了之后呢,问一下大模型它目前连接的是谁啊?好,那么这时候就启动了,那启动好了,启动好了之后呢,咱们可以在页面上去访问啊,也可以在其他对接的,比如说某书上去访问,都是可以的。好,那这时候呢,咱们就输入一下,叫做我给你配置了一个新的模型, 告诉我你现在连接的是啥啊?那么这时候呢,它很快就给我响应了,它目前连接的是啥呀?四点七 flash 啊,它是可以快速响应的,并且是免费的模型到这儿咱们就对接完了,这样的话,咱们再也不用担心 talking 的 消耗量了,既能食用龙虾,同时又没有 talking 的 烦恼,一举两得啊,我是磊哥,每天分享一个干货内容。

嫌 open core 太重,没法安心让它跑到你的电脑上?今天介绍一下轻量级平地 nano core。 nano core 很好,但是四十万行,但四十万行代码全跑到一个路由器城里面,你敢把私人账户密码交给一个完全看不懂的黑盒吗? nano core 的 解法极其优雅,用多口进行物理隔离,这不是在应用层打补丁,而是底层逻辑的一个降维打击。它连 u i 都省的可以直接连上 whatsapp, whatsapp 可以直接点上物色 app, 配置好定时任务,它每天早上就会自动给你发项目简报。这就是真正的私人助理。拿到 cloud 只有几千个代码,你只需要让 cloudcloud 帮你配置好环境,甚至按你的需求模板原码都可以。真正的极简呢,是让你睡了觉,是让你睡得着觉的架构。 真正的极简呢,是让你睡得着觉的架构。别只看功能堆砌,懂安全的 ai 才是能陪你走到最后的 ai。 每天半小时,看透 ai 未来。我是安迪。

腾讯深圳总部排队免费装 openclo, 深圳龙岗发布龙虾十条,黄仁勋盛赞 openclo 是 有史以来最重要的软件发布,就连马化腾也转发 openclo, 并表示没想到会这么火。 最近 openclo 爆火全网从两岁小孩到六十岁老人,都想试一试它到底有多牛,但真要上手了,第一个问题就是到底哪个模型才最适合 openclo? 知道你急,所以就在刚刚, openclub 创始人 peter stamburger 亲自分享了这个叫 pinch bench 的 龙虾大模型排行榜。 pinch bench 的 评分特别实在,有的题看代码能不能跑通,有的题看写得好不好,还有的是两者结合, 而且所有题目和答案都公开在 github 上,谁都能去查去验证,一点不掺水。 pinch bench 是 一次性测试了三十二款全球主流大模型,从成功率、速度、价格三个维度来评估哪个模型最适合养龙虾。话不多说,我们直接来看结果。 先来看最重磅的成功率排行榜,不出意料,谷歌的 gemini flash preview 以百分之九十五点一的成功率夺冠,第二名就是咱们的国产模型 mini max m 二点一,成功率是百分之九十三点六, 紧接着就是 kimi k 二点五、 cloudsonnet 四点五和 gemini 七 pro。 有 意思的是,三十二个模型的成功率差别非常大,最高的能到百分之九十五点一,但最低的只有百分之三十五点二。还有就是大模型,不一的谷歌模型就是小模型。 接下来我们来看看模型的速度,我们可以看到速度最快的是国产模型 minimax m 二点五,以一百零五点九六秒的成绩拿下速度冠军,完成全部测试任务,比第二名谷歌的 gemini 二点零 flash 快 零点零九秒。再往下看,其实前八名差距都不大,基本都在同一梯队。 比较有意思的就是 cloudsonnet 四用了一百三十七点六六秒,比第一梯队慢了三十秒。 johnny 三 pro 用了两百三十九点五五秒。 g p t 五点四更夸张,用了九百七十四点七四秒。不过这也说明了一个规律,就是轻量级模型普遍更快。如果你做的是快速圆形开发,需要频繁迭代,选轻量模型准没错, 成功率和速度看完了,最后就是我们最关心的价格问题,毕竟有些模型的 token 很 贵,精打细算很重要。成本上, g p t 五 nano 以零点零三美元的成本成为全场最便宜的选择。 虽然它的成功率只有百分之八十五点八,但这个价格就已经很香了。 gamin 二点五 flashlight 排第二,只要零点零五美元, 成功率是百分之八十三点二。国产模型 minimax time 二点一排第五,成本零点一四美元,但是它的成功率有百分之九十三点六,性价比非常高。再看高端模型的成本,就不是我们能承受的了。 ios 四点六完成测试要花五点八九美元,是 gpt 五 nano 的 将近两百倍, mini max m 二点一的四十二倍,但它的成功率比 mini max m 二点一还要低百分之三。 看完这三个维度的榜单,你知道怎么选模型了吗?其实非常简单,就四点一,如果你追求成功率,无脑选 gemnine 三、 flash 二,如果你追求速度,选 mini max m 二点五或 gemmi 二点零 flash 三如果你追求性价比,选 gemini 二点五 flashlight 四如果你想少折腾支持国产,就选 minimax m 二点一或 kimi k 二点五。当然没有最好的建议,按照自己的需求选择就行。还有就是这里要给大家提个醒,就是养龙虾虽然很香,但养龙虾消耗的 token 肯定是要比你充的模型会员要贵的。 现在有人每个月花一千到两千美元在 token 上,还有大佬每天烧十亿个 token, 没有足够预算真的扛不住。所以尝鲜可以,但别盲目跟风。

大家用 open curl 的 时候有没有发现一个问题,就是它只能操纵你的浏览器,只能给你的飞出这些发消息,它没办法进行这种 ui 界面的操作。 今天给大家分享这个项目 torx, 它可以进行 ui 界面操作,甚至可以直接打开你的微信给你发消息,也可以进行其他的操作。因为我们很多操作,特别是在国内,它是不那么 open 的, 所以说你很多东西其实联通不了 这个项目就能让你连通,它可以直接给你放在你的这个 torx 里面当成 skills, 或者当叫做是一个小的子智能体,你可以把任务下发给这个子智能体,让它去完成一些你之前只能在浏览器和 api 无法完成的一个任务。 我们来详细看一下这个项目哈,其实这个项目出来已经很久了,只不过最近他们发了这样一个技能,可以通过 open curl 去调用它。这个其实是一个紫智能体,我们来看一下它的一些操作,比如说预定酒店、机票、 uber 还有查东西,这些都是通过这种 ui 界面进行操作的,它并不是像它自带的这个浏览器,它是使用 api 或者说使用 playwrite 这种方式来操作的,这个是纯的这个 ui 界面操作, 我也找过这个 windows 呃的一个呃 skills, 但是它非常的不准,我还是用的是 g p t 的 这个模型,都非常的不准,其实很大的原因是它的 m c p 有 问题,或者那个 skills 有 问题, 所以说你直接用这个就是可以的。我下一个视频给大家评测一下吧,它的效果都还是蛮不错的,比如说这个是最初的,它也有一个模型,可以在它的官网去申请,当然你用在 g p t g p t 的 模型估计比它这个还要好一点。 就 kimi、 kimi 这些模型,它的多模态能力都还是非常不错的,而且它有这种 coding plan 的 呃,套餐,它还是很划算的,可能比它的这个还要划算一点,但是它这个模型可能比较小,这个速度会稍微高一点。

最近用了几天 openclaw, 这是个好东西啊,就是那个 tokens 消耗起来啊,实在是太猛啊。但是免费的 a p i 呢,要么就是太旧的大模型,要么呢就是限流的太厉害。 如果你想本地部署大模型呢?那对硬件的要求呢?确实又太高了。还好呢,最近我发现这个微软刚刚发布的 ferrari gb, 一 款专门为操控电脑而生的小模型, 它是由阿里开源的千万二点五 v l 模型模改而来的,通过视觉感知屏幕内容,然后呢,利用鼠标和键盘模拟用户的点击和输入行为,比如滚动网页啊,滚动页面啊,页面跳转等行为,从而完成各种的自动化的任务,譬如操作浏览器 填写表单、自动购物、网页搜索等,不用依赖任何后台代码。关键的是啊,这个模型比较小巧,只有七十亿的千万化, 即使是普通显卡呢,也能用,笔记本当然也可以用,你可以非常便捷的用 lm studio 或者欧莱玛等进行本地部署。还可以呢,跟微软开源的人机协助网页自动化神器 magenta ui 实现无缝集成。当然,你也能通过微软自家的 adori foundry 实现云托管, 它使用起来呀,不需要 api, 也不需要消耗 token, 数据不出户,隐私更安全。感兴趣的朋友啊,可以拿过来研究研究了。

给你们介绍一下哈,这个是微软最新出的一个小模型吧,这个模型它只有七 b, 就是 说基本在任何的轻薄本上它都可以正常的去运行,但是它不是那种传统的 那种聊天机器人啊,它是为了去让你的电脑自己操控自己,你看专门为计算机设计使用的代理小语言模型 只有七十亿参数,他的意思就是说你不需要把你的数据上传到云端,然后让那边处理之后再告诉你你的电脑该怎么操作自己,而是他自己就能通过这个小模型运行在本地,然后本地部署,然后就可以帮你啊,去做一些 表单填写啊,以及一些小的任务,比如说打开微信回个消息这类的,应该都是可以的。 然后这个部署的方式也很简单啊,大家在网上应该都能找到教程,包括 github 上 它也自己就有这个教程,你看 windows 的 教程,直接输入这些代码,然后它就会自己帮你运行,怎么样,是不是还挺好的?这个项目微软出品就是不一样啊。

嘿,各位 openai 又不睡觉了?搞了个大动作,就在昨天凌晨,悄悄地,没有任何预告,直接甩出来一个 gpt 五 four。 哎,你可别以为这只是个小小的版本更新。不不不,这简直是一次核弹级的飞跃,可能会彻底改变我们跟电脑打交道的方式。 所以今天咱们就得好好聊聊,这东西到底是个啥,又意味着什么?你可千万别把它当成一次普通普通的性能升级。 我跟你念念最初爆料的那个人是怎么说的,他说啊,这个模型他将会改变二零二六年整个 ai 智能体的格局,你听听,这口气是不是特别大?那为什么敢这么说呢?就是因为他终于,终于搞定了一个我们盼了很久很久的核心功能。 你想想,半夜两点钟搞这种突然袭击,整个科技圈一下子就炸锅了,所有人都蒙了。但这也恰恰说明了 openai 对 这个技术有多自信,也暗示了它背后藏着的潜力有多么巨大。 行,那今天咱们就分几步,把这个新模型给拆解的明明白白的。首先,咱们看看他到底飞在哪了?然后呢,用实打实的数据说话,看看他性能到底有多猛。 接着,咱们得深入聊聊他那个最牛的杀手锏,直接控制你的电脑。之后别急,我会手把手教你怎么把它用起来。最后,咱们再一起畅想一下,这 ai 智能体的未来到底会变成什么样? 好,咱们先从第一点开始。为什么我一直强调说 gpt 五点四的发布是一次飞跃呢?关键就在于它带来的可不只是测试分数高了那么简单,而是一种从无到有的全新能力,这才是一个真正的游戏规则改变者, 这个核心能力说白了就是原声电脑控制。怎么理解呢?很简单,就是说这个 ai, 它不再只是个跟你聊天的机器人了,它现在能像一个活生生的人坐在你电脑前一样,直接帮你点鼠标,敲键盘。 你可以直接跟他说,嘿,帮我把下载文件里上个里边的报告都找出来整理一下,然后做个 ppt, 点摘呀,发给老板,然后呢,你就真的可以啥也不管去泡杯咖啡了,这才是我心目中那个真正的 ai 助理啊。 当然了,光说不练假把式,吹得这么厉害,到底有没有真本事呢?有没有术技来撑腰?来,咱们这就来看看 gpt 五点四在各种硬核测试里的表现到底有多么的 吓人。咱们来看个特别专业的领域啊,金融建模这玩意儿啊,说实话,很多刚入行的投行分析师都搞得头大,你看上一代模型, gpt 五得分是六十八点四,爬线也就勉强及格吧, 但是 gpt 五点四呢?你猜多少?直接飙到了八十七点五趴,我的天,在这么复杂的任务上一下子提升了快二十个点,这根本不是进步了,这简直就是进化了。再来看看上网的能力,有一个叫 mta 未卜的综合测试, 这测试是干嘛的呢?就是专门模拟咱们真人在网上做各种复杂操作,结果你猜怎么着啊? gvt 五点四的成功率高达百分之九十二点八, 这数字意味着什么?意味着你让他去网上帮你定一张指定日期的机票,或者去搜某个产品的用户评价,他十次里头有九次多,都能给你办的妥妥的,基本上就不会出错了。 这张表啊,简直就是他的战绩单,可以说是全面碾压。你看,不光是那些硬核的专业任务,就连审美这种很主观的东西, 比如说让他做个 ppt, 结果都有六十八趴的人更喜欢 gpt, 五点四做出来了。所以你看,从专业能力到审美,再到调用各种工具的准确性,他几乎在所有方面都把之前的模型远远甩在后面了。 行,有了这么强大的性能打底,咱们终于可以聊聊最最激动人心的部分了。就是那个杀手级应用,原始电脑控制,你记住,这可不只是一个新功能那么简单,他很可能会开启一种我们以前想都不敢想的全新的工作模式。 哎,在咱们看到举起能干嘛之前,大家不妨先跟我一起想象一下,如果有一个 ai 能像一个经验丰富的老同事一样熟练的用你的电脑,那这个世界会变成什么样? 你再也不用手把手的教他,第一步,点这里,第二步复制那个,你只要告诉他你最终想要什么,他就能自己搞定一切。 那具体它能干点啥呢?你看管理文件、操作软件,这些都是基本操作了,但这里面最关键的是最后那一点,它能长时间自主工作,这就厉害了, 这意味着什么呢?意味着你早上出门前可以给它扔个任务,比如说把我这个月所有的销售数据都扒出来,扔到 excel 里,然后把卖的最好的前三名找出来,然后你就去开会,去忙别的,等你回来的时候,哎,活已经干完了。 说到这,你是不是已经摩拳擦掌,特别想亲自试试了?别急,咱们马上就来讲讲到底怎么才能用上这个 gpd 五点四。 想用上它啊,目前主要有两条路可以走,一条呢是给开发者们准备的,叫 opencloud, 得动动手,敲点代码。另一条路,那就简单多了,就是刚发布的 windows 桌面应用,这个就适合咱们绝大多数普通用户了。咱们分开一个一个说, 如果你是开发者,那你就可以照着屏幕上的步骤来操作。不过这有个小坑儿,大家要注意一下啊。就是在第四步设置的时候,你得先选那个旧的 gpt 五点三 codex 模型,把整个出使流程走完, 等全都设置好了,再用一个专门儿的命令把它切换到最新的五点四。这一点呢,千万别搞错了,那对于咱们大多数人来说,直接用 windows 应用就完事了,简单得很, 下载安装,然后用你的 open ai 账号登录在那个模型列表里,找到五点四,选它就行。 但是这里有最最最关键的一步,大家听好了,系统会跳出来问你要权限,你一定要给它完全访问权限。 我跟你说,不给这个权限,它顶多算个高级点的聊天工具,可一旦你给了这个权限,它就摇身一变成了那个能帮你干活的超级 ai 同事。 好,现在咱们知道它是什么,也知道怎么用了。那咱们不妨站着远一点,从一个更大的角度来看一看,这个技术的出现到底意味着什么。有人说,它真的能做我们人类百分之九十九的工作, 你乍一听啊,是不是觉得有点夸张,有点危言耸听?但是你静下心来仔细想一想,当一个 ai 真的 能处理所有在电脑上完成的安头工作时,我们大多数人的工作性质可能真的会发生翻天覆地的变化。 所以最后我想把这个问题留给大家。当一个工具号称能够完成九十九 percent 的 办公室工作时,我们心里到底是兴奋多一点,还是焦虑多一点?我们自己的职业规划,我们对工作、对价值的定义,真的为这个马上就要到来的新时代做好准备了吗? 这个问题可能没有标准答案,但它绝对值得我们每一个人从现在开始就认真的思考一下。

翻出了闲置很久的笔记本电脑,本来打算闲鱼出钓或者专门用来打游戏,刚好这不就是派上用场了吗?最近很火的这个 open call 可以 本地部署 呃,我根据这么拿的推荐,呃。他说根据电脑配置,呃。我适合装这个模型, dipstick r e 什么七 b 的。 然后我现在还在下载当中,很奇怪,就是快下好的时候它网速突然变慢了, 呃。所以就刚好录个视频,也向大家请教一下。嗯,大家用下来哪个模型好用?我今天看到那个必安的 c e 说他觉得 kimi 很 不错呃。但是我搜了一下又有很多人说 kimi, 呃。不怎么样呃。所以我就纠结了。我优先选呃。这么奶推荐的这个模型吧。嗯,我还有一个诉求就是,呃,不要太吃偷啃的,因为我估计会不停的倒腾这些东西。呃。 就希望推荐一些好用的,速度快的,性价比高的,既要又要的,谢谢大家。

最适合 oppo 酷路的一个天选基座模型,我想除了阶梯五点四应该没谁了吧?一个优秀的一个 ag 的 基座模型, 我的理解是需要三个方面都比较优秀,一个是代码能力,一个是世界知识,一个是多模态理解。当这三个都能达到 s o t a 的 时候,那它几乎必然是一个最流的 ag 的 模型。当然还有一个重要的因素,那就是使用的一个价格。在过去的话,酷路的 oppo s 四点六,它几乎是 ag 的 模型的一个代名词,因为它在上述三个方面都特别的强, 但是它的一个使用价格真的很高,所以使用起来真的很肉疼。而这一次 g p t。 五点四的一个出现,真的就补齐了这个短板。 g p t 五点四,它在代码能力方面是和 g p t。 五点三 code x 是 齐平的,然后在世界知识方面,它比 g p t。 五点二要更加强大,同时它还能使用订阅额度,二十刀就能让你使用的超级爽。可以看这张图,在八个评估指标里面, 五个它都是达到一个最优的。总结一下, g p t 五点三,更强的一个视觉支持,加上更多的一个工具模型调度能力 机,超级便宜的 codex 额度,这四样加在一起,这就是一个完美的 code cool 的 一个天选基座模型,所以现在在使用 open cool 的 你们,可以尝试把模型换成 gpt 五点四,我相信你会发现一个新的大陆。

一个月的深度使用告诉你,用 opclock 不要再傻傻地跟风部署本地模型了。就拿这台四卡力一百三十二 g 的 milli 来说,本地 部署 mini max l r 三零 b 模型使用遇到复杂问题一样不行,就别提那些几十倍的小模型了,真的要用开通几十块的 codeignal 才是明智之选。 用欧本科奥是让他帮你解决问题的,不是你教他解决问题,他解决问题的能力就是你所使用模型的参数量。其实比以下的模型相当于安排了一个中学生来帮你处理任务,你觉得他能处理好吗?