粉丝1711获赞23.2万

上一期教大家了 cloud code 怎么安装和部署,那么这一期教大家怎么样去对接大模型,怎么样去付费使用?首先介绍一下 cloud code 的, 我现在使用方式有这几种,第一种呢,最基础的官方订阅了,你要去 cloud 官方注册一个账号,订阅它们的计划, 它有不同的这个付费的这个形式。是的, free 的 pro max 对 第一个门槛。好多评论区的人问怎么注册账号啊?有一个最简单的办法就是你去注册个谷歌账号, cloud 是 支持直接用谷歌账号登录的,就不会碰到什么用手机号的问题了。 ok, 然后呢,解释一下他们的这个 pro 和 max 账号, 他们这个账号有一个限制,比如说像 pro 账号,它是在五小时之内,你可以用到一定的 token 用量,然后在一周也有一个 token 上限,但是它有一个很坏的地方,就是你不知道它的 token 的 限制到底是多少。对,我们找了很多,没有一个官方的说明。对啊,它其实大家都是动态的,它会根据它们自己的用量实际 去调整。 ok, 我 去论坛找了一个大家使用反反馈,就是呢,有一个人大概估算了一下,像估计它是比较大量的那个 token, 消耗任务的话,可能两个任务就能用掉 pro 账号的百分之五十五的使用额度了, 大家可以感受一下,其实我之前在自己使用过程中也是差不多是个这样量的,比如说如果你的项目下内容比较多的话,可能五六个任务你五个小时的额度就用光了, 你就要再等等他解锁了那个五个小时,五个小时以后你再开始用。对,是的,所以呢,总结一下他官方订阅的,他的优点就是质量是肯定没保没问题的,用的是真正的 cloud 的 最顶尖的大模型。缺点是封号封快飞快,我已经给封了两个账号了。 还有就是 pro 账号是肯定是不够用的,大部分人的,就国外的那些专业开发者用的都是 max 账号, max 账号的话一个月折合人民币大概是一千四百块钱人民币,所以这个打呗打呗对这个专业的用户才会考虑。 ok, 如果你想要去解决不被封号,你需要去投入研究 更多的办法,这个隐形成本是很高的,建议如果你有本事折腾就是避免封号,你可以去考虑,你一定想搞的话,你可以考虑用组合配或者 apple pay, 这种方式会加收百分之二十五左右的费用,但是听说封号的时候 谷歌会或或者 apple 官方,他会帮你挡一刀,有时候会给你退钱或者帮你兜底,至少,但也只是听说啊,不负责任感觉下来就是大可不必。对新手小白不建议这个方式, ok, 第二个方式,官方 api 其实对于大家来说其实是不需要考虑的,因为质量没问题,但是缺点是死贵, 你们可以看一下奥普四点六,他的呃输入是每百万托肯是五到,也就是三十五块钱人民币,输出的话是二十五到每百万托肯非常非常贵。 正好我一个任务差不多就一个,一个多一点,任务差不多就结束了。哎,讲了这个正好呢,我们正好解答一下之前还有很多朋友关心的这个推算消耗的问题,我也给大家测算了一下,投入啊,真金白银的投入。测算了一下, 我有一个很复杂的一个自己的项目,就是那类似于今天老师之前的那个个人的工作台一样的,这里面有我我所有的工作的记录,包括记忆进度啊等等等等,这项目还是比较大的, 我让他全量的跑一遍我这个项目,把里面的每一件事的进展汇报一下,相当于他会把我整个文件夹全部读懂点。对,是的,我第一个是用的是卡的 pos 四点六模型,他耗时用了大概十四分钟,把我这个项目读完了, ok, 用了投,看多少呢?用了, 用了七万的投垦,这一个任务后面的两百是什么?其实两百是这个上下文窗口的上限,这次用的是七万的投投垦。给大家大概估算了一下,假设 大部分情况下,输入是占百分之七十,输出占百分之三十,所以折算下来,我本次绘画用了五块六毛钱人民币,做一个任务是相当于重量的, 也就是说大概你可以估算出来吧,可能对于你们这种办公工作者可能会少一点,不会五块钱,但是一次任务一块钱肯定是有的,我透露一下,有一天下午我一个人就用掉了人民币六十,对,是的是的,所以大家有数啊。很多人关心偷更消耗,但其实偷更消耗这个问题其实很难回答, 它基于的是,首先你的项目,你的复杂度,你的文档的多少,还有你这个用的模型,有的模型他的思考的程度高,那么他消耗的头可能就高。 还有基于的就是你用的软件,所以呢,为什么我在对比呢?我用的是 g p t 五点三 codex 思考度 high 的 那个模型,它的思考程度很高,所以可以看到我本次跑下来用了十三 万,刚刚是七万,现在是十四万,十四万,十四万的消耗翻一倍,对,同样的任务翻一倍,所以用不同的模型跑同样的项目,它的消耗不一样。是的,用同样的模型, 也是那个 gpt 三点五的模型,我在 opencloud 里面再跑了一遍,消耗就是七十七万。因为之前在 opencloud 里其实也有很多人关心这个 token 消耗的问题,所以呢,我给大家看一下,大概感受一下。相同的模型,不同的软件在 products 下跑的是十三万, 在 opencloud 底下跑的是七十七万,这也就是为什么大家说 opencloud 很 少 token 很 厉害的问题原因。但是这个东西在 bug 里面其实只有七万对,是的,其实只有七万对, 天呐,但这个里面有核心原因,影响因素很多啊,比如说 gbt 五点三扣带子 high 这个这模型它的思考度就高,所以呢,它耗,它耗,它消耗头很高,它本身它因为它的记忆体系,所以导致它它的消耗头很高,这也是影响因素,所以这个只是做个横向的,让大家感受一下, 点到为止。所以这个总结下来,如果你调用官方 vpi, 这个就对于新手来讲一定也不用考虑,大部分研发也不会做这种事,这种只会做产品的时候考虑。 还有一个办法就是我提一下,免得有人说我没提就是 antigravity, 反反贷把,有一个软件开发软件叫 antigravity, 就 谷歌推出来的,有的人有办法把它里面的 api 提出来,到扣子里面去用,当时它谷歌很大方,但现在已经开始对这样用的人进行封号处理了,所以今天就不去详细提了, 别搞了,能写到我们,我们咱们就是。然后最后一种办法就是通过第三方 api 来接入。第三方 api 的 话其实又分成三种方式, 第一种就是 open route, 国外最大的一个就是第三方 ip, 提供平台模型超市,对,是的,然后它们里面会有各种各样的模型的 ipi, 然后也有那个 cloud office 四点五的,但是它的价格和官方是一模一样的,呵呵, 所以呢,它是同样死贵的,花钱也是飞快的。它对于就是我们大陆的 ip 封禁没有那么不会,没有那么严啊,能用上,对,能用上,不像那个官方的一天你是几乎用,为了用还很费劲,还很花钱,所以你大部分情况下可以不用考虑,但是你可以去少充一点钱, 通过这个去感受一下奥克斯四点六的真正的能力。然后呢,还有一个就是大家常提的中转站,就国内的中转站, 它实惠,一定程度上你可以用到 off 四点六的顶级模型,但有很大的缺点就是首先它不稳定,时时时不时断线,那很多都是自营的,所以呢,大概率会跑路,有风险有风险,而且还可能会一次充好它。你说是在用 off 四点六,而背后说不定用的是别的模型,都有可能的,你也不知道它那个管子跟你插在哪个边了。是的是的, 所以建议就是啊,你可以用,但是不要一次性充过太多钱,少量多次的充,用多少用多充多少,也不要在我的评论区交流。对,我不会给大家推荐具体哪一个厂商,但是呢,会给大家推荐一个网站,叫做这个网站不读了,在这里面你可以看到各种各样的中转商以及他们的稳定性,可以 基于这个去选择你想用的中转商。不要交流啊,你看就行了,不要交流。好的三种方式呢,就是我大家比较推 推荐新手小白,先尝试的就是用国内的模型来代替,因为国内模型的话是最实惠的,也是最稳定的,而且其实在能力上的话也没有什么太大明显的差别。 然后讲到这呢,正好就是给大家推荐一个软件,是开源的,之前我也提到过叫 cc switch, 因为 cloud code 它本身理论上来说只能用它自家的模型,但通过这个软件是可以切换到别的任意一个模型的,包括了我前面提到的中转商提供的模型以及 国内的模型,它使用起来也很简单,你去 getapp 上面,或者到时候曾老师发一个。然后呢,我们打开这个软件以后,点击右上角的加号,你就可以看到它预设好了各种各样的模型厂商,包括了千问、 kimi, 然后你去他们那边注册订阅一下他们的 kimi 二点五去做我们的那个网站,也都是挺实惠的啊,包括上次我们其实用了那个 kimi 二点五去做我们的那个网站也都是啊, g r m 也都 支持的。好的,我推荐新手小白呢,最好的方式就是你订阅一个国内的模型,然后你再去 openroot 上稍微充一点点钱,你把 真正的 cloud office 四点六接入进来,然后也可以把国内的模型接入进来,两个去做同一个任务,去比较一下这个结果对于你来说差别是不是真的很大。如果差别不大的话,你就完全可以先用着国内模型,然后等到以后真的有一些业务需要了,你再去换。 你先看看你自己做的这点事,你配不配用这么贵的东西啊?有些写文档的工作,你自己思考一下你配不配用。 ok, 本期视频就这样,拜拜。拜拜。

今天发生了一件事,因为我看了一个视频,说可以以呃一人公司的一个呃结构去布置这个 openclaw, 比如说我当 ceo, 让 openclaw 当一个 ceo, 然后它下面部署几个不同岗位职责的 agent subagent, 然后呢,我就觉得,哎,这主意不错,然后我就把那个内容就粘给他那个 openclo, 然后呢,让他也给我布置几个呃 agent, 结果刚刚进行到第三个,这个是属于一个合规或者说保护安全,信息安全的这么一个这个 garden, 好 嘛,刚刚开始我说你继续,结果他就死了,然后等我再配的时候就一直提示,提示我的信息是我的 openclo 跟飞书没有配置上,因为我也不知道具体是什么情况,我又看不到后面的这个端口。 所以呢,嗯,当他发来这个东西说啊 pairing 的 时候,我就想啊,我可能只能回家才搞了,结果回来的时候就看见好多好多个这个四零三, 然后我就觉得可能是 cloud code 那 个我用的是 token, 八成企业版的也给禁了。每当我 getaway restart 一 次,他就会回复我一句,然后我就靠着这一点回复,然后我大概摸清楚了是怎么回事,就是被绊了,然后我就开始抓紧上, 因为我因为我之前已经给他配置过,说万一有一天他真的被禁了的话,那么就给我呃上 deepseek 或者是 kimi, 因为我已经把他的 api 都已经呃备份上去了,然后也交代过部署过,结果今天愣是就没好使。 然后当时他给的是一个呃,当时 kimi 给十五块钱,然后我自己充了一块钱,我只是为了一个托底和过渡,就没想说有这么快就能用上。它 回来的时候呢,因为它这个用量的限制,当时你只交一块钱的话,你就是踢零,所以跑一跑它就跑不动了,跑不动了之后我就没有办法,我就开始这个到处问,然后我就发现了,哎,躲不过,还得充值, 结果呢,我就去充了值,充完值之后它马上就好使了,然后就折腾这么一会呢,大概是消费三块五这样。嗯,很慢,我感觉它就是,虽然说 opencl 它还能做事,但是它的速度是真的真的慢,不是假的慢。嗯,有明显的感受。 后来我就找啊找办法,怎么回事?后来我就在网上搜到了这个大神,然后 how do you use chatpt pro or plus in openclaw without api cost? 这个也太好了吧,正是我所需要的,而且在八天之前他就发布出来了。我,我不是逼到份上,我也不想用它,因为我是有那个 chatpt plus, 所以 我就马上就照他这个操操作了。总之呢,他这个很简单啊,很简单。第一步呢,就是打开你的那个客户端,然后输入这行指令。 you see that it gives you a url it says i open this url in。 当它跳出这个的时候,你就开始进入界面去登录了, but login you're gonna have to confirm that you want to sign in to codex with jpeg so i'm just gonna click on continue and then every v i p is gonna open but don't worry it's very quick。 这个很重要,这个你不要以为它出现了错误,然后你着急给它关了,这个不能关,然后你把这个链接给它复制,复制好了之后, you're going to need from the space just to come here and copy the url that you have in the address bar then come back into your terminal by open close one like you see here paste the read address urls i'm just gonna paste in the read address url and i'm gonna press enter and this should basically pick a configuration now here i'm gonna change your press enter then i'm gonna restart it's way here and choose do this later because the scan command that we're gonna have to run now scan command we're gonna run as this one here i'm also gonna prove it。 这个也很重要了,这个时候是重新就是强制设置你这个 model 是 用 open ai codex 这个 right in the description section number one press。 别别别,那个手残给他打错任何一个字母啊,我就因为打错一个字母然后那个没给他弄成功发,找了半天才找到原因。 so what this does is that it basically overrides the configuration and then adds a default model as open ai codex。

我同事给龙虾换模型的时候给它换死了,遭遇了跟我之前遭遇的一样的事。现在三月七号版本更新之后已经升级了,也就是说你换模型的时候它会自动 fall back。 如果你有叉 gpt plus 订阅的话,那推荐你用一下 codex 的 那个模型,因为它免费啊。在你这个订阅费里面,你可以用 token, 然后作为一个接盘的 codex, 这个 authorization 有 十天的限期。嗯,这是我的龙虾告诉我的,我今天刚好是最后一天,那么我就重新又登录了一遍,这个整个的过程你也看到了, 我给他绑定好之后跟他说下一次 fallback 的 顺序就是 cloud 挂了,然后 codex 顶上, codex 不 行了,用 kimi 顶上,用两个是订阅 token, 先在前面使用,然后后续的采用充值的 api, 不 然花不起这个钱啊。 三月一号之前的那个版本,我换模型的时候就给它换死了,那这次就不会再发生那样的事情了,所以我直接让龙虾做了一个框找,也就是十天提醒我一次,我这个 codex 要到期了。然后另外呢,就是把它这个 fullback 的 顺序给它设置好了。

codexbar 这是 opencap 作者彼得斯坦伯格的又一开源神器,可以实时追踪投肯额度。目前在 github 上有七点七 k 收藏。它挂在 mac os 菜单栏中,可以让我们随时随地看到 vi 工具的投肯用量和重置时间, 再也不用输入命令或者去后台查看了。目前它支持多工具监测,例如库戴克斯克洛的 code 等,基本上在用的主流 ai 抠点工具,它都支持添加监控。

不是 openad, gpt 五点三 codex, 据说 token 消耗比 gpt 五点二少一半,但是我想问 token 少一半订阅费也给少吗?

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

姐妹们,国内大模型订阅方案终于整理好了,每月最低七点九元,实现 token 自由!一直在纠结用什么大模型,怕贵怕踩坑?这篇帮你整明白了! 今天把 openclaw 能用的国内月度订阅方案全部扒了一遍,按聚合平台和纯字眼两类整理价格,请求上线试用场景都给你标清楚了!重点是这些都是月度订阅 token 自由,不用再到处找免费额度了!

程序员们注意了, open ai 刚刚放出了 windows 版 codex 编程应用,这可是 ai 编程领域的大事件。又在 mac 版发布一个月后,这款火爆的工具终于登陆了 windows 平台,官方承诺将为 windows 开发者提供原生代理沙盒环境, 并且全面支持 powershell 开发环境。来看看这组惊人的数据, mac 版上线首周下载量就突破一百万,次, 周活跃用户数比年初暴涨两倍多,达到一百六十万。更夸张的是,处理工作量指标 token 使用量直接翻了五倍。现在 windows 用户也能在 microsoft store 下载这款神器了。这个 windows 版本可不简单,它自带原声沙盒功能, 通过受限令牌和文件系统 a c l 限制文件访问,还能用防火墙规则阻断未授权网络连接。最贴心的是支持 windows subsystem for linux, 还能直接和 get up 仓库集成。资科英伟达这些科技巨头都已经用上了 codex, 英伟达三万工程师每天用它写代码,有些人的效率直接提升三倍。不过 openai 现在面临 antropics 的 强力竞争, 后者的市场份额从百分之十飙升到了百分之六十。 o p n a i 产品负责人放出豪言,要把 codex 打造成标准智能体,未来还要让数十亿非技术人员也能安全使用 ai 编程,看来 ai 编程的革命才刚刚开始。

这是一个把 cloud code codex、 gemini c l i 订阅统一封成兼容 api 的 开源网关。 github 已经冲到一万八千多 star reddit may 顶部把定位写清楚了。 open i gemini、 cloud codex 接口都能兼容 overview, 更关键 cloud code codex、 qwind code i flow 都能接很多,还支持 oa, 还有登录做自己的客户端或后台时,你不用再给每个上游单独适配。 quickstart 很 直接, micros 用 brew 两条命令就能先跑起来。 如果你更习惯容器, docker 这一段也已经配好了。它还准备了 web ui 和 management api, 不 会只停在命令行。它最值钱的点就是把多家 ai 编码订阅统一成一套能直接调用的 api。

可以用 gpt 五点二 pro 模型的逼真尼斯是什么?今天是二零二六年的三月五日,今天呢,我给大家亲自尝试并讲解 gpt 的 逼真尼斯,特别是它和 plus 的 区别。咱们找到逼真尼斯专区啊,咱们选择一个母号 啊,所谓的母号呢,就是管理号,他有权限拉子账号进空间,然后呢,他下面呢,支持支付宝或者微信啊,然后你就会得到一个账号,咱们到官网登录上去看看啊, 那么我已经登录好了啊,那么看,这里显示需要升级 plus 啊,不要着急啊,因为现在呢,还是个人模式,咱们点这里头像啊,选这个啊,这个是团队的空间。 那么进来后你再看,确实除了能使用 plus 能用的模型呢,还多出来可以使用 pro 五点二。 然后这里呢,还有邀请团队成员,他们这里邀请四个的话啊,相当于幺二零,就得到了五个可以使用 pro 的 gpt plus, 一个就要八零啊。但是别着急啊,我再给大家讲讲里面的坑,你再判断。首先呢, 这是在团队空间里使用的,如果下个月到期了,空间就进不去了,那么你再上车呢,也是新建空间,相当于这一个月你的所有记录都会被清零。那么其次呢,这个 pro 模型 它是有额度的,并不是无限的。最后啊,你像这个账号是母号,那么母号的权限它很大呃,而且它的封控非常严, 很容易吊车或者降质啊,毕竟相当于大家用一个账号的额度,你很容易超,超了就降质,也容易被识别地区之类的风控,因为毕竟你们都是天南地北凑的所谓团队,你并不是真正意义上的团队 啊。所以呢,其实掌握母号还是很重要的啊。那总结一下啊,那么我觉得 b 字逆势呢,它适用于短期的项目啊,最好你是一个宿舍的,一个办公室的,你这样真正的团队使用呢,你可以把母号掌握在自己手里。 那么如果你是个人长期的呢?我还是认为 plus 更合适啊。当然啊,如果你有实力直接上 pro, 那 你就是大佬。

就在今天凌晨, oppo i 刚刚发布了 gpt 五点四,本来是准备入睡的,那我养的小龙虾给我推了一条更新消息,于是乎直接把睡衣换了,直接开干。那今天的话,花几分钟时间讲清楚它到底升级了什么,再附带一个编程实测。 好,下面我们看一下它的五大核心升级。第一个是上下文窗口,由原来的五百 k 变成了 em, 这一个的话对于你去做一些 长任务,复杂任务有很大的帮助。那第二个的话就是操作电脑的能力也增强了,那这个的话桌面端的 q d agent 也会有很大的帮助。第三个的话,就在恰点 g p 它这个聊天应用中原来的思考过程嘛,就它的 sync 你 是不能去中途去修改的,现在你可以随时打断 补充需求,调整方向。第四点的话,它是有一个更高的托管效率以及更快的响应,响应这块的话我刚刚用 q d x 去实测了,确实是有提升。 那第五个的话,就是它把 codex 的 能力直接合并到了这个 gpt 五点四这个模型里面,什么意思呢?意味着后续是没有 gpt 五点四 codex 的, 直接是 gpt 五点四一个模型就搞定了, 不要像原来那样搞得比较乱。而且现在它新增了一个 fast 的 mini, 我 刚也试了,这个 mini 让你的整个编码速度提升的特别快, 但是你的消耗也是成两倍的一个增长。下面我们来看一下它整体的一个跑分情况,跟几家模型对比来看的话,提升不是特别明显,但是也有一些排到了第一。那跑分的话,其实我们就稍微去看一下就行了,因为 你真实的,不管你在编程实战还是他接触到 a 技能里面,还是在看实际中的表现嘛,对不对?我们直接到编程实战环节,还是同样的 prom 哈,如果熟悉我的老粉都知道这两个项目,在这一次不管是国内的顶尖模型还是国外的顶尖模型,我们都拿这两个项目去做测试同样的 prom。 然后这一个项目是稍微比较复杂的,国内的模型的话它没有做到一次性去把整个任务完成,那国外的模型的话, cloud off 四点六以及 g p 五点三, codex 它做到了,但是 jimmy 三点一 pro 它没有做到,第二个它会稍微比较简单一点。好,我们来开始实测,这次我用的是 codex 这个 app 上去做实测啊,提示词也是跟之前测试是一样的, 并且我们开启了这个 fast 模式,也就说它的整个速度是比较快。对于这个比较复杂的项目啊,就是我们把这个图片 a 帧的项目加上一个认证体系,从另外的项目里面迁移过来,并且做了一个落地页,也是之前那几期视频有测过的。我们来看一下它一个完成结果, 总共是做了三十二个文件的一个修改代码,行数是三千多行,从这个也能看出来,整个任务其实是比较复杂的,他的上下文都快跑满了。我们来看第二个项目,就是给这个 skills agent 是 一个终端 ui 嘛,给他加一个呃,外部 ui 也是一个考验他权重的能力,这个的话他改了十八个文件,大概是两千多行代码, 下面我们来看评分结果,我们来看第一个项目是跨项目迁移认证体系,也就是说给这个图片 a 镜头加一些功能嘛,从另外一个项目里面迁移过来,整体的评分标准是来自于两个,第一个是我人工去看它整个功能的完整程度,第二个是我们把它四个项目所做的代码 用顶尖模型去互相 review, 最终得出来一个评分。那整体看的话,这一次 g p t 五点四,它在这个项目上它的表现是比 oppo 四点六要好的,但是在 g p t 五点三 q max 的 时候的话,它是没有 oppo 四点六好的。 ok, 那 接下来三点一 pro 的 话,它是最差的。 好,我们来看第二个项目的一个评分,就是给这个 skills agent 加上一个终端 ui, 考验它权重的能力,那这块的评分的话,其实它给的有点保守了,为什么呢?因为 给我的一个体感哈,就是它这块的一个 ui 比上一次还要好,但是因为它这块没有去体现 ui 嘛,所以说它的评分的话稍微有点落后,但体感的话是更快, ui 更好了,那代码质量的话, a l u 之后的话是没有这个好的好。我们回过头来进行一个总结,我觉得这次最大的亮点哈,就是第一个, 这个上下文窗口变长了。第二个就是他这个快速模式非常非常有用,如果经常用 codex 的 朋友的话,就应该知道他之前是特别慢嘛,那你用这个 fast 这一个命令之后哈, 他的速度确实比之前快了,但是你的消耗也更快了,那这样子就会对 codex 的 会有更大的冲击,因为之前我几期视频就说过, codex 的 不再成为我单独的一个 coding 的 选择,现在就是我在 codex, 然后 codex 的 互相来回去切换,甚至有时候我还会用那个 open code 再加上欧曼 open code 结合起来去做扣顶开发。好,这就是本期视频的全部内容了,如果你觉得视频做的不错,可以给我一箭三连,大家拜拜。拜拜。

订阅一个大学生比龙虾还便宜,嗯,是啊,这两天大家都在聊这个, 呃,订阅一个大学生几千块钱,然后又可以把所有的活干掉,然后呢, token 无限量,一个月想用多少用多少,然后微信消息呢,随时能回, 就像现在龙虾它其实接不到个微的,对吧? ok。 那 么更夸张的是呢,现在很多国外的大公司,他们已经把招人的这个 门槛下降到高中了,大型公司从高中里面招生,他们声称呢,就当下的这几百年固化的这种教育模式,是在 ai 时代行不通的,所以他们需要一些原生的 ai 人才。那怎么感受这件事情呢? 其实第一点呢,我们团队也在招大学生,但是呢,我们会给大家无限量突破, 就是我们不需要大家的基础能力有多强,我们只要他去解决一些业务的具体问题,那么只要他能用 ai 解决这个问题,没关系,大量的用公司报销,不是把大家当成工具人,而是希望能把每一个刚进社会的 大学生培养成 ai 的 召唤师。呃,这个比较玄幻的,也是一个一个比较有趣的概念。那第二个呢,其实我们希望的是给探机一个新的可能,而不是去用 a i t 代教人。 那我们再说说现在的大学教育,的确挺值得让人诟病的。 然后呢,我们尽自己所能,已经在自己相关的一些软件类专业呢,让大家在大学里 尽可能学到最先进的,像 type script 呀, opencloud 这些一托于 ts, 也就 type script 的 技术债的一些 ai 工具,然后写一些智能体,写一些知识库,写这些应用,但是呢,有的时候它刻名字叫做 java, 那这个就没办法,现在主流的 ai 开八基本上没有用 java 这个技术寨子,所以这些学生确实毕业之后压力很大呀,那我们也尽可能的让他们用 java, 写安利的时候呢,写一个跨境电商的 a p i, 可以 去用 java 来调用亚马逊的接口,然后把它组装成一套技能,让我们自己的龙虾可以控制亚马逊的门店,去做商品的管理,去做链接的优化,然后去看每天的店铺运营。 嗯,所以这个点呢,就是通过最新的一些 skill m c p 开发的场景,然后让大家虽然学的是老旧的东西,但是做的是新东西,但这个东西呢,也是有点隔靴搔痒,也是希望这个大学的教育 能在大家努力下快速的改变吧。那第三个呢,我们自己的团队是没有老板跟员工这个概念,那这些年做下来,我们一直认为 就是大家刚进入职场,对这个市场是陌生的,那我们呢,更希望给大家机会无限量的图肯的使用,对吧?可以完全去用 ai, 然后进来呢,飞速的成长,做多少事拿多少钱,那如果他个人的能力已经达到了这个团队的上限,也有办法我们投资帮他创业,特别是现在的这个 opc 艺人公司, 那么我们现在也在尝试在自己的能力范围内去打造一些比较优秀的创业的个人,让大家通过自己的努力也能做出一番成绩出来。 然后呢,这是让我感受最深的一点,以前呢,普通家庭的小孩子呢,其实只有通过高考来改变命运了,那么现在呢? ai 时代带来了一条新的路线,就是学习 ai 和归机生命共生,这是第二条路。 那今晚就分享这些了。

呃,我现在演示一下那个怎么去。嗯,配那个 open call, 就是 如果用那个自定义的那个 open ai 的 那个端点的话,就这是一个空白的命令。行,然后我这个就是这个讯基已经安了, 就是你没安的话,其实步骤差不多,只不过我安装了的话,我用这个命令,然后我重新选择一下,如果你没有安装的话,你直接拿脚就是那个官方的脚本直接运行就可以, 就是弹出的画面差不就是一样的。然后我点继续,然后继续, 然后继续到这个模型提供商的时候,你选倒数第二个,就是这个用自定义的那个模型提供商,然后选择让他给你一个视例,然后你把它删了就行。 就是我这边是给了你一个,我应该是给了你一个端点,给他复制到这 一敲回车,然后他让你输入那个 api k, 然后把 api k 粘到这儿,然后继续, 然后他问你,呃,要这个兼容吗?啊,对对,就这个兼容的,这个这个组合的这个就选是就可以了,然后你输入一个模型 id, 你 比如说你用 gpt 五点二的话, 啊,这不要数错啊, gpt 五点二中间有一个杠,然后回车,他验证, 啊,这是验证成功了啊,这个回车就可以啊,这个别名回车,然后这这这我已经配过了,其实不用管我挑过 啊,这个也挑过,继续就可以,让我重启, ok, 他 让我,嗯,这个继续就行,打开那个 u i, 嗯,可以了, 它已经连接了, ok, 这就已经成功了, ok, 这是没有问题的。然后就是有一点要注意啊, 我先敲回车,就是如果它不行的话,就是配完不行的话你注意一下,你检查一下这个文件,就它的主配置文件, 就这个文件,然后点回车这边的话是 下面的是幺六三八四这个。