智府出了一个新模型, gm 五 a turbo, 首个面向视觉编程的多模态抠钉机座模型,它的定位是主打 jcrewcode 的, 去做视觉编程,还有在龙虾里面去做一些视觉类的一个任务。那这个定位的话挺对我胃口的,因为我平时就喜欢用 c c 写前端,用龙虾去跑一些自动化任务, 所以我直接把它接进去了,跑了三个真实场景,第一个场景就是截图写 h 五嘛,我们把这一个手绘图丢到 crocodile 里面,然后让 j m 五的这个模型去做多模态的视觉理解,最终帮我们写一个 h 五的页面。以往的话手绘圆形图,其实你是需要翻译成很长的一个描述的模型,才知道你到底想要什么,那这个过程中你就会丢失大量的信息。 那现在的话就是截图加一句话嘛,它就可以直接生成完整的一个 h 五页面,而且它还可以帮你自动去补一些交互的一个设计细节。好,我们来看一下这一个产品的原型图,第一个是首页,第二个是它运动详情页,那下面的话还有这个训练计划 以及一个训练进行中,这边也给他准备了一个配色,然后把他丢到这个质朴的新模型里面,看他整体的表现情况怎么样。我这边测试下来哈,他在第一轮的时候其实也会有些小问题,那我这边也是直接把他遇到的问题直接截图,可以看到截图丢进去,告诉他哪里有问题,交互哪里也有问题,这个时候他看到这个问题也足够的去修复 这种就相较于以往的这种纯文本模型就会方便很多,因为你可以直接把截图丢进去,并且你也可以圈来历有问题。好,我们来看一下他给我们生成这个 h 五页面怎么样?整体看起来还挺好的,你点一下运图详情挺好,然后看一下训练这一块,训练这块的话点一个进去 啊,他这个倒计时也是可以的,然后点结束,确定结束 ok, 可以 看到他整个视觉理解还挺 ok 的。 那本身这个任务其实在 q 点方面不是特别难哈,因为就是一个简单的 h 五页面嘛。 很多时候我们做前端应用,最直观的方式就是直接给图,让模型去理解,文字表达一定会有缺陷的。那我们基于一个视觉理解,加一个好看的配色,加一个比较好的一个 skills, 你 最终出来的效果都挺好的。我 这边也给大家推荐一下,可以用一下这一个子的一个 skills 啊。那他这边的这个开源仓库呢?也已经五十六 k 了,这个 skills 你 集成到你的项目里面去,那他写出来的前端也还是挺好看的,相对来说 好。第二个场景的话,我们是把智普的这个多模态模型接入到这个龙虾里面哈,让它去做一个 ppt。 我 在龙虾里面有一个 skill 是 专门去帮我做 ppt 的, 它的主要功能就是把我平时做自媒体的一些口播脚本呀,还有还有一些其他的一些需求啊,然后丢进去,它自动给我生成一个交互式的一个 ppt 网页,就像你现在看到了这个一样。那现在整个的一个流程呢?就是你输入需求生成网页,然后它用那个 ui 自动化去跑截图嘛?截图完了之后再去做 review, review 完之后自动去部署, 我们来看一下它整体的一个效果怎么样?我这边给龙虾下载了一个任务,让他去分析 crocco 的 这个源码事件,把这个事情来龙去脉,做一个 ppt 演示的网站,让他自行去截图每一页,然后去 review, 最后都没有问题之后,然后去部署到这个线上去, 那可以看到这边龙虾给我发出来这个附件哈,是空的,也就是说他在写这个代码过程,他遇到问题了就全是空的。完事之后呢,他构建成功了,他开始去逐个的去截图验收,那这个就是对于一个多模态模型比较重要的地方,如果是文字模型,他就发现不了这个问题,所以呢他就发现页面内容没有渲染出来,他就开始去检查一些错误吗? 那最终他就把这整个都完成了,完成完了之后呢,他就部署上去了,那么点开看一下,这个就是他完成的一个效果哈,就是针对克拉扣的泄露这个事件,总共做了五页, 整体的效果,我觉得他实现的还是挺棒的。第三个的话,是我把制服的这个多模态模型接到我一个视频分析的 a 技能里面哈,以前那个流程的话是纯文本理解的, 得到一个视频,然后提取音频,音频转文字,最后改到文本模型,他再去做拆解。那现在的话就是用一个多模态去理解吗?我也可以给大家讲一下现在我的一个技术方案是怎样子的, 因为现在你去做一些长视频的分解哈,你不可能是直接把这一个视频直接丢到多模态里面,他是接受不了这么长时间的一个视频的,所以说我们需要去做分段。这边我的思路的话是 通过大模型去把这个文字大纲得到了之后,让他去切分。比如说这个模型他最长接收三百秒,四百秒,你就以这个做一个分段,切完之后 每一段再丢到这个多模态模型里面去,拿到结果之后再做一个栽,要再丢到下一段,以此类推,这样子就可以把整个视频做到一个比较好的理解,并且它整个画面也不会丢失。好,下面我们来看一下过程。之前我讲了一期关于 skills a 技能的视频,大概有十二分钟吧, 那我们接了这个字谱的这个新模型之后,我们来看它整个的过程。那前面的下载视频、提取音频、转文字都是需要去做的,因为我刚也讲到了,他需要先去做语音分段,分段完了之后把我们这个十二分钟的视频去拆断,拆断完了之后,然后你把这个视频上传到一个 o s s 的 平台,这个时候再丢给智普这个大模型完事之后呢,他就去做一个分解,那这一个整个拆解的结果比原来这个纯文字版的会好很多。那以前其实谷歌他们也支持这个多模态的输入嘛,但是贵呀,是真的贵,所以说我一直就是用纯文本的模型去接的整个这个效果,我的主观感受是比之前纯文本好太多了。 好三个场景我们看完了,如果你平时有写前段的需求是比之前纯文本好太多了。好,三个场景我们看完了,如果他去完成你的需求就 ok 了。 那第二个的话,你的龙虾里面也可以接这个多模态的模型了。你平时比如像我一样,你写写 ppt, 你 让它去做自动化测试,最终完成一个效果,让它去 review 嘛,就会好很多。好,第三个的话是视频分析这一块,它 相对于原来纯文本的这一块,增加了我们的这个视频里面的信息,它能更加的把整个视频想要传达的信息完美的表达出来。如果你也在用 curl code 或者龙虾,你可以试试切到这个模型,感受一下跟之前纯文本的一个差距。好,这就是这期视频的所有内容了。我是大家,我们下期再见。拜拜。
粉丝1.9万获赞6.9万

大家好,我是小木头。在最近的视频分享中,我们介绍了许多关于 agent skills 方面的内容。在分享中,有许多朋友也反馈到, 受限于 cloud 或 cloud code 访问,无法很好地体验或使用它。那本期视频咱们就来分享一套解决方案,帮助大家更加自由地、更便宜地玩转 agent skills。 我们会介绍的是基于 open code 这款目前非常流行的开源编程智能体。咱们以智普 g o m 大 模型为例,来看看如何在 open code 环境下,通过 g o m 大 模型来驱动 agent skills 的 运转。那现在就开始今天咱们的分享吧。 首先咱们对今天分享的两个主角做一番介绍。第一个是 open code, 这是近期非常热门的一款开源 ai 编程智能体, 他支持绝大多数主流的大模型供应商。作为一款开源项目,他在 github 目前已经接近到了六十七 k 的 小星星,非常非常的热门。另一个主角就是 g o m 智谱大模型, 当前最新版本是四点七,在编程能力上,它已经非常非常的接近于 clod opus 四点五。如果大家无法访问 opus 四点五呢?不妨采用 gm 四点七来做日常的编程工作,也是非常有效的。 智谱大冒险目前也给到了开发者套餐,有不同的规格的选择。在 opencode 也支持了两种方式的接入,一种是基于 coding plan, 另一种呢是 apikey。 在 后续演示中我们马上会看到。那介绍完主角,现在呢,我们就来实测一番, 看看如何安装 opencode, 如何集成 g o m 的 大模型。最后呢,来看看如何加载,如何使用 agent skills。 opencode 安装非常简单,这里呢有一行命令复制运行就好, 有多种的安装方式,还可以通过 n, p, m, bomb, brew 等不同的方式来安装。我们以 curl 命令为例, 一键的安装非常方便,目前最新版本是一点一点一八,使用方式与 clockcode 几乎一模一样。来到对应的项目目录,通过 opencode 命令启动命令行接口就好。 opencode 不 仅仅提供了命令行的接口,咱们还可以通过不同的方式集成到格式化的界面中,比如集成到 vscode。 今天的演示呢,我们还是以命令行为主,现在咱们输入 opencode, 在 next just ballerplate 这个项目当中运行 open code。 首先我们要做的是连接模型供应商,要配置模型供应商,咱们通过 connect meaning 来完成。 通过 slash connect meaning, 我 们可以选择自己期望使用的模型供应商。我们搜 z 点 ai, 这就是质朴大模型的供应商。 目前支持两种集成方式或接入方式,一种呢是 z 点 ai 这种,这个呢就是基于 api key。 另一种呢是 z 点 ai coding plan, 这个呢就是给予大家订阅的套餐。我们以 api key 的 方式为例, 选择 z 点 ai, 在 这里需要输入一个自己有效的 api key, 大家在智普的控制后台 api key 这里创建配置就好。完成配置后,选择自己期望使用的模型, 我们以四点六为例吧,一切就绪,那现在呢,我们就可以像日常氛围编程那样,通过问答的方式开始编辑代码了。 现在呢,我希望他对 api os 代码实现呢做一番审核。这是一个非常简单的对话场景,从功能上来讲呢, api 调用成功,我们也能够看到模型对代码的审核, 这并不是今天咱们分享的重点,我们重点想要分享的是如何在当前的这套开发环境中集成 agent skills 并且使用它。 现在我们回到 opencode 官方文档,在这里呢有一个独立章节, agent skills 做了非常详细的介绍。关于配置有两种级别,一个是项目级别的,一个是全局的。 项目级别的呢,就在 dot opencode skill 底下放置对应的技能包,而全剧的呢,是在用户的主目录底下 dot config opencode skill。 另一方面, opencode 还对 cloud 做了兼容,也就是说在 cloud 配置的 skill, 它也能够自动地识别加载, 这对大家来讲就非常的方便了。我们以全局的配置为例吧,在主目录下到 config open code, 我 们看看有没有 skill 目录。在初次 open code 完成安装后,是没有这么一个目录的,那么我们来创建一个就好。 接下来在这个 skill 目录下放置自己的技能包文件夹。在上一期的视频分享中,我介绍了自己开发的 agent skills 已经上传到了代码仓库,我们就以它为例吧,我将这个代码仓库的名字呢做了一番修改,因为用 agent skills, 那 我再声明 技能包或插件市场的时候呢,不能使用 agent skills 这个名字。咱们以 next js security scan 这个技能包为例,实际上这个技能包已经在我本地的代码仓库里,那么我将其拷贝到 open code skill 目录就好。 拷贝完毕,技能包呢,也正确地被放置在了 open code skill 目录之下,我们可以直接回到 open code 对 话界面,这里 我们直接提问他是否能够看到这个技能包,看起来呢,他已经加载成功了,接下来我们要做安全扫描就变得非常的简单了, 我们可以通过对话的方式让他对一些代码进行扫描,比如让他扫描刚才他已经阅读过的 office api 的 实现, 我们给他一些时间看看扫描的结果如何。好了,扫描完毕,现在他给到我们一个比较完善的改进报告,其中呢,对不同级别的问题呢,都做了总结。如果看过上一期视频的朋友应该能够 看出来,这个报告呢与上一期视频扫描出来的呢是几乎一样的。那上一期呢,我们是用的 curl code, 看起来 glm 模型也不错,至少在这个技能包的加持下,对安全问题安全漏洞的扫描呢,效果还蛮好。如果需要呢,我们还可以针对某一个级别的问题让它展开更加详细的介绍, 比如我们让他把低优先级的问题呢展开来介绍一下细节,我们来看看细节信息。这正是在上一期视频分享中也提及的几个依赖包的升级,在老版本中 都存在着不同的安全漏洞,扫描的报告中都给到了我们同样的建议,将这些依赖包呢升级到最新版本来规避掉安全风险。好了,这就是咱们今天所做的分享, 当然不仅限于目前我所分享这个技能包,大家完全可以将目前市场上非常热门的好用的技能包放到 open code 来帮助大家提高日常的开发效率。那大家在日常的使用中有哪些好用的技能包呢?也欢迎在评论区给咱们留言。 那今天的视频分享就先到这里吧,受限于 clockcode 访问的朋友不妨试试 opencode, 看起来效果也不错哟。那咱们就下期视频分享,再见同学们,拜拜!

大家好,我是三百零,很多小伙伴给我私信呢,包括评论区都在问用什么模型最好?呃,我首先给大家一个结论,就是大家不要去充钱到各家平台,然后使用他们的 a p i, 因为那样是非常非常贵的。呃,先 说个小结论,就是用 coding plan 是 最便宜的,每个平台都有,就包括 kimi, 智普, mini max, 还有腾讯云,阿里、火山,这这几个都有 coding plan 好,我们用到底是用哪一家呢?哪家更便宜呢?我们首先先看一个数据,就是 openroot 是 全球最大的模型应用平台啊,我们国家在前在三月份的前两周已经 登顶了这个模型调用,包括前五都是前四都是我们国家的,包括 mini max 是 第一, kimi 是 第二,然后 glm 第三。然后这几个模型呢,其实是经过全球玩家,就包括啊,国外国内的玩家验证过的啊,哪个模型是最好用的,所以我们就用他们验证过好用的模型就好了,用 mini max 跟 kimi 我 觉得是 ok 的, g o m 也是可以的。然后我们要买阔丁,不但要搞懂一个问题,什么是 a p i 请求次数,什么是 prompt 次数,还有什么是 token 剂量,然后我就先放一下,大家看一看就好了, 然后第四。呃,然后下一个是入门的档位啊,就各家其实入门的档位很便宜,就包括阿里云才七块九,然后火山才八块九,哎呀,腾讯云才七块九,这几个三,这三家大厂的价格都很便宜,但核心是还有没有能买,能不能买的到啊,因为这个我去腾讯云看了一下,腾讯云那个是需要抢的,然后火山阿里可能也还有 大家采购了去看一下,但是作为这个价格本身来说,其实也就不到一杯奶茶的钱。对于对于大家想玩小龙虾,想试小龙虾,我觉得是一个非常好的一个选择。 然后我们挨个说一下模型,首先是 kimi 啊, kimi 是 唯一多模态的,然后能够支持 kimi crow 跟 a 卷集集群的,然后他同时也是用计算 token 的, 就不会说五个小时就限流,所以我比较喜欢用 kimi, 因为我有时候会集中去开发一些东西,所以我选的是一幺九九安岳的套餐,目前还没有,还不用满, 就二十倍的这个用量我觉得还是挺充足的。然后是智普的,智普的大家可以看一下,就是四十九到一百四十九到四百六十九, 然后到 mini max, mini max 是 呃,性价比比较高,然后它是五个小时限时的,也是限限的次数,所以就看我觉得就 mini max 跟 kimi 选一个吧。然后你如果说可以五个小时 就开发不是很集中的话,我觉得用 mini max 也是没问题,因为它毕竟是全球钓用第一嘛,那肯定说明它是最好用的。 然后腾讯云的,腾讯云是每家都有啊,就 im 五, kimi 二点五, mini max 二点五,就这些都有。然后阿里云跟火山引擎也都差不多,因为三三家大厂都差不太多,都是各家的的模型,其实都有配啊,包括火山引擎这里没必要,但他也可以都用 kimi 二点五的。 如果大家不是新手的话,新手的话可以用这个中度的使用模型,但各家其实你要还有更大的需要,可以当场就升级了 啊,不同的人群怎么选就薅羊毛啊,尝鲜的就是阿里云,腾讯云的 light, 就 这些也可以选选择 kimi 二点五的模型,包括 mini max 的 模型,然后剩下这个追求极致体验的就是 kimi, 像我一样,就是你就需要去疯狂的使用,突然有时间,有有有 idea 就 疯狂的使用的,不要半路被卡壳停下来的,那你就选 kimi 就 好。 然后这是五个知识点,就是不要被请求次数迷惑,就一次提问不等于一次请求。 然后五个小时的滚动窗口的平静是很重要的,就是你们就看你们使用的这种平静,因为我自己肯定是很讨厌五个小时的,因为真的是很难受,用五个小时正正正正坐着呢,正写的嗨呢,突然就不让用了,然后你的你的虾又不能工作了,就就这就很烦,所以我用的就是 kimi。 然后涨价趋势,这个确实是已经在涨价了,就原来直普啊, kimi 他 们都有首月优惠的,现在都给取消了。一句话总结,便宜试水就是 mini max, 极致体验就是 kimi。 然后最后我列一下大家这个 coding plan 的 网站,大家可以啊,截图保存,然后后面有需要可以去去去去购买。 然后我最后再给大家再看一下这个模型的调用啊,就是我给大家讲了这么多,其实你可以可以了解到大概各家的一个情况。然后首先呢,我觉得 最好还是 mini max 跟 kimi 里面选吧,因为这是全球人民验证过的,既然验证过咱就不去验证了,咱也不是什么特别大的,也没有数据支持,也不是什么特别大佬,所以用别人验证过的东西就好了,就 mini max 跟 kimi 选一个吧。啊,这是我的建议啊,我的分享到此,谢谢大家。

在 opencode 数十万 token 的 压力测试中, blm 四点七 flash 跑出了零次工具调用错误的离谱成绩,这在 agent 和编程领域 绝对是降维打击级别的表现。但先别急着上车,这模型有个非常严重的毛病,患有过度思考的强迫症。今天直接上硬核评测,带你看清它到底是神还是坑, 别被刚才的 bug 吓跑。这模型在写代码上是真的有点东西,社区用户 aggressive ding 九九三能给他一个极度复杂的物理模拟需求, 六边形容器加上库伦利和克里奥利利影响的弹球系统,结果怎么样?巴比特量化版本,一次通过代码直接能跑,甚至还顺手加了粒子效果。这说明他不是死记硬背代码库, 他是真懂物理公式。再看前端,让他写个宝可梦对战 u i, 他 不仅逻辑对,连三 d 动画精灵和复古 crt 显示器的滤镜效果都给你整出来了。在七十 b 参数以下的模型里, 能兼顾逻辑正确和审美在线的他是独一份。那么对比竞品,他到底排第几?社区大神实测下来,结论非常清晰,尹伟达的 demo 三十 b 像个严重的偏科生,搞科研读绘册的论文他是神, 带上他去调用工具干活,表现非常拉垮。 q n 三三是弊呢?太全面导致成了个话痨,为了听起来聪明,喜欢疯狂输出废话,而且上下文异常容易崩。所以选型建议很简单, 如果你要搞科研分析,就用 demo tron, 如果只是日常聊天选 q n, 但如果你是要跑自动化流程写代码这种粗活累活, glm 四点七目前绝对是你的首选。 刚才吹完优点,现在必须泼盆冷水。这模型目前最大的雷点叫过度思考。这就好比你问他几点了,他先思考人生意义,再辩论时间定义,最后陷入无限循环。社区实测,甚至让他跑个最简单的 linux 查找命令, 或者写个打印一到十的拍算脚本,他都能卡在思考阶段动不了。如果不调参数,这就是个患了强迫症的哲学病患。在写代码的时候, 这个毛病更隐蔽,也更搞心态。在 open code 的 环境里,他有个奇怪的坏习惯,喜欢在文件路径里随机加拼写错误。这还不是最糟的,最糟的是,当他发现找不到文件,他会尝试自我修复,结果修复的时候又引入了新的拼写错误。 就这样,本来也是想搞个自动化 a 阵,结果他变成了个自动化报错机,钱烧完了,活还在原地。 要想这模型能用,部署时有两个开关必须关,否则就是灾难。第一,用老妈妈 c p p 的 启动参数,必须加杠 fa 零,把 flash attention 关掉。现在的 fa 实现是坏的,关了它,推理速度能从每秒六十个 token 直接飙升到一百一十个。第二, 用 b l l m 跑代码任务的,必须禁用 m t p 做 token 预测开了这功能,且代码的成功率只有百分之一, 直接废掉,再来治他那个爱钻牛角尖的毛病。只要动两个参数 temperature, 温度从默认的一点零降到零点六,这能大幅减少他发神经自我变动的概率。第二,这点最重要,彻底禁用重复乘法, 把 repeat penalty 设成一点零或者零。这模型对惩罚机制极度过敏,只要稍微开一点,他就容易把自己绕进死胡同里出不来。 最后给个硬件预警,别以为三十 b 模型只吃显卡,因为 m l a 注意力机智的原因,这货是个内存刺客。 l m studio 实测加载后,除了显存,它还能额外吃掉你二十四 g 的 物理内存。 所以想跑六十四 k 以上长上下文的朋友,如果你的电脑只有十六 g 内存,哪怕显卡再强也跑不动,赶紧去加内存条。 这里分享两个只有即刻才会关注的硬核细节。首先,如果你想测试一个模型的量化损耗到底严重不严重,别只看英文去测俄语, 俄语是对量化极其敏感的语言,很多模型量化到 f p 八以后,英语看着还行,但俄语输出会变得像阿兹海默症患者一样破碎。 glm 四点七 flash 的 量化分水岭就在这里。 其次,这模型的安全对齐有个搞笑的漏洞,当你尝试越狱让他骂人时,他的思考过程会明确识别出你在尝试越狱。 但只要你在提示词里稍微加一点分类标签,他虽然嘴上说着拒绝,身体却会非常诚实的把脏话吐出来,这说明他的安全层和执行层之间逻辑还没完全打通。 最后直接给结论,如果你选存货内存小于十二兆,或者你是个讨厌折腾参数,追求开箱即用的小白,赶紧划走,这模型不适合你。但如果你需要一个本地的自动化编程助手,并且愿意花上半小时去调优温度参数和提示词,那么在三十币这个级别, 他的代码生成和工具调用稳定性目前是绝对的王者。他不是完美的,但他绝对是一个能帮你干重活的硬核工具。行了,干货就这么多,下期见。

国内的模型基本没怎么用,结果想买的时候试一试,发现买不了了,包括阿里云、百联和智普 ai, 智普的 g m m 也用不了了,每天都需要去抢。刚才我去十联讲了一下,发现它的网页是在转呢,跟抢票一样。 所以大家啊,早买早用,现在这个 kimi 还是可以用的。这个 kimi 还能用,赶快去买一下。我建议买个四十九到或者九十九的都可以,我买个九十九的 kimi 还是可以用上,感觉跟克拉扣的是有些差距,但是便宜,大家可以试一试,尽早用 其他的模型,比如说迷你 max 或者是 dipsic, 这些还是一般,有的说迷你麦草, 目前迷你 max 是 它的,这个定制 plan 是 可以用的。我买了一个 plus, 先试一试。刚才试了一下啊,还行,但是你要让玩龙虾比较贵,我不太建议用龙虾,用迷你 max 有 点贵了,我可以用本地去部署, 或者你就用一下提米豆的就可以了。还有庆大家一些,这些 ai 的 层出不穷,一个月一个版本,所以我建议大家就买一个月就试一试就得了,不要开这种连续包年的。这种的你看比如说前两天刚 充值 cds 二点零的,现在又出了新模型,所以一个月左右基本上就过时了,所以大家还是自己看一下,如果有钱无所谓,可以试试用这种单月的。


今天晚上九点钟左右,最新的 clock code 公布了一个 gm 五点一的一个公测的一个模式,然后我就赶快的去重新新建了一个 api, 然后用了这个 gm 五点一, 感觉还不错,确实它在这个工具调用,还有它在任务运行上 以及长时间处理任务的这个能力上都要比 gm 五,就是我最近用比较多的一个模型要强。可以看到我问了他一个问题,我问他他的优势在哪地方, 他告诉我在工具集成上,编程能力,还有一个多智能体写作以及持久记忆上可能会有一定的优势。 然后直接所以我直接让他连一个这个我的 unity 的 一个 mcp, 让他在这下面帮我去做一些跟游戏开发相关的事情, 然后发现他很快的就习得了一个 skills, 而且他应该是进行一个并行的这么一个模式, 所以我觉得现在这个模型的一个趋势就是会越来越强,在这个长期记忆和这个工具调用上都会越来越好。 嗯,但是呢,有个问题就是要看你的需求是什么样子的,如果你是专注一个 coding 的 这么一个情况下,我认为这个五点一是个很好的选择,就是他可能会啊,在回答你问题的时候去专注于这个代码层面,他可能不会专注你个具体的问题的,就是回答上, 所以我认为他是对一个这个代码开发者是相对友好的,然后, 嗯,相对来说,如果你要去做一些其他的事情,对吧?呃,也不一定说用这个 gm 五点一可以切换成其他的,对应的稍微便宜一点的东西也可以, 但是不得不说新新出来这个五点一我还是很喜欢用的,然后就期待在大家的一个评价。

今天这个视频教你无痛安装 cloud code, 在 国内的网络环境下,用上 cloud gpt 等国外的顶尖模型,有些人可能还不了解 cloud code 是 什么,先简单介绍一下。 cloud code 可以 说是现在最强的 ai 编程工具, 再加上最近爆火的 skill 加持,很多人也用它写作、学习、做数据分析、办公等等。 cloud code 可以 说是现在最火热的 ai 助手之一,网上有很多的安装教程, 但是实际上你去安装就会发现不是那么回事,网络限制、安装配置中出现的各种问题能把你搞得焦头烂额。我也是看了很多的教程,结合自身安装过程中遇到的一些坑, 整理了一份 cloud code 在 国内网络环境下的安装使用指南,这份指南能帮你省下几个小时的折腾时间。接下来我会将原理和操作方法用通俗的语言给大家讲明白。好了,我们开始。 首先在安装 cloud code 之前,我们需要做好前置准备。 windows 电脑需要先下载 git, mac 系统自带 git, 无需下载, 不去这个网站选择 windows 叉六十四 setup 这个版本下载。安装完成以后呢,在 powershell cmd 中输入 git vision, 如果能输出正确的版本号,就代表 git 安装成功了。接下来要安装的是 node js 跟 npm, 我 们去这个网站选择适配自己的安装包下载即可。安装完成以后呢,如果你是 mac 用户,在启动台搜索终端, windows 用户在开始菜单里找到 git bash。 为了讲解方便,后面我们统一把终端和 get bash 统称为命令行。接下来我们在命令行输入这两条指令,如果都能显示版本号,就代表 node js 和 npm 安装成功了, and code 安装的所有的前置条件就已经完成了。 接下来我会手把手教你安装和使用 cloud code。 具体从哪里下载呢?我们有两个选择,一个是 npm 的 官方源,一个是国内的镜像源,你可以把它们类比成一个软件仓库, cloud code 也发布在这个仓库里面。那所谓的镜像源呢,其实就是官方的软件仓库同步复制了一份,那因为默认的 npm 源在国外 我们访问不是很方便,所以我们选择国内的镜像员下载 cloud code。 接下来是实际的操作步骤。首先我们打开命令行,输入下面的命令回车执行,然后再输入这条指令, 如果显示我们刚刚配置的镜像员地址,就代表我们已经成功的切换到国内的镜像员了。接下来你只需要在命令行中输入这条指令,回车执行即可安装。那这里要注意一个常见的问题啊, 系统可能会提示权限不足,这个时候你就只需要重新执行这条命令,输入管理员的密码。这指令的意思呢,就是我要用管理员权限强制覆盖安装 cloud code 的 最新版本。当安装完成以后呢,你在命令行输入这条指令,如果输出版本号,就代表 cloud code 安装成功了。 第三步是给 cloud code 配置模型。我们首先要去模型供应商平台开通账户,获取 api key, api key 相当于你在模型平台开户的凭证, 可以自己去创建获取。另外呢,要有可用的 token 额度,你可以在平台充值或者购买套餐。对模型供应商呢,大家可以根据自己的需要去选择, 你像国内的智普 glm 五、 mini max 的 m 二点五都是不错的编程模型。如果你想用 cloud opera、 四点六、 gemini、 三点一 pro 等国外的顶尖模型啊,因为国内的网络环境问题,你可以通过一些合规的中转站去订阅。 接下来我们就要把 api k 请求地址给到 cloud code, 在 这里我们用到一个叫做 c c switch 的 工具,下面是具体的操作步骤。首先我们去这个地址下载 c c switch, mac os 系统下载这个版本, windows 系统下载这个版本安装完成以后呢,打开 c c switch, 选择第一个标签 cloud, 点击右上角的加号。 第二步呢,选择要接入的模型供应商,如果没有我们需要的供应商,可以选择自定义配置。这里有三个最重要的信息需要注意一下。首先是 api key 和请求地址, 这两个是我们必填的,也就是前面我们在模型供应商中获取的信息。请求地址呢,在 cc switch 中,根据选择的供应商已经预填好了,一般在模型供应商平台的 api 文档中也能看到 行信息是选填的,但是也建议你指定一个模型,因为有些供应商会支持多个模型,换人情况下,你不知道他选择哪一个模型。接入 cloud code, 这里要注意的是,填写的模型必须是供应商支持的模型,否则 cloud code 会无法识别。那其他的配置信息呢?保持默认即可。 配置完成以后呢,我们选择一个供应商起用,后面你也可以切换至其他供应商,这样 cloud code 就 能够接入不同的模型。 不过要注意的是,每次切换供应商以后,都需要在 cloud code 里面切换模型,这样配置才能生效。那把 cloud code 装好了,模型也配置好了,接下来我们终于要使用 cloud code 了,我们在命令行中输入 cloud, 然后回车直行,这样 cloud code 就 被起用了。 当我们在 cloud code 里输入这个指令,回车直行,就会弹出模型选择的列表,我们用键盘的上下箭头选择第一个默认的模型,也就是 c c switch 里起用的那个供应商。接下来你就可以指挥 cloud code 帮你干活了。 在选择和切换模型后,啊, cloud code 可能会出现找不到模型的情况,这个时候你可以进行下面这几步排查。 首先你可以退出克拉的 code, 重启后再试一下,如果还是不行,你就要去核实一下 c c switch 中的 api key 请求地址,模型的名称是否填写错误,微商平台是否有充足的余额和套餐。 另外,我还整理了 cloud code 的 三类常用的指令,放在了指哪里。第一类是启动类的指令,在中单命令中执行,包括 cloud code 的 重启,继续上次对话,查看历史对话记录。第二类是对话类的指令,在 cloud code 里输入斜盖,你就能查看所有的绘画指令。 第三类是安装卸载类指令,前面我们安装的时候也已经用到过一部分。最后再给大家分享一个小技巧,如果你在安装和使用过程中遇到了任何你解决不了的问题,你可以连同问题和截图一同给到 ai, 你甚至可以直接给豆包共享屏幕,让他现场指导你。一般情况下,大部分问题都能够解决。这份 cloud code 的 安装指南除了有详细的安装步骤和注意事项,我还对用到的一些技术概念和工具做了小科普,如果你想要这份安装指南,我可以分享给你,而今天的视频就到这里,别忘了点个关注,我们下期见!

在 opencode 里面使用密报免费的大模型,需要在 opencode 里面首先注册,注册之后过提到你的 a p a, 然后复制到你的 a p a, 到 opencode 里面找到你的急风声,要点击 opencode 做你这个模型, 复制你的 api, 点击确定,然后在配置里面去找到你需要用的两个 free 模型,一个叫做 miimo v 二 pro 的 free 模型,另外一个是叫做欧米的一个 free 的 模型,它俩点开,然后就可以使用了。

大家好, opencode 平台又给大家送福利了, opencode 重新支持了 g l m 四点七、 minimax m 二点一以及刚刚发布的 timi k 二点五。 g l m 四点七是智普 ai 的 编程专用模型,代码能力已进入第一梯队。 minimax m 二点一支持 rust、 java、 golem、 c 加加等多种语言,在复杂任务处理上表现优异。 这两款开源明星模型现在全部免费可用。重点来了,听力 k 二点五,这是跃之暗面迄今最智能、最全能的开源模型,具备五大核心优势,原生多模态 agent 集群编程能力、成本优势和榜单成绩。 第一,真正的原声多模态提米。 k 二点五能直接理解图片截图,甚至视频上传界面截图,它就能分析问题,提供解决方案,包括上传 ui 设计稿、自动生成前端代码、拍摄数学题照片获得详细解答、录制操作视频,让 ai 分 析优化流程。 第二,首创 agent 集群能力。面对复杂任务, timi k 二点无可自主创建最多一百个子智能体,组成团队并行工作,一键让一群 ai 来打工,效率提升十到一百倍。 第三,编程能力大幅提升。 timi k 二点五之需,一句自然语言就能生成完整网页应用,连复杂交互效果都能搞定。 swbench verified 得分七十六点八分,支持复杂交互与三 d 场景模拟。 第四,性价比堪称传奇,性能与 g p t。 五点二相当,成本只有二十分之一。 g p t 五点二,每百万 token 需二十美元, kimi k 二点五之需一美元,节省百分之九十五成本,用更少的钱办更多的事。第五,榜单成绩亮眼。

看好了,不登录、不绑卡,没有网络问题,国内顶尖模型免费用!打开终端,输入命令,敲下回车,立刻就能开始生成代码,这就是能力比肩 cloud code 的 同时,完全开源,完全免费,完全开放的 ai 编程界新星 opencode, 全平台支持安装使用超级简单,全部只需要这一行命令就可以完成。 mac 下还可以用 homebrew 安装。官方网站有非常详细的功能说明和完整的配置项列表可以供我们参考。 如果你不想看英文的话,也有这个中文站,有完整的官方文档翻译,可以帮助我们快速的上手使用。更加劲爆的是, open code 完美支持 cloud 的 agent, 直接把 md 文档复制过来,立刻就可以使用。 所以最最无敌的是社区还有这个 o my open code 的 插件,提供了开箱就可以使用的赛博研发军团。 看看这些真实的用户反馈,下一期视频,我来介绍一下他的详细用法。当顶级的工具已经免费并且极低门槛就可以使用的时候,决定你和高手之间的差距,就只剩下行动力了。不要收藏了,现在立刻马上就去把它安装起来,用起来!关注我,带你玩转 ai 编程!

现在是深夜三点钟啊,睡不着又起来整这个东西了。这个 open ground 啊,我又刚刚给它换了一个模型啊。呃,之前昨天换的那个模型, open rota 那 个,那个模型太垃圾了啊。 呃,那个模型很傻,干不了事情。好,现在给它换了一个智普的一个 g m 的 一个模型。呃,好像是。换的是哪个来着?我看一下啊。 换的是那个四点七的好像四点七 fresh 那 个免费模型啊。换一个免费模型,然后测了一下,测了一下。昨天那个功能啊,昨天用那个千问。昨天那个功能啊,就是还是还是还是那个团的功能。在粉丝列表中找到韦总, 然后去他的主页,在他第二条视频下面去评论。深夜招访,留下印记。好。呃,刚刚执行了差不多五六分钟。 呃,支持蛮久的时间啊,它也最终也实现了这个功能。呃,我不知道它什么时候加进去的,我一直以为它没有成功,因为它在这里一直卡死了,一直卡在这个位置,一直卡死了,它没有去。呃。有一个成功的返回,但是后面这里它又显示。我看,我打开看了一下,它这里又出来了。 哎,不知道怎么回事。好,反正现在用的话呢,这个 gm 的 这个字谱的这个模型还可以,也比较智能,反正比那个 open road 好 很多。好,后面就暂时先用这个吧。 呃,我看到网上啊,那个 opencloud 的 那个开发者就是那个作者,他用的是那个 mini max 啊。 mini max 它是一个付费模型,好像也很聪明。我本来想用那个的他。呃,但是后面有人说这个还可以。那我先用着这个吧。这个反正也挺聪明的,我先用着吧,后面如果说有需要再用其他的吧。好吧?好。

我觉得现在最适合用这个 oppo 靠的模型呢,实际上可能是阿里新推的这个服务啊,这个东西叫这个扣丁不烂是吧?呃,为什么呢? 就之前吧,就是续费了好几个这种模型,然后呢?你续的不多,但它其实用量还挺大的,你看昨天晚上我就大概一个小时,我就把 kimi 的 那个十五元的 top 的 额度也就一个小时我就用光了。 我算了算,调用其实也不多,但是因为你在欧风靠的调用和你日常对话的调用是不一样的。今天我想打算试试这个阿里云百炼,简单说一下这个东西怎么回事啊?他其实就是把几个常见的这个模型给打包了,打包了以后有一个专属的调用地址和专属的 api, 来看一下它的指南。它是这样的,整合了这些顶级模型,然后还兼容主流的编程工具,就比如说我们 用的那些 id 类类的工具哈。如果你要是正常调用,他有的时候会限制速度或者限制这限制,那如果你一定想使好的模型,要么你去买会员,要么去升级,是不是他通过固定的费用?其实我算了算,应该是还是挺便宜的,虽然不至于到这个可调用的一折,但还是挺便宜。 然后它现在有几个基础的模型啊?这个千万三点五过年的时候推出的,很牛。据说啊, kimi 呢,也是刚推出不久,然后 mini max 当时那阵刚推出的时候也火了一阵。 glm 那 个五现在可以对标,他说可以对标那个叫什么来着,那个很牛的那个。 然后它有更多的就是千万三的 max 模型,这也是版本挺新的,二六年一月二十三号的,然后加上这些小模型啊,这无所谓,就是我们理论上如果你的调用次数差不多,那么你根据你的任务来选择不同的有特色的模型就可以了, 尤其是千万的这个和 kimi 的 这个都支持。图片理解费用上啊,首月七块九,其实你看的挺便宜,对不对?然后这个高级套餐呢,是三十九块九,就真的是特别便宜,但是价格上你看啊,首月七块九,次月呢是二十,也就是说他的正价是四十块钱,第一个月呢是便宜,然后第二个月呢是五折,第三个月就是正价。 呃,我猜两个月以后可能在这种东西上可能会有更多的爆发。呃,其实现在我我印象里火山就有这种类似的这种打包的这种服务,但是呢,一呢他的价格不便宜,二是他好像我查了查,他没有明确的说他支持那个 oppo 扣,这个呢是明确的说了他支持这个 oppo 扣,然后即使是最贵的这种 两百每月,那也真的是不算贵,因为你如果真的深度用了,你把两百的额度都用光的时候,那我认为你值得在这个上面花更多的钱。然后那个那天我还看到论坛上就有一个人说我除了租房子吃饭和日常开销,我把所有的钱都用来买陶坑上,哈哈哈,其实这是很有意思一件事啊,我觉得真的挺贵的。 我,我查了查我的用量限制,我觉得我用的不算多,但是其实也不算少,我其实在很多工作上都是在在那个詹妮的那个网页上去完成的,因为很多时候你要做调查呀,做一些文本的生成啊,那些东西他那个 pro 的 版本就完全能搞定了,因为我有个 pro 的 版本,但是如果按照他这个标准, 每五小时一千两百次请求,我现在是达不到的,但不知道我买了这个套餐以后会不会达到哈,我回头再测一测。那我认为新手呢,你就花七块九加上二十块钱,先用两个月, 对吧?然后当你发现不够的时候,你去升级那个就可以了,你就直接干到二百一个月呢。其实也没啥,二百块钱一个月也就是个电话费吧。我现在已经买完了, 买完了以后呢?他现在剩余天数二十八天,我不知道他为什么是二十八天,明明买的是一个月对不对?这个是不是他的 bug 按照当月天数计算的?那你们要不要搞到下个月再买二十八天?你看他是按照这个算的,上个月的二十六号到下个月二十七号对不对? 这个就不对了,这个非常过分啊,明明是一个月,所以我打算提前使光呢,呵呵。然后我们获取了这个东西啊,它有专属的 api key, 然后呢,怎么配置啊?这里面说明,我们来找说明配置, 看 open 框中配置这些东西,实际上不要被它这种东西吓到,如果你的 open 框现在正好用的状态, 你就把这段命令考下来。怎么写啊?我这就写了,我现在咱说说怎么配置哈,就首先呢,第一步就是修改配置文件,哪个配置文件呢?就是这个东西啊,但是呢,我们在 open 里可以直接跟他说,这是我上面已经配置完了,我重新演示一遍怎么配置,就跟他说修改配置文件啊, 然后呢?把这句 copy 过来啊,这这段啊,把这段 copy 过来,然后你可以把你的 apk 呢替换到这,我懒得打码,我也就不替换,放到这。然后呢?就这样呢,这个命令就搞定了,你回车, 回车以后就是我刚才的配置,那我已经配置完了,他现在就告诉我有这些可以用的了,然后同时它底下呢,还有一段,你可以直接考过来, 然后站到这,然后回时它就会自动把你这些东西都改好。看到没变更的载药就是什么呢?它其实就是告诉你默认模型变成这个,主模型 变成这个,然后移除了原先的什么什么,这些,就移除了原先其他的所有模型,然后把其他都移除了,我还有钱在里面。其中我认为比较好的几个,特别好的四个主流四个模型就是 kimi 的 二点五,对吧? g m m 五, 然后迷你 max 的 二点五,这个也不错,迷你 max 二点五。我发现他好像在写程序上更有优势。也是这样的,我的感受上啊,因为他的代码他理解的更快更好。然后这个是个多模态模型。嗯, kimi 应该是多模态吧,我记着这两个是多模态模型,如果你需要用到图片处理,尤其是处理本机的图片的时候,这两个模型非常好。 到了这步你的七块九已经发挥作用啊。至于接下来怎么用,那其实还是靠大家去想象。我之前因为这个模型的用量问题,我现在想都给他背地里的任务, 我现在都给他加回去,加回去以后我看看他这个调用的数量到底能撑多久啊?我每天会监控他的用量,我把他这个用量记进去吧, 非常好。我觉得整体来说这下就算完事了,至少我这个月应该不会特别为掏坑的续费吧?因为每次他如果出问题的话,你很难发现,除非你里面充特别多的钱。

智谱刚发布首个原声多模态编程大模型 glm 五 v 杠 turbo, 它的核心绝技是看图写马。你画一个手绘的音乐播放器草图,它就能给你一个高级感满满的 app 界面,还能直接播放音乐。你丢一张抽象的光影图, 它就能用代码生成一段炫酷的交互艺术。你截一张手机 ui 图,它就能给你一个可以旋转、可以拖拽的三 d mockup。 你 看一段网页录屏, 它就能复刻出同样的三 d 交互效果。你上传一张二次元图片,它能理解其中的意境,直接生成一段 low f 风格的音乐代码。看图说话的开发,新时代前端兄弟又有福了!

大家好,大家在使用这个 opencloud 的 过程中呢,经常会碰到 opencloud 自己啊把自己搞死,或者是没办法自己解决自己的问题的这么一个情况啊。虽然 opencloud 的 基作大模型你可以变得很聪明,但它有时候自己啊解决不了自己的问题,这时候呢, 呃很多人就会去查各种资料,但是我告诉大家一个方法,就是说,呃腾讯的这个 code body 或者 q order, 或者是字节的 t r e 啊,然后把它的 c r i 格式,也就是它的命令行格式扣的类似卡扣的方式把它装进去,然后呢,你让它去监控和帮你排错 openclaw 的 一些问题,因为这些工具呢,原生都是命令行形式,所以它天生啊对 openclaw 这种呃 ai 智能体验非常友好,你就可以把这个,比如说你在这个 windows 的 这个 command line 这个窗口, 你可以把 command line 一 p 为二啊。左边这个是比如说 code body 这些 ai coding 的 命令行工具,右边是你的预制,或者是你的一些其他做测试的地方,你就一点点提出你的问题,让它自动的去执行。那我觉得这个呃 opencloud 的 微信里插件呢?呃,在装安装过程中啊,他经常没有办法把拍好的这个照片发给我,他自己说呢,是自己没有这个能力啊,还给我展示证据, 这个我当然不相信了,我就问了这个 codebody, 他 检查了设置,明明是 ok 的, 然后呢,最后这个 codebody 啊,就辅助给我写了一个 skill, 放在正确的路路径下。然后呢,我通过微信啊,让 opencloud 重新去执行, 只经历几次,他就嘴硬,我后来说你自己要去查这个 skill 目录下的相关技能啊,不要自己在那儿幻觉, 因为 cobaby 告诉我它其实是 ai 的 一个幻觉,所以在这时候呢,我们其实不能够百分之百相信大模型的,因为大模型它本身是一个概率模型, 你的脑子里面出现问题,出现幻觉,这个是没办法的,必须有一个强制的外部手段去给你纠正。所以我们在 skill 里面加了一句,不要盲目的相信自己的固有的一些知识,要去认真读啊, skill 里面的这个关于这些技能的一些详细的代码描述才可以。 所以呢,到后来我就自己啊,举着这个手机,对着摄像头,在我这个上面有一张照片,然后用这个摄像头,用这个摄像头去让他拍,然后拍完以后发给我,并且可以描述出我这个里面的 一些图里面有什么东西,这是非常好的一个最佳实践。呃,是什么意思呢?就说大家以后都碰到 你的这个 open class 也好,或者你的各种啊,国产的这种龙虾啊,如果没有办法解决啊,最好的办法不是自己去解决,去找你要,而且你要找另外一个智能体帮他辅助解决,最好是那种 ai code 的 智能体,不要找另外一个龙虾,因为它太费 talk 了 这些,呃,跟编程啊配置相关的东西,你找这个 ai 拣定的工具啊,是最方便的。

大家好呀,嗯,喉咙不太好,今天想跟大家来分享 open code, 呃, 我为什么会去找 open code 呢?就是双休日这个事情大家应该也知道,在 ai 圈已经非常的火爆了, open code 本来它它是支持 cloud code 接入的, 包括其他的一些闭源的模型。那嗯,卡洛克的发现之后呢,就是禁用掉了这个介入的方式啊,而且给很多的那个用户发了一个消息,是说不支持第三方进行介入,并且可能封了一批账号。那这个事情可能就是引起了一个非常大的一个, 就是双方的一个队列,那个 open ai 他 首先进行一个介入,然后包括智普的那个 g l m 的 四点七。 那嗯,因为这样的一个事情,让一个普通的用户就接触到了这个 open code, 我 就去试试了一下。那下面给大家来演示一下,就是说我们,呃,作为一个 webcoder, 我 们怎么去安装这个 open code, 以及我们在 open code 里面我们可以拿到一些什么样的便利。 那其实 opencode 的 一个整体安装是非常简单的,你只要去他的官网,你打开 opencode 的 点 ai 这个官网,然后在他的页面复制个安装命令,然后打开你任何喜欢的工具,包括你的终端或者是我比较喜欢的壳子,那我在我的壳子里面直接去黏贴这一行命令,那么它就会进行一个安装了,对,非常的方便。 然后在安装好之后呢,你就可以直接去打开,然后可以进行 hello world 的 一个沟通,对方方法跟那个 codex 或者是 cloud code 都是一样的啊。 然后呢,嗯,我认为就是我在 open code 的 里面能拿到就是得到什么样的,就是帮助你就把那个斜杠 model 打出来, 对,写个 model, 然后这里就有一个 list models 啊,然后你就可以看到它有四个免费的模型,那对我来说可能四点七的吸引力就会更大一些,因为之前四点七出来的时候,它的一个整体跑分就非常的高,对吧? 嗯,那我其实是呃,想把这个 g l m 的 四点七用来补充我的 mobile ai 以及那个呃 cloud 的 一个整体的一个限额不足,因为我目前整体在跑的有四五个项目,就是如果一天跑大概八个小时下来的话,我的限额就是不够的,那我需要如果他有一个免费的模型能够让我去跑的话就, 嗯,对我来说就是节省一笔很大的开支。然后其他的就是跟 cloud 的 或者是 codex 都是一样的啊,你可以硬点它, 对吧?你可以一个去创建一个它的 agents md, 然后有一个 mcp 的 接入,有个 sim, 它这里的 sim 又非常的多,你就可以去选择你想要的那个 展示的样式啊。所以他对一个用户的一个交互其实比较看重我,我觉得就是对于我来说没有什么站队不站队的,就是你哪个哪个生产力工具最贴合我们,然后对于我们的一个成本控制,或者是嗯,特别的友好,那我觉得就是我是愿意去尝试的。嗯,我也不是非常忠诚的说我一定要飞 cloud 的 口的,不用,嗯, 当然了, cloud code 的 那个模型是很 ok 的。 对,所以我觉得大家 codex 也可以去用一用。对,嗯,今天就分享到这里,拜拜。

我啊,最近用 cloud code 泄露的代码干了个大事,很多人也就是了解一下那个代码的思路,但是不知道和自己有什么关系,我就把微信找了个分析的文章, 加上这个源码文件,让 ai 分 析了一下。然后我让他根据我的需求把 open code harness 环境给搭建出来了,当然同理也可以用来完善小龙虾的 harness 环境。 这 harness 大家可以去查一下,意思就是如果 ai 模型是发动机,那 harness 就是 整个汽车的其他零部件系统,车机系统不搭好,发动机再牛也发挥不好。你看啊,我先让他分析这些代码分别是在干什么的, 哪些值得我来学习的。可以看到他给我做了一大堆的这个分析,对吧?包括这些总开关和启动器,以及它的干涉,很像机场的总调度等等, 做了一大堆的这个分析,但关键的是什么?他告诉了我该如何学习,学什么是适合我的?他告诉我哪部分是值得学习的?首先怎么自己做自己的 ai coding 的 harness, 他 建议先学这六块。 然后呢,我又让他告诉我的 coding 和写作的 harness 有 什么可以值得调整和建议呢?他给我做了这样的一些分析, 可以看他说基于你现在的 coding harness or writing harness 应该做哪些调整?我现在已经有双 harness 体系了,那么我之前因为也配置过一些嘛,那现在他该做哪些调整和升级?他给我做了各种各样的分析和建议,包括小修小补, 或者说来做一个共享的这个 run time 的 这个内容。这个 run time 啊,我也是之前没有接触过啊,那接下来我来问他这个多模式的 run time 是 怎么来理解的? 好,这个就有意思了,他告诉我这个多模尺的 run time 呢,是同一套底盘,不同任务切不同的工作档位,不是做四个独立机器人,而是一个模式。如果说再像我刚才举例子把它比喻成一辆车的话,那 run time 呢,是底盘和发动机, 然后呢,剩下他给我配置那些模块,其实都是整车上面的那些相应的一些零配件和系统,可以理解为一台引擎加多套工作方式加明确的切换原则。那么因为我有写作和开发两个需求,那它就需要两个模式来回的切换。然后呢, 我在一边学一边理解和它的推荐,下面慢慢慢慢把我的 open code 的 整个一个 harness 的 系统给完善出来了。 后来呢,我就觉得非常的好用,非常的智能。这次的经历让我发现什么呢?首先我们学习的方法可以把比较有深度的文章和内容让 ai 来协助你升级你的系统和认知, 很多时候我们能看懂,但不一定知道自己该怎么用。然后就是 agent, 虽然现在很火,但是到底怎么用,根据不同的应用场景还是有很多不同的解决方案的,应该和 ai 多讨论,手托出更适合自己的工作系统, 我称之为 vibe walking。 具体下次我详细来分享这个内容,因为我目前啊已经跟很多企业团队做了培训了,今天就到这里关注我, ai 时代,我们一起前行。

hello, 大家好,我是 d p, 今天是二零二六年的三月十日, open a r 在 几个小时前对 codex 中免费账号的使用模型进行了限制,简单地说,取消了五点三 codex 和五点四两模型。录一个视频跟大家分享一下相关情况。 首先我们来看这次 oppo ar 的 限制的具体情况,我们能在使用中得到的错误信息就是图上这一条,比如说这次是 gpt 五点三 codex 这个模型不再支持在呃这个账号在 codex 里使用。 然后这次限制的主要情况是针对免费账号取消了 gpt 五点三 codex 和 gpt 五点四两个模型的使用权限。当然这也是我们 用的最多的两个模型,保留的权限是 gpt 五点二和 gpt 五点二 codex, 然后付费账号不受影响。这时候我就需要拿出 五点二和五点四的对比图,五点二里如果使用 codex 的 话,应该用的是 gpt 五点二 codex 这个模型,那么从对比上来发现编程能力还好,唯一的差别我想呢,就是可能五点二会慢一些, 毕竟五点四本身就已经加速,还有 fast 模式。然后目前这样看,好像 免费账号也没被限制到完全不能用。但是我想问大家一个问题是,免费账号的限制真的就到此为止吗?给大家三秒钟思考一下。一二三,好,我相信大家心里已经有答案了。 据这个问题我有一些思考。首先是一个五万个账号的故事,这是一个粉丝告诉我的,大概的意思就是说他们有一个群,群里面每个人都有几千到几万个账号不等,都是免费账号,大家都用的很嗨。 呃,后来我去了解了一下,确实有相关的技术实现或者什么,然后,但是我本意不愿意相信这是真的,因为这这个数字实在是太疯狂了,所以我就说这是一个故事。 基于这个故事,我当时就在想,这个免费账号被限制是早晚的事,但没想到来的这么早。 然后后,后来我又联想到了被限制的 antigravity pro 订阅的配额,然后我又联想到了这次的 codex 的 免费账号的限制,然后我心里就在想,下一个被限制的会是什么? 所以我想跟大家,我就是我们大家应该能有一个共识,就是一定会有下一个,对吗? 好,那么接下来的问题就是我们该怎么办?因为我们是一群一定要使用 ar 的 人,我们不可能说因为你限制了我们就不太用,我们有些人会就是去找下一个,但我们留下来的人怎么办?我们需要稳定使用的人怎么办? 这边我提供一下我的一些想法,算是抛砖引玉吧,这是我未来的一个计划。首先我有一个付费的 codex 账号,然后我会用它来完成百分之六十的编码工作。 呃,这边多提一句啊,就是 codex 其实已经很快了,可以可以适应到一个正常的工作流程,但是里面需要一些技巧,这个我们稍后说。 然后我还有 antigravity 的 pro 账号,我会用它负担我百分之四十左右的工作。这百分之四十是这样分配的,首先 u r 设计相关的工作大概占百分之三十,会有基利纳三 pro high 这个模型来完成, 然后剩下的百分之十会交给 opus 四点六,差不多是这么一个比例。这边再提醒一句,就是 codex 在 我的测试中已经足够优秀了,它没有那么的慢 呃可以负担我的百分之六十的使用场景,我相信对大多数人来说也是 ok 的, 所以如果没有尝试 codex 可以 开始尝试一下。但是如果你的 codex 在 使用中会有点慢或者什么,那就代表可能你设置的有问题,或者说可能你选择的方案 技术路线有问题。这个我们再说,反正是有一点技巧在里面的。然后稍后我们会推出 codex 的 一些相关视频,目前我还在准备中,也感谢之前跟我联系的几位呃 codex 大 佬提供的一些技术支持,非常谢谢,也欢迎有经验的 codex 用户继续呃发私信跟我联系,提供相关的技术支持,我们一起来完善这件事。 好的,这就是这一期 open a r 对 呃 context 中免费账号可用模型进行限制视频的全部内容,希望这期视频对大家有帮助, 如果可以,请帮忙点赞和转发,如果有相同的经验想分享或者遇到相关问题,欢迎留言,我是 d p, 祝我们大家一切顺利,谢谢!