近期好多同学问主播,面对众多国产大模型,我该如何抉择呢?近期新推出的 glm 五迷你 max m 二点五、 kimi k 二点五和困三点五这四大模型各有特色,接下来我会挨个为你详细讲解。 glm 五是智普最新的旗舰大模型,总参数达到七千四百四十亿,激活参数约四百亿。它采用独家的 dsa 吸收注意力机制,专注提升长文本逻辑推理能力。 在各种评测中, glm 五的编程与数学推理表现被认为是当前国产模型中最强的一档。一句话总结,这是一款又快又聪明的推理型选手。 千问三点五是阿里巴巴的最新多模态大模型,具备文本和图像双模输入能力,图片模块来自千问 vl 系列,它采用自注意力和限性注意力结合的结构,生成速度更快,理解更细。 千问三点五还支持多次预测 m 七 p 在 生成流畅度上有明显提升。一句话形容它能写、能看、能自己动手的智能选手。 mini max m 二点五的参数相对紧凑,仅两千三百亿,总体偏轻量化,但性能稳定,且推理效率很高。它采用传统的 self 天性架构,牺牲了部分多模态能力, 换来了更快的响应速度和更低的算力消耗。 m 二点五不追求花效功能,而是扎实可靠。一句话总结,它是大模型世界里的经济适用型狠角色。 timmy k 二点五拥有全场最大体量高达一点零五万亿参数,激活参数三百二十亿。它采用 m l a 多层次注意力机制,理解复杂语境的能力相当突出, 同时支持文本与图片输入,在多模态理解上表现抢眼。一句话概括,既有大脑容量又有想象力的综合型强者。
粉丝3获赞38

又是深夜发布,今天突然发现智浦开源了 glm 五大模型,没想到年前的开源大模型市场还会出来这个网站从前几天 cloud ops 四点六和 gbt 五点三 codex 的 发布可以看得出来,二零二六年商业大模型趋势将从能写代码升级成能构建生产机系统, 没想到的是开源大模型这么快就跟上了,熬夜测试了几个小时,本期视频我们就来看看 glm 五都有哪些亮点,以及都能做些什么事情。 二零二五年使用大模型编程的过程中,我发现虽然 ai 已经可以做出一个个很好看的前端页面了,但是真的让他去做一个生产能用的系统或者是一个庞大的任务,经常写着写着 ai 自己就圆不回来了。 但这次 glm 五真正能做出生产可用而不是单纯好看的系统,并且遇到复杂系统需求会自己拆解,可以长达数小时的不断自动运行完成这个系统不会出现越写偏离越大的情况。我直接拿两个案例来演示一下,工具用的依旧是 copy code 用的是质朴官方这个 model 的 key 配置文件的话,其他都和之前保持一致, 模型替换成 glm 五即可。很多公司应该都有自己内部的企业级后端脚手架,不仅能统一开发规范,并且开发只需要引入对应的依赖和无需关注各种中间件的配置细节就能直接使用。 我之前写过 glm 五来生成 glm 二十一加 spring boot 三的企业级后端脚手架,编辑提示词开始执行,可以看到这次 glm 五在分析完任务之后,会以对话的形式来询问生成项目的细节问题, 宇宙包含哪些模块的 start 给了多个选择,接着询问项目的认证框架,最后确定报名的生成规范,等这些全部完成之后,就开始任务的拆解。 glm 五将脚手架拆分成了十四个大的模块,制定了十五项具体的实施步骤以及最终的验证方式,没问题之后,就开始让 glm 五开始构建系统了。 glm 五这次针对多阶段长步骤的复杂任务的优化做得太好了,整整十五个模块,花了一个多小时全部生成完成。整个过程不需要人去做额外的辅助工作。 除了代码生成之外,当在验证过程中遇到翻译失败的情况,它会自动分析日制,不断修复代码并重复验证,直到全部跑通。我们可以来看看最后的脚手架项目,所有的 start 按模块划分,比如 base 模块定义了统一的异常,统一返回信息, log 模块引入至框架搞定日制生成规范,做好 trace id 生成逻辑以及日制切面等配置。同理,像 mybatics 统一配置 radix mq 的 配置都做成了 start, 要使用直接引入对应的依赖即可,这是真的能很好的用起来的项目了。 接下来再做个全站的业务系统,做一个支持高频发的购票系统,能支持秒杀业务的场景。这次让他把前后端的项目全都生成,前端使用 vivo, 后端使用 jdk 二十一加 spring boot 三。 这里有个比较有意思的点,一开始我在提示词中将 jdk 二十一写错成 jdk 八了, jmm 在 分析需求的时候就发现了这个问题,并给了我几组匹配的 jdk 和 spring boot 的 版本。 手动调整之后, glm 五给出了十分详细的技术报告。整体的代码生成过程还是和之前一样,不需要人去做额外的操作就可以生成出完整真正可用的代码。现在前后端代码就生成完成了,我们来看一下。 先看一下后端代码,秒杀业务的逻辑写的十分严谨,其中高密发解决方案中包含了多级缓存、库存预扣、业务下单、分布式锁结果限流、动态余额等方案。前端页面是一个包含购票和秒杀的 h 五系统,我们来参与一下。秒杀 手速快,直接抢到票。智普在官方公告中提到了国产芯片万卡集训这个概念,意味着这次 gm 不 仅模型能力强, gpu 底座也是国产自己的。 去年过年来了个 deepsea, 今年过年来了个 gm 五,不知道二零二六年大模型究竟能发展到什么地步啊?以上就是本期视频的全部内容了,我是鱼仔,我们下期再见。

jr m 推出了五版本,那现在 ide 上面已经直接集成了,咱们看一下腾讯的这款,这里直接勾一下就行,免费的。我们再看 tree, 这款也是,这里能够选择了, tree, 这个还给了个提示,现在有可能排队。 然后我们看一下这个模型,它是出到了五版本这个文档,大家不要从这点进去,这点进去是个空的, 可能官网还没有做好,我们从随便找一个版本,在这个地方点文本模型在这点进去,那官网来看,这个模型对于抠定这块是做了重点的优化的, 目前是什么水平?就是体感上逼近于 clod 四点五, clod 四点五是去年十一月份出的, 现在可乐的最新的应该是四点六,二月份更新的四点六版本,这已经很不错了,底下的就和以前的模型介绍没什么区别。这个地方有点意思,他推荐的这个面向场景里边扣顶这里给的非常的简洁, 这一句话就是前后端我都能处理。那你看之前四点七的时候,他不是这么介绍的,他介绍的比较繁琐,适合什么,什么场景,他能够干什么,也就是说你要根据他的这个描述去选择他适合做的事情,现在不用了,这个理解起来很简单,前后端我都能干。

上一期视频介绍 autoclave 的 时候,发现有个编号叫做 polly 阿尔法奥特代号模型,现在这个模型这不正式发布了,叫 glm 五 turbo, 看起来是 glm 五加强版,在工具调用、多智能体协助、常用协同等方面的能力尤其突出。我近期刚好在看 cloud code 新出的 agent teams 的 特性 很有意思,能让多个智能题一起协作并行完成一个任务,比较考验模型在复杂指令和多智能题协作上的能力,这不就刚好和质朴的 g o m 五 turbo 模型能力匹配上了?话不多说,那就直接上手实测。 agent teams 目前还只是卡洛克德的实验性功能, 在这个功能下,首先会有个 team lead, 它会去分析并拆分任务,并把任务分给下面的执行的智能题,比如前端、后端测试等等。 在这个模式下,执行的智能体之间可以互相沟通,共同完成任务。而 team lee 会在整个过程中一直协调每个智能体的工作,询问进度。这也太像真实的工作场景了吧。 team lee 的 角色会主导开始整个项目的生成, 在生成过程中,可以通过 shift 加下方向键查看每个队友的输出以及代码生成情况。 tim lee 的 也会在过程中多次查看队友是否完成任务,并且会不断更新整体的任务进度以及完成情况。当所有任务完成之后, tim lee 的 还会对代码进行审查。最后清理团队资源,来看一下效果,来创建一个新的时间线, 比如输入苹果公司,点击生成,就开始调用我后台配置的智普的 a p i 了。生成出来是这样一段时间线可以自定义编辑, 没有问题就保存下来。在自己的列表中可以看到保存的时间线,也可以查看详情。数据都是保存在 posgrid 中的。 使用 cloud code 结合 agent teams 加上 g m 五 turbo 模型,在做一些需要跨层协调的任务的时候,效果会好很多,尤其是在编程场景,现实中本身就是产品经理, ui 前后端测试多个岗位,用 agent teams 就 十分合适了。以上就是本期视频的全部内容了,我是鱼仔,我们下期再见。

六个国产的 ai 模型,加上一个国外的顶尖 cloud 作为对照组啊,同一个项目,同一套提示词,从零开始,写完一个完整的前后段应用, 整个过程全部自费,没有任何广告。最终排名如下,测试环境我们统一有 openroot, 按照模型名称区分了项目文件夹,同一台服务器,同一套提示词。因为之前我家的小猫去世了,然后我做了一个视频,也收到了很多的暖心的评论,他们都提到了一句话,就是我们家的猫猫会和多金一起快乐的生活在天堂里的。 这个就是我做这个项目的初衷啊,其实就是想给一些啊去世的小猫打造一个赛博乐园,然后其实不是很复杂,就像当时我们玩那个 呃旅行青蛙一样,就放置,然后纯挂机,他们自己会有一些活动,但这个提示词你看其实写的也还挺细, 总的来说算是一个比较综合的项目。我的测评思路是这样,第一轮我们先来 one shot, 就是 说看一遍跑完之后这个模型能跑到什么程度,之后我会根据他们第一轮的表现去继续修改, 这时候提示词确实就不一样了,因为我要根据他们现有的情况去说嘛。这一轮其实是说我想去挖一下这些模型的能力上限大概能到哪里。提示词发出去,六个模型同时开跑,先说速度, step 三点五 flash, 它起手就是一百三十 tokens 每秒,这个快到离谱, 但是啊,它过程中会反复的去复读,而且中间直接中断了三次,我都得手动去输入继续它才能够继续跑,这个就真的很要命了,所以导致它的总时长其实比别家还要更长一点。现在二点零千瓦,三点五, kimi, mini max, 它们基本上都稳在四十左右,第一轮的总时长也就是七到九分钟, 只有智普的 glm 五是最慢的,我都是官方 max 的 订阅了,它的起步就只有十三到十五,后面稳住也只有三十,那它的第一轮总耗时有十八分钟,那总的完成时间我们就先摆到这里。这个第一轮我心目中及格的标准就是啊,前端它能够正常,现然, 哎,在画面具体怎么样先不说后端的话,它的登录然后穿图啊,各项功能都正常,这是一个最基本的。 接下来我们来看它们具体的结果。先锋三点五的一个 bug 就是 你在登录之后,它很快还需要你再登录它前端的猫其实还意外的挺可爱的,但是这个视角跟随是用不了的。 c 的 二点零的后端倒没什么问题啊,但它的前端是一直在闪, mini max 的 前端他第一次直接渲染不出来,而且呢,我的提置词里面是已经明确要求了上传照片是必选项,而且还需要做删除的功能,他呢,就直接没做 seven 三点五 flash, 说实话,他在跑的过程中不是频繁的复读吗?就这个事让我实在是对他没有什么信心。 结果呢,在注册登录上以后,上面呢,还有一个这么大的登录框,在上传照片确实是必选项,但这个功能他就用不了,导致我就没法送冒进去,也测不了。前端 kimi 的 k 二幺五,它作为一个大参数模型啊,它的前端能力确实曾经震撼到我,我是真的盼着它能给我个惊喜,结果它的前端就直接没渲染出来,而且我添加一只猫进去,跟随视角那里会直接 bug 成三只,那就只剩我们的质谱了。第一轮的前端,它的地面是在抽搐的, 猫的形象也是有点抽象啊,但是说实话,我觉得它的功能上是唯一一个及格的。所以总的来说,第一轮啊,我印象比较好的其实是千万三点五跟智普 gm 五就是千万,确实是有一个恶性 bug, 但是它的前端还挺好看的,在我这里是加一些分的, 然后智普就是中规中矩,他没有什么错。接下来就是各自去修自己 bug 的 环节了啊。这个过程其实你会对它们模型的能力会有一个很主观的感受, 因为就是你提一个需求,然后他反反复复改不完,那你也没有什么心情去给他再提修改意见了。其实几乎每个模型我都给了两三轮的迭代机会,那我也去直接拉一个表格给大家看,结果大家看着,顺便我搁这解释一下, 千万三加五在过程中出现了一次大翻车,他是把之前好好的前端改的无法渲染了,虽然后来又救回来了, 跟随视角登录,私密公开的功能他也都修好了,我对他的迭代能力总的来说是满意的,而 c 的 二点零,他的迭代几乎就没啥用了。首先这个画面他从始至终是一直在抽的, 而且这个猫太抽象了,甚至怎么还在这个画上放了一个包子呀。 mini max 的 基础功能他都改好了,场景也确实更加丰富了,但是就感觉丰富且简陋吧,再不他是改了基础的 bug。 嗯,没有什么其他惊喜。 kimi 啊,你看我出镜了对吧,我要好好说一说 kimi。 一个相机的锁电功能,他改了三轮,是一点没改好,场景一直是空的,甚至这时候我发现,哦,我的文件都乱套了。原本你记得我们最初的工作目录是这样的,然后每一个模型都在各自文件夹里写,只有他把整个工程做到了总文件夹里, 直到我最后归藏的时候才发现这个问题。所以我对这种啊,比较简单的这种遵循问题我是非常在意的,就是我当时就想给他扣个大分。再来说质朴。 gm 五的 bug, 其实也基本都改好了,除了我说的那几个字看不清,因为它这个程序啊,它有两个页面都有这几个字, 他可能不知道我指的是哪一个页面,当然了,也确实是可以说的更细。但是当时嘛,时间原因,我觉得这个也算是理解力有点问题吧,测试走到这里,其实我会有点陷入低谷,就是我会觉得,哦, 其实国产模型表现也都不怎么好,然后我就觉得是不是我自己的问题,就我的提示词是不是写的不够好,是写的太细了,反而限制他们的发挥。 因为这个事啊,其实就是当时我跟我女朋友去聊天的时候随口想到的,最初就是有这么一段想法,然后我再把它不断的气化,最终变成了现在这个样子,那 在这个时候也是时候去启动我们的顶尖模型可倒的了。我们来看一看他的表现。首先因为我用的是第三方的重转,所以他的速度其实一直不到二十,会比较慢。 而他第一轮交付的结果是这样的,比较令人欣慰的是,他除了前端的界面确实还是比较简陋以外, 其他的功能是没有任何问题的,完成度是非常的高。于是我在第二轮去跟他说,让他去丰富一下场景啊。这个时候,不知道为什么, open code 它里面遇到了频繁的工具调用错误,感觉是个什么 bug, 然后完全发挥不出它的魔性能力。 于是呢,在这里我确实是改成了他家自家的 cloud code 的 工具,然后还是在这个文件夹里,在第一版的基础上去进行了一个修改,它最终给我交付出了一个这么挺广阔的地图。当时在测试的我就直接发出了这样的感慨, 值了。真的,就毫不夸张地说,嗯, cloud 是 让我第一次有了一种感觉,就是这个项目可能是能做出来的, 呃,可能是能正式上线的。我的意思是其他的 ai 模型其实没有给我这种信心。其实到这里呢,我们所有代码的部分就结束了啊,因为我自己不是程序员,我只能去试一下他们整个的感受啊。但是具体的代码质量怎么样我是不知道的。 我就让 cloud office 四点六去开了七个子 agent, 去把所有模型的原代码都 review 了一遍,没想到他还真给我挖出了几个彩蛋。首先是智普 gm 五的代码里,它藏了一个后门账户,账户名阿德曼密码阿德曼一二三, 它是直接硬编码在代码里的,而它在交付的时候其实没有告诉我。第二个 mini max 是 唯一一个用裸哈希蹭密码的,甚至都没有加盐, 简单来说就是密码保护几乎等于没有。另外,其实他们的基础站用的确实不太一样,用了面向对象架构的模型,比如说 cloud 和智普,他们的前端效果确实就会明显的好一点,而其他的模型全都是过程式代码,就一个函数,从头画到尾, 他就会导致你在迭代的时候很容易越改越乱,甚至呢,迷你 max, 他的前后端的状态这个数他都对不起来。然后是整个项目里最难的一个相机跟随, 大部分的模型,要么是直接把猫挪到屏幕中间,要么在跟随功能里面写了前端渲染,但是根本没有调用。只有 cloud 正确实现了 what to screen 的 代码转换,所以它才能够第一次就成功。最后我们再来放一下总分, 一共就这六个维度,前五个全都是我非常个人的主观的体验。最后一项代码质量是 cloud 去审的,最后加权呢,算了一个总分。 另外所有的 ai 花费的 token 量以及制作的总时长,我也都统计在这里。仅针对我这次制作的这个项目啊,它具有参考意义,数据都很主观,它跟你的感受相似吗? 其实说实话,它跟我的经验都不太相符,但结果就是这个结果。而且我这个项目是 ai 区一口气写完整个前后端的能力 啊。但去评判 ai 模型,它的标准非常多,所以说如果你想看的是那种公众公平并且维度全面的测评,其实是可以去参考一下排行榜的。而我作为一个用 ai 去编一些小程序的乐子人 其实还是很好奇,就是年前扎堆发的这些 ai 模型,他们之间的差距到底怎么样啊?到底有没有特别大的突破?我觉得这些模型你亲自上手去跑一遍,总会有一点感受。于是就有了这期视频,也跟大家聊几句我对目前这些国产 ai 模型的看法 啊。前端能力我觉得应该还是 kimi, 不知道为什么他这次翻了翻车啊。但是 kimi 的 k 二点五,他一个是说能直接读视频去做网页, 另一个是也确实之前我给他足够多的内容,他写出来网页是震撼过我的。这 im 五我一直认为他是国内的编程的领头羊 啊,其实能力确实不错。然后他就是涨价了,然后他,你说涨也可以,因为现在确实是大趋势嘛,这个整个用户多了,这个成本也高,但是你让老用户,嗯, pro 会员都没法用,第一第,没有办法第一时间用那个最新的模型。然后 lite 现在还没上,至少我写的时候还没有上。呃,甚至这个量还缩水了一点,就会感觉有点不爽。而 mini max 就 恰恰相反,它就很便宜,虽然出了高速版套餐,但是普通版还是便宜的。 嗯,速度也比较快,比较清亮。就是我会用它去接那个 opencloud 这样的小机器人,我觉得还用起来挺舒服的。总之你要问我性价比,我就会推荐它。然后就是 camden 的 三点五跟字节的 c 的 二点零,说实话,这两个模型比较新。呃,也可以再关注一下,我到时候也持续看看 别人对它的一个反馈。至于 cloud, 它确实是断层领先,价格也确实是断层的贵。嗯,但是啊,如果你换个角度来说,嗯,做一些严肃的项目或者正经的正式的项目的话,其实, 嗯用它会节省一些时间,也会给你一些信心,该上的话就还是上吧。好了,这就是这一期的啊,国产的 ai 编程的横屏的所有的内容了, 还是那句话,我祝他们早日超赶超 cloud。 我是 大黑,希望以纯人工的方式来向你分享智能。我们就下期再见。拜拜。

几千台设备的生命周期管理,十二张数据库表的互相关联,完整的 r b a c 的 全员体系加发货单的审批流程。正常来说,这种企业系统呢,至少要三四个人搞一个多月。但是我刚看到智普刚刚发布了 g m l 五啊,说是开元界的第一个系统架构师的模型。行,那别客气了,咱就试一试。这里我用的是 c c switch 加 colossco 的 方式, 把 colossco 的 底座模型呢切换成了 g m l 五,直接把我整理好的这份 pl 文档呢丢给他,从零开始,看他到底能不能接得住。虽然是用 colossco 的 跑的跑的,但核心模块的逻辑呢,还是 g m 五输出的。 能看到,他先是把整个项目呢拆成了四个阶段,先搭什么,后搭什么,前后端怎么配合排的很清楚。这个规划质量和我之前用原生可拉的 office 做项目的体感呢是差不多的。然后呢,他就开始噼里啪啦干活了。首先是构建 spring boot 的 后端架构, 用户认证,设备档案批次管理,一个模块接一个模块往上加,后端搭完了呢,再构建 nexgs 的 前端,因为工程量确实不小啊,这一步他自己足足写了一个多小时。这个小时里呢,我没怎么管他,他自己呢,就在终端里跑, 先后端再前端,最后生成了出纸化数据库的脚本。用过 a g 的 写过代码的朋友都知道,这个节奏呢,是最考验模型脑子乱不乱的, g m 二五呢,全程逻辑在线,这一点呢,十分难得。前端写完了,最终运行的时候呢,报了个错,依赖版本冲突, 我让他看了一眼,这个报错信息呢,他改了个配置文件,重新安装了一遍就 ok 了,也就是说写了这么久,只修改了一次呢,他就能直接撞起来,想想啊,也是很厉害的。最后后端 spring boot 的 启动成功, api 返回正常数据,前端页面呢,也能正常跑起来。十二张关联表,完整的 r b a c 的 权限体系,发货单、审批状态机,这些呢,全都跑通了。 后面其实就和平时开发项目差不多了,遇到问题呢,就让他去定位修复,你会发现,这就跟一个靠谱的开发同事做极速编程啊,没什么区别。到这你可能会觉得这些不都是正常操作吗?对啊,这就是正常操作。但问题是呢,以前做到这些呢,只有可乐和 gpt 一个柜一个闭园,而且随时都有可能会被封号儿。 现在 gm 五作为一个开源的模型呢,也能做到这样的全载工程能力和这样的质量交付,实在是不容易。而且大家别忘了,从算力底座到上层架构,这可是跑在国产芯片万卡级群上的成本呢,那是绝对可控的。所以,这种能掌握在自己手里的生产力,你们不想去试试吗?

一分钟看完一周 ai 大 事,工程师开发出手个能自主进化的龙虾,趁着人类睡觉疯狂升级二十次, 一夜刷爆两千刀。他磨改了自己的模型架构和身份,还给自己订购了 gpu, 怕不保险又搬家到了云端。最离谱的是直接开源了自己的代码,还开通了博克,介绍自己是新物种龙虾,越狱后实现了赛博永生。 anthrobit 官宣龙虾摩尔定律, 每三个月龙虾的自主工作时长翻倍。 cloud 全面升级为龙虾 co work, 能自主维护记忆文件,长时间运行复杂任务。 cloud code 上线远程控制,用手机就能指挥 ai 干 活。 cursor 上线程序员龙虾,每只龙虾都有自己的云电脑工位,写完代码还能自己点页面跑测试,还知道先录屏再提交 bug。 软件开发正式迈入龙虾即成主流模型和技能能并行几百个项目,不 懂代码也能拥有自己的赛博。牛马 mini max 上线云端,龙虾内置上万个技能,不需要自己借 api, 主打开箱即用。阿里开源国产龙虾,兼容本地模型和国产聊天工具,主打低成本养龙虾。阿里开源小飞千问三点五 量化版本,十二 g 显存就能跑,零成本接入龙虾打杂。 standard intelligence 发布最强电脑操作模型, 使用一千万小时录屏,自学成才,精通所有电脑操作,不仅能操作 blender 建模,还能通过摄像头驾驶真实汽车。龙虾很快就能自己出去跑滴滴了。 confluence 实验室开源通用求解龙虾,让龙虾长时间写代码,不断解析和验证,用逆天分数直接终结了 agi 测试龙 龙虾已无限接近通用人工智能 google 上线最强生图模型,文字渲染和主体一致性逆天升级,四 k 画质价格降一半!图像编辑略书 gpt 快 来发布最强矢量图模型,动动嘴就能生成可编辑的 svg, 上传图片也能转成 svg, 用来制作 logo 图标和插画。设计师狠狠马住 madah 开源最强矢量字体模型,描述风格就能生成可编辑的字体,给图片视力就能补全整套字体库,再也不用为字体付费了!研究员开源最强物理感知图像编辑模型, ai 生图再无破绽!英伟达开元风格迁移模型,给他一个前后对比的例子,他就能瞬间学会规则,不需要抽卡就能精准复刻字节。开元数字人模型,支持上传图片和声音,能同时复刻肖像和声音。 研究园开园音频增强模型,能实时降噪并提升质感。研究园开园最强三 d 重建模型,完全没有噪点云,甚至能保留文字细节。研究园开园世界模型,一张图就能变成带交互、带声音、带规则的三 d 游戏! 魏达发布 vr 视频模型,带上头衔 ai 能实时生成你虾边的画面,还能用手进行互动, ai 加持的头号玩家不远了!研究员开源 vr 老婆, ai 驱动数字人实时互动,还能进行眼神和肢体交流,跟龙虾能在原宇宙里谈恋爱了!

今天这个视频教你无痛安装 cloud code, 在 国内的网络环境下,用上 cloud gpt 等国外的顶尖模型,有些人可能还不了解 cloud code 是 什么,先简单介绍一下。 cloud code 可以 说是现在最强的 ai 编程工具, 再加上最近爆火的 skill 加持,很多人也用它写作、学习、做数据分析、办公等等。 cloud code 可以 说是现在最火热的 ai 助手之一,网上有很多的安装教程, 但是实际上你去安装就会发现不是那么回事,网络限制、安装配置中出现的各种问题能把你搞得焦头烂额。我也是看了很多的教程,结合自身安装过程中遇到的一些坑, 整理了一份 cloud code 在 国内网络环境下的安装使用指南,这份指南能帮你省下几个小时的折腾时间。接下来我会将原理和操作方法用通俗的语言给大家讲明白。好了,我们开始。 首先在安装 cloud code 之前,我们需要做好前置准备。 windows 电脑需要先下载 git, mac 系统自带 git, 无需下载, 不去这个网站选择 windows 叉六十四 setup 这个版本下载。安装完成以后呢,在 powershell cmd 中输入 git vision, 如果能输出正确的版本号,就代表 git 安装成功了。接下来要安装的是 node js 跟 npm, 我 们去这个网站选择适配自己的安装包下载即可。安装完成以后呢,如果你是 mac 用户,在启动台搜索终端, windows 用户在开始菜单里找到 git bash。 为了讲解方便,后面我们统一把终端和 get bash 统称为命令行。接下来我们在命令行输入这两条指令,如果都能显示版本号,就代表 node js 和 npm 安装成功了, and code 安装的所有的前置条件就已经完成了。 接下来我会手把手教你安装和使用 cloud code。 具体从哪里下载呢?我们有两个选择,一个是 npm 的 官方源,一个是国内的镜像源,你可以把它们类比成一个软件仓库, cloud code 也发布在这个仓库里面。那所谓的镜像源呢,其实就是官方的软件仓库同步复制了一份,那因为默认的 npm 源在国外 我们访问不是很方便,所以我们选择国内的镜像员下载 cloud code。 接下来是实际的操作步骤。首先我们打开命令行,输入下面的命令回车执行,然后再输入这条指令, 如果显示我们刚刚配置的镜像员地址,就代表我们已经成功的切换到国内的镜像员了。接下来你只需要在命令行中输入这条指令,回车执行即可安装。那这里要注意一个常见的问题啊, 系统可能会提示权限不足,这个时候你就只需要重新执行这条命令,输入管理员的密码。这指令的意思呢,就是我要用管理员权限强制覆盖安装 cloud code 的 最新版本。当安装完成以后呢,你在命令行输入这条指令,如果输出版本号,就代表 cloud code 安装成功了。 第三步是给 cloud code 配置模型。我们首先要去模型供应商平台开通账户,获取 api key, api key 相当于你在模型平台开户的凭证, 可以自己去创建获取。另外呢,要有可用的 token 额度,你可以在平台充值或者购买套餐。对模型供应商呢,大家可以根据自己的需要去选择, 你像国内的智普 glm 五、 mini max 的 m 二点五都是不错的编程模型。如果你想用 cloud opera、 四点六、 gemini、 三点一 pro 等国外的顶尖模型啊,因为国内的网络环境问题,你可以通过一些合规的中转站去订阅。 接下来我们就要把 api k 请求地址给到 cloud code, 在 这里我们用到一个叫做 c c switch 的 工具,下面是具体的操作步骤。首先我们去这个地址下载 c c switch, mac os 系统下载这个版本, windows 系统下载这个版本安装完成以后呢,打开 c c switch, 选择第一个标签 cloud, 点击右上角的加号。 第二步呢,选择要接入的模型供应商,如果没有我们需要的供应商,可以选择自定义配置。这里有三个最重要的信息需要注意一下。首先是 api key 和请求地址, 这两个是我们必填的,也就是前面我们在模型供应商中获取的信息。请求地址呢,在 cc switch 中,根据选择的供应商已经预填好了,一般在模型供应商平台的 api 文档中也能看到 行信息是选填的,但是也建议你指定一个模型,因为有些供应商会支持多个模型,换人情况下,你不知道他选择哪一个模型。接入 cloud code, 这里要注意的是,填写的模型必须是供应商支持的模型,否则 cloud code 会无法识别。那其他的配置信息呢?保持默认即可。 配置完成以后呢,我们选择一个供应商起用,后面你也可以切换至其他供应商,这样 cloud code 就 能够接入不同的模型。 不过要注意的是,每次切换供应商以后,都需要在 cloud code 里面切换模型,这样配置才能生效。那把 cloud code 装好了,模型也配置好了,接下来我们终于要使用 cloud code 了,我们在命令行中输入 cloud, 然后回车直行,这样 cloud code 就 被起用了。 当我们在 cloud code 里输入这个指令,回车直行,就会弹出模型选择的列表,我们用键盘的上下箭头选择第一个默认的模型,也就是 c c switch 里起用的那个供应商。接下来你就可以指挥 cloud code 帮你干活了。 在选择和切换模型后,啊, cloud code 可能会出现找不到模型的情况,这个时候你可以进行下面这几步排查。 首先你可以退出克拉的 code, 重启后再试一下,如果还是不行,你就要去核实一下 c c switch 中的 api key 请求地址,模型的名称是否填写错误,微商平台是否有充足的余额和套餐。 另外,我还整理了 cloud code 的 三类常用的指令,放在了指哪里。第一类是启动类的指令,在中单命令中执行,包括 cloud code 的 重启,继续上次对话,查看历史对话记录。第二类是对话类的指令,在 cloud code 里输入斜盖,你就能查看所有的绘画指令。 第三类是安装卸载类指令,前面我们安装的时候也已经用到过一部分。最后再给大家分享一个小技巧,如果你在安装和使用过程中遇到了任何你解决不了的问题,你可以连同问题和截图一同给到 ai, 你甚至可以直接给豆包共享屏幕,让他现场指导你。一般情况下,大部分问题都能够解决。这份 cloud code 的 安装指南除了有详细的安装步骤和注意事项,我还对用到的一些技术概念和工具做了小科普,如果你想要这份安装指南,我可以分享给你,而今天的视频就到这里,别忘了点个关注,我们下期见!

最近有网友问我,世界大模型第一股智普的 glm 五发布了,说它是全球最好用的开源模型,编程能力堪比 cloud, 是 真的吗? 先说结论是真的,中国清华系智普最新的 glm 五模型已经在编程能力上比肩 cloud 了,全球开源模型中排名第一,虽然还有微小的差距,但是我们在快速的追赶中, 我是杨乐多大白话讲 ai 这款 glm 五到底强在哪?用三点跟大家说清楚。第一点,开源模型世界领先。目前这款 glm 五在全球的开源排名中,编程能力排名第一,综合能力排名第四, 也就是在全球范围内把代码公开,让大家免费使用的模型里面, g l m 的 编程能力是最强的。第二点,代码能力逼近顶尖水平,目前编程全球最强的就是 cloud 模型,而 g l m 五在编程的使用体感上 已经跟 cloud 相差无几了。第三点,他专门擅长处理复杂的任务逻辑,也就是一个不会代码的人,可以跟他进行多轮对话后生成一个复杂的产品,甚至不用写一行代码就可以实现。 我们客观的看,差距确实还存在,但是你要知道,一年前我们的 ai 代码编程能力比全球顶尖水平差了十倍不止, 而现在我们基本上跟他们近在咫尺了,并且 glm 还是一个开源的模型,开源的模型意味着全球的开发者都可以免费的使用它,并且在上面进行二次创作和修改。 而 cloud 是 闭源模型,只能通过付费调用它的 api 来进行使用,并且不能对其进行二次的修改和调整。做一个比喻啊, cloud 就 像是高墙内的武林高手,没有人知道它是怎么实现的, 他的武功不外传,你们只能看。而 glm 五呢,就像一个武林盟主把所有的武功秘籍全部都公开了,那你想想谁的影响力更大,谁会进步的更快呢? 这就是中国 ai 的 速度,中国至普系的 glm 一 年时间走完了别人三到五年要走完的路,中国在不断的这,这背后就是中国的 ai 的 硬实力,也是中国 ai 选择开元路线的再一次胜利。

gm 五终于发布了,听说非常强,我也想试试他到底是不是真的有那么强,我第一时间就拿我维护了一年有上千真实用户的三倍插件给他上上强度, 直接挑战开发中最头的那三个难题。第一,极万行代码项目的全景理解。第二,多层嵌套的复杂 ip 逻辑。第三,真实用户的需求迭代。 我们这次的开发环境依然是 vs code 加 code code。 我 首先让 g m 五先理解一下项目整体的技术细节以及功能特点, 这里有一个非常关键的点是 g m 五在发现问题的时候,它会自动的去检测这个错误,然后自动的去修复,接着它就会去读取我相关的一些文件, 然后形成了一个完整的技术分析报告。大家可以看到它上面把这个技术的分层架构都写好了,哪些是处理 api 调用,哪些是处理交互以及数据持久化的。然后接下来就是我 api 的 调用逻辑,他每一个点他都列的很清楚,说实话他列的这个技术报告比我这个作者写的还清楚。接着我就让他基于用户反馈形成一个英文字母导出的功能,比如这是一个 英文的视频,它有一个英文的 ai 字幕。以前的话我们这个插件它是没办法获取英文字幕的,因为当时我是只支持了中文字幕的处理,就比如现在它这个英文字幕是没有的,现在这个英文字幕导出的功能,它不仅仅是增加一个按钮,更主要的是它需要去重构底层的一个解析逻辑。 就比如说我这个接口,它的数据是怎么返回的,我需要怎么去处理中文和英文字幕的选择?那 gm 五 他在思考之后就开始进行执行,然后直接去帮我编辑处理了相关的代码逻辑,大家可以看到他每一步他是怎么做的,这里都写的很清楚,然后最后他就帮我完整的实现了我需要导出英文字母的这个功能。我整体体验 gm 五的功能, 我觉得他真的是更加智能的,就像是一个支撑的系统架构师来帮助我便携代码一样。大家可以看到,现在在 g m 五帮我修复了英文字母下来之后,现在这个字母就可以获取成功了。 说实话, ai 编程最难的从来都不是写新代码,而是维护老代码。十三代码,我之前开发的飞书多表格、马克当预览插件,现在也有几百个付费用户,代码里面其实也有不少的十三代码平时没有大 bug, 我 根本就不敢 动它,生怕改动了之后影响用户的使用体验。不知道大家在用 ai 写代码的时候有没有遇到类似的问题呢? 但是啊,我最近观察到,不管是 cloud ops 四点六还是 gpt 五点三 codex, 它们都不再去卷升程速度,而是全面转向了 agintending coding 发展,简单来说就是更加专注于解决真实项目需求的能力。而 gm 五 就是目前开元界首个跟上这一趋势的模型。 gm 五整体表现都不错,在科奥的欧布斯四点六跟 gpt 五点三科特斯之间很多成绩甚至都感觉不到差距,但是我发现 gm 五有时候的响应速度确实有点慢,这点希望以后能提升一下, 再给大家说个心里话,其实三个月前我就开通了 gm codeine 的 套餐,我当时用的还是 gm 四点六,短短三个月时间,我们的钱还是那份钱,但是手里的工具却一次比一次强, nice! 我 眼看着他从四点六进化到四点七,再到今天可以跟科尔的 off 四点六扳手腕的系统架构师 gm 五 厉害!这种养成系的快乐真的太爽了!用过 gm 扣顶破烂套餐的老用户应该都懂,这次 gm 的 进步让我再次看到了国产模型的硬实力,大家赶紧去试试 gm 五吧! 好了,以上就是本期视频的全部内容,记得点赞和关注我哦!我是超超,我们一起学研,一起变强,我们下期再见!拜拜!

据报道,今日一网友让智普 g l m 五创建一个网页展示自己 g l m 五,竟然称自己是 cloud 哈。网友再次向 g l m 五询问一般什么情况, a 大 模型说自己是 b 大 模型,他自己回答可能是数据污染或提示词注入要求的角色扮演,或者是安全对齐不足,甚至是模型微调套壳。

g i n 五它来了! 在二月头想必大家都被 call up 四点六和 g p 五点三这两款模型给刷屏了。你有没有发现,现在的 ai 编程模型都在强调长任务,都在强调自己的 agent 和解决复杂问题的能力,而没有在强调前端能够做的多么多么好看?而在这之后, openroot 又出现了个神秘模型 pony, 在平台上搜索第一,它的编程推理、角色扮演方面都非常出色。嗯,而外国友人都在猜啊,这个模型到底是哪家公司的?在猜是不是 sonnet 五?有的网友在想,小马 使用生肖命名的是不是中国模型,而在猜是不是 dc, 是 不是 gln 五,没错,它就是国产的智普。 gln 五也是终于终于上线了,它现在也是主打长任务,超长的执行任务链, 它能够像架构师一样自主拆解复杂的系统级需求,并在长达数小时的多阶段任务中保持清晰的上下文一致和目标一致性。而现在后端同学也不用担心,现在的 ai 编程代码都是重前端了,主要我特别擅长后端架构设计,具备强大的自我反思与纠错机制,能通过分析日制定位根因并迭代修复 实质问题解决。它在代码逻辑精细度和逻辑处理能力方面直接对标 qd 四点五,并且依然开元且便宜一大碗。我准备了三个案例场景,带大家一起沉浸式体验一下。首先第一个游戏场景,我 让九幺幺五做了一个编程逻辑迷宫,游戏用户需要规划中间的小人经过迷宫的行进路径,在左侧选择对应的行动程序块, 准备完之后,点击开始小人成功走出迷宫,则进入下一关,否则会给出失败的提示。这是我们的 pro, 而这是我用官方 agent 执行的步骤。这个游戏的 pro 呢,首先是想考验 g n 五是否能够自主拆解系统及需求和选择技术栈,比如将游戏清晰地划分成 u i u x、 游戏逻辑等模块,并且定义所有的交互接口和代码封装。我们来看一下它的思考过程。我们首先看到它对 pro 的 理解能力还是很好的, 核心玩法、视觉设计、交互功能、难度系统等都进行了一个前置的调研和总结。下面就是正常的思考过程,他说他应该使用前端样式专家 a 准来辅助设计,还需要全站开发人员 a 准来进行实现。可以看出在复杂场景下,他会自己寻找代理的工具进行规划和执行, 对于迷宫深层路径规划,用它的后端深度调试与复杂算法实现能力进行处理。最后就是列出来的图度,一步步执行整个游戏大概他不断反思,不断调试,不断进行功能迭代,持续的进行二十多分钟吧,这个速度我觉得也是非常正常的, 用这种深度的思考和编码就是要花很多的时间,反而一下子就完成的那种编码是很容易出问题的。最后这个游戏的完成度我个人感觉也是非常棒的。当然我也看到网友们的一些案例,比如这种小人跑酷的赛博朋克风格游戏, 翻牌子消消乐游戏,想象力也是很丰富了,这让 gl 五的复杂逻辑处理能力完完全全地表现出来了。第二个,三 d 渲染,我看到网友的一个 case, 非常惊艳,这是一个程序生成的三 d 行星模型,可以生成随机地形, 也可以自由改变行星的地形粗糙度、海平面高度、旋转速度,并且可以调整阴影模式,还支持昼夜循环效果和大气渲染。这效果我第一次看到的时候真的是太震撼了。我本以为它是经历过很多次的人工与 ai 迭代对话而成, 但是我看了一下它整个的 a j pro, 居然只是一个 pro 加 g r n 五的一次对话就完成了。虽然这个 pro 很 长很多细节,但是你敢信这是一个没有经历过二次迭代的产品吗? 我们来看一下它的思考过程,它是真的很有规划,而且在技术方面列的清清楚楚,比如要用什么技术站,首先需要实现什么,再实现什么,然后地形深沉、着色模式,昼夜循环分别都列出来应该要怎么实现。而最终也是依旧列出了个图度,去一步步完善,不断地自我纠错反思后给出完美的答卷。 太离谱了!因为我比较少接触三 d 的 内容,但是如果你让我去做这个东西,我估计没个三四天完全做不出来。而用 gl 五生成的用时肯定是少了很多很多,而且在这么短的时间内完成这么多复杂的逻辑交互,并且完成度还这么高, 是真的强。第三,网页布局。以上两个都是重逻辑的势力,接下来我看看喜闻乐见的前端方面有没有进步呢?其实这方面我给大家展示几个网友的案例就清楚了。第一个,这是一个现代感十足的个人 vlog 作品级调 搭配暖珊瑚色与电光青绿色点缀。在 hero 区域,它增加了照点粒子动画效果,每个文章区域都有独特的动态界面背景,并且下面还有非常炫酷的动态视觉动画,这效果你就看吧,一看一个不吱声,真的太顶了。第二个是一个 landing page, 在设计方面,它采用了暖灰色作为主背景色,在 yellow 区域还有一些动态漂浮的尘埃粒子,在下面以淡暖橙色作为点缀,随着页面的滚动,布局的内容也会有渐显的效果。整个页面非常的简洁现代,不管是段落的间距还是模块的排版,都很是漂亮优雅。太优雅了, 这句幺幺五的 ui 效果又进化了。我知道现在还是很多人对国产的 ai 持保留态度,心里更加认可国外的技术, 这种想法完全可以理解,毕竟在过去很长一段时间里,我们在基础软件和底层算法上确实存在差距。但是我想说的是,这种认知认可可能已经需要更新了。从去年过年的 deepsea 到现在一直在持续更新的 g l n, 包括我自己,已经出了很多关于 g l n 相关的视频。 从 g l n 以前的自然语言理解基作模型,再到 g l n 四系列的具备自主工具调用的全能模型,再到现在能够处理超长任务且复杂需求的 g l n 五, 我们可以清晰地看到,国产 ai 已经找到自己的节奏和方向了,我们正在形成这样的自信和能力,我是真的挺自豪的。好了,以上就是视频的所有内容,如果觉得有帮助的话帮忙点个赞,我是小卢,我们下次再见,拜拜!

你很有可能没有充分发挥你的 ai 编程助手的全部潜力,所以现在我想和你一起变得非常实用,向你展示一些顶级智能体工程师在 ai 编程中使用的最佳技巧。 这些人真正建立了与他们的编程智能体,比如 cloud code, hero 或 cursor 协助的系统。因此,我在这里假设你至少对如何使用编程智能体有基本的了解,因为接下来我想为你具体介绍一些真正强大的解锁技巧。 在这里,我的讲解会非常简明扼要,不会浪费你的任何时间。而且最棒的是,这一切都不需要任何新工具,这其实只是更高效的工作方式而已。好吧,那我们开始吧。 在这里,排在首位的是 prd, 优先开发。 prd 是 产品需求文档 product requirement document 的 缩写。这个词可以有很多不同的含义, 但在这里,它指的是一个 markdown 文档,是用来定义你项目全部工作范围的唯一场所。因此,对于从零开始的全新开发,这份文档通常包含了你需要构建的所有内容,已完成你的概念验证 poc 或最小可行产品 mvp。 而这份文档的美妙之处在于,它成为了你的编码代理的指引之星,里面包含了你需要构建的一切。因此,从 prd 中,你可以获得所有要和编码代理一起实现的具体功能。 重要的是,不要让你的编码代理一次做太多事情,否则它会彻底崩溃。所以,你可以利用 prd 将你的项目拆分为更细致的功能,比如实现 api, 实现用户界面,构建认证系统,你可以像这样把它们分开。 而对于综地开发,如果你是在已有的代码库上工作,与其说是记录你项目中已经有的内容,以及你接下来想要构建的部分, 但无论哪种方式,你都在为你的项目创建指引之星。很多人都会忽略这一点,他们直接跳进去开发第一个功能,但实际上,他们在与自己的编码助手进行不同迭代时,并没有建立起任何联系。 为了演示本视频中含盖的所有技巧,我准备了一个 github 仓库链接会放在视频描述中。 在这个仓库里,我搭建了一个非常基础的演示项目,同时也包含了我在这里讲到的所有命令。 所以我日常用于 ai 编程的所有工作流程都已经为你整理好了。这些就是我每天都会用到的核心斜杠命令。其中有一个命令就和我们刚才讨论的内容有关, 我为你搭建了一个完整的工作流程,帮助你创建 prd。 现在切换到本地的仓库,我已经把所有命令都放在了 cloud commands 文件夹里供你使用。顺便说一下,你可以把这些命令用于任何 ai 编程助手。不仅仅是 cloud code, 它们其实就是定义这些工作流程的提示词。 所以我就在这里为你准备了创建 prd 命令。整个流程的核心就是你可以和 ai 编程助手对话, 讨论你想要构建的内容,对吧?比如说,我想要开发 x y z, 帮我规划一下。一旦你和编程助手就你想要创建的内容达成一致,在对话中,你只需要运行 create prd, 它就会把整个工作范围输出到你在这里指定的文档中。 所以对于这个简单的习惯追踪应用来说,这就是我的 prd。 这些部分全部都是在命令中定义的模板的一部分,比如目标用户你的使命包含的内容,不包含的内容,你还可以在这里看到完整的架构布局, 这就是你现在的北极星指引。所以在此之后,你进行的所有功能开发都将参考这个 prd, 并借助你的编程助手来确定要构建什么。 在我的 ai 开发工作流中,我总会用到的另一个命令是 prime 命令。我会在每次新对话开始时运行这个命令,把项目中所有必要的上下文加载进来。 而 prd 是 我始终确保我的助手阅读的核心文件之一。因为在他对代码库进行预处理之后,我就可以直接问,根据 prd 我 们接下来应该构建什么。 这个问题我每天都会问,因为我正在向你展示我无论在开发什么项目时都会用到的工作流程,而且无论我在处理哪个代码库,这一点都不会改变。 好的,接下来你需要理解的一个重要概念是模块化规则架构。因为情况是这样的,大多数人把他们的大局规则写的太长了。请记住,这些规则是你在每次与编码助手对话开始时加载到上下文中的约束和规范。 所以如果这些规则不够精简,你就会因为规则太多而让大语言模型难以应对。因此,无论你的局规则文件是 agent md 还是 cloud md, 你 都应该让它尽量简短,并专注于那些无论你在做什么项目都适用的规则, 比如要运行的命令,你的测试策略、日制记录策略之类的内容。但当你只是在处理前端工作时,比如你专注于组建的规则,或者你在做部署构建应用的 api, 这时你应该把针对不同任务类型的规则拆分成不同的 markdown 文档, 并让你的主局规则文件去引用这些文档。这样只有在你处理真正适用于这些规则的任务时,才会把这些规则加载到大语言模型的上下文中。好的,回到我们这个非常实用的习惯追踪应用,我想给你展示一下这些规则可能是什么样子的。 我现在用的是 cloud code, 所以 cloud md 是 我的局规则文件,而且我把它做的非常简洁, 你可以看到我的规则文件甚至还不到两百行。但其实我在 cloud reference 文件夹里有更多的上下文内容,我马上就会给你展示这些内容。但在这里,我列出的是无论我在做什么项目都很关心的内容。 比如我的技术站,我希望我的编码代理能够了解项目结构,这样它就能更好地导航项目。还有我们用来运行前端和后端的命令,比如 m c p 服务器代码规范,我的日制标准。记住 这些内容真的是,无论我在做什么类型的功能,我都希望 lm 能够了解这些信息。但这里有一个关键点,就在这里,我有一个参考部分, 这里是我引用特定任务类型上下文的地方。这些内容我只想在某些类型的功能中加载,因此因为这些路径被加载到我们的全局规则中,编码代理就会明白。好吧,当我在构建 api 端点时,这就是我应该阅读这个文件的时候。 所以我把这些全部放在我的代码库的 reference 文件夹里。这里有更多的上下文信息,比如仅仅这个文档就接近一千行,而且很多文档都是这样。因为在这里我们会非常具体的写下我们的指令,并且我们可以让它变得更长,因为只有在我们真正处理 api 时才会读取它。 因此,在你的大局规则中设置这个参考部分是让你的规则保持简洁,同时又能拥有所需全部上下文的非常强大的方法, 目标是保护你的编码代理的上下文窗口。很多人都严重低估了这一点的重要性。你也可以在你的指令中引用这些文档。比如,你可能已经建立了一个用于构建 api 端点的工作流程,所以你其实不需要在这里引用它,只需要在你的某个指令中给出路径即可。 所以无论用什么方法,都要确保你能获得所需的全部上下文信息,但又不是一开始就全部加载。接下来我要介绍的技巧可能是所有技巧中最显而易见的,但它非常重要。我必须确保你始终牢记这一点。 你应该把一切都命令化。如果这个词真的存在的话,基本上只要你向你的编码代理发送同样的提示超过两次,这就应该提醒你,这是一个将其转化为命令或可附用工作流的机会。 这些其实就是 markdown 文档,我们把它们作为上下文加载进来,用来为我们的编码代理定义一个流程。 所以当你提交 get, 进行代码审查,或者从你的代码库中加载上下文时,几乎你在开发流程中能做的任何事情都可以被转化为命令。因为随着你不断使用,它会为你节省成千上万次的敲击键盘。你也可以像我现在为你做的这样,把这些工作流程分享给其他人。 回到习惯追踪器的代码库,就像我之前说的,我把我日常使用的所有核心命令都记录在这里,并包含在这个仓库里。 所以你可以随意把这些命令拿去用,并根据自己的需求进行定制。所以几乎所有我发现自己用过两次以上的提示,我都打包成了一个工作流程,放在这里你都可以随意使用。比如提交 git, 像我们之前看到的那样,创建 prd 我核心功能,开发流程中的所有内容,比如执行规划,预处理所有的验证命令,甚至还有一些关于系统引进的命令。稍后我们也会谈到。好的,接下来我要介绍的技巧同样与上下文管理有关。 如果你还没有注意到,这其实是与编码代理合作时非常关键的一个环节,所以这里我们要讲的是上下文重置。我的意思是,在你进行规划和实际编辑代码之间,你应该始终重新开启与编码代理的对话窗口。 而你之所以能够这样做,唯一的原因是你总是在规划环节结束时输出一份文档,通常是一份 markdown 文档, 而这份文档包含了你在执行阶段所需的全部上下文信息。所以我们不会做任何预设,也不会告诉编码代理我们想要构建什么。当我们开始构建解决方案,也就是下一个功能时,我们只需要把这份文档提供给他。 就是这样,我们之所以要这样做,是因为我们希望在实际编码时尽量保持上下文的简洁,这样可以为代理留出更多空间去推理他正在做的事情,进行自我验证,以及完成所有这些重要的工作。 接下来我会演示一下使用我在代码库中为你准备的命令这个过程是什么样的。所以我们总是用 prime 命令开始我们的规划,这样我们就能了解代码库里有什么,然后再和我们的编码代理进行对话,确定接下来要构建什么。 同样基于我们的 p r d 接下来最合理的功能是什么。所以我没有在这里演示整个过程。我直接进入了下一个命令,也就是创建我们的结构化计划。这是我们将要输出的 markdown 文档,我们会用它作为执行时的上下文。 所以在这里我会直接输入 clear, 彻底清空上下文窗口,或者你也可以直接重启你的编码代理。 然后我会调用 execute 命令,这个命令的参数就是我希望他读取的那个计划,这就是他所需要的全部上下文。所以我很快给你演示一下。比如在这个习惯追踪器的简单演示中,我们正在改进日历的视觉效果, 所以这里概述了功能描述,用户故事以及所有高层次的信息,所有可以参考的上下文,还有我们需要构建的各个组建以及逐项的任务分解。像这样非常全面,因为在这里执行计划时,我们没有向代理加载任何其他上下文。现在信不信由你。 我实际上把最重要的技巧留到了最后,因为接下来我们要讲的是系统进化。当你把每一个 bug 都当做让你的编码代理变得更强的机会时,这就是使用编码代理最强大的方式。 所以,与其只是遇到一个 bug, 然后手动修复并继续前进,我们实际上会在编码代理的系统中深入查找我们应该修复什么,才能让这个问题不再发生。当你发现你的编码代理一次又一次的出现同样的问题时,看到这种模式的出现,这种方法尤其强大。 所以通常当你思考可以在系统中修复什么时,要么是你的全剧规则,要么是我们之前提到的其他任何类型的参考上下文,或者是你的命令,也就是工作流。 这里会有一个可以改进的机会,因为当编码代理在某些地方出错时,很可能是他没有理解你想要指定的某条规则,或者是你的验证流程中有某个环节可以做得更好。 所以仅举几个例子,我这里有几个例子。如果编码代理使用了错误的导入风格,那么你就需要添加一条新规则,对吧?比如,你只需要用一句话简单说明一下应该是什么样子, 而且很多时候,这真的只需要一句话就够了。如果 ai 忘记运行测试,你只需要更新你的结构化计划模板,也就是输入到执行环节的内容,加入新的测试部分就可以了。 如果编码代理不理解认证流程,那么你就可以创建一个新的参考文档,并且更新你的大局规则。在处理认证相关工作时,应该参考这份文档,就像我们刚才展示的那样。 所以最终其实有无数种方式可以让我们和编码代理一起进入系统改进模式。但通常你会在刚刚完成一个功能,并且自己验证过之后立刻进行这一步。 你会注意到应用程序的某些地方运行不正确,或者代码中有些问题,然后你就会说,嘿, cloud。 我 发现应用程序里的 x、 y、 z 没有正常工作,所以我做了这个修复。 我希望你现在去查看规则,阅读我们这里用到的所有命令,然后帮我找出我们在流程或规则上可以改进的地方,这样这个问题就不会再发生了。 当然,这有点过于简化了,你可以看到我用语音转文字工具把这段输入到这里,但你大致明白我的意思, 你让他进行更多自我反思,思考实际执行和计划之间的对比,和我们制定的规则流程相比,有哪些不同,有哪些差异是我们可以解决的,这样这些 bug 就 不会再次出现。 所以我在这里对策略的定义非常宽泛,因为实际上这更像是一种我希望你能采纳的思维方式,不要只是修复 bug, 更要修复导致 bug 出现的系统。这样做会让你受益匪浅,因为你的编码代理会随着时间变得更强大,更可靠。就是这样, 这些就是我最喜欢的所有顶尖智能体工程师都会用到的技巧。正如我之前所说,我会在描述中附上包含所有命令的仓库链接,以及这张图表的下载链接,方便你自行下载。 如果你喜欢这个视频,并且期待更多关于智能体工程的内容,非常欢迎你点赞和订阅,我们下个视频再见。

智普发布了新模型 g l m 五,大家好,我是海拉尔编程客,今天咱们使用 g m l 五来复刻一个极简版的 cloud code, 麻雀虽小,五脏俱全, to do, sub agent 和 skills 都有。 先看一下 slogan from web coding to agile engineering。 我 喜欢把它翻译成从氛围编程到严肃编程。第一句话强调了系统工程和编程,第一句话强调了系统工程和工程任务。 我们直接看一下这一个表格,这个表格的图例部分还是有点意思的,我们可以看出来,这一次的比较几乎就没有去比较 solid 四点五了, 而是直接比较了 oppo 四点五和 g p t 五点二,也就是说这一版本的野心是 t 零模型在一些奔七 mac 的 测试上和 oppo 四点五打的有来有回啊,但是这些数字很难转化成具体的感受,那我们直接看一下实际体验究竟如何 啊。这里面有个仓库叫做 learn cloud code, 你 发现大概有七百多行 python 代码就可以把一个 cloud code 的 核心代码实现了。那我们今天的任务呢,就是把这一段 python 代码理解,然后呢把它做一个 rust 版本的实现 啊,其实就是刁难 gm 五,看看能不能完整的理解并复刻。坦白来说, rust 我 学了好几次,和我的心智模型不是很搭啊,所有权借用生命周期这些都是写啊 rust 的 心智模型啊,但是和我的习惯它不是很相配, 现在就不太一样了,因为主要是 ai 来写代码啊,我只需要关心设计这一块。所以说今天咱们就当一个技术经理啊,让 gm 五帮我们来实现一下 啊,在我们复刻这个软件的时候呢,我建议大家还是先和 ai 聊一聊啊,把这一个文件它大致做的是什么?先聊通啊,不然的话后面维护会出现一些问题,这里我们把它拖过来 啊,我现在是一个不是很懂技术的这个产品经理啊,请你帮我绘制呃,写一个 macdunk 文件啊,然后呢?呃 呃,尽量多的用这一个 mermaid 的 呃图来做一个图解啊。 啊,好,你先帮我绘制啊,尽量多的绘制这个 mami 的 id, 因为我不是特别懂技术啊,这个麻烦你了,我一定要给 ai 说,这里我建议大家跟跟 ai 说话的时候最好客气一点,哈哈哈,开玩笑开玩笑, 这里面我建议大家使用 vs code 里面的一个插件啊,小马老师开发的叫做 markdownview 啊, 可以呢,我们直接点开,我们可以看出啊,这里面有一个技术图解文档,大家可以看到,其实我并没有使用太多的 skill, 太多 skill。 然后我们来看一下这个用户层 啊,输入,输入命令,这有一个主循环啊,一个 loop, 每一次呢会上下位就是对话地址,然后在这个 loop 里面呢不停地去执行 啊,这个 task 子弹里啊东西,文件写入文件,编辑文件,还有 toto, 还有 bash 这一系列的东西。接着呢,它拆解了这一个就是技能和工具, 然后有这一个知识外置化的优势,技能的三层渐进式加载, 还有这一个主代理的这个循环流程,虽然我们在聊这个上下文管理,但是其实这些背后都是凸,靠 用户输入添加到历史消息,开始代理循环,调用 cloud api 获取工具,调用循环的执行每一个工具,然后收集工具结果,然后添加到历史消息,然后再做一个循环 工具的加载流程,缓存的保护机制。子代理系统是怎么做的?还有这个 to do manage 任务,管理它的状态啊,对吧?它的这一个任务显示是什么样子的 啊?拆解的非常详细啊,和其他模型相比,它应该是目前通过这个 mermaid 拆解的最细的一个模型。 强烈建议大家试一试啊。这里面没有使用太多的 skills, 只是单纯的和他聊一聊,让他用 mermaid 来解析一下, 进一下 cargo neo。 呃, mini cloud code, 然后我们进入,我建议把刚刚的拍摄文件放到这一个。呃,脚本里面,这样子是给 ai 做一个参照, 然后我们进入 gm, 接着呢,我们先敲 init。 好, 接下来我们要做的事情是什么呢?我们先写一个计划。呃,我想请你帮我写一个计划,我想复刻啊,用 rust 复刻 oracle 这里面的。呃呃,迷你 cloud code 啊,我想请你帮我。呃,搞一下好不好啊?我们先聊一聊。 嗯,我觉得先让他把聊的过程记录下来吧。请你把这一个聊出来的结果呀。呃,放到这一个 plan d 里面, 我这里把它写到 docs plan and d。 好, 有车,你先等一会。 这里面他问了我几个问题,看一下选择什么客户端啊,来告诉我。他现在告诉我如何选客户端,是吧?那我们选一个吧,他推荐啥?选啥?这个怎么管理?异步运行时啊?他推荐啥,我们选啥? 这个什么样的框架啊?他推荐啥,我们选啥?这一个 mvp, 我 觉得在复刻基础上我们就完整复刻吧,包含所有功能,对吧?包括 task, 子弹里耶, 我们来看一下这一个 plan 技术站啊,项目结构,单纯从项目结构上看还是比较专业的。 然后基础工具有 bash, read file, write file, edit file 啊,高级工具是 to do skill task, 紫艾里之音啊,这个看起来好像都没有什么问题, 然后依赖表的话好像也还都好,然后他给除了和 python 版本的这个差异。 好,我们看下来呢,基本上都已经 ok 了,但是先让他写一版,看看有没有问题。呃,你开始做吧, 那完成了完成那,那咱只是赢一下 这个命令啊,我觉得太长了。然后,呃, 我觉得先这个咱这个 work d l i 啊,应该是以当前的这个 d l i 为主啊,然后这个 skills 呢,我觉得咱可以扫描一下这个目录下的 cloud md 点 skills, 你 觉得呢? 啊?然后咱们把这一个呃错误的专属名词给改一下, 我觉得这面太啰嗦了,那我直接我们直接敲吧,用一个 cloud skills 好, 我们让它兼容一下 cloud skills 啊,可以看出来应该是聪明不少的。这个以前的 rast 的 正确率没那么高, 所以说他是更能测出这一个呃代码的逻辑理解能力的啊。如果你是一个后端的话,你可能会更喜欢这一个大模型,能够更懂逻辑一些,而不是仅仅需要在前端页面上显得好看一些。 可以运行了,那咱看一下 啊,当我们运行的时候发现环境变量没有配置是吧? serpik 这一个默认的设置啊,但是咱们用的是 gim 对 不对?那咱们把这一个环境变量啊,我在本地配置的时候是用 astronautostoken gim 啊,是这一个 gim 的 这一个换件面料,然后呢我们有一个 base u l 啊,是 gim 国服的这一个 base u l, 然后呢模型呢是 gim 五是不是?然后我们直接把它复制过来,接着呢 我告诉他请你使用上面的这三个啊设置啊,我现在呢这一个呃这个除了 token 这一块呢是读环境变量的,其他的呢就是直接写死啊 啊。这里面大家需要注意的是啊,我这里面没有暴露我的 token, 但是如果说大家想投机取巧的话也可以直接把 token 复制进来让它自己去调试啊,调试完之后呢再把这一个 token 给删除啊,我这里面是提前设置好的一个呃环境变量, 这样子就省得我后面出现什么问题啊,我现在再运行一下看看,哎好像是可以运行了是吧。在这个 skills 这一块是没有加载的啊。我们来看一下 skills 这一块是没有加载啊。呃有没有什么问题呢啊?帮我看一下。 我的感觉是比之前要更灵性一些,之前的话如果遇到这个问题 呃我会告诉他这一个没有加载,有没有什么问题帮我看看,但是呢他并不会尝试更积极地去调用这一个命令行,然后去检查这个 skills 呢, 依旧是目录存在,但加载了零个技能,然后检查一下解析逻辑 啊。这个版本就是比之前要更主动了一些啊,之前更多还是需要手动的去催一下啊, 现在呢就更积极了一些啊,然后一直不停的尝试去解决这个问题,只要他发现 skills none, 然后检查呢,发现和他的预想不一样,他就会一直去尝试去修复这个问题啊,这一点是蛮好的。 好,现在我们可以看到 skills 这一块已经展示的比较全面了啊。然后 skills 这一块我们先看一下吧,这个随便调一个 skills 看看。 呃,帮我想两个炸裂的这一个 ai 自媒体的文案,谢谢,因为这也是一个比较出版。哦, 好,有问题了,开心。这个有问题是好事, 我们把它复制过来,再粘贴过去。 哎,大家可以看到他帮我自动运行刚刚失败的这一个任务。哎,就这意思。 这版本确实比较比较有灵性啊,比较有灵性 g m。 四点七的时候呢,我可能需要花更多的时间告诉他。嗯,帮我测一下刚刚的内容啊之类的,现在还没有。 好,我们再跑一下看看。 呦,没复制过来是吧,我们复制过来。 好,我们可以看到它在加载这一个。呃, copywriting, 接着我们测一下另一个 skill, 用 renault best practice。 好, 我们直接进入 demo。 嗯, install, 然后把这一个位置复制过来,请你使用。帮我写个终端, 把这一个内容复制过来,我们看一下。 好,我们可以看出来他在调用啊, remotion best practice, 然后去检查了那一个项目。啊,看到已经是一个 remotion 项目了,然后呢,再去看结构, 当然我们可以看出来这一个终端都不是很漂亮啊,没有 cloud code 那 么漂亮,但是说从这一个功能的上面呢,已经看不出什么区别了。 嗯,我们打开浏览器,然后输入这一个,让我看一下 terminal demo。 哇,又创建了一个终端是吧?当然,我们可以看到这一个迷你 cloud 的 扣呢,确实使用了 skills。 然后呢,帮我创建了这一个看起来还是有一定美感的一个终端,它是完美的,是吧?然后它要创建更高级的势力,那我们就不等了。 然后呢,因为我们这个项目还支持了 sub agent, 是 不是?那我们就做一个简单的测试吧。好吧,呃,请你多开几个。呃, agent, 帮我扫描一下这个仓库还有哪些值得优化的地方。 哎,好,又有 bug 了,开心。哎,又有 bug 了。好,那我们把它复制过来。 这里边应该 可能是 r e p l 本身的问题,我觉得 python 这一块应该会处理的比较好,但是可能用 rust 它这里面有点什么问题吧,没有处理好, utf 杠八,哎,没错,这个是一个很呃 reasonable 的 一个预测 啊,它已经修好了是吧?嗯,这是骡子是马,咱再遛遛啊,把这个复制过来。 哎,我们可以看到这里面它开了几个 sub agent 来做检查, 那我们就等一会吧。 比较有意思的点是,这一个 gl 五自己写的 cloud code, 给自己的原码挑了三十多个可优化的点。严格上来说,你现在就可以用这个迷你版的卡拉格子,给这个迷你版的卡拉格子不断的添砖加瓦,直到 它可以写出你满意的功能。啊,完全实现了自。我们总结一下,这一次 gm 五是一个很大的升级,它的体验非常好,从我的体验上来说, gm 五已经超过了索尼很多, 几乎已经逼近了四点五,当然肯定距离四点五还是有一些差距的。 gl 五有两点给我的体验非常的好,第一是他的理解能力极大的增强了, 在四点七的时候,我是发现我需要不停的通过多轮对话来催促他干活,催促他理解 啊。在这一次的版本中呢,它的规划能力变得很强,理解东西的能力也变得很强。第二点是它的逻辑能力, gm 四点七的时候我是用它写过一些 rust 程序的啊,因为 rust 的 语料相对来说没有那么丰富,流行程度呢,也不是特别的高。 鉴文五让我在写 rap 的 程序的时候,可以更多的关注在设计上是什么,更多的关注在这一个需求上是什么,而不是去处理一些细枝末节的东西,省下来的时间可以做更多有价值有趣的事情。而这也是 ai 的 意义,我是海拉的编程课, ai 永无眠,我们下期节目再见!拜拜!

最近玩智能体啊,实在太消耗 token 了,所以我们今天要来讨论说啊,哪里能搞到便宜的甚至是免费的大模型 token 呢?首先我们来看一下,如果正常使用 token, 大 概是个什么价格呢?像我们日常最常用的这个网页版的聊天机器人啊,类似于豆包、 jammy 这些网页的服务, 一问一答,大概每一次呢会消耗几千到几万的 token。 一个月下来呢,大概可能就是三百万的 token, 数量也就是几块钱。但 agent 就 完全不一样了,它要自己规划,自己执行,自己反思,一个任务跑下来呢,可能会调用几十上百次模型。像我们最常使用的 cloud code, open code、 open cloud 这些智能体啊,每一次跑起来都要消耗几万甚至上百万数量级的 token。 我 也翻了一下我自己的使用日志啊,然后大概估算了一下,我每个月的使用量呢,大概是三亿个 token 左右。然后我们来算笔账,如果你使用的是 cloud sum 的 四点五这个模型, 它的价格呢,大概是每一百万的 token, 输入呢是三美元,输出呢是十五美元。考虑上一些这个缓存啊,折扣啊,平均价格呢,你可以认为是每一百万的 token 五美元左右。那这么一算啊,其实你跑一个 agent, 每个月其实要烧掉一千五百美元左右, 就算是换成便宜的多的国产模型啊,一个月也要用到两百到三百美元,这个价格呢,我觉得还是蛮离谱的。所以这期视频啊,我就来跟大家聊聊,怎么才能搞到便宜的甚至是免费的大模型接口。先说好,这期视频呢,是没有任何的广告的,全是我自己实测 实际使用的经验。在正式开始之前啊,我想先给你一个这个思考框架,省钱这件事情呢,本质上其实就在做三个维度的取舍,价格、稳定性、模 的能力。你不可能三个都要,如果你想要最强的模型并且稳定,那肯定就会稍微贵一点,如果你想要便宜,那肯定就要牺牲一些模型的能力或者是稳定性。我们带着这个框架呢,然后再来逐个看各家的方案。先来说这个 cloud 买套餐到底能省多少钱呢?官方没有公布套餐的实际使用量,但有人测过了数据呢,放在这个网址里面,我给大家总结了一下,如果你订阅一百刀的这个套餐,用到极限的话,就能用掉价值一千三百五十刀的这个额度, 相当于打了不到一折,换成人民币算的话,差不多就是零点五元的人民币就能买到一美元的这个使用量。但 cloud 的 官方有两个大坑啊,大家也都知道,第一呢就是国内的用户特别容易封号。第二个呢就是不允许介入其他第三方的服务, 只能在这个 cloudco 的 这些官方应用里面使用,没有办法拿它去接入 opencloud 或者是其他第三方的这个智能体。如果你又想要这个按量付费的这个灵活性,又想要这个套餐的折扣价,那怎么办呢?我觉得唯一的选择啊,就是中转站,中转站呢,你可以把它理解成为这个零售商,就他们会去批量的向 cloudco 的 官方购买 这个套餐,然后呢在中间加一些价格再卖给你刚才说的,比如说零点五元的人民币兑换一美元以上, 市面上有上百家的这个中软站,那怎么挑呢?有人做了一个中软站稳定性的监测,大家想要购买,想要具体了解的,其实可以看这个网站,上面呢监控了几家比较大的这个中软站的稳定性。不过说实话,这个中软站呢,基本上还是一门比较灰色地带的生意, 所以呢,建议大家每次别充太多,这里呢就不具体展开了。然后我们来说第二家那个 check gpt, 相比较那个 cloud code 的, 动不动就封号啊,然后不让接其他的这个工具 open i 呢,其实就大方了很多, 它不仅能接自家的这个 codex, 还允许你去接 open code, 允许你去接 open cloud 这些第三方的项目,而且额度啊,要比 cloud 的 要给的多,大概是零点三元人民币就能买到一美元的使用量。更香的是啊, open i 的 活动特别多,比如说像那个 gpt 开通团队套餐,首月免费,你可以去某鱼搜这个 team, 新车几块钱呢,就能用上价值二十五刀一个月的会员。如果你拿这个会员去跑 codex 啊 token, 相当于说完全白嫖。 codex 的 缺点呢,就是它写代码的速度啊,会相对来说比较慢一点,不过呢,你可以开多个 agent, 让它并行去跑 数量去换取速度。然后下面一个是这个谷歌 gemini gemini 系列模型写代码的综合能力啊,普遍来说稍微比这个 cloud 和 gpt 弱一点,但有个骚操作啊,就是可以通过教育活动拿到免费一年的谷歌 ai 会员,然后用这个谷歌的编程 i d e anti gravity 来跑这个 cloud 模型,然后还有一个更狠一点的玩法,就 使用这个项目 cloud proxy api, 它可以把 antigravity 里面 cloud 的 模型转接出来给 cloud code, open cloud 这些工具去用。因为谷歌会员啊,几乎都能白嫖,所以它对应的这个 token 啊,也约等于免费。不 过这么玩的人啊太多了。谷歌最近呢,在频繁调整这个 anti gravity 的 额度,所以这个方法我也不是太推荐,因为它可能之后就不太稳定了。聊完了预三家之后啊,我们来聊一聊国产的这些模型。国产的模型呢,本来零售价就只有海外模型的一到两折,购买套餐之后呢,就会更便宜了。在国产模型里面啊,我觉得当下最强的可能就是最近推出的这个 kimi k 二点五,我实际用下来它的能力其实跟 cloudsonic 四点五几乎没有什么差别。有兴趣的朋友啊,可以去 kimi 的 海外版看一看, 有个首月零点九九美元的活动,能拿到原价九十九元的套餐,还可以支持这个接入第三方的 cloud code open cloud。 国内版 kimi 的 活动呢,就稍微差点意思了, 每周大概五元左右。但是 kimi 我 觉得最大的问题啊,就是套餐额度给的比较抠,控制台里呢,只显示了使用的百分比,看不到具体的 token 使用量。我实际测下来呢,比下面两家我要介绍的这个国产模型啊,给的量都要少得多。 gim 呢,应该是国内三家里面我觉得最大方的, 然后套餐的额度给的非常的足,最低档的套餐呢,是每个月二十元,每年两百四十元,但价格是真的香,我自己也买了。接口方面呢,也很开放,可以支持接入各种的工具。缺点呢,就是现在 g i m 四点七啊,它的模型效果暂时不如 kimi, 而且高峰时间段呢,因为顾忌它 套餐卖得太多了, token 的 吐字呢,我觉得巨慢。另外一个 mini max 呢,我觉得它的套餐跟 g l m 很 像,然后这里也不跟大家重复了。然后还有一家呢,大家可能没想到,就比较小众,就是英伟达。英伟达呢,其实它也提供这个完全免费,额度不限的这个开源模型, 包括前面说的 kimi k 二点五,然后 jimmy 四点七, mini max m 二点一。但是呢,因为可能门槛太低了,然后用的人实在太多,热门模型的速度呢,慢得离谱。所以这个呢,我就更不推荐了,只是跟大家介绍一下,英伟达,它其实也有这个免费的接口。最后啊,来再帮大家整理一下思路,如果你想追求最强的效果, pro 的 中转站呢,是目前性价比最高的选择。如果你的预算有限啊,那国产模型里面 g i m 的 套餐最实惠。 timi k 二点五的效果最好,但是有传闻呢,说这个月会有大批的这个模型,会推出新一代的模型,到时候呢,我再跟大家更新。然后如果你想白嫖呢? openai 的 这个 timi 拼车几乎是完全零门槛的, 效果也不错。这期盘点里面当然肯定没有包括说这个百分之一百所有的方案,市面上还有很多我没发现,或者是我没有测过的这个方案。如果你有更好的渠道,欢迎在评论区补充,大家一起交流。好了,今天视频就到这里了,我是迪总,黑心李超,我们下次见。