一月二十一日,智普公众号发布公告,随着 glm 四点七上线, glm coding plan 用户数迎来高速增长,算力资源出现阶段性紧张问题。 近期,部分用户在模型调用高峰期遇到了不同程度的病发、限流、报错、模型速度变慢等问题。智普将暂时限量发售 glm coding plan, 限售后每日可销售量降为当前的百分之二十。
粉丝4.3万获赞43.3万

很多人一听到 clock code, 也就是我们说的 cc, 第一反应就是,哦,又一个写代码的工具,大错特错。如果你只拿它写代码,那真是大材小用了。 这东西根本就不是一个简单的编辑器插件,它本质上是一个系统级 a 人。什么叫系统级?就是只要你给了权限,它就能直接接管你的电脑。它不像网页版的 gpt, 说完话还得你自己动手复制粘贴。 c c 是 能直接帮你改本地文件,跑数据分析爬虫,甚至读写 word 和 excel 的。 简单说,他就是一个住在你命令行里的超级管家,只要你一句大白话指令,凡是你电脑能干的事,他基本都能直接替你干了。 要想把这尊大神请进电脑,得先查查户口,他依赖 node js 和 git 这两个环境。别管你是 windows 还是 mac, 打开你的终端或者命令行, 照着屏幕敲这两个命令,只要能蹦出具体的版本号,说明环境没问题。要是报错说找不到命令,那就赶紧去官网下一个装上,这不属于基本功,咱就不展开手把手教了。环境搞定后,安装其实就是一句话的事, 把屏幕上这行 m p o 命令复制进终端,千万注意中间这个杠 g 的 参数。这是局安装的意思? 逗了,他回头,不管是调用还是升级都一堆麻烦,输完直接回车等着进度条跑完就行。装完了别急着兴奋,我们先验个货,在命令行里输入 clod, 后面跟两个杠 version, 只要他痛快地吐出一个具体的版本号,比如零点二点二九,那就起火了。 这就意味着这套系统级 agent 已经在你的电脑里安家落户了, c c 装好只是第一步,现在他还是个没脑子的空壳。 默认的 cloud 模型 a p i 申请极其麻烦,还得搞定海外支付,对国内用户来说纯属劝退。这里我直接给个最优解,别折腾原生的了,直接用国产平替。比如智普的 glm 四点七,我实测下来 再写代码,这个垂直领域,如果说满血版 gl 的 能打九十八分,国产这几个模型基本都在九十分以上,日常用起来体感差距非常小。 关键是门槛和成本完全是一个天一个地。方案定了,咱们准备两样东西,去智普开放平台注册个号,在后台复制你的 api key, 这串字母自己留好,别乱发。关键是第二步,记得在里面订阅一个叫 coding plan 的 套餐,这个非常重要,它是专门针对写代码优化的,而且价格很香,一个月也就一杯奶茶钱,比你按量付费划算的多,能省不少银子。 拿到 key 之后,千万别去手动改什么环境变量,哪怕多打一个空格都得报错。直接用智普官方出的这个自动化工具,一行命令全搞定。在终端里输入屏幕上这行 npx 指令,回车之后,它会弹出一个全中文的界面, 你只需要跟着提示选中文确认套餐。把刚才复制的 key 粘贴进去,它会自动帮你把底层的连接配置全部写好,新手绝对不会出错。 把 c c 叫醒之后,你得适应一下他的工作方式,这不是咱们习惯的图形界面,没那么多按钮,给你点全靠键盘。第一件事,你得给他划进个工作区,也就是告诉他该读哪里的文件。最简单的办法,直接用 cd 命令进到你的项目文件夹,再启动它。 如果在聊的过程中想加别的文件夹,直接敲斜杠 a d 二,把它拉进上下文里。记住,对 c c 来说,文件夹不仅仅是存东西的地方,那是它的知识边界。 这里教大家一个极其好用的隐藏操作。很多人都不知道,以前在命令行里输文件路径得敲半天,还容易错。在 c c 里, 你直接把要把要分析的文件或者整个代码库文件夹用鼠标拖进这个黑框框里,松手回车。这一招叫物理投喂,不管是几十个代码文件还是复杂的文档,拖进去他就能瞬间读取。 这是扩充他上下文最快最暴力的手段,没有之一。最后说个最容易让人抓狂的坑,就是粘贴在终端这块地盘上,千万别在那狂按 ctrl v, 把键盘按烂了也没反应。想粘代码或者文本,直接按鼠标右键。如果要发图片给他看,快捷键是 alt v, 但是注意听,这里有个大坑。你不能在文件夹里复制那个图片文件,你得把图片打开或者直接截图复制图片的内容,这时候按 alt v 才能传上去, 这点非常反直觉,一定要记住了,熟悉了交互,接下来这几个斜杠指令,就是你每天都要打交道的工具了。第一个是斜杠 clear, 每当你打算开始一个新任务的时候,一定要记得先执行它,这相当于给 ai 换个干净的大脑,防止之前的对话干扰它的逻辑。 第二个是斜杠 comp, 这个太有用了,如果一个任务聊得太久,你会发现 c c 反应变慢,或者开始胡言乱语。 这时候用它给对话设个身,它会把之前的废话压缩成摘药瞬间,节省大量内存和费用。最后就是斜杠 cost, 建议你没事就敲一下,看看这波操作花了多少钱。毕竟咱们用的虽然是平替,但也得精打细算不是? 如果你觉得每次改文件都要点确认太麻烦,那咱们就玩点大的。启动 c c 的 时候,在后面加上两个杠, dangerously skip permissions, 这就进入了传说中的危险模式。这个模式的精髓就六个字, 别问我,直接干!比如你想把几百个文件名全部统一规范化,如果是普通模式,你得点几百次确认。 但在危险模式下,你把要求一丢,去喝杯咖啡回来,他就已经全部改好了,他会自动尝试报错重试,直到把结果交到你手里。不过丑话说在前头,这个模式权限非常大,用之前一定要做好备份,千万别在系统核心目录下乱玩。 如果你觉得危险模式已经很强了,那 m c p 简直就是给 cc 穿上了一套外挂机甲。简单说,这个协议能让 ai 走出终端, 直接去操控你的浏览器、数据库或者其他软件。举个最接地气的例子,很多博主每天要统计公众号后台数据,手动点开复制粘贴到 excel 表格,这活干半小时能让人心力交瘁。现在你只要装上这个 chrome 调试外挂, 一句话, cc 就 会自己打开浏览器,一页一页翻把数据抓下来,最后再亲手给你做一个 excel 表格发过来。整个过程你只需要看着原来半小时的体力活,现在五分钟全自动搞定, 这才是真正的生产力解放。最后再给你安利一个神器叫 skills, 你 可以把它理解成别人已经封装好的顶级工作流,你只需要借过来用就行了。最牛的一点是,它用完即走,不占你的大脑内存,也就是不浪费 top。 比如这个前端设计技能包,简直是审美救星。你只需要把一个长得挺丑的网页链接丢给他,让他优化一下, cc 就 会调用设计技能,自动重构布局、调整配色。几分钟功夫,一个极具现代感的网页就出来了, 而且里面的链接全都能真实点击。最棒的是,现在用国产模型也能完美运行这些技能不需要登录任何海外账号。以后不管是写代码还是改 u i, 只要你有 c c, 你 就不是一个人在战斗,你背后站着一整套官方技能库。

免费了,不要三四九九,也不要九块九,不包手机的平替智普的开源项目 open auto gm, 配合它的开源模型 auto g o m 九 d, 咱们也能实现手机 agent 的 自由。我用手上这台安卓手机和 mac 电脑搭好的环境,让他来帮我购物, 这是执行效果,提示词是在淘宝上找到帮宝适黑金刚 l 码最低价的商品,加入购物车,然后发微信告诉我商品选好了。我来看看。这套开源方案和豆包手机最大的区别有三点,第一, 一,运行级别不同。开源方案只能在前台运行,豆包手机可以在后台自己默默的运行。第二,手机的便携性不同。开源方案手机和电脑必须用数据线连接,或者是在同一个 wifi 下,豆包手机可以只拿着手机到处走。三、智能程度不同。 开源方案接的是九 b 参数的小模型,能完成大部分的基础场景,但是极限智能比不上豆包手机。推荐两种适合的使用场景。 场景一,操作电脑忙不开的时候,比如快下班时提前叫车,当同事还在等车的时候,你已经上车回家了。场景二,需要在手机上多个 app 之间切换,收集数据,分析并且最终操作手机的场景。比如说在双十二购物选择最低价格商品时,我的微信收到消息了,任务完成。 牛逼!那么这么牛逼的手机, a 镜的方案会不会很难配置呢?完全没问题,我摸索了一套极简方案,只需要一行命令和一句话就能配置好。 首先看我这期视频,一行命令把 cloud code 安装好,然后打开 cloud code, 告诉他这句话,一路点同意就能安装完成整个配置过程,需要用数据线把安卓手机 在电脑上这么简单都能就能搞定,快去配置一套试试吧!你还有什么场景想用手机 app 来解决的?详细的安装过程和常见问题我会总结成文档,方便大家查看。关注我,玩转 ai 编程。

字节跳动扣字二点零八步通过 agent skills 加载行业技能 agent plan, 支持目标设定与自动跟进。 agent offers 提供深度职场洞察。 agent 扣定,实现云端快速开发。 ai 正从能帮你迈向懂你,成为真正的智能工作伙伴。访问官网或下载 app 体验,领取属于你的靠谱工作伙伴吧!质朴开源混合思考模 g l m 四点七 plus 总参数三十 b, 已激活参数达三 b 并免费开放。该模型在同尺寸级别中达到 soho, 在 speedbench 等多项测试中表现领先,不仅编程任务表现出色,可用于中文写作、翻译长文本及角色扮演等丰富场景,真正实现小儿强。 mini max 推出智能体 mini max a, 正常二点零定位 ai 人声工作台,能感知本地环境,拆解复杂任务,并提供专业支持。 通过桌面应用实现本地语音端协调,帮助用户从重复性跨窗口操作中解放,能主动融入你的工作环境,理解任务背景并持续推动进度。而背后则是集模型技术从长文本处理到全站编程能力的持续升级。 vr 正式为正四点五上线涂身视频功能,面向付费用户开放。该功能聚焦影视级创作,支持长故事深沉与精准镜头控制, 并可保持多镜头间角色一致。用户可调节镜头参数,如低角度仰拍缓慢推进来控制蓄势节奏,配合模型的一致性保持能力,使深沉的视频成为可直接剪辑组接的连贯蓄势素材。阿里近日上线 a c 设计平台乌利,由通用千万图像模型提供支持,集成高质量深沉、极速响应与细节 增强三大模型覆盖图像生成与编辑功能,致力于为设计与营销提供高效工具,不仅支持图片、视频生成,提供灵感联想,翻译工具与素材库只需简单描述,即可快速生成电影、海报、电商场景等设计素材,是一站式创意生产平台。关注小编,每周获取最新 ai 资讯!

你的文件夹是不是这样的?但我的文件夹是这样的。如果你和我一样,每天输出或者收集很多内容,有的存非书,有的存在本地文档,存的时候很爽,但用的时候根本找不着。这时候你会想,有没有人能帮我收拾一下, 哎,收拾好了,如果你和我一样的烦恼,作为一个多年来从业者,听我的啊。就这套 cloud code 叫 obsidian 的 本地事务方案,你一定一定要把它焊在电脑上,真的非常好用,而且部署非常简单。先给你说下为什么好用, 而且呢,你可以把理解为本地话的分说,他是你本地的文档仓库,不仅安全,最重要的是非常的好看。这一个 能听懂人的话的文事务管理员让你整理这样的文件,你可能要阅读每一篇文件,然后打标签,见双面,累的半死。但现在你只需要对终端说一句话,他就能帮你把一堆非常复杂的文件归档提炼,甚至能帮你做新的创作。如果这块你感兴趣,我们可以单独出一期教程来做。 当然,这里还有个巨大的坑,如果你直接用可乐扣子去做,真的太贵了,而且我们国内的网络环境大家都知道,用起来磕磕绊绊,动不动掉线。那为了让这套方案极具性价比,我直接把背后的模型换成了智普最新的 gm 四点七。这次要夸一下智普的核心 gm 四点七,在代码理解和代码指令上已经非常非常接 近国外的顶尖模型,最关键的是,它出了一个 coding 套餐,一个月只要二十块,二十块,兄弟们,二十块!用国内最顶尖的模型,不要质疑无脑去创,你 一定会觉得他物超所值。大哥说两分钟带你买这套本地 ai 知识库方案玩起来。 ok, 我 们现在来安装一下 clock code, 然后把我们的 gm 四点七模型导进去。首先你可以来到智普的首页,知道兄弟们呢,智普提供了一键安装指令,复制粘贴就可以了,你可以在这里复制这条指令。小伙伴你搜到这个终端 windows 的 话,你可以文件打开你的命令行,直接粘贴这条指令就可以安装了。 安装好之后,输入 cloud code, 你 就可以看到 cloud 的 界面了。然后我们再把模型导进去,首先你要开通它的 cookie plan 套餐,同样还是一条指令,你需要在这个页面里输入好你的 a p i, 然后再进入 cloud code。 ok, 当你到这里你已经将 gm 四点七部署到你的 cloud code 里了, 那最后一步你需要叫 cdn 的 官网下载好最新版本到 cdn。 那 么恭喜你,完整的本地知识库部署操作已经结束了。我们先来看一下效果, 我现在桌面上塞满了文档,有会议机要有乱七八糟 ps, 文档一共二十多个文件,大家看到这个文件夹会不会觉得很恶梦呢?那我现在只需要打开我的 excel 和我的 copy, 输入一句习字,读取当前目录下所有的文件,为每个文件的目录下创建一篇笔记, 要求提取核心论点,打上标签。如果发现相关创建双向链接,我们看一下他会如何完成这个任务。 不光帮你读完几万字的一个资料,甚至帮你总结他们之间的逻辑关系。你什么都没有干,只需要发布一条指令,你就可以拥有一个属于该领域的知识网络,这才是 ai agent 该有的样子。 让机器做有码,我们只负责喝茶决策。如果你看到这里,相信已经把它部署好了,兄弟,那我必须奖励你一下。现在在你的 qq 里输入阿姨祝我这四个字,难道会送你一杯奶茶?不信你看。不是开玩笑,真的奶茶好了,是开玩笑了,不是我送你的。是否送你的输入指令,找到这个兑换码,在程序也就直接兑换了 二十块的订阅费,还要送你杯奶茶,这是国货之光,给力!最后说回来,今天给大家分享这套本地化的知识库中,给大家带来一点点小红, 能帮大家在枯燥的工作生活中偷一点懒。但也正是因为有个 g、 l、 m, 有 color code, 有 ocden, 这些工具能帮我们从枯燥复杂的整理生活中解救出来,我们才有时间坐在这里慢慢的喝完这杯奶茶。 我觉得这个就是 ai 技术推进的意义,我是麦当,带你用 ai 玩点实际的,趁着活动还在,赶紧去试一下,我们下期见,点赞关注!

阿姨助我,是的,没错啊,打着打着代码还有免费的奶茶喝了。随着智普 g i n。 四点七的更新,只要订阅了 callin pen 的 用户,都能通过对话获得一杯沪上阿姨新品 qq 美眉奶茶。我也是柯迪扣加 g i m。 的 重度使用者了, 质朴 j r n 模型也是在上周升级到了四点七,刚出更新公告,全力也是炸开了锅。主要是公告里的这一句, j r n 四点七在前端生成质量方面有明显进步,能够深层观感更加的网页 ppt 海报。是的没错,对于重前端独立开发的我们来说,模型的审美提升可太重要了。要知道有时候我们只有原型图, 我们希望 web 扣顶的时候,模型可以帮我们分担 ui 审美的部分,比如我对 ai 说,让这个页面更加美观好看。说实话,以前的 j r n。 四点六在逻辑层面非常强, 但是确实在前端审美方面略差了一些,每次都是在 ai 生成之后不断的进行微调。而现在你看我用新的模型生成的网页,审美提升的不只是一个档次,除了增强了对视觉代码的理解,它还能更好的理解 ui 设计规范。比如我直接让它设计手绘插画风格的网页,极简主义风格的网页, 三 d 与实景融合风格的网页,这动效,这交互,这 ui 在 布局、配色方面都很不错。而我的提示时,只是简简单单的一句话。不仅如此,当你发现了一个非常好看的组建库的时候,你可以通过它的联网搜索 m c p 将链接提供给他,他会读取里面的所有组建,对你当前的页面进行一个组建,搭配新增合适的组建效果,生成后的网页效果也是非常不错的,比如鼠标的跟随效果、文字的闪烁效果选项,卡片的动效非常炫酷。 在主流机转测试表现中, g i n 四点七的代码能力对起 caliso no 四点五,而 light 的 价格一年只用一百九十二,一个月一杯奶茶钱都不到。当然我更推荐 pro 版,因为它支持视觉理解、联网搜索等, n c p 速度也会更加快。不管你是用 ctrl 还是 shift 还是 ctrl, 都可以无缝接入 g i n 四点七模型。我现在已经不断安利身边的人用 ctrl 加 g i m 的 white coding 工作流了。不管是速度、成本还 是社区活动方面,对开发者来说都非常友好。如果大家需要试用的话,我这里也有几个教员 coding pen 的 体验卡,需要的话我发你。好了。以上就是视频的所有内容,如果觉得有帮助的话,帮忙点个赞,我是小卢,我们下次再见,拜拜!

我用 plan 模式跟 cloud code 聊了两天,打了四千四百四十七个字,然后他用两分钟生成达到我目标的代码,爽。 嗯,马上,今天不错啊,这两天呢,是用这个 cloud code 的 plan 模式去实现了。我当工作当中一直需要手动或者说是 很有限的自动的一部分重复的生成代码的工作。呃,用两天的时间完成,也是一个碎片的时间,这两天的时间,我 绝大部分的时间都是在用 plan 模式去跟 cloud code 去对话,去确认我们这个事情该怎么做。哎,生成代码我感觉两分钟就生成出来了, 但是他非常的爽,因为最终呈现的状态非常的满意,不会再像之前那种哎呀,做一半就非常 confuse, 他 也不知道做到哪里去了,你也乱套了, 然后就放弃了。所以呢,今天来分享的是用这个 class code 的 play 模式去实践的一个 心得。嗯,然后今天换了这里。是因为啊,今天是有稿件的,是写了一个总结的。对。 嗯啊,那第一项是说 play 模式的试用啊,我也用,也就是有过没用 play 模式去帮我随便的用我的已经有的这个 ui 测试的自动 化去生成一个平台,完全没有问题,他自己开启了 play 模式,问了我几个问题,就是架构选型啊,是否需要数据库之类的,他就自己去生成了,完全没有问题。 然后我现在需要做的是,我本身已经有一个接口测试的框架,我在加入新的测试 case 的 时候,那我需要把每一个 嗯接口的架子,它包括一个拍摄文件,一个压缩文件去生成,然后呢,根据我具体的接口,然后去把这个压缩文件,根据这个接口的请求啊,它的,呃 header 的 类型啊,它需要哪一个登录的 cookie 啊?它具体的请求的 参数是什么?参数列表是什么?他,呃请求当中是否要替换的变量?呃。返回了响应之后要提取哪些变量?这些所有的东西原来是我手动的,现在的话呢,只需要输入少量的配置文件,然后呢?再加上, 嗯,我给他提供一个接口的文件,就都能自动化生成了。然后生成这两个文件之后我还有一个列录的文件,就是说我这一个 case 可能需要调用多个接口,并且它是有顺序的,是有依赖关系的, 然后这个也通过我去配置一个简单的这个文件,他都能帮我一步的去生成。 哎,就是说 plan 模式就适合这种。嗯,它是一个以一个平面的形式插入我们的工作,而不是一个,呃,从零到一,你就帮我做个平台吧, 那种的话可能更适合你直接做。然后这种就是我有明确的步骤让你做什么,只是可能我没有梳理的那么清晰具体的实现方案,你能实现什么?不能实现什么?没有那么清晰具体每一个细节我们去做什么?比如说我拿接口,我是用叉二四去给你接口文件, 还是说给你复制粘贴出来还是什么?就这些细节我不确定,但是大的步骤你做什么不做什么是非常清楚的。而且呢涉及到你要改我的代码,你要在我的这个跨文件跨模块当中去提取我的内容,然后生成内容去改代码的,这种就非常适合这个 play 模式。 嗯,这是第一点。然后呢就是开始我们要开始去做了,那这个项目适合去做 plan 模式呢,我们就开始去做。那开始之前呢,一定要做好这个版本管理,因为它是要改我们的项目的, 你要把我们自己的这个项目先保护好,因为万一做砸了呢,是吧?啊?这是第一,第二的话就是思路,就是我刚才之前说的,你可能 思路没有那么清晰,但是你已经有一个大概的框架了,这个还是要有的,具体的内容我们是越聊越有的,包括我们做了什么,我们有时候没想到的这些在我们的 plan 模式当中都能聊到,所以这个不着急。 然后好,那我们就开始做了,开始做的当中呢,这里面呢,我分为三类,一类呢是说要尽早去做的,其实呢就是说把我们, 也就是说 cloud code 它的厉害之处就是在于它能形成上下文,它会有记忆,如果你明确的告诉它,这个我们要形成上下文的,它会记到文件里,记忆不会磨损,不会越做越走形,越做越变形, 所以他不会主动去做的,这个是我们要求他去做的,所以我们要有意识的尽早的在这个 play 模式的讨论中去形成一些内容的上下文。 然而他不一定是一开始就有的,所以有东西一开始我们不确认,有的是确认的,所以我们要有意识的,当我们讨论到这个点的时候,你要告诉他,哎,这个就是我们的约定,就是我们的规则,你要把它记录下来,每一次都去留他去。 对,但包括哪些呢?第一点这个是做之前我们就有的是人设,人设的话呢,我一般我觉得就是说不管你是做一个测试工程师还是一个数据分析师,这些都可以, 第一就是要求他专业,第二是要求他是与我们合作的,就第你首先不是我的下属,不是我说什么就做什么,那你要跟我去讨论,你要主动去思考,你要提出质疑,你要提出更多的方案,提出我这个所想到 所没有想到的地方,我们是合作关系,然后你不能说我干啥你就干啥,你也不问,然后就瞎做,或者说是,哎,做一半发现,哦,我没想全,那 这个 ai 的 话应该已经发展的比他厉害了,这个你要跟他说,然后呢就是告诉他不要擅自行动,我们充分讨论,充分提问,充分之后 再去做,而不是你想象的你就开始做了。这个不要就是说普拉模式的一个克制的精华,就是一定不要着急写代码,这个人设是要跟他说好的,就是专业与合作, 然后呢还要形成上下文的,就是我们慢慢形成的一些规则。第一就是不要着急写代码,我确认了再去写,我们充分的考虑好之后,第二就是你要阅读我现在已有的代码,在你了解我代码库的基础之上去做我们的 讨论,因为这很重要,因为我们的你的工作不是从零开始的。哎,这一点呢,就是 我在做的过程当中发现他 ai 还挺懒的,他总是不愿意读我的代码,我也不知道为什么,可能是我使用的问题还是怎样。嗯,就是他会问我问题,我说这个问题你通过读代码就能解决,我也把这个地址都告诉你了,你为什么不去读呢? 然后他有的时候问我的细节,我说哎,你为什么还没读代码呢?或者他告诉我他读了,我发现他没读全,我说这个你读代码就能解决,你也说你读了,你为什么还问我呢?就是我要一直的去鞭策他, 并且后来我要做去考他,我说那你读完了,你告诉我他的实现路径是什么?实现原理是什么?然后让你让我能安心的让你确定读了 鞭策几次之后是管用的啊,他是会记得这个放在我们的这个规则里面会更好一些啊,但是还是要警惕,要鞭策他啊。然后呢,就是我们在讨论当 中就会形成一些共识的概念,就像我们看一个需求文档一样,那我们在在讨论到我们这个业务当中的时候,是会形成一个 框,定出一个概念,把它提炼出来,方便我们以后去讨论的这个让他记下来这个约定的概念就 ok 了。 然后,嗯,规则的确认,还有包括就是关键逻辑的一个上下文,就是当我们讨论好了一些东西的时候,你就要去记下来,那以后我们讨论都基于此,都基于我们的共识,不要再反复拉抽屉了。这个也是我在这次实践当中发现的, 问了又问,问了还问我说你把它记下来吗?好,然后呢,这些规则在慢慢形成的时候呢,我们也慢慢形成了计划,那计划呢?包括几个方面啊?这里面呢,是我在做了一次实验之后,按照时间的顺序又给 梳理了一遍。第一就是引用的文件和目录,就是你基于哪些你基于我的项目去去上面做改造也好,做开发也好,那我要告诉你我的目录在哪里,你要去看。第二呢就是使用的场景和目标,就是我在一开头说过的,那我是要做什么?原来我的步骤是什么? 呃,我的目标是你用自动化的,你通过我给你提供一些我们讨论之后充分的配置之后,用自动化的方式帮我实现哪哪哪些步骤, 让我达到过高程度的转化。嗯,这个就是我们的目标,那目标也就包括边界了,就是你做什么呢?就包括你不 做什么,就比如说我这里面就是你帮我实现完了这个列录的文档之后,那后面的这些执行都是我去做啊,但是你不告诉 a i i 是 不知道的,我们要在讨论当中把它逐渐的明确出来,然后让它记录到上下文当中啊,这是场景和目标,下面呢就是我们 呃计划里面进行的方案,呃方案就包括大的方案步骤,这个每一个我们讨论充分之后,把它就是具体的我们怎么去做,用什么工具,用什么 方法。然后呢要就是具体的,一个是确定,一个是先进行可行性分析,然后再进行确定,这个有的是他去让你试一下的,你能否提供,你确实是提供完了,我们可以用这个是要进行一些实践的,然后大的方向这个步骤里面的。 呃方案确定了之后,我们还要确定一些细节,就是具体的,比如说我们在确定了就是那我最终还是肯定要给 ai 提供一个配置文件的,那我当我们确定了提供一个配置文件之后呢?我们又分析了我们用什么样的配置文件,是用压缩文件啊?还是用一个? 呃,那个 python 文件呢?或者怎么样?那我们确定用压缩文件之后,就具体的大的方案之后的细节,方案的每一个参数, 我们怎么去约定?他有几个美居值?不同美居值我们需要怎么处理?这个细节也是要讨论出来的, 然后这个也是可包括他的可能性的分析。呃,是可扩展性啊,以后的就是在这个当中你还是可以跟他去对话的,那就是说我有这些计划,你考虑怎么样呢?你基于对我们项目的分析,基于你的经验,基于我们刚才讨论的内容 啊,你分析有什么风险呢?还有什么问题你反过来问我呢?就这些是要跟 ai 去反复的推敲的,你跟他去讨论的,你是真的拿他当一个工作伙伴,甚至他是你的领导,是一个比我们更资深的专家,你要去问他的这个 越问越有还是很好的。这前期确认下来的前景确定性越大,最后那一下两分钟产出的内容越爽。 然后呢?最后呢?对,然后讨,我们一开始给了场景和目标,然后当我们讨论完大的方案和细节方案之后,我们再一次去确认, 再次跟 ai 去确认,通过讨论之后我们的功能是什么?我们的最终形态是什么?我们最终的步骤是什么?再次的确认和对齐,我是这么理解的,你是不是如果有什么问题我们再讨论? 这个一定要,我觉得这个步骤还是很重要的,因为他可能也会聊篇,包括中间我们说的一些规则,一些关键的逻辑,你如果不跟他说保记录上下文,他有的时候确实会记不下来。 嗯,这个还是挺重要的,就是再次去确认。然后呢?当我们快结束的时候,就是你刚才跟他说,那我们确认好了,再生成代码,然后我们后面会有一个验收,我会有一个实际当中的 case, 这是测试吗?那我肯定有一个十岁的 case 我 们去跑通。那如果是写代码的话,可能就是你要通过单测啊,或者你要通过一些 哪些典型 case 的 测试啊,或者怎么样,你要去通过这个测试,或者是一个什么率吧,什么之类的,就是一定要给他一个验收标准,让他在做事情的时候先去自测,先去自我审视,然后再来问我们,然后再出最后的 结果,这个是也是能保证最后结果不跑偏的一个挺重要的工作。嗯,然后以上就是步骤了,就是慢慢的我们通过讨论,哎,最后他就可以开始做了。 嗯,然后呢?下面是在我们做讨论当中的这个注意事项,就是第一不要错过细节。你在讨论当中, 他说的时候,哎,你发现他说的某一个词很模糊,比如说什么,他就说那我们就做一个半自动化,我们就做一个,哎,你就要问他,那你所谓的半自动化到底是哪个步骤自动化,哪个步骤不自动化? 就是这些细节一定要框定好,不然他就按他说的,就像我们在需求讨论中跟人说一样,他就按他说的走了。你这个半自动化太模糊了, 你心里的和他心里的可能不一样,这个一定要说。然后第二呢,就是讨论中啊,你要发现他有错误,一定要指出来,并且让他记住这个很重要,不然他就按错的走了 啊。第三就是刚才说过的,一定要去考他,让他去看代码。嗯,他真的还有点懒,其实我觉得这有点像 ai 幻觉吧,让他说起来就是他总骗你。 然后呢?嗯,第四个讨论中要注意的事项,刚才也说过了,就是要互相提问,互相验证, 对,就是要不断的不要烦,因为前期做的越充分,后面的程度会很好。 嗯,说完了,然后这就是有了这些之后呢,那我们能生成的这个产出,那可能就是刚才像我这个工作,我跟他说的是我们要产生一个 python, 也要做成一个 skill 啊,这个就很简单了,就很轻松,做出来的东西也很容易成功。嗯 嗯,然后呢,还是要注意的,就是第一要物理存档,这个啊,这是一个阶段性的工作,有了成果,或者是你要休息了,或者是你要结束今天的工作了,一定让他存档。但是这个我为什么听说物理存档我觉得很有意思。 他,我今天跟他说存档就是把我们的阶段性的成果,阶段性的这个确认的事项 记录下来,他居然告诉我,哦,好的,然后列下来,我已经存了这些存到塞舍里,我说你怎么存塞舍里?我是一个 windows 电脑,我一会就关机了。呃,我,我可以用 rec 我 们文件去回复,但是 他有失败的可能性了。我说你一定要进行物理存档呢,他会生成一个 percy 的 点 md 文件。哦,那我觉得安心多了。然后就是还是定期去 review, 这是另一个注意事项。呃,以上这些都做到的话,一呃那 cloud code 的 强大指数就会翻倍, 做出很好的。反正我今天的铲除啊,但是我今天其实做到最后还是有 bug 的 啊,但是我已经很满意了,因为他做的东西是我想要的,有点小 bug 再改,明天我再鞭策好了,今天就到这了。

二零二六年一月二十一日,智普华章正式发布 g l m coding plan 限售公告,宣布因最新上线的 g l m 系列模型引发用户爆发式增长,算力资源出现阶段性紧张。自一月二十三日十点起,对相关订阅服务实施临时限售,每日可售量压缩至当前水平的百分之二十。 这一决策成为国内 ai 算力供需矛盾的鲜明缩影。随着人工智能技术在千行百业加速落地,全球范围内算率缺口已成行业性爆发态式。 而我国因高端技术依赖 cpu 与 gpu 携同短板及需求激增的三重作用,缺口尤为突出。数据显示,二零二四年,国外厂商占据中国 ai 芯片近七成市场份额, 大模型训练领域自己不足问题显著。预计二零二八年我国 ai 芯片市场规模将超一万亿元,占全球市场百分之三十。这一庞大市场既凸显算力保障的挤破性,也暗藏着产业突围的历史机遇。 质朴华章的算力紧张并非个例,而是行业缺口结构性差异的集中体现。大模型训练与行业推理两大核心场景呈现鲜明分化, 而 c p u 在 其中的角色定位与供给短板进一步放大了矛盾。在大模型训练领域,缺口表现为质的短板,对算力的需求呈指数级增长。二零一二到二零二三年间,大模型训练所需算力增长上亿倍, g p t 四单模型训练成本超一亿美元,不仅对 g p u 的 计算性能、显存容量要求苛刻, 更需要 cpu 承担任务调度、数据预处理、沙河环境隔离等核心工作,其指令调度效率直接影响整体训练效率,部分场景下甚至鲜鱼 gpu 成为性能瓶颈。质谱华章的监测数据显示, glm 工作日十五点到十八点的模型调用高峰期,大量用户遭遇病发、限流、报错及响应速度变慢等问题, 即便团队第一时间启动算力扩容,仍难以完全缓解压力。当前,国产 c p u 在 高端服务器领域仍有差距,海光四号等旗舰产品虽能对标英特尔制强终端系列,但在单核性能、多核协调效率上与国际顶级产品仍有一到二代差距。 而国产 g p u 在 高端制程上的不足,进一步导致训练环节对进口 c p u 加 g p u 组合的高度依赖,自挤率不足成为主要事故。 行业推理场景缺口则体现为量的短缺与结构失衡, cpu 的 供给紧张与生态适配问题更为突出。随着全国数万余个算力应用项目、三万余家智能工厂落地,工业缺陷检测、金融风控等细分场景对推理算力的需求爆发式增长, 而 ai agent、 云服务调度等场景让 cpu 从辅助角色升级为核心调度大脑。智普华章的限售决策中,已开通自动续订的老用户权益不受影响,本质是通过资源倾斜保障核心场景的服务连续性,这也反映出推理场景下算力分配的结构性矛盾。但我国算力资源碎片化问题显著, 各服务商 cpu 与 gpu 接口协议不统一,跨区域调度能力弱,部分制算中心 cpu 利用率偏低,造成资源浪费。同时,国产 cpu 在 推理优化上存在短板。某自动驾驶企业测试发现,国产 cpu 在 i n t 八推理时因量化误差导致目标检测准确率下降三个百分点, 且海外巨头产能紧张,加具供给缺口。英特尔 amd 核心产能超负荷运行,台积电先进封装瓶颈使 cpu 交付周期从八到十周拉长至二十四周以上。二零二六年,服务器 cpu 产能已被大客户提前锁定,中小客户获取难度陡增,进一步加具了行业推理场景的算力紧张。 值得关注的是, cpu 市场的供需失衡与国产替代窗口重叠,为万亿 ai 芯片市场增添了新的增长级。当前,国产 cpu 已形成四大主流路线,覆盖全场景需求。海光信息的 x 八十六路线兼容主流软硬件生态,算子覆盖度超百分之九十九。 龙心中科的 lunarch 自主路线生态适配超两千款国产软硬件。飞腾、华为、鲲鹏的 arm 路线功耗低、能效比高。兆星的 x 八六兼容路线在降本增效上优势明显。面对算力紧张,质朴华章除了采取限售限流措施,还同步启动了违规账号治理与技术升级计划, 在加速算力扩容的同时推进新模型研发。这一应对策略也折涉出行业对算力供给优化的迫切需求。 随着海外 c p u 计划涨价百分之十到百分之十五,国产 c p u 在 性价比上的优势进一步凸显。二零二五年,信创领域服务器 c p u 国产替代率稳步提升, 预计二零二六年进入加速替代阶段。庞大的算力缺口背后,硬件、软件生态、算力服务三大细分领域正孕育结构性机会,硬件领域 c p u 与 g p u 协同突破成为关键。三 d 封装、光互联等新技术推动国产芯片缩小差距, asic 芯片因高性价比抑均凸起,预计二零二八年市场规模将达四百二十九亿美元。软件生态方面,针对 cpu 与 gpu 的 适配工具链成为突破口。某国产智算平台通过自研优化工具,将医疗 ai 模型推理延迟从一百二十米秒降至四十五米秒, 显存占用减少百分之七十五,相关适配服务市场快速扩容。算力服务领域资源池化与智能调度成为趋势。 我国已建成四十二个万卡智算集群,通过三级调度架构实现跨芯片架构、资源优化配置定制化,算力服务模式正从资源出租向解决方案转型,这也为智普、华章等企业的算力扩容提供了可行路径。破解我国算力告急的困境,需以 c p u 与 g p u 协调突破为核心, 打通技术与应用闭环。要持续加大国产 c p u 加操作系统加应用软件全链生态, 借助海外 cpu 产能紧张窗口,加速国产 cpu 在 制算中心、工业场景的规模化应用,缓解类似质朴华章的阶段性算力压力,完善算力调度机制与效能评估体系,提升 cpu 与 gpu 资源利用率,减少碎片化浪费。 更关键的是构建算立方、模型方、应用方协调生态,实现硬件性能与场景需求的深度适配。 随着万亿市场机遇兑现,国产 ai 算力产业正从单点追赶转向系统级创新,未来三年将是掌握全球竞争主动权的关键时期,唯有持续突破核心技术,完善产业生态,才能筑牢人工智能产业行稳致远的算力压仓时。


哈喽,下班了,上周呢,智普上市,有朋友呢,让我讲讲他们的模型的情况,今天我们就来讲一讲智普的一个旗舰模型 glm 四点七的一个情况吧。 那首先看一下这个评测榜单哈,应该来说这次还是比较开心,能够看到国产的这个模型,特别是开源模型,能够排在全球的这个榜单的前列哈,目前大概在在第七位的位置,那么它前面的基本上都是 国外的闭源的模型,那所以这次应该说是取得了两个领先哈,第一个就是国产的 sota, 第二个就是开源的 sota, 就是 在这个位置哈,我们是开源模型的代表了。 那么从这个 lm arena 的 情况来看,从这个 web dev 就是 一个 coding 的 能力来看啊,智普的 gm 四点七目前是排在了全球第六位, 那从他的模型卡就是他的 model card 也看到,这次的模型的能力呢,主要集中在这个 agentic, 就是 智能体推理,还有就是 coding, 这三方面的能力都有一个非常大的进步。 那么对于大模型的抠定能力来说呢,光说不练嘴把式,我们要看一看它实际的效果,所以呢,我就给了它一个例子哈,就是周末呢, agi nex 的 这个研讨会也非常的重磅哈去,其实是这个杨志林,然后唐杰老师,俊阳还有顺宇他们几个同台一起去 讨论 agi 接下来的一个趋势,但是呢,这个文字非常的长,大概有三四万字,那我就在想这个文字能不能把它变成一个网站 那于是我就用了 ai coding 的 工具,用了 g l m 四点七把它变成了一个 agi nex 会的实录的这么一个网站,这个网站呢里面包含了所有专家的分享,比如说像唐杰老师的这个分享,他分享了哪些内容呢?包括质朴的起源精神大模型、智能水平的眼镜、 scaling 到泛化 基础路线的选择,系统一、系统二等等。那同样呢,还有一些关键概念啊,我觉得可能会有一些小白理解不了,比如说顺语提到的自主学习到底是什么意思, 让它去用普通人能够理解的语言去讲一讲到底什么叫自主学习。那这个地方就有了啊,你看它还有一些这种格式化的理解哈,最开始的时候像婴儿发展中成熟,未来怎么样?那整个这样的一个网站哈,它是可以部署之后来去分享给所有人的,那我就是在 ai coding 的 工具里面来实现的。 那我就简单介绍一下到底什么叫 ai coding 的 工具啊?因为我之前讲过很多次。那首先我打开的这个叫 codebody, 那在这个界面中呢,大家可以看到有左中右三栏,左边呢是一些本地的文件的链接哈,像这个文件夹就是在我本地的,那包括侧边栏也有一些插件或者是搜索啊等等一些功能。 那中间这个区域呢?一般程序员写代码会在中间去查看它的代码,但是作为普通人不需要写代码的话,那中间就是一个打开文件去查找的一个区域,那右边是一个对话框,那这个对话框就是跟我们平常用 ai 模型是比较像的。 在这呢你是可以选择这些模型的,比如说我这次选择的就是 glm 四点七,它是一个能力比较均衡的这么一个模型,适合日常使用,而且性价比相对来说比较高。那同样像其他的 gbt 啊,还有包括 gemini 等等模型也可以在这里面选。 那么我给到 ai 的 这个 prompt 是 什么呢?其实就是这么一个简单的 prompt, 就 说我想基于这个研讨会的内容做一个网站,那可以展示专家的分享,有独立页面,把一些关键概念展示出来,我希望这个配色比较高级。当然这里有一个小的 tips 啊,就是说 你看你需要完全确认我的意图再开始开发,不确认的时候可以先问我一些问题。有这样一句话呢,其实就可以让 ai 在 充分了解你的需求之后,再开始进行开发。 而且值得一提的是,这里哈,就是我们在日常使用中,不要一上来就让 ai 开始写代码,而是要先把这个需求规划好对,然后再去操作。那所以呢,基本上我给他这样的一个问题,然后我们经过几轮确认之后,比如说他希望我用的是什么样的图示展示,经过几轮确认之后就开始进行开发, 所以一直到现在我都是没有写任何的代码的,然后哒哒哒哒,它就开始做任务的安排和执行,就像一个 agent 一 样去把这个任务开始执行完,完成。那从这次网站的综合实现程度,还有整个的审美风格来看呢,我觉得都是非常在线的哈。 呃,也就说明这个 glm 四点七还是一个非常均衡的一个模型,而且也是目前开源模型的一个最佳选择,推荐给大家。然后大家也不妨去 ai code 的 工具里去试一下,把你的想法变成现实,拜拜。

今天,中国 ai 圈又扔出了一颗核弹,智谱和华为联手开源了首个完全用国产芯片训练的多模态 s o t a 模型。这不仅仅只是一个新模型,更是一张中国 ai 自主化的毕业证书。那这件事到底有多牛呢?先说说数据,这个模型叫做 g l m image, 它从头到尾都是在华为深腾 atlantis 八百 t a 二芯片上做训练,用的也是华为自家的 mandose four 框架。这意味着什么?意味着从硬件到软件再到模型,全部是国产全家桶。以前我们训练顶级模型离不开英伟达的 gpu 和国外的框架,现在我们有了自己的全站解决方案。再看性能, 它采用了自回归加扩散解码器的混合架构,特别擅长需要复杂逻辑和精准文字说明的场景,既能理解你的文字描述,又能生成高质量图片。尤其是在中文文字渲染上面,已经达到了开源最优水平。 更狠的是成本,通过 api 生成一张图片只需要一毛钱,这比国外同级别服务便宜的多。速度优化版还在路上,以后只会更快更便宜。第二部分,我们再来讲一讲内在逻辑。为什么这件事是关键一步?可以用四个字概括,自主闭环。 ai 产业有三层,最底层的是芯片, 中间是框架,最上层的是模型。过去中国公司在模型层很活跃,但芯片和框架呢,却受制于人。 p r m m 业界的诞生,证明了中国已经能把这三层全部打通,形成了一个完整的国产 ai 生态。这也就意味着,即使未来遇到更严峻的技术封锁,我们也有能力继续训练和部署最先进的 ai 模型,这不仅仅是技术突破,更是战略安全的关键一步。 第三部分,对国内的 ai 产业会带来哪些影响?首先,企业的成本会降低,用国产芯片训练模型成本大幅下降,更多中小企业用得起顶级 ai 能力。第二,开发者的创新模型完全开源,开发者可以 免费下载微调二次开发,激发更多的创意应用。第三,行业应用加速,每张图一毛钱的价格,会让图纹生成、广告设计、内容创作等行业快速普 及 ai 工具。更重要的是,国产芯片和框架的成熟,会让 ai 更快的渗透到医疗、制造、交通等关键领域,推动产业智能化升级。 那第四部分,对未来整个产业的想象会有多大?放眼未来这场合作啊,会带来三个趋势, ai 芯片竞争会进入白热化,华为深层与英伟达的对抗将会更加激烈,国产芯片会在性能、能耗、性价比上持续优化。 国产生态 a i 崛起,更多公司会选择深腾加 mandosport 组合,形成类似安卓加 arm 的 国产 a i 生态。 全球 ai 格局重塑,中国不再只是 ai 应用大国,而是成为了从硬件到软件的全产业链玩家,全球 ai 竞争将会进入到双极时代。 最后,开源是关键,智普和华为把模型开源,意味着整个行业可以站在巨人的肩膀上快速迭代,这就是用中国 ai 的 开放打法,用开源凝聚生态,用生态推动自主。 所以, g l m image 不 只是一个新的图像生成模型,它是中国 ai 自主化的一座里程碑,是国产芯片和框架的毕业典礼,更是未来产业革命的起跑枪。从此, ai 世界不再是只有一条路。点赞关注,带你看懂更多的科技深水区!
