大家好啊,我这个最近不是在搭建这个 open cloud 嘛,就俗称的大龙虾, 呃,最近有一个感触啊,就是说,呃,我在用大龙虾的时候,其实更多使用的都是咱们国产的模型,呃,为什么呢?也就是这个 cloud 当然是更适配的, 但是呢,价格太高了啊。这个正常官方的呃,对比应该是十五比一吧啊,但是咱们通过一些其他的渠道可能能做到七十比一,就是每天我可能烧三十块钱的国产模型, 呃,在这个可乐可能每天就得烧两千一百块钱,所以说这个差距太大了啊,并且也并没有做一些特别复杂的这个任务吧。所以国产模型就够用了 啊,当然他也会频频出现一些小问题啊,其实也挺那个懊恼,就是也挺这个闹心的。 嗯,我呢今天就是用了一下咱们最近刚刚上上新的这个智普五点零的这个模型,开源大模型,咱们国内可能最近呃动作频频吧好像我看新闻也有这个迷你 max, 也 好像是好像是上线了,呃,我打算最近要测试一下。我先说一下这个国产的五点零啊,智普五点零那个模型,他这个模型真的是挺惊艳到我的, 就是我在尝试搭建,因为我主要以编程为主嘛,就是搭建了一些项目,他给我的反馈呢,就是我认为的啊,我认为他是不逊色于可拉的四点五的 啊,当然现在 club 四点六依旧啊,炸裂依旧是首选,但是呢,呃,咱们国产模型能达到这个 club 四点五已经是属于意外的惊喜吧,就是我是没有想到的,并且它做的一些前端的界面 啊,就是可能都呃跟这个 zami 三点零是可以相媲美的,因为大家都知道这个 zami 做前端是非常牛的,所以说 就是在这个呃操作的过程中吧。哎,我就觉得咱中国的这个模型真的是 啊,越来越优秀了,就是在年初的时候, deepsea 突然炸裂,包括最新质检的这个纹身啊,视频的这个模型也非常炸裂。然后呢,这个智普五点零啊,然后迷你 max 二点五 这些模型我认为都都是非常非常牛的,然后最近可能啊还是要上这个啊,对,不是一个微视,对,不是个微视。这个模型呢,其实我对他的期待是非常大的,据说是春节啊,就是可能就这两天了就要上了。 呃,一旦开园以后打算马上就操作一下,等着操作以后啊,然后给大家再做反馈吧。 呃,然后呢,我给大家再看一下。呃,我通过智普利用 open cloud 搭建的一些项目啊,效率是非常高的。呃,我搭建的呢更多的也都是一些比较 嗯,好操作的吧,都是利用给他 up 的 开源的项目去做的搭建。呃,效率之高,就是我大概是现在是凌晨两点五十, 呃,我大概从晚上的十点钟吧,到现在大概已经搭建了五六个项目了,就是,但是还没有去测试啊,呃,我觉得这个效率之恐怖就真的是太吓人了。
粉丝63获赞190

智普啊,发布了 glm 五点零,为了测试它的能力啊,我用它构建了一套可以无限运行的 ai 开发系统。我用这个系统运行了长达十个小时,从晚上十点到早上八点, ai 做了几十次 getmate 的 提交, 开发了一个 ai 漫剧生成工具,有前后端有数据库,可以用户注册和登录,还接入了大圆模型,图片生成模型,视频生成模型。通过这个视频,你会学到如何构建这样一个无限运行的 ai 开发系统,并了解到 glm 五点零的惊人开发能力。 整个过程我都只是输入简短的 prompt, 没有亲自阅读或修改任何一行代码。我一直在旁边玩着游戏,等他干活, 尤其是我视频最后会讲的,他把整个项目的所有模块联合起来,然后端到端的 bug 修复错误,非常的牛逼。他不只是单纯的写代码,他甚至自行在浏览器中验证每个功能的正确性,找出 bug, 然后自行在浏览器后端数据库第三方的 api 之间联合调试,找出问题,修复错误。 那赶紧进入正题啊,相信对你会有所启发。我使用的工具是 cloud code, 并且把模型切换为 g l m 五点零,具体方法可以看我之前这一条 g l m 四点七的视频。 那我们首先要搭建一套能无限运行的 ai 开发系统,说是系统,其实就是几个文件,做法非常简单,我把一篇来自 astonopy 的 神级文章发给 ai, 让他自己去学习,根据这篇文章做出这套系统 文章叫长时间运行智能体的有效调度编排框架。那过程中 ai 做出了一些操作预期的举动,他通过 m c p 打开浏览器, 通过这篇文章的页面找到一个配套的 get up 仓库,打开仓库的代码文件进行学习。而我事先都不知道这个代码仓库的存在,最终他创建出了这一些文件。 我解释一下最重要的几个,帮你理解一下这套系统的工作方式。 task 点 jc 文件,其实就是一个任务列表,每个任务都有它的描述,并且会标记是否已经完成。和我们人类工程师每天上班一样, ai 每次从这里面领取一个任务, 完成后就做一个标记,这样他的 ai 同事啊,就知道项目进展到哪里。 progress 点 txt 文件,每次 ai 完成任务啊,或者任务失败后,都会在里面留下工作日期,这也是为了给其他 ai 同事提供一些信息。 log 点 m d 文件,这里面全是提示词,用来指导 ai 根据固定的规范流程工作。和我们人类工程师的开发流程类似, 第一步,跑一个脚本,来初识化整个项目的环境。第二步,在 task 里面领一个任务。第三步,就开始开发。第四步,测试和验证。 第五步,更新 progress 和 task 文件。第六步,用 git 提交代码。那如果中间遇到困难,需要人工介入,它就要及时向人求助。那在以前一些长期运行能力不强的模型中啊, 这么长的开发流程,一旦工作上几十分钟,模型就会逐渐混乱,不再按照规定的流程工作,而如今完全没问题啊。视频后面我们会看到, glm 五点零,即使在长达一个小时的工作,提交了几十个 commit 后,仍然很好地遵循开发规范。 然后呢,我让他写一个脚本,用来无限时间的运行。这一套开发流程背后的原理很简单,就是把 cloud code 放到一个 while 循环里面,这样一来,人不在电脑旁边的时候没法手动 prompt, ai 就 可以执行这个脚本,让 ai 无限的工作。它之所以有效,有几个原因啊, 第一,我们这套流程每次只要给 ai 说一句,完成下一个任务,不需要更具体的指示, ai 就 能通过 task 和 progress 文件知道自己现在应该做什么。 第二,每个 task 都很小, g l m 五点零足够的强大,每一次 y l 循环里面,他只是领取一个很小的任务,并且严格的测试,成功率极高。第三,每完成一个任务,模型的上下文都会被清空,所以模型始终保持在最聪明的状态。 第四, g l m 五点零非常可控,严格按照工作规范执行,每次小任务都会进行 commit, 所以 即使出错,我们可以轻易地回滚到旧版本。 好,现在我们这套系统有了,接下来就要开发软件,我们先来设计一下它的功能和架构。这个软件的用途是一句话,生成长视频。我让 ai 把整个项目的开发需求拆成了三十一个任务,放到 task 文件里。 这是 ai 设计的软件,架构不复杂,但五脏俱全。再看一下 ai 画的业务流程图啊,帮助大家理解我们要开发的这个软件具体的功能。 首先,用户会创建一个项目,然后用大圆模型生成每一个分镜的文字描述,然后再用图片模型生成每个分镜的图片,再用视频模型生成。视频开发的流程比较长啊, ai 做了几十次提交,我就选几个精彩的给大家讲。 在 ai 做到第十九个任务的时候,为了测试 glm 五点零的能力呢,我产生了一个大胆的想法,我让他一口气做了一个多小时,完成了十一个任务,干完一个又一个,中间我没有任何干预, 给大家倍速感受一下效果。他一直在写代码,并且每次都遵循我们的开发规范,每个任务都完成,测试一个,一个任务,单独提交代码,拿一个具体的任务作为案例啊。他现在领取了任务三十,任务目标呢是实现响应式的布局,也就是让 u i 在 手机端和桌面端看起来不一样。 他现在正在修改代码,然后验证项目能 build 通过。然后他现在把浏览器的大小变成了手机屏幕大小。打开了我们的应用,他点击了一个按钮, 他对页面做了一次截图,用识图的 m c p 判断是否正确。再打开了一个新的页面,再做了一次截图,并检查是否正确。然后在 progress 里面仔细描述了自己所完成的工作,然后把这个任务标记为完成,他就按这么一套方式疯狂的干完了每一个任务。 要接入数据库的时候呢,他主动提出需要人工帮助,并且一步一步地给我说明,告诉我如何去这个 superbase 平台啊,点哪里创建项目,配置数据库,获取 api key。 尽管我没怎么用过 superbase, 仍然轻松地操作下来了。中间我还犯了错误,给他提供了错误的 key, 也被他及时发现,最后他还让我帮他去注册一个测试账号,然后他自己打开浏览器,输入账号密码,验证登录功能,可以正常使用。那像 superbase 这种外部的系统啊,超出了 ai 的 控制范畴。 g o m 非常明确的给我提供指引,让我协助他完成开发工作,一个不了解后端的人,也能在他的指引下完成数据库的配置。 他开发完后端一系列 c r u d api 后呢,声称对每一个 api 都进行了测试,但所有的 api 都是需要 os 的, 前端也还只有一个空白的页面,所以我就很好奇他哪里来的 os 权限,怎么完成测试,是不是在忽悠我? 于是我问了他一下,他用简短的语言,漂亮的格式向我解释。他说他打开浏览器,登录了刚才创建的测试账号, 然后通过一个叫做 browser evaluate 命令,在浏览器可以执行任意的 javascript 代码。然后他写了一些临时的 js 代码,就在浏览器里运行,调用我们的后端 a p i, 这样就能有 office 了。非常聪明的做法,我还怕他在骗我,我检查了一下录像,确实如他所说,他打开浏览器疯狂测试, 中间还真测试出不少问题,他就自行查看后端的报错日期,自行修复。最终三十一个任务全开发完后,啊,我也懒得去人工验证这个项目是不是已经可以用了。在往常的开发中啊,到最终阶段,因为已经把 前端、后端、数据库、第三方 api 全部连起来了,那第一次的集成测试啊,就会非常头痛,因为任何地方都可能出错,往往需要浪费大量的时间再把错误找出来发给 ai, 让 ai 去修复。但这一次我非常大胆,我只说了一句话, 请你完整测试一遍流程,确保功能可用。大概就是从早上七点十分开始,他自己在浏览器上疯狂测试,花了一个小时提交了这么多改动,用来修复 bug。 我看他在浏览器上像人一样一步步操作我们的产品,通过截图和视觉能力来判断是否符合预期。遇到问题的时候呢,他就自己查询后端的报错,检查各种 api 的 状态,综合分析出问题。最终他总算顺利的生成出了第一个视频,端到端的把整个应用全部打通了。 他修复的每一个 bug, 做的每一个 feature, 其实我都不清楚是什么情况,但我想知道的话,我只要找到他的 commit 记录,看一下他在 progress 文件里写了什么。这也是这套流程的强大之处,一切都是可追踪的。 我们让 glm 五点零一边开发项目,一边在开发过程中发现问题,让 ai 来增强我们这一套自动化的开发系统,左脚踩右脚,螺旋升天,我相信这就是未来开发者的工作方式。总结来说, glm 五点零已经远远超出了单纯抠顶的范畴,而是能对软件工程的每一个环节进行自动化,提升效率。 gm 五点零在超长任务上非常出色,已经达到了能让我放心的交给他连续运行一个小时的程度。横向对比的话,我个人认为 gm 比刚发布的 oppo 四点六弱一点,但在一些方面可以超过 gbt 五点三。 重点是价格便宜非常多,但现在过于热门啊,供不应求,抠钉套餐非常难抢。那我们这个项目呢?虽然现在端到端全部打通了,但最终深层的视频效果还有很大优化空间。点赞到一万,我可以开源出来,让感兴趣的人进一步优化它。

很多人说,模型发布就是敲一天锣,第二天照旧。但股价这东西,听锣鼓只是表面,它真正闻的是味道,你接下来能不能真的把钱赚回来? 二零二六年二月十二日,一天两升锣,智普 g m 五点零登上台, mi max 把 m 五点二退到前排,同一天,恒生指数还跌了百分之零点八六,但这两家股票却逆势上蹿,智普收四百零二十八点六八, mini max 收五百八十八港元,单日涨幅超过百分之十四点六二。这说明市场在给模型升级,这条主线重新贴标签, 那差别在哪里?谁把确定点和收款码做的更硬?智普走的是预热确认再定价,二月九日十日,匿名模型线索先把开发者论坛点着,二月十二日官方确认,再叠加提价,资金就敢加码。也就是说,这不是纯情绪,是能不能赚回来的。预期被抬高了, mi max 也涨得不错,但统计上更偏软,异常收益大于百分之十四。原因其实很朴素,公开证据链更多,靠转述确认点更平滑。再加上上次股价高波动短样本 噪音更容易把信号盖住。所以别只盯着发布会那一摞,真正盯的是发布后能不能交作业、 api 付费、企业订单续费率、毛利推理成本取现,再加上一条合规和 ip 治理。我是波导,欢迎关注。

免费了,不要三四九九,也不要九块九,不包手机的平替智普的开源项目 open auto gm, 配合它的开源模型 auto g o m 九 d, 咱们也能实现手机 agent 的 自由。我用手上这台安卓手机和 mac 电脑搭好的环境,让他来帮我购物, 这是执行效果,提示词是在淘宝上找到帮宝适黑金刚 l 码最低价的商品,加入购物车,然后发微信告诉我商品选好了。我来看看。这套开源方案和豆包手机最大的区别有三点,第一, 一,运行级别不同。开源方案只能在前台运行,豆包手机可以在后台自己默默的运行。第二,手机的便携性不同。开源方案手机和电脑必须用数据线连接,或者是在同一个 wifi 下,豆包手机可以只拿着手机到处走。三、智能程度不同。 开源方案接的是九 b 参数的小模型,能完成大部分的基础场景,但是极限智能比不上豆包手机。推荐两种适合的使用场景。 场景一,操作电脑忙不开的时候,比如快下班时提前叫车,当同事还在等车的时候,你已经上车回家了。场景二,需要在手机上多个 app 之间切换,收集数据,分析并且最终操作手机的场景。比如说在双十二购物选择最低价格商品时,我的微信收到消息了,任务完成。 牛逼!那么这么牛逼的手机, a 镜的方案会不会很难配置呢?完全没问题,我摸索了一套极简方案,只需要一行命令和一句话就能配置好。 首先看我这期视频,一行命令把 cloud code 安装好,然后打开 cloud code, 告诉他这句话,一路点同意就能安装完成整个配置过程,需要用数据线把安卓手机 在电脑上这么简单都能就能搞定,快去配置一套试试吧!你还有什么场景想用手机 app 来解决的?详细的安装过程和常见问题我会总结成文档,方便大家查看。关注我,玩转 ai 编程。

想让 cloud code 用上智普 g l m 五,别翻文档了,一行命令就够。为什么用 xcloud 的 智普不用改环境变量,不用研究配置文件? cloud code 的 工具能力还在,智普的代码理解更强,装了 x command 的 话,十秒内搞定全部适配。 操作很简单,去智普开放平台复制 api key, 回到终端,敲 xcloud 的 智普首次会让你粘贴 key, 然后就能直接用了。让它重构代码,分析性能,生成数据库表,响应又快又准。 cloud code 原本的功能一个不少,替换一次就永久生效。试试 xcloud, 智普国产模型也能这么丝滑,不要忘记一键三连!更多命令技巧欢迎关注 x command, 我 们下期再见!

今天用智浦新发布的 glm 开发了一个新项目,基于 spring boot 的 酒店管理系统,这个项目已经开源到 github 了,还附带一个项目论文,关注同名微信公众号即可获取。 最近后台很多人私信想要我的产品说明书,想让我出一个详细点的教程,现在就带大家做一个完整版的项目。首先明确要做什么,怎么做产品,应该有哪些功能,解决了什么问题。我把这个产品说明书的内容概括分为以下部分, 明确开发技术站、技术架构、功能模块、数据库设计以及 ui 风格。这几点确定下来就可以大大降低 ai 写代码出现的幻觉。所以很多时候幻觉的问题不单单是模型的问题,跟人也有很大的原因。 然后这里我用到了一个文档专家的智能体,让他基于我们已经确定的要求生成完整详细版的产品说明书。那么 ai 就 更清楚要做什么,该怎么做,所以前期多做一些准备,就能尽可能避免后面形成的十三代码。 经过了连续三十六分钟的编码, glm 五完成了整个项目前后端的开发。整体功能分为两个用户角色,普通用户和管理员。 普通用户可以注册登录预定客房,查看订单。管理员可以管理用户信息,维护客房信息,查看所有订单数据,统计分析。 最后主包想跟大家说, ai 时代如何使用工具提高自己是一门必修课,一定要尽可能多地去尝试使用各类 ai 工具。

大家都知道,最近豆包手机的发布,让阿里、腾讯等大厂连夜开会,纷纷给豆包手机助手设置封禁权限。然后前两天智普开源了他的 auto g l m, 这是一款类似豆包手机助手的软件,既然开源了,那我们肯定要测试一下。 打开应用商城,搜索 auto g l m, 点击安装,这就安装好了。然后我们来测试一下功能,帮我用美团点一份三公里范围内卖的最好的奶茶, 帮我打开微博,进入刘亦菲的主页, 帮我用 qq 音乐播放一首林俊杰的歌曲, 帮我用携程订一张十二月十四日下午北京到上海的高铁票, 整个过程还是很流畅的。要知道豆包手机目前是秒断货,二手市场甚至加价几千再卖。 auto g l m 作为开源的模型,我们还能直接拿框架进行二次创作,比如可以集成到现在热门的人形机器人身上,提升这类具身智能的沟通能力。 随着 ai 的 迅速发展,我们更多地倾向于通过这些大厂开发出来的 ai 落地应用,欢迎一起探索 ai 的 可执行方案。

别眨眼啊,只要两分钟的时间啊,你家里的任何一个老破手机就能瞬间变成一个 a i 手机啊,就像最近的这个豆包手机一样,直接帮你在手机上订票、点咖啡,甚至帮你在手机上答题,帮你考试,帮你剪辑视频。 而且啊,这还不是一个功能演示,它是真的开始自己操作手机了。比如说啊,我随手说帮我买一张去上海的高铁票,紧接着你都能看到这个 ai 就 像一个真人一样,在手机上帮你查票、选班次、下单,这所有的完整流程一步步走通。 这是因为啊,智普团队刚才把他们打磨了两年多的核心技术 auto g l m 直接给开源了,这简直是太离谱了啊,要不然很多人说 ai 一 天地上一年呐, 一两周前啊,多少人还在感到稀奇的 ai 操作手机的能力,现在就成了人人可用的开源神器,让 ai 可以 真正的接受任何设备,把结果直接交付到你的手里。 而且啊,这次开源的还不仅仅是一个手机智能体的完整执行框架,还有一个叫做 auto g l m 风九 b 的 大模型啊,这个大模型直接开放给所有人, 它可以用视觉语言模型进行整个屏幕的感知,然后再结合智能的规划能力来生成并执行操作流程。用户只需要用自然语言描述需求,比如说打开某个 app 搜索美食并自动比价,然后呢,就能自动的去拆解用户的意图,理解当前的界面,规划下一步的动作,并且完成整个流程。 而且它还内置了敏感操作的确认机制,一旦需要付钱登录或者收验证码的时候,它就会马上让你二次确认,同时啊,还支持远程控制, 你完全可以一边在外地旅游啊,一边让 ai 在 手机上帮你操作钉钉或者是企微给你的老板汇报工作,他 把一个原来被视为大场合武器的技术,直接变成了所有普通人唾手可得的一个工具。所以啊,巨头们他或许可以去围绞豆包手机,但是呢,他不能围绞千千万万个基于开源框架自建的个性化的智能体。 而且啊,这整个过程呢,可以完全在本地运行,数据根本就不离开你自己的掌控。所以之前很多人担心的被豆包获取一切个人数据的问题啊,就这样迎刃而解了。因为九 b 这样的小模型啊,完全可以把模型和数据都放在自己本地的电脑上面。 所以从此之后啊,你的手机很可能就再也不是一个手机啊,而是一个长期在线,只为你一个人服务的超级私人智能体。 前几天啊,我看到很多人都在讨论豆包手机和平台入口的这么一个争夺,但是完全没想到这样的一个入口很快就会变成一个全民普惠的能力。就 像 deepsea 把高高在上的 open ai 打得措手不及,甚至是频频降价。这次的 auto g l m 的 发布啊,最关键的地方就是让我们不用再担心某家大厂垄断你的手机操作能力,它就像当年的安卓一样,可以被无数的人模改驯化叠加,最终呢,就会被调教成每一个用户最喜欢的样子。 所以具体怎么才能让你的手机变成 ai 手机呢?非常简单,大家跟着我操作啊,只要打开 github 上面我给的这个项目的网址,然后呢,里面的介绍全是中文的啊。然后你直接开启你老手机的 root 权限,然后下载模型进行操作就可以了,赶紧去试一试吧!关注 c 哥,了解更多 ai 前沿!

母亲言新出了个模型啊,怎么样?这个模型他说说非常厉害。 jim 五吗?我看看啊,像有的官方说的,他的 humanity last exam exam 评分是比较高的啊,就拿这个评分来说啊啊,其实我们测一下会有很大的问题,你看一下这个屏幕,我看看 我们呃抽取了 horamis 的 mass 数据集,大概是一千多道,然后去测这个质朴清源拿这个呃正比奈,正比奈 flash 作为这个评判遇到一个什么问题呢?我发现他在解答这种数学类的问题的时候,他的思考时间头肯输出了将近两万,也就是说他两万还在思考都没有输出完, 所以说我们这个他根本就测不了,在我们看来,然后即使测的了的话,一次回答的成本大概在呃五毛钱左右,就一个问题大概在五毛钱,而且还两万都没有出答案,所以我们在想会不会是我们的测试出了问题, 于是我们又到了他的这个官方上,就试验了一下啊,现在还在跑是吧?我们这个数据集从呃几分钟之前就开始跑,呃直接停掉,然后我们可以往上拉,一直拉一直拉,就你就说他这个思考过程无限的延长,无限的思考,他虽然这个回复的内容是正确的,但是他貌似陷入了一个死循环的过程。 就是你是让他回答了一个问题是吧?数学问题, melodies 里边的一个数学 max 类别的问题啊,问题其实不复杂,他是一个单选,他有两两种类型,第一是选择题,第二是那个检查题。我们在问给他这个数学问题的时候,问了两道到三道,基本就是无限循环,然后他的费用基本在无限上涨, 所以我们我们也可能比较怀疑像这种评分它虽然很高,有没有可能它的思考过程会非常的长,可能是无限的,也他可能把这个给忽略了,他能思考一个问题,思考五分钟出了一个答案。我们也测了一下,像 jimmy、 nike 这种可能也就几秒钟就出答了,所以它会存在这样一个差异点, 所以说它这个评价体系稍微有点问题。也不算吧,我们后续可能还会对这些整体评价再整体测评一下,至少我们现在现在来看还是跟大家想的差别很大, 太大了。数学问题你要等个十几分钟去给你解出来。那我都做完了,你自己都做完了,哈哈哈,考试都结束了是吧?该交卷了。对,我们也建议在啊,我们建议在回答的时候还是把这种时间这个综合的都考虑进去。

智普 ai 概念五梳理上,语信科技与智普 ai 签署大模型合作协议。采训股份多款应用接入智普 ai 大 模型。斗神教育与智普成立合资公司, 共同研发 ai 教育产品。创业黑马共建重起大模型、起伏大模型。天元迪科与智普 ai 等单位 建立合作伙伴关系。数度在线签署合作协议,共建智算中心。法本信息建立生态合作研发大模型应用产品。华策影视 共同开发影视内容生成智能体。中科金财已接入智普 chat g l m 大 模型。尤克德为智普 ai 提供底层算力支持。凌云光参股投资智普大模型。加数字人合作。平致信息 与智普共研多模态聚深大模型应用。思美传媒与智普华章签订战略合作。

没有想到都跑手机的朋友们,恭喜你省了三千五,因为就在昨天的时候,支付把它的 autgrm 开圆了,它可以直接机关你的手机屏幕,替你思考点击输入场景,覆盖了五十多个高频的中文 app, 比如说微信、淘宝、抖音、美团这些核心的场景,它都是可以跑的。 我拿它做了两个小测试,有亮点,当然也有吐槽点。首先第一个点外卖,它是真的可以跑通,比如说你想在美团上去下单,然后到加购,下单路径是很顺畅,你会产生一种错觉, 好像手机里面住了一个非常懂你小助手一样。第二,他的一个跨平台笔架是很实用的,我可以让他对比淘宝和京东同款拖鞋,他能够自己搜,自己去对比,最终给出你的一个结论,这就不是什么聊天机器人了,这相当于一个端侧 a 阵的他真真正正的上桌了。更关键的是什么?他居然很克制, 比如说他碰到了支付或者验证码之类的敏感操作呢?它会自动停止让你接管,很聪明,不会约借。但有一点很值得吐槽,就是现在的形态对普通人是不够友好的,你要用电脑通过 a、 d、 b 去控制手机体验,实际上更像是你在电脑面前远程控制着你自己的手机,就很奇怪。大家如果想要试试,可以找我拿下开源地址 和它的一个部署教程。智普啊, autolm 开源,我想说的是,它的价值不是在完美的体验,而是说它释放了三个信号。第一, ai 手机的异件可能要被打下来了, 以后的 ai 体验不一定要靠很贵的硬件,说不定就是靠的一个开源框架加它的一个端侧的能。第二就是大厂的 for a 阵固城河开始变浅了,开发者和极客们可以直接拆改做出来自己的版 本。第三呢,无障碍和轻量自动化领域绝对是要爆了。对于一些操作是很方便的人群来说,语音加 ai 操作就等于手机自由。欢迎大家评论区留下你的想法。

今天上午 g i 发布了五个版本,除了基建模型的能力提升参照题之外,我还注意到三个非常有意思的点。 在第一个,它号称抠定能力已经对齐了 cloud 的 四点五,从能够会写代码并且能够完成这第二个,它支持了大龙家,支持 open, 能够在 open 里面接入 g m l 五 来完成一些非常复杂的主动式和刺激的任务。那第三个呢?它还提供了一个 excel 的 ai 插件,让我们在 excel 里面用自然而 易的来去完成公司的编辑,脚本的编辑的一些数据分析工作。很搞笑的是,目前你这个版本是针对 pro 跟 max 的 应用户开放,那我这种 max 用户不会使用吗?那我回家的第一件事就是要升级到 max 跟 pro 版本。

你知道怎么白嫖今天智普发布的一个最强冰城大模型 glm 五,下面我就来给大家讲一个白嫖 glm 五的一个方法。 首先我们打开微修 studio 这个开发工具,然后在它的左边找到 extension, 也就是插件的扩展中心, 然后我们输入 k i l o 搜索,就能搜索到 k i l o call 的 ai call d 键头这个插件,点击它, 然后我们再安装这个插件,装完之后就会在这个开发工具的左下角有一个 k i l o call 的 一个小图标,我们点击它,点击它进来之后,在它的最下面, 在它最下面你看就能看到一个最点 a i g l m 五 free 的 一个大模型,我们选择它就可以开心的白嫖啦,是不是很简单? 据说这个智普的 glm 五编程大模型是比酷的叉五点三和 opus 四点六都还要强,所以大家感兴趣的赶快去体验一下, 因为啊,大家如果有什么看到免费的拼成模型,可以大家一起在评论区分享一下,别独享好东西,大家一起共享好不好?

在国产 ai 算力领域,硬件性能的堆叠往往只是入场券,而软硬协调的生态适配才是决定胜负的关键。随着智普 ai 最新一代国模顶流 glm 五的发布,这一抠定能力位居全球开源第一、总榜第四的模型迅速引发了行业热议。 与此同时,摩尔县城宣布其 ai 旗舰级计算卡 m t t s 五零零零实现对 g o m 五的迭零发布及适配,并首次批露了硬件性能参数 f p 八精度下单卡 ai 算力高达一千 t flops, 并提供原声 f p 八支持,在显存容量、互联带宽上也与英伟达 h 一 百对标。 从二零二四年推出至今,这款专为迅推一体设计的全功能 gpu 智算卡不仅在纸面参数上对标国际主流产品,更在智研研究院、硅基流动等头部机构的实战检验中显现出挑战英伟达高端算力的统治力。 摩尔县城究竟做对了什么,使其能够从 g o m 四六一路无缝衔接到 g o m 五,让零时差适配成为国产算力的常态 生态的飞跃? g l m 五迭零适配背后的全站协同此次 g l m 五发布及适配的背后,是摩尔县城软硬协同技术路线的集中爆发。 作为定位 agentient engineering 的 旗舰模型, g l m 五相较上一代性能提升百分之二十,对长系列推理和复杂系统工程能力提出了极高要求。 m t t s 五千凭借充沛的算力储备与对稀疏 attention 的 架构级支持,在大规模上下文处理中依然保持了高吞吐与低延迟, 完美承接了 g o m 五在长城 agent 任务中的计算需求,更关键的是, m u s a。 软件战的敏捷性成为了实现对零适配的胜负手。 基于 m u s a 架构的 t o line 原生蒜子单元测试覆盖率已超过百分之八十,使得绝大多数通用蒜子可直接复用,极大降低了移植成本。 通过高效蒜子融合及框架极致优化, m t t s 五千在 g l m 五的运行中展现了极低的首字延迟和流畅的生成体验,特别是在函数补全、漏洞检测等扣定核心场景中表现优异硬实力的底气。 s 五零零零性能逼近 blackwell m t t s 五千性能的首次全面曝光,结实了国产 g p u 在 架构设计与集群扩展上的成熟度。 作为摩尔现成第四代 m u s a 架构平胡的极大成者, s 五千在单卡规格上能力接近国际一流水平,本期现存宽带高达一六 tb 每秒,卡间互联宽带达到七百八十四 gb 每秒, 单卡 f p 八算力更是飙升至一千 tfloops, 在 显存、卡间互联单卡算力上与英伟达 h 一 百基本一致。 此外, m t t s。 五千对 f p 八到 f p 六四全精度计算的完整支持,特别是硬件级 f p 八 tenor core 的 引入,成为了其性能跃升的核心引擎。 据接近测试项目的行业人士透露, m t t s 五零零零在产品精度层面已超越 h 一 百,技术特性更逼近英伟达下一代 blackwell 架构。来自互联网厂商场景的实测反馈进一步印证了其在算理上的优势。 数据显示,在典型端到端推理及训练任务中, m t t s 五千的性能约为竞品 h 二零的二点五倍。分析指出,这主要得益于其高达一千 t f l ops 的 单卡算理。 在绝大多数计算密集型场景中,该卡不仅能提供更强劲的算力输出,也在整体性价比上展现出显著优势。 基于 s 五零零零构建的夸额万卡集群,其浮点运算能力已达十 x f lops 级别,标志着国产算力在超大规模集群层面迈入了世界前列。 在该集群的实测中, s 五零零零展现了极高的算力利用率, d s 模型训练中 m f u 达百分之六十,某一模型维持在百分之四十左右, flash attention 算力利用率更是超过百分之九十五。 这得益于摩尔县城独创的 ace 技术,该技术通过将复杂的通信任务从计算核心卸载, 实现了物理级的通信计算重叠,从而释放了百分之十五的倍占算力。实测数据显示,从六十四卡扩展至一千零二十四卡,系统始终保持百分之九十以上的限性扩展效率, 这意味着训练速度随算力增加几乎实现了同步倍增,有效训练时间占比超过百分之九十。 顶尖模型训练与推理中的实战中,对标 h 一 零零,他说之外,真实的落地案例是检验算力成色的唯一标准。 摩尔县城 s 五零零零在训练与推理两大核心场景中均交出了令人幸福的答卷。 在训练端,二零二六年一月,智源研究院利用 s 五千千卡级群完成了前沿巨深大脑模型 robo brain 二任务的端到端训练与对齐验证,本是其训练过程与英伟达 h 一 百级群高度重合连损失值的差异仅为百分之零点六二, 这证明了 s 五零零零在复现顶尖大模型训练流程上的精准度与稳定性。用户一托 m u s a。 全站软件平台,能够原声适配 pi、 torch、 megatron、 lm 等主流框架,实现零成本的代码迁移,真正做到了兼容国际主流 c u d a。 生态。 在推理端, s 五零零零的表现同样刷新了国产 gpu 的 记录。二零二五年十二月,摩尔现成联合硅基流动针对 deepseek v 三六七 e b。 满血版进行了深度适配与性能测试。 得益于 s 五千原生 f p 八能力与 s g l m musai 推理引擎的深度优化,在 p d。 分 离的部署中,单卡 prefill 吞吐量超过四千 tokens s, daco 吞吐量超过一千 tokens s。 这一成绩不仅大幅降低了显存占用,更在高并发场景下保证了极低的响应延迟。配合首创的细力度重计算技术, s 五千将开销降至原有的四分之一,全方位提升了系统吞吐量,证明了其作为高性能在线推理服务底座的卓越实力。 从 g l m 四点六、 g l m 四点七到如今的 g l m 五,摩尔现成通过一次次发布即适配的实战,证明了国产全功能 g p u 及 music 软件站已具备极高的成熟度。 这种对前沿模型结构与新特性的快速响应能力,不仅为开发者提供了第一时间触达最新模型的通道,也为行业筑牢了一个坚实易用且具备高度兼容性的国产算力底座。

经过前几天的尝试呢,今天我用上了智普的阿图 g l m 输入法,这个输入法现在呢已经更新到了有一点五点一版本,这是一个最新版本。 呃,前面的一点五点零版本呢,也出现过一个 bug, 是 什么样的 bug 呢?大概就是在每次 ai 识别输入以后,会变成 insert 模式,在一点五点一修复了。 insert 是 一个什么样的模式呢?就好比如说我们在这个 编辑器里面,当我们输入六七八六七八六七八以后,你看后面是一个数线九零, 后面是一个竖线。 insert 是 什么样的?是这样的,你看它就变成在字幕下面了,如果这个时候我要点击退格呢? 你看它的显示就没那么好看。然后当我们使用新的这个版本去输入的时候, 就比如说像现在。你好,我正在使用智普的输入法, 感觉好像效果也还可以啊,并没有那么糟糕, 而且它这个识别的速度好像也挺快的,最起码可以实时的在下面的这个框里面显示出我输入的是哪些字。 那么面对中英文夹杂呢?比如说 one night i sleep and 今天上午 i eat 小 笼包, 还不错,还可以。然后呢,这个输入法呢,它也有一些其他的功能,比如说设置快捷键,因为我我用右面的 alt 习惯了嘛,然后这里也可以 快捷设置,就感觉挺不错的。然后还有像账号,账号这就不看了,还有首页上面有我识别过的一些 历史,还有词典,也可以自行去设置,在这里新增热词,这里去设置以及人设,人设有默认风格 这些也感觉还蛮好用,不过我下面的都没有用。我是用的一个词定义的。原来是默认,默认就这样。 我用的自定义的。自定义的还是按闪电说的那一套把那个复制过来,然后把最下面引用函数的那一段给删了。嗯,就这样。好,拜拜。

呃,今天要聊的呢,是这个智普华章和 mini max 这两家公司在港股申请 ipo 的 这样的一个情况啊,我们会从他们的商业模式,呃财务和研发投入,以及他们在不同地域市场的表现来给大家做一个对比分析。好的,那我们就开始今天的内容吧, 咱们先来看第一大块啊,就是商业模式的对比。那在这呢,我想先问一个比较直白的问题啊,就是智普华章和 mini max 它们的商业模式核心的区别在哪里?就这两家公司其实走的是完全不同的路线。嗯,那智普呢,它是专注在企业级市场, 就是它把自己的大模型作为一种服务,提供给这种有安全和合规需求的这种大型的机构,那它的收入主要是靠这种本地部署和这种定制化的项目。 那 mini max 呢,它是主打就是直接面向消费者的这种 ai 原生应用,它靠这种订阅啊,内购啊,还有广告来赚钱。 然后同时呢,它也把自己的这种多模态的能力通过 a p i 开放给一些企业。哦,就是一个是 to b, 一个是更偏 to c, 是 吗?对,那他们的客户群体和变现方式也是完全不一样。没错,对,那智普的话就是客户会比较集中在国内的这种大型企业和机构,然后海外的话也在拓展。那 mini max 呢,它的用户就是遍布全球两百多个国家, 那它的收入呢?是有七成来自于海外的个人用户,那另外还有三成是来自于企业 a p i 这一块的调用,所以它们其实 市场的布局和收入的结构是差异非常大的。那它们在核心产品和服务上面有什么不一样的地方?智普呢?它的强项是在这个大语言模型,那它的这个 g l m 系列是非常非常受开发者欢迎的,那它们也有这个 auto g m 可以 让这个 ai 去执行一些复杂的任务,然后也支持这个多模态。 那他们的这个 mas 平台就是给这个企业和开发者提供非常灵活的接入方式。哦,那看来就说质谱是非常非常技术导向的。对,然后 mini max 的 话,就是它是做这个全模态的大模型,包括这个文本、语音、视频和音乐。 那它也有一些呃,自己的这个创作平台,比如说海螺 ai, 还有这个 mini max audio 啊等等,它的这个无论是个人用户还是企业用户都可以非常方便地去使用它的这些产品。那同时呢,它也有一些非常 top 的 这个语音和视频的生成能力,那它的这些能力也都是通过 a p i 开放出来的。 就说这两家公司在收入的地域分布上有多大的差别?嗯,就智普的话,它是主要还是靠中国市场,那中国市场的话,在二零二五年的上半年占了它接近九成的收入。 然后它的这个海外的扩张呢,主要还是靠东南亚和这个北美,那它主要还是 b 端的客户。那 mini max 是 不是就更国际化一些?对,没错,那 mini max 的 话,它是反过来,它是七成的收入是来自于海外, 然后它的这个用户呢,是遍布全球两百多个国家,那它的这个呃重心还是在这个北美和东南亚的 c 端用户, 同时呢,它也在积极地拓展啊国内和海外的弊端市场,那它的这个国际化的布局其实是走得非常靠前的。然后咱们再聊一聊财务和研发。嗯,这一次我想先问一下,就是智普,华章和 mini max 在 营收的增速和毛利率上面有什么区别?智普的话,它是二零二五年的上半年营收是做到了一点七亿, 然后它的这个同比增速是百分之六十八,那它的毛利率呢?是高达百分之七十, 那这个主要也是因为它的这个定制化的服务溢价能力比较强。哦,那看来就说智普在盈利能力上面还是非常强的。对,然后 mini max 的 话,它是二零二五年的前九个月营收是做到了二点五亿美元,那它的这个同比增速是超过百分之百, 那它的这个增长呢,主要是靠这个全球的 c 端用户和这个 api 调用量的猛增,那它的毛利率呢?是百分之六十五, 那他的这个毛利率呢?是因为他的这个海外的扩张,以及他的这个多模态的产品带来的这个规模效应,那他的这个毛利率也是在持续的提升。哎,那这两家公司在研发投入上面有什么具体的区别吗?啊?智普的话,他是二零二五年的上半年研发投入是一点四亿,然后他的这个研发费用率是高达百分之八十。 那它的这些投入呢,主要是用在大模型的迭代和这个多模态能力的提升,以及行业解决方案的这个推进。 mini max 呢? mini max 的 话,它是二零二五年的前九个月研发投入是一点三亿美元,那它的这个研发费用率呢?是百分之五十四, 那它的这些投入呢,主要是用在大模型的参数的扩展,以及这个多模态的生成,还有就是国际化的这个 ai 基础设施的建设。你觉得这两家公司在财务健康度和未来的成长性上面有哪些关键的差别?智普的话,它是呃专注于弊端的大项目,所以它的这个收入呢,会比较集中, 然后它的这个大客户的依赖度会比较高,但是它的这个盈利的持续性呢,就会受这个单一项目的影响会比较大。 那它的这个现金储备呢,是比较充裕的啊,所以它可以支撑它持续的去进行研发的投入和市场的扩张。那 mini max 的 风险和机会又在哪呢? mini max 的 话,它是呃用户和收入都比较分散啊,然后它的这个 c 端的市场呢,又有很强的爆发力,所以它的这个抗风险能力会比较强。 它的这个全球的布局呢,也会让它有更大的成长空间,那它的这个商业化的路径呢,也会更加的多样。那它的这个呃 可能在短期内会因为加大研发和市场的投入,导致他的这个利润会有一些波动。好,我们来看看第三部分啊,地域和市场表现。好,我们来问一下啊,就是智普,华章和 mini max 他 们在市场分布上面有哪些关键的区别?智普的话,他就是非常专注于中国市场,那在二零二五年的上半年,有百分之八十八的收入都是来自于国内的。 然后他的客户呢,也主要是呃政企和这种大型的企业,那他虽然说也在东南亚和北美进行了一些布局,但是其实他的海外的业务占比还是很低的。 mini max 是 不是就是更国际化一些?对,没错, mini max 的 话,他是反过来,他有百分之七十以上的收入都是来自于海外的, 然后他的用户呢?遍布全球两百多个国家和地区,他的这个重心呢是在北美、欧洲和东南亚,那他在中国的业务其实只占很小的一个部分,那他其实 更像是一个天生全球化的公司,你觉得这种市场分布的差异,会让这两家公司在发展的过程当中会面临完全不同的机会和挑战呢? 就智普,他因为主要是在中国嘛,然后他的这个客户又是非常看重这种合规和呃自主可控的这种大的机构,那他其实在本地是有很深的壁垒的, 它的增长呢,也会比较稳健。但是它的海外的扩张其实才刚刚起步,所以它的收入的来源就会比较集中在国内,但它的风险也会比较集中在国内。 mini max 是 不是就是更灵活一些?对,没错,那它就是因为全球的布局,所以它能够迅速的去抓住不同市场的用户的需求,那它的这个 收入的来源就会比较多样,然后它的抗风险能力也会比较强。但是它的这个呃要面对不同的法律和政策的环境,那这个也是对它的这个团队的要求是极高的。 那它在国内呢?因为起步比较晚,所以它在国内的市场份额其实还是有限的。你觉得这两家公司这种不同的市场布局,会直接影响它们未来的发展速度或者说估值吗?嗯, mini max 的 这种全球的布局让它可以接触到更多的用户,更多的市场,所以它的成长的天花板会比较高,那 也会比较受到国际投资者的青睐,但是他的这个合规的压力也会更大。那智普呢?他是这种深耕本地的,然后有比较稳定的这种政企的订单,那他的这个风险会比较小,但是他的这个成长的空间也会比较有限。 所以就是这两种路线其实就决定了他们。呃,在未来的扩张上面和资本的眼里是完全不一样的。好吧?对,今天我们把这两家公司从商业模式到财务到市场布局给大家拆解了一遍。那其实最后最后还是那句话,就是 如果你更看重稳健和本土的资源,那可能质朴是一个更好的选择。如果你更看重成长和全球的市场,那可能 mini max 是 更值得你去关注的。

昨天睡觉前,万德给我推送了智普 ai 的 招股书,这可是全球大模型第一股。于是我硬是把招股书读完了才睡觉。 ai 圈终于有人把底裤亮出来了。 你们知道吗?这份招股书跟我之前看过的所有科技公司的招股书都不一样,别的公司都在讲故事、画大饼,而智普这份,简直就是一本中国 ai 公司生存指南。今天我就跟大家扒一扒这里面藏着的那些别处看不到的秘密。 先说几个数字,你们感受一下。智普二零二二年的收入,五千七百多万,二零二三年,一个多亿,二零二四年,三个多亿,三年时间收入翻了五倍,多年复合增长率百分之一百三,听起来很牛,对吧?但你再看另一组数据,二零二四年收入三亿多,亏损接近二十亿。 概念就是你每赚一块钱,要烧掉将近七块。这就相当于你开了个奶茶店,卖一杯奶茶赚十块,但房租、人工原料加起来要花七十块。你可能会说,这不就是互联网公司的常规操作吗?烧钱换市场吗?但问题来了, 年初 deep tech 发布,人家用两千多张 gpu, 花了不到六百万美元就训练出了对标 gpt 四 o 的 模型。而智普这二十亿亏损,大头都砸在了算力和研发上了。这就引出了一个残酷的现实,你收钱的速度,赶不上别人降成本的速度。 就像你还在用诺基亚的时候,别人已经在用 iphone 了。但智普真正让我眼前一亮的不是这些财务数据,而是它的商业模式。大家都知道 openai 怎么赚钱的吧,主要靠 check gpt 的 个人订阅一个月二十美元,还有就是 api 调用, openai 大 概百分之七十五的收入都来自于 c 端订阅,而企业版才刚刚起步,智普完全反过来了,他们大头收入来自于私有化部署。什么叫私有化部署?就是把整套大模型系统直接装到企业自己的服务器里。我查了一下智普官网,最基础的云端私有化部署,起步价就是二十五万一年, 本地私有化部署价格更高。过去一年呢?我们卫可知团队也服务过不少政府和国央企客户,这些客户其实最关心的不是模型有多牛,而是数据能不能留在我这。 你想想看,银行的客户信息,政府的政务数据,大型企业的商业机密,谁敢随便传到云端?这就是中美 ai 公司最大的差异, 美国市场接受下次云服务,数据放在亚马逊、微软的服务器上,大家觉得没问题,但中国不行,你得把服务送上门,数据必须在客户手里。智普抓住了这个点, 他们正在努力调整收入结构,目标呢是把 api 云服务的收入占比提升到百分之五十,但现在大部分收入还是来自于这种重资产的稀有化部署项目。而说到这,你可能会想,这个模式听起来挺稳的呀,为什么还要着急上市? 因为时间真的不多了。你看,智普今年四月刚启动了 a 股上市辅导,结果 mini max 突然宣布要去香港上市,于是智普立马掉头跟着去了香港,还抢在 mini max 前面通过了临寻。 而这种操作就像两个人赛跑,看着对手换跑道了,你也赶紧跟着换,为什么这么急?因为市场喘口气就这么几个月。 月智暗面的 kimi 今年上半年还火的不行,常文本处理能力全网第一,但你最近还听说过 kimi 吗?用户量在下滑,商业化也没跟上,智谱和 mini max 都已经通过领讯,据说月智暗面还在考虑届和上市。这就是 ai 行业的残酷,你迈一步可能就永远赶不上了。 就像当年的千团大战,最后只有美团活下来。而更要命的是 api 订阅这块业务,智普好不容易做到了年收入过亿,结果 deepsea 直接把 api 的 价格打到了每百万, tokyo 只要几毛钱, 这价格战打的真是 ai 界的拼多多。说到这儿呢,我想跟大家分享几个更深层次的思考。第一,从智普的招股书我们能看出,中国 ai 公司走的路和美国完全不同, openai 可以 靠烧投资人的钱,靠微软的数据慢慢培育市场。 中国 ai 公司却必须一边研发一边赚钱,还要应对价格战,还要满足客户数据不出门的要求。 这就像打游戏,美国玩家选的是简单模式,而中国玩家被迫开了地狱难度。第二,智普研发人员占比百分之七十四,这个比例在科技公司里算是很高的了。但你想想, 这么多人都在做研发,烧掉二十亿,最后发现有人用更少的钱做出了更好的模型,这说明什么?说明在 ai 这个领域,光有钱有人还不够,你得有正确的方向。第三,也是最重要的,智普现在冲刺上是本质上在寻求资本续命, 融资超过两百亿了还在亏损,不上市怎么办呢?但上市之后呢?股民会给你时间继续亏损吗?二级市场可不会像一级市场那么有耐心。所以你看智普这份招股书,表面上是一家公司的财务报表,实际上是整个中国 ai 行业的一面镜子。 它告诉我们,在这个赛道上,技术很重要,商业模式很重要,融资能力很重要,但最重要的是,你得在烧完钱之前找到真正赚钱的路。 日普能不能成为全球大模型第一股,我感觉是悬念不大,但它能不能成为一家真正赚钱的大模型公司,这才是值得我们持续关注的。如果想要招股,说明书员们可以在评论区留言,如果你觉得今天的内容有价值,记得点赞关注,下期我们继续聊 ai 圈的那些事。

就在今天,智普重磅发布最新编程模型 g l m 五,它专为复杂系统工程和智能体任务而设计。与上个版本 g l m 四点五相比,其参数规模从三千五百五十亿扩展到了七千四百四十里, 包含大约四百亿活跃参数,使用的预训练数据量也从二十三万亿个 token 增长到了二十八点五万亿 token。 其最新 benchmark 结果显示, g l m 五已经能够在推理代码和智能体能力上全面对标国际顶尖模型。 从结果可以看到, cloud opus 四点五和 gpt 五点二虽在部分基础中仍保持微弱领先,但 glm 系列模型已实现了显著的追赶趋势,在综合能力和性价比上形成了有力的竞争格局。此外,从股票投资爱好者最关注的 vending bench 测试结果,也就是测试 ai 商业决策能力的基准测试结果 可以看到, glm 五模型是和比较激进的投资策略。如果你是具备冒险精神的投资者,那么不妨尝试让 glm 五模型成为你的理财投资顾问。 目前, g l m 五已经可以通过欧拉玛的云端模型直接调用,同时你也可访问 z 点 ai 智普官网进行实际测试,欢迎各位分享你的使用反馈。