粉丝9.0万获赞24.7万

这周我们烧了十亿多的 token, 在 openclaw 上大概就是一千五百美金吧。呃,但是我觉得非常值啊,因为我们终于 figure out, 怎么去管理一个 ai agents 团队, 所以如果你是一个艺人公司,或者你想用 ai 来管理协调你的整个团队的话呢?那请看完这条视频,因为我们已经帮你省下了一千五百刀的学费。 整个 a i a 阵子团队的协调枢纽和核心呢,就是最近这个特别火的 openclaw, 他 只要被调教好了,就是一个非常完美的项目经理。但也像所有刚招进团队的同事一样, openclaw 本身并不是一个开箱即用的 数字员工,我们需要去培训,他就是什么事情能做,什么事情需要让其他的人类同事或者其他的 agence 搞定进度该怎么汇报?有哪些规则要遵守?那么这些规则呢?在 open core 里其实就是一个叫做 agence 点 md 的 文档, 这个文档就定义了 ai 的 所有行为准则,它是一个配置文件,基础的配置就非常简单,就像一个没有被培训过的新员工一样。但是在过去一周的时间里,我们不断的去优化这个配置文件,让他成长到了可以帮我们去协调其他 六七个 a 公司的一个项目经理。那我们其实主要增强了他在以下三个方面的核心能力吧。第一个就是主动性, 因为很多人说 agents, 大家觉得他只是一个工具,只是一个机器人,那是因为他们是被动的,就是你给他一个指令,他就去执行一次, 然后你推一推他,他就往前走一步,他并不会主动的去想办法解决他遇到的问题,也不会主动的复盘和思考说怎么样把一件事情做得更好。 那如果 aids 只做到这样的程度呢?它确实只能当一个螺丝钉,但是 open course 不 一样的,它本身有一个心跳机制,就是 heartbeat 会定时去检查哪些项目卡住了,然后哪里遇到了它自己解决不了的问题,并且主动跟我们去汇报。 当然只做到这个程度的话,肯定还是不够的,所以我们在 a 证点 m d 里呢,就配置了更多的规则,让它能够做到不需要我去问任何一个项目的进度,它就可以完全汇报给我。 第二是可重入性,可重入性其实就是说这个 a 证它能不能稳定的靠谱的把一个很长期的东西干完, 它并不是说这个 agents 可以 百分之一百的在线,永远保持 up time, 因为项目的推进总是会出现问题的,然后网络即便再好的网络环境也会有意外的中断,所以我们要的其实是 它能够在项目中断,网络断掉了之后,当它重入的时候,能够从断掉的地方稳定地继续向前推进,它甚至可以去 fix 去解决为什么会断掉了这个问题。 openclaw 的 工作记忆管理,呃,其实是被动进行的,也就是说如果他认为和你对话当中没有涉及到什么重要的任务,没有涉及到什么重要的内容,他是不会主动记录到他。当他的工作日记当中 就导致比如说你重启了 gate 位之后,它就忘记了它在干嘛,所以我们在调试的过程当中呢,就优化了它去主动压缩上下文,主动刷新 session 的 这个配置,让它能够在横跨多天的非常长的任务或者是对话当中,依然清楚地知道啊不同的项目应该怎么样去推荐。 然后第三点,我们对它的改进,我觉得可以称之为 a gentle thinking, 就是 像 agent 像 ai 一 样去思考。因为很多人觉得调教 ai 来进行人机写作,应该是像 agent 像人类一样思考,但是我觉得恰恰相反,因为归机生物就应该用他们自己最熟悉,他们自己干的最好的方式来解决问题。我举个例子,大家肯定都让自己的 agent 去做过一些很简单的自动化,比如说去帮你发一条推特,去帮你在 tapp 上面呃 发一个 issue。 那 这个时候 a 正题有很多技能是可以用来干这个事情的,比如他可以像人类一样去操作浏览器,模拟人类的点击和思考,模拟人类在浏览器的输入框中,用键盘输入 来完成这条帖子的发送。当然呢,他也可以直接写一段呃 js playwrite 的 脚本,调用这个脚本来实现刚才的这个任务。但是最高效或者说最省钱最快速的方法, 肯定显然就是他直接去调用呃相关平台的这个 api。 那 么在刚才的这个任务里,比如说发帖子,在所有他可用的方式里,最慢最浪费投坑的方式其实就是模仿人类的这个方式。所以我们在给 openclaw 定的这个行为准则当中呢,就明确规定了 他在不同工具托 use 的 一个优先级,优先级高低吧,就不仅是当他自己要去解决问题的时候,应该以一个什么样的方式思考,什么样的方式去用工具,包括当他要和其他的 agents 交互的时候该怎么办?比如我们团队当中的 ai 工程师就是 cloud code, 那 open code 跟 cloud code 去共享一个项目 context 的 时候呢?它根本就不需要像人类一样,两个 agents 那 边开会聊天,它只要把自己在这个项目上的工作记忆日记直接把那个路径开放给 cloud code 就 可以了, 它们就直接可以完成整个工作 context 的 共享。除了上面的几个主要配置优化呢,我们还做了很多在细节层面的调整。呃,我也把这个版本的配置文件 留在评论区了,大家可以直接把它发给你自己的 agent, 他 就会自己根据这个文件里的指示完成所有的升级。 all right 我是 v a 七,现在在做一家 ai 加跨境的公司,如果你也想探索 ai agents 或者是相关的业务领域的话,欢迎来一起交流。 have a good one。

节后王炸利好来袭,我跟大通预测中国车片五年暴增四百倍,叠加国产大模型立即发布!国际云上二十年来首次集体涨价, ai 算力正式进入量价齐升超级周期。点赞收藏解锁相关概念一、首都在线二、红信电子 三、顺网科技四、大卫科技五、顺网科技 六、华盛天城七、中国长城八、龙心中科。

今天拆解一下假期都在热议的 talk 出海产业。 talk 出海是指中国 ai 厂商向国际市场输出大模型推力能力, 其核心是以 talk 为计量单位,实现中国算力和智能化服务的全球交付,属于跨境服务贸易的新模式。 talk 出海产业主要是各家大模型厂商,其中包括了 minimax 设计公司包括鸿博股份、首都在线提供算力服务。 timmy 设计公司包括润泽科技以及亚康股份,间接提供算力服务。 deepseek 设计公司有润泽科技、航钢股份、 清华智普设计公司有网速科技、尤克德、奥菲数据字节豆包设计公司有润泽科技、字节跳动第一、大 a、 i、 d、 c 服务商,东阳光光环新网、阿里千问设计公司有数据港、航钢股份、润建股份、 腾讯元宝设计公司有刻画数据、润泽科技、群星玩具、百度文星设计公司有奥飞数据。数据港。近期的光纤光缆由于受到 ai 驱动导致涨价,其中长飞光纤试战率全球第二, 恒通光电全球第三,中天科技全球第六。最后敲黑板 token。 珠海产业分为大模型厂商光纤光缆两大部分。

马年开市第一天,市场给了个开门红,算是图个好彩头,就是不知道大家账户收成怎么样?那今天呢,想来也给大家聊一聊,在春节假期里边,投资圈讨论热度最高的一个全新的概念 top 看出海。这个 top 看呢,简单来说就是一个 ai 处理信息的最小单位,在 ai 的 世界里边,谁用的 top 看最多,就说明在 ai 竞赛当中排名最靠前。在我们过年期间,海外有一个特别火的模型聚合平台 open loot 发布了一组数据,在平台 top 肯用量前五的模型里边,有四个都是来自于中国公司,分别是 minimax、 kimi、 智普、 ai, 还有大家现在很熟悉的 lipstick, 也就是说目前中国大模型已经是在全世界占据了一个主导地位。而 top 肯的出海呢,本质上就是中国大模型企业里边,通过 api 将境内的电力和算力 直接输送到海外,而海外的用户每一次调用模型的接口,每一次生成文本或者图片代码等等,实际上消耗的是中国数据中心的算力以及电力。那么这种出口的好处就是由于没有实物形态,所以不用受到海关关税的限制,那基本也不会被传统的贸易摩擦围堵。所以 我们就能够看到,现在我们各种加大力度对外卖的算力资源,卖模型,卖接口,而这本质上都是在出口中国的电力, 并且这种出口模式呢,要比以前来的更加高级。以前我们电力过剩,只能依靠钢铁、电节、铝、水泥等等高耗能产业出口消化,但现在不一样了, ai 赋予了每一度电全新的生命,现在电力可以转化为高价值的数据服务,并且这一种需求是可以长期持续的,所以出口效益会远远高于初级产品的出口。更加重要的是在于,在这个出口模式里边,我们现在手里还握着两张王, 一个是极致的性价比,一个就是可持续性的绿色电力。相比较欧美的电网老化、环保压力大等等问题,我们的竞争优势是非常明显的。不过看到优势同时我们也要保持 清醒,目前这一切的优势的底座还是建立在芯片上面的。所以呢,只有未来国产芯片能够真正实现突破,这个优势才能够维持下去。而一旦中国新能够真正实现突破,这个优势才能够维持下去。而一旦中国新能够崛起的话,那将会形成一个非常完美的闭环, 绿片加国产芯片加国产算力,再加本土的模型加 a p i 的 出口,到时候我们所输出的就不单单只是一个 ai 模型了,而是一整套绿色、低碳、高性价比的全球 ai 基础大设施。这个意义不仅仅只是赚外汇这么简单了。本质上呢,是将人员的安全、产业的升级、绿色的转型进行了有机的结合,则做一条可 持续性的增长路径,既消化了绿电产量,也提升了我们在全球数字经济当中的话语权。现在中国的 ai 出海已经是落地见效,但是电力赋能全球的进程才刚刚开始。

炸裂! ai 算力加偷天史诗级爆发,全链涨价加需求暴增,主升浪已开启,摩根大通重磅预判,二零二五到二零三零,中国偷天年复合增速百分之三百,三十五年狂增四百倍, ai 需求彻底炸穿天花板。点赞、收藏、关注、解锁相关核心概念,一、御能控股 二、华盛天城三、润泽科技 四、东阳光五、大卫科技 六、利通电子七、川润股份八、首都在线。

智普 ai 即将在港股上市,估计呢,是在二零二六年的一月八号挂牌募资呢,约超过四十三亿港元。一句估值将超五百亿港元, 听起来是不是特别牛?那我今天想要告诉你一个非常扎心的真相,这家公司有可能正在陷入一个技术的内卷当中,你听我给你算一笔账。 智普呢,号称是中国收入最高的。内卷当中,你听我给你算一笔账。智普呢,号称是一点九一亿 人民币,同比增长了百分之三百二十五,听起来很炸裂,对吧?但是他们从二零二二年到二零二五年的上半年累计研发投入四十四亿元啊,你看 几亿的收入对比四十四亿的投入,这是什么概念?杯水车薪啊!更可怕的是,我发现这一个大模型行业致命的一个趋势就是 taco 的 价格正在以每年百分之八十的速度崩塌。 什么意思呢?智普呢,是靠卖 token 来赚钱,就是你每次调用 api, 产生了多少 token, 他 就收了多少钱。但问题呢,就是,随着芯片性能的提升,算法的优化,产生的 token 的 成本其实是在指数级下降的。 我们做应用的是非常知道的啊,今天一块钱的 token, 明年可能只值两毛钱。 更狠的来了,阿里、腾讯字节这些大厂,人家也做大模型,但人家他是不靠大模型来赚钱的。 deepsea 是 开源的, kimi 的 定价是超级低的,豆包其实也非常便宜, 这是为什么?因为人家是有云服务的大模型,他只是一个引流的工具。对于这些真正的大厂来说,真正的赚钱其实是卖云。但是智普呢,他既没有云服务,而且还得买别人的云,别人的算力来训练模型,你说这个怎么玩? 我打个比方啊,这就相当于你开了一个加油站,但是牛价每年都在跌百分之八十,而且你还得从别人那高价进牛,你怎么可能赚钱呢?那质朴的出路在哪里呢? 我认为有可能的答案是什么呢?四个字,行为智能。什么意思呢?就是我们不要再按 token 的 数量来收费了,而是要完成任务的结果来收费。客户其实根本就不在乎你生成了多少的 token, 他 只在乎你有没有把我 的需求,把这件事情做完啊。比如说,我认为特别牛的是,智普的编程业务的年收入已经破亿了,为什么?因为这是订阅制,不管 token 怎么贬值,只要你帮我提高了开发的效率,给用户省了人力的成本,你我们就可以 付费订阅。我认为未来其实更大的机会是在智能体的平台,就是 angel 的 平台,不是卖 api, 调用多少次服务,而是直接帮用户来完成复杂的任务,然后按照任务的价值来收费。问题。问题又来了, openai, 它有八到九亿的用户字节跟阿里 还有一个腾讯,他手握几十亿的用户,那智普呢?他既没有用户,也没有自己的生态,怎么跟人家比智能体平台呢?其实我的判断呢,是比较谨慎的,智普这条 竞争的路其实是非常激烈的,那这个故事给我们什么启发呢?我认为有几点。第一点呢,有收入不等于有利润,有技术不等于有护城河。第二,在一个快速变化的赛道,你的核心的商品如果是在贬值呢?你就相当于 在跑步机上狂奔,其实是越跑越累的。第三,未来 ai 公司的出路不在于卷技术卷参数,而是在于卷应用、卷结果。 从卖 tiktok 到卖服务,这才是 ai 的 下一个千亿美元的机会。最后,我问你一句,你觉得智普 ai 的 这一股值不值得买?欢迎在评论区留下你的想法和我交流。

哎圈今天炸了初创公司,它拉斯扔出一颗深水炸弹,直接把大模型焊死在芯片里。他们最新发布的 hce 芯片,将拉玛三点一模型硬连线到硅片上,彻底抛弃了 hbm 内存和液冷系统。结果有多夸张?每秒生成一万七千个透坑,比英伟达 b 二百块四十八倍,功耗却只有十分之一。当然, 代价是这块芯片出厂即锁死,这辈子只能跑着一个模型。但这波暴力美学可能是未来的趋势。


给你们讲个事儿,上个月,硅谷一家 ai 初创公司的 cto 凌晨三点在办公室摔了杯子。他刚收到邮件,他们用的 cloud 模型,下个月涨价百分之二十五,成本预算直接崩了。 他翻来覆去睡不着,打开 oppo router 的 后台,想找替代方案,结果发现,全球掉用量前五的模型里,四个是中国面孔。他挨个试了一遍,第二天给团队发邮件,全部切到中国, a p i 成本砍掉百分之九十。他切过去的第二天,大洋彼岸有个数据正在被记录, 二月十六号到二十二周,涨了一百二十七,而美国那边跌到二点七万亿。 这是全球最大的 ai 聚合平台 open router 刚发布的数据,二月九号到十五号那一周,中国模型以四点一二万亿 token 首次超过美国。最扎心的是什么?这个平台的用户百分之四十七是美国人,中国开发者只占百分之六。 这是一场在美国人主场的客场胜利。今天聊聊这四家霸榜的中国 ai 公司。第一家, mini max, 它在 m 二点五上线一周,登顶全球第一。 凭啥便宜输入零点三美元,每百万 token 输出一点一美元,对标 cloud 呢?输入五美元,输出二十五美元,差二十多倍。 开发者不是傻子,同样的效果,价格差二十倍,用谁还用想吗?第二家月之案面, kimi 创始人杨志玲,九二年汕头理科状元,清华本科卡内基梅龙博士。 k 二点五有个独门绝技,同时调度一百个 ai 分 身并行干活。你要写深度报告,下达任务后,搜索专家,找政策文件分析专家,处理数据写作专家,输出报告效率提升三到十倍, 发布不到二十天,收入超去年全年总和,海外收入首次反超国内。第三家,智普 glm 五,这家最戏剧性, glm 五发布后流量太大,服务器没跟上,被迫分批开放,老用户不爽,股价两天跌了七百多亿,但硬实力摆在那,性能对标 clout 涨价百分之三十后仍供不应求。 api 年度经常性收入突破五亿,服务超两百七十万付费客户。 第四家, deep seek v 三点二,这家走的是最难的路,开源生态 a 一 六 c 的 合伙人观察到,现在硅谷融资的 ai 初创公司路眼核心模型高达百分之八十用的是中国开源模型, 这里面很大一部分是 deep seek。 总结一下, minimax 打价格, kimi 打技术,智普打商业化, deep seek 打生态。 四条不同的路指向同一个事实,中国 ai 正在从跟着跑变成自己跑。 有个概念最近被反复提起。 token 出海,美国开发者调用智普 api 数据跨洋抵达中国数据中心, gpu 燃烧,中国电力完成推理,结果再传回北美,电力从未出境,价值却通过 token 完成跨境交付。 狂欢背后也有清醒,智普和 minimax 上市后都经历过单日百分之二十的暴跌,资本市场给的时间窗口很短,既要你赚钱,又要你烧钱建生态,这本身就是个悖论。但有一点是确定的, token 正在成为 ai 时代的燃料, 而中国厂商已经在这场燃料争夺战中拿到了主动权。你觉得这四家里谁能跑成真正的巨头?咱们评论区聊聊。

国产从备选到主力,升腾九五零引爆国产算力产业链上市公司迎来黄金机遇在 ai 技术飞速发展与国际化竞争的大背景下, 国产算力正经历着从备选到主力的华丽转身。尤其是升腾九五零系列的横空出世,不仅打破了海外算力芯片的垄断,更在性能、成本与生态上构建起强大优势,其产业链上的 a 股上市公司也随之迎来发展的黄金机遇。 token 出海朝向国产算力需求爆发随着智普、 mini max、 kimi 等国产大模型在全球 token 调用榜单中占据四席, token 出海需求呈爆发式增长。 这一趋势一方面得益于国内低廉的电力成本,另一方面更依赖于国产算力的崛起。以 kimi 为例,其前二十天收入已超二零二五年全年,是需求端的火爆让算力供给成为核心瓶颈。 海外 h 二零零卡下落不明,即便未来可能引进发展,国产算力仍是破局关键,升腾链由此成为市场焦点。升腾九五零性能、成本、生态的三重突破 升腾九五零系列的出现,标志着国产算力在高端赛道实现了从能用到好用的跨越。在性能上,其单卡推理性能超越英伟达 h 一 百,成本上价格仅为 h 一 零零的一半,且量率比国内友商高五到八个点,精元成本更低。 生态上,华为 cnn 生态与主流国产大模型适配度大幅提升。此外,升腾九五零将于四月中旬规模量产一到一点五万卡时将进行万卡集群中期考核,通过后进入长期框架订单,大规模商业化路径清晰可见。 产业链上市公司从技术协同到业绩兑现,在升腾九五零的产业浪潮中,多家 a 股上市公司深度参与,且以实现盈利成为产业红利的直接受益者。 中科曙光深度参与升腾服务器生产制造,是升腾生态的核心硬件供应商,在算力基础设施领域优势显著。严供应商作为服务器领域的龙头企业,积极参与升腾相关服务器的生产与供应,将直接受益于升腾九五零的放量需求。 紫光股份旗下新华三在服务器、网络设备等领域与升腾展开紧密合作,在算力网络构建中发挥重要作用。图,通信为升腾算力集群提供通信设备及网络配套支持,是算力网络互联互通的关键参与者。 这些上市公司在技术协同、产能供应、生态构建等环节深度绑定升腾九五零产业链。 随着升腾九五零的规模量产与市场放量,其业绩增长具备强劲动力。本内容不构成买卖依据,据此操作,盈亏自负。股市有风险,投资需谨慎。


大家都知道,现在搞 ai 服务器和算力的全都在盯着英伟达的卡,不管是 h 两百还是 b 三百,算力确实猛,但价格也是真的贵,而且功耗和散热让人头皮发麻。今天给大家聊个实在的,一家叫特拉斯的加拿大初创公司,搞出了一张思路完全不一样的芯片,直接把大模型的推理速度干到了每秒一万七千个头啃。 这是什么概念?基本上一眨眼的功夫,几万字就出来了,延迟低到不到一毫秒,他们是怎么做到的?目前普遍在使用的 gpu, 本质上都属于通用计算芯片, 跑大模型的时候,计算单元得去显存里把参数权重翻过来,算完了再把数据塞回去。这就好比干活的工人不停的去仓库拿物料,大部分的时间和电力全浪费在了跑腿上。行业里管这个叫内存强, 现在数据中心里那些几千瓦的机柜,百分之八九十的电都耗在了搬运数据上,最后全变成了费热 tales 的 思路,简单粗暴,干脆不要这个搬运过程了。他们最新搞出的这块 hce 芯片,直接把一个八十亿参数的拉玛三点一模型物理固化成了硅片上的真实电路。 模型本身就是芯片数据通电进去,顺着排好的晶体管走线流过去,数学计算就自然完成了,软件直接变成了物理硬件。这么干的结果就是极其省电,因为省掉了显存来回读写的步骤,这张卡跑满状态下的功耗只有大概二百五十瓦, 这也就是一台普通家用电脑的水平,随便拿个普通的风扇吹吹就行,根本不需要上什么昂贵的夜冷服务器机柜。听到这,懂行的朋友肯定要问了, 大模型叠带这么快把拉玛三点一直接刻死在物理电路上?明天要是出了新模型,或者我想自己微调一下,这卡不就直接变成了电子垃圾吗? tels 的 团队也考虑到这一点,所以他们搞的是一套混合架构。大模型里面,最底层、最庞大、最不需要变的基础权重,确实被永久刻死在了底层的硬件线路里。 但在这些固定线路上面,他们留了一层可以擦写的高速缓存,也就是 sram。 这层空间虽然不大,但刚好够干两件事, 一是用来存放聊天时候的上下文记忆,二是用来跑微调的 loo 模块。也就是说,硬件底座提供了基础的大模型能力,但你可以随时在上面换不同的微调插线。哪怕退一步脚,就算开源模型真的大换代了,他们重新造新卡的速度也很快,因为芯片底层那海量的晶体管,全都是标准化批量生产的。 出了新模型,把芯片最顶层的两层金属走线重新定制一下就行。从拿到新模型到新芯片出厂,只需要两个月,完全跟得上软件更新的节奏。不过现在的问题是,真正厉害的前沿模型都是几千亿上万亿参数的, 受限于光刻机的物理极限,不可能把几千亿参数全部刻在一张龟片上。对付这种超大模型, taylor 的 方案也非常接地气,他们把模型做水平切分,例如一个有一百层的 transformer, 把前五层放在第一张卡上,第一张卡算完后,只传递一个很小的状态包给第二张卡,第二张卡接着算下去。 这个流水线式的做法对贷款的要求相对较低,普通的 pci 通道就够用,也就是说不需要昂贵的高贷款。互联不用专门的超级服务器机架, 普通机箱里插上几张这种低成本的卡,就能以更低的成本运行一个万亿参数级别的系统。总结一下,把模型直接做成硬件的方案,并不会完全取代 gpu 厂商在训练环节的地位,因为你要从头训练一个大模型,还是得老老实实的买 gpu, 这没得选。 但是在模型训练好之后的推理阶段,也就是真正拿给大规模用户去调用的时候, tels 的 这种方案的成本优势是碾压级的,据说在这种架构下,跑一百万个 tik 的 成本连一美分都不到。 如果未来推理算力真的能变得像自来水一样便宜,那整个 ai 应用的商业模式和落地玩法可能就要彻底变天了。你怎么看这款芯片评论区,聊聊你的看法。