各位朋友,就在咱们欢度春节吃饺子看春晚的时候,中国的 ai 大 模型们正在悄无声息的干一件大事,靠一种叫 token 的 东西席卷全球开发者的电脑屏幕。这事有多夸张?我给你看一组最新出炉的数据,保证让你目瞪口呆。 全球最大的大模型 api 聚合平台 open router 最新一周的数据显示,平台上调用量排名前十的模型,总共处理了大约八万七千亿个 token, 你 猜怎么着?其中来自中国的大模型一口气就占了五万三千亿,比例高达百分之六十一。 换句话说,全球开发者每调用十个 token, 就 有超过六个是在用咱们中国的 ai 大 脑干活。更绝的是,当周掉用量的前三名清一色全是国产模型,直接把美国的 cloud、 gemini 这些老牌选手挤到了后面。冠军是西语科技的 minimax m。 二点五, 单周处理了惊人的两万四千五百亿 token, 空降榜首。亚军是跃之案面的 kimi k, 二点五,处理了一万两千一百亿,季军和第五名分别是智普的 glm 五和深度求索的 deep seek v。 三点二, 这简直就是中国 ai 的 春节公式。那么问题来了,什么是 token? 你 可以把它理解成 ai 处理信息的最小颗粒, 大概一个半汉字算一个 token。 你 每问 ai 一个问题,每让他写一段代码,都在消耗 token。 而现在,全球的开发者,尤其是海外的开发者,正在疯狂地调用中国模型的 api, 让中国的服务器消耗中国的电来帮他们解决问题。 这背后藏着一个非常深刻的洞察, token 出海,本质上是一种新型的电力出口。你想啊,一个美国加州的程序员在电脑上敲下一行指令,数据通过太平洋海底光缆传到中国某个数据中心,那里的 gpu 轰轰作响, 消耗着来自山西或者内蒙古的煤电或者风电,完成复杂的推理计算,然后把结果也就是 token 再传回加州,整个过程物理上的电力一丁点儿都没离开中国电网, 但电力的价值却通过 token 这个数字在体完成了跨境交付,赚回了真金白银的外汇。这简直是对传统贸易模式的一次科幻级重构。 为什么全球开发者突然这么爱用中国模型?除了技术确实够硬,尤其是在编程和智能体这两个核心赛道上表现突出之外,最关键就俩字,便宜。咱们来算笔账你就明白了, 在处理输入信息时, minimax m 二点五和智普 glm 五的价格都是每百万 token 零点三美元,而美国的顶级模型 cloud opus 四点六要价高达五美元,是咱们的差不多十六点七倍。 输出结果时差距更大, minimax m 二点五输出每百万 token 一 点一美元, e l m 五是两点五五美元,而 cloud opus 四点六竟然要二十五美元,分别是前两者的二十二点七倍和九点八倍。这种碾压级的成本优势,来自于中国相对低廉的电价和规模化的算力集群。 说白了,咱们是在用中国制造的成本优势去收割全球 ai 服务的市场。这种趋势带来的消耗量是爆炸性的。根据机构数据,火山引擎的大模型日均 token 掉用量已经从二零二四年底的两万亿飙升至二零二五年底的六十三万亿。 阿里云给外部客户的目标是二零二六年日均达到十五到二十万亿。全行业来看,中国主流大模型合计的日均达到一百八十万亿的级别, 这是一个从千亿到万亿再到百万亿的指数级增长。那么,这股 token 出海的浪潮对我们普通投资者来说意味着什么?机会又在哪里呢? 别急,咱们接下来就深入 a 股,拆解一下背后的投资地图。首先,最直接受益的就是那些给这些爆火的大模型提供弹药的算力供应商, 你可以把它们想象成 token 出海这条高速公路上的加油站或者发电厂。根据市场的公开信息,各大模型背后都有核心的算力合作伙伴、龙头选手,比如润泽科技,他的客户矩阵非常广泛,覆盖了 kimi、 deepsea、 字节、豆包、腾讯元宝四大模型。 首都在线则深度绑定了智普、 ai 和 minimax, 被市场看作是 token 出海的龙头标地之一。大厂嫡系数据港主要服务阿里千问、科华数据对接腾讯元宝。 奥菲数据则与百度文星关系紧密。这些公司直接受益于背后大厂 ai 推理需求的爆发式增长。其次是算力基础设施与制造这条线, toker 要出海,光有软件模型不行,底下必须要有坚实的硬件底座。这里关注的是那些制造算力卡、提供算力集群解决方案的公司。 比如一些公司是国产 ai 芯片的指定制造商,具备稀缺的生产能力。还有一些创新的公司,通过待壁化等新模式为算力基础设施融资模式独特。 第三,在当前的国际环境下,自主可控的国产算力基础设施融资模式独特。第三,在当前的国际环境下,自主可控的国产算力就是其中的核心。 这条线上可以关注那些为升腾服务器提供关键零部件的供应商,比如高速连接器、电源、 i o 接口等领域的公司,它们技术壁垒高,将受益于国产 ai 服务器的放量。 最后是算力互联与安全。当分布在全国各地的算力中心需要协调工作,高效处理海量的跨境 api 请求时,数据中心内部以及数据中心之间的高速互联就变得直观重要, 这就为光纤、光缆、光模块等通信设备厂商带来了新的增量需求。总结一下, token 出海不是一个短期的概念炒作,它背后是中国 ai 产业在技术成本和商业模式上的一次集体突破,它正在重构全球 ai 服务的价值链,也让中国算力成为一种可出口的高附加值数字产品。 对于我们投资者而言,这条隧道足够长,也足够宽,你可以沿着我上面说的四条主线,大模型、算力供应商、 算力基础设施、国产算力配套、算力互联,去寻找那些真正有业绩兑现能力的公司。当然,投资有风险,尤其是这样新兴的科技隧道,波动可能会比较大。你需要关注公司的技术实力、客户订单的持续性以及整个行业需求的变化。 今天 a 股马年开门红,三大指数全部高开,市场情绪不错。 token 出海作为春节期间发酵最充分的方向之一,很可能成为资金重点关注的对象,但记住,热闹的数据背后,还是要回归公司的基本面 好了。关于 token 出海的机遇和 a 股的投资地图,今天就先聊到这里,你觉得在这场中国 ai 国际化的新征途中,谁会成为最大的赢家呢?欢迎在评论区留下你的看法,咱们下期再见。
粉丝15.7万获赞58.7万

大家好,今天我们来讲一下 token 概念。那最近在 ai 行业里经常会听到一个词叫 token, 它呢不是某种产品,也不是交易概念,而是 ai 系统内部用来衡量一次请求复杂度的技术单位。简单理解就是当你向 ai 发出指令,让它生成内容时,系统需要调用算力来完成理解和输出, 而这些计算过程呢,会被拆分成一个个 token 来管理。那最近这个概念的话被频繁提起,主要是因为 ai 服务正在加速走向海外场景,当用户规模、语言种类、使用频率同时提升,系统就必须更精细的控制计算过程,确保不同地区、不同场景下的稳定运行。 那 ai 出海其实真正考验的并不是功能多不多,而是底层计算机制是否足够成熟。那这里的话主要就是云平台、成本端和光通信三个板块。 我们先来看第一部分,这一部分可以关注一下,主要就是润泽科技,它是多模型加多合作方算力订单数据港,这里是阿里云大客户,有长期订单。奥菲数据呢,是服务多家 ai 平台。云平台,这里是 token 体系的调动中书,它呢是把上层需求转换为系统可以执行的计算指令。 那有阿里巴巴是阿里云 ai 和 token api 渠道,全球平台能力强,腾讯控股,这里是腾讯云和海外布局。百度集团呢,是百度智能云加 ai 生态。 第三个成本端的话呢,那当服务规模扩大后呢?单靠中心化云资源是不够的,就更需要靠近用户的技术方案,主要是网速科技,是高并发 api 加 cdn 和优科德云服务边缘能力,最后一块的话是光通信,那所有 token 的 计算和调度呢?最终都是要回到最底层的。网络连接有中际续创是高速光模块, 新益盛这里是光通信核心部件,天府通信呢是光纤链路基础。

hello, 大家好,今天我教大家一个免费的拿到 token 数去练习 open call 的 一个方法。呃,阿里的百炼大模型里面,它有一个对新用户有一个一百万个 token 的 这样的一个优惠,后面我的视频给大家讲清楚,为什么。呃,百炼大模型,它的 token 数远远不止一百万。呃,每一个子模型使用的这样的一个 token 数是一百万。阿里云百炼 模型这样的一个列表给大家看一下啊,这个附送的列表里面这是第一页的啊,第一页的有天文三点五 plus, 天文三点五 plus, 二零二六年的版本,天文三点五的这个什么什么什么版本,然后有这个天文 plus 的 版本,然后还有这个天文 turbo, 这个我已经用完了啊的版本,什么什么什么,就我们看光天文的版本就这么多啊。然后还有第二页,我们再看一下 第二页天文啊, q v q, 天文三 v l v 一, deep seek 啊, deep seek 版本, deep seek v 三点二的版本, 这些都是免费的啊,都给了一百万,然后第三页还有还没完呢。天文 v 一, 天文,天文 deep reach 啊,天文 m t, 天文 next, 天文 m t 三十 b, 再往下看到吗?有多少页?到第九页 再往下,第十页有吗?第十页还有。 ok, 听了二点五,九十十一,呃,已经二十页了,我看二十页还有二十页还有,那么每页假设是,假设是十个吧,那就是两百了,两百乘上一百万 多少?两亿 tok 是 吧?我没算错吧,那么每个客户呢?用这个一百万优惠呢?它的注册时间是九十天,其实呢就是白练刀模型的,它是对每一个 这个子的模型是一百万,你可以想一想看,比如说呃千万的很多的,什么三点二,三点四,三点五,那么都给你一百万的这样的一个 token 数,你想想看,那么你拥有多少个 token 数呢?呃, open call 刚开始用完全可以用这个千问的百变大模型,他们免费开源的这样的一个呃资源去练习啊,没必要去花钱呃,而且就是呃也没必要去去花那么多 呃贵的这样的一个 token, 因为我们开始的话都是用的是 open core 的 一个基础的这样的一个功能,完全就是可以用比较简单的模型或者说很老的模型去做啊,这是一个我们要注意的, 当然在使用过程中大家要注意就是这个 token 数呢,它每个 token 数呢就有一百万,所以我们在每一个 token 数都要去 给他设定好这个权限啊,不能就是让他默认的会,比如说我托管数不足,让他默认的会自动加托管数, 那么在这个天问天问百炼大模型,他就有一个这样的一个小小的陷阱,就是如果超过一百万这样的 免费体验的投币数,他会自动给你默认就是要钱的这样的一个投币,这样的话你就开始要涨费用了啊,要收费了, 这个就是,当然如果你的账户里面钱没有,也许他就是,反正就是最多啊,他会让你这个要交费,如果是里面有充了一些钱,那么就是这些钱就要被扣掉了,这个是要一定要注意的。 技术巴顿最近关注于 opencloud 的 使用应用和分享,欢迎大家关注,如果有帮助别忘了点赞,我们下期见。

今天开门红有了,但是相信很多朋友的账户并没有红,可以看到春节期间散户热议的 ai 算力机器人在今天都得到了一个量化的集中复反馈,但这也是在昨天别人都在讲人尽皆知的消息的时候, 我们在视频里面给大家强调的一些信息差和波动风险。那么在今天对假期的这些利好进行了一个短期的情绪性兑现之后,属于事件催化落地的 可能就要告一段落了,但是后续还会有持续的催化,需求的上调,景气的推升,这些行业相信今天只是一个上坡路中的小段下坡路。 由于假期参加了非常多的机构会议,给大家攒了很多增量的信息需要汇报,怕一下发出来大家消化不了,我们就逐个的进行专题讲解。那么今天借着这个调整的机会,我们给大家讲讲机构假期间对国产算力中的一个重要分支的一些重要发现。大家可以看到假期间我们的智普、 mini max、 mimi 这些编程大模型受到了一个全球开发者的关注和使用,全球 top 调用的前五的榜上,我们国产的大模型占了四个, 所以这衍生出来了一个 top 出海的新趋势。那么 top 出海一方面离不开我们国内非常低的电力成本,一方面更离不开我们后面要大力发展的国产算力。从需求来看,我们既然能排到全球前五,而且持续霸榜,而且今天早上 kimi 的 新闻前二十天的收入超过了二五年全年,所以需求爆好,那么焦点就转向了供给这一边,供 供给这边我们仍然是严重的缺算力,智普在涨价,在招募算力合伙人,那么国产 c 端软件不愿意付费的固有印象其实是已经被打破的,但是现在我们这些爆款的大模型面临的问题是 涨价都满足不了全球需求的爆发,毕竟我们的大模型正在以极高的性价比占据世界大部分的 top 坑消耗,那么电力供给不是问题, 瓶颈都出在算力上面,算力现在海外的卡 h 二百下落不明,那么就算是将来能够引进,我们仍然要大力的去发展国产算力,毕竟老美那边 h 二百放开肯定不是为了来帮助我们发展大模型的, 而是来打压我们的国产算力的,所以我们打铁还需自身硬。那么我们机构在春节期间召开了多场国产算力专家电话会议,上面都透露出一个重要的信息,那么就是我们的国产算力,尤其升腾服务器, 在需求、产品力、生态这三个维度,今年都实现了超预期的积极变化。首先是互联网大厂从试点测试加速转向规模导入,升腾在字节,腾讯、百度二六年的导入量目标 普遍叫二五年实现了翻倍的增长,而且交付的节奏,万卡集群的验证路径都被讲的非常细,这显著是高于此前市场预期的。第二呢,就是升腾的九幺零 c 和九五零在性能 成本、生态上面的综合性价比被机构和大厂重新定价,而且九五零目前单卡的推理性能和成本均优于英伟达的 h 一 百,而且价格仅是它的一半, 再加上华为的 c a n n 生态与主流国产大模型的适配度从能用升级成为了好用,那么机构普遍用全面超预期来形容升腾服务器今年的爆发。第三就是液冷 c p u、 富铜板 p c b 等关键配套环节的需求与 招标节奏也变得清晰明确。叶冷从选配加速走向标配,中芯上游的 n 加二制成也明确优先供给向升腾,而且整体的供应安全和放量路径也越发的清晰。那么这对应去年升腾链的多个读点和担忧都被一一打通和解决了。那 我们详细来看,给大家列出一些关键数据。首先是多位国产算力的专家和卖方的机构形成了一致性的判断,二六年全国算力市场规模预计达到两千三百到两千五百亿元,其中国产算力的份额将提升到百分之六十,这是一个国产算力实现自主可控的关键分水岭。 而且深腾被明确为国内互联网大厂的核心选择,成为承接国产算力放量的主力平台。而且近期的交流中,专家第一次以万卡级别给出字节腾讯、百度三家对深腾服务器的全年目标与季度交付节奏。相比于此前去年我们了解到的仅有试点和小规模导入的这些 笼统判断,那么致信度是明显提升的,这将非常有利于卖方的分析师去写研报发点评,买方的基金经理去导入盈利预测模型,对整个深腾服务器 和 a 股对应的深腾链都形成了一个比较清晰和具体的指引。具体的增量信息已经给大家梳理了图表,在这里面再给大家圈几个重点,首先,这次专家的指引都是大厂的导入目标都是翻倍,而不是小浮放量。其次,九五零从四月中旬起 规模量产,并且在一到一点五万卡时进行万卡集群的中期考核,考核通过后进入长期框架订单,大规模的订单路径被明确定意。 最后腾讯、百度也从之前的试点转向了生产验证和框架订单。那么腾讯要求在生产环境完成一到二轮闭环测试后再批量导入, 百度则已经存在万卡规模订单和长期框架协议。这体现出了大厂对深层稳定性的信心提升和采购决策加速,也从更深层次的角度验证了我们国产先进制程的放量和中心先进制程的补充,那么这对上游的设备和材料的高景气性也是一种验证。那么除了量上面的超预期,其实核心不是 之前呢大家不得不买,而是现在主动变得想买。这是因为我们的性价比得到了一个大幅的提升,比如说上一代的九幺零 c, 我 们现在已经降价了百分之三十, 新一代的九五零目前单卡的性能实测已经超过了英伟达的 a 一 百,而这时候国内的这些二三线推理卡厂商还在以 a 一 百为对标呢,还没赶上。而且在推理成本和综合性价比的指标上,九五零现在要全面优于 h 一 百。九五零 pro 的 低配版本单价约为五万元,这个价格只是 h 一 百的一半, 所以升腾的量率比国内的友商高了五到八个点。金源成本更低的前提下,运用价格策略对目前的国内的这些大厂又形成了一定的市场份额的抢占,但是现在市场的表现上还没体现出这个预期差,所以升腾九五零在今年的高端推理卡赛道上,已经从之前的国产替代选项 变成了性价比的最优解,这是春节期间机构调研了解到的一个最重要变化。而且在春节期间各大模型的公告上面,大家也能观察出来对国产算力的适配。整个国产算力的生态在慢慢形成量变到质变的过程, 就意味着大模型已经开始用成本和性价比还有实际跑分来验证升腾和国产模型的组合,而不再是之前的政策驱动下的一个备胎选项。市场化竞争力在不断增强,内升驱动的需求增长才刚刚得到一个体现。 再加上国内目前的先进之城都是上面已经提前分配好了,优先保障的就是深腾、韩王、海王这三家。那么其他的这些大厂自研芯片和一些二三线厂商的推理芯片,要等到二六年年底才会有机会拿到最新的 n 加二之城的才能。 所以机构预计二六年到二七年的上半年,深腾在供应链上的优势非常强,这也是大厂转变采购态度的一个深层次原因。 大家能够在今天的盘面上看到,帮助华为超节点组网的交换芯片已经有异动,而且节前深腾链配套的高速连接器液冷电源也有异动。那么接下来机构主要在跟踪关注的几个重要催化,三月份即将启动的九五零复铜版的招标,四月份九五零开始的集中供货, 五月份开始新增的腾讯、百度等大厂的陆续放量,这都是能够推升行业景气度,带来市场共识和认知变化的 信息差,那么对上游的这些供应链就会形成一个订单的拉动,那么对应年终的业绩改善和进一步的增长,就是一个现在存在的预期差,那么后续这些事件相关的进展和催化,我们还会为大家持续的跟踪观察。

talken 出海真正的机会,结论先行就是北美电力,那最近 talken 出海话题比较火,所以说呢,就跟大家讲一下这个什么是 talken 出海,以及背后是电力的这个核心逻辑到底是什么? 在套根出海之前呢,我们要去讲一下这个过去一个工业商品啊,它在全球范围内流动的一个过程,是吧?就比如说我们过去讲 made in china 啊,有一个这个东西啊,它在中国制造了,说那制造的时候呢,它会有背后的要工业用电啊,它背后呢会有中国的一些原材料,以及会有些其他的一些这个乱七八糟这个东西,生产这个商品, 生产这个商品之后的话呢,然后呢它就会这个用运输把它运输到国外,是吧?那运输的过程呢?还得有这个船呐、飞机啊等等乱七八糟这个东西运到海外 是吧?那海外的话呢?还有这个销售环节,有些东西还有海外的这个二次包装啊,甚至呢很多有些东西呢,它可能不是最终的工业品,它可能还有海外的这个二次加工,是 吧?等等等等,然后呢最后再把这个东西变成一个成熟的商品,然后呢卖给了这个老外啊,然后呢老外呢再把钱啊给打回来,是吧?这个是过去传统的一个这个 made in china 啊,这个一个商业模式是吧?那什么叫 talking 出海呢? talking 出海其实 其实非常简单啊,比如说一个老外,他用豆包是吧?他提了一个需求,让豆包帮他去做一段视频,生成一段文字等等,他把这个需求的话呢,就提给了这个国内啊,就通过网络直接传回来了, 假设豆包,是吧?然后呢经过一系列的这个计算,那背后的话呢,可能需要这个国产的这个算力啊,然后呢这个以及需要的各种的这个电力啊,以及其他的各种各种的这个零部件的一些东西, 然后呢进行了一顿计算啊,算完之后的话呢,他会生成个结果,可能是一段视频,一段文字啊,然后呢就直接给了这个老外,是吧?首先呢中间这个传输环节呢,他只用一根这个网线就够了,跟过去的这个传运的话呢,这个成本就完全不同。 然后呢在境外的话呢,他其实也没有什么销售环节,没有什么包装环节,也没有什么二次加工环节,所有的这个生产可以说基本上是百分之百是在境内完成的,以前的话呢,在境内可能也就完成一个百分之六十到七十左右吧,啊,就大概是这么一个情况, 这个时候呢其实就说明了在这个境内,然后呢把这个做通过大模型去做计算,是吧?你的整一个的这个供给啊就出海了,就是它是供给全球的。是那这个时候的话呢,所有的相关的上游的算力啊,电力啊只用在本地发生就行了, 就真正利好是什么呢?就在全球范围内来说的话,利好就是有有本地计算能力以及有本地大模型的这个国家,那一个就是中国,那另外一个的话呢,就是只有美国了。我们现在其实真正机会为什么是电力呢 啊?因为以前的电力的话呢,他是生产一个东西,然后呢把这个东西运到国外去等等,他很多时候的电力消耗是要在海外发生的。那现在整个 ai 的 百分之百的这个计算过程啊,或者说百分之九十九的这个过程,是吧?他其实都是在这个境内去消耗电力的,那我们就可以看一下啊,这个中美的一个电力的这个差别。 中国的话呢,大家也知道是一个这个工业大国,所以说中国的整个工业用电量的话呢,他是一个就建设的是非常超前的。中国大概在二零二五年,一年的话呢,大概工业用电大概是七亿度电,是吧?居民大概是三亿度, 总共的话呢,大概是十亿度电的一个一个规模,是吧?那我们现在讲的是美国啊,这美国的工业用电才多少?美国的工业用电大概才五千到一亿度电啊,因为美国就不是一个工业大国。 那大家也知道现在现在全世界是吧?这个大模型能力最强的啊,就是这个肯定就是美国我们讲的 tokken 出海,不仅是中国的 tokken 出海,我觉得更重要其实是美国的 tokken 出海,那就说美国未来在 ai 时代,我们所有的大模型,大模型背后生产了很多很多东西,是吧?以后会有个单词叫 made in usa, 到二零三零年整一个 ai, 这个电力需求大概是多少呢?就目前的预估啊,目前预估大概起码大概就是一个五千到一亿度电的一个新增的这个需求,是吧?那美国现在大概也就五千到一亿度的工业用电,那就说在未来的这个几年过程当中,是吧?美国的整一个工业用电的规模,是 吧?那如果比如说把五千到一亿度电了,是吧?那你再额外的去增加这个五千到一亿度电,是吧?其实你整一个增量,其实没有说这么的,这个没有说这么的夸张, 是吧?但是五千到一亿度电,中国五千到一度,美国五千到一度,所以说对于未来的整一个的这个电力的这个建设,在未来几年的这个速度是非常非常快的,是吧?因为中国的七亿度电也不是一年、两年、几年之内完成,它是过去这个二三十年整个工业化的这个过程慢慢慢慢积累起来的,就是未来的这个结论就是 talk 出海,就是中国和美国的整一个大模型,以及大模型背后的这个所有的一些零部件,包括算力的零部件,包括电力的各种电力设备等等等等,它供应的是全球, 而且不用把这些电力的这个设备啊放到什么?这个就是放到终端的用户那边去,可能是一个非洲人啊,可能是一个欧洲人,是吧?也可能是一个东南亚的这个人,甚至是比说小日子的人,是吧?所有他们对于 ai 的 需求要么就给到中国,要么就给到美国,然后呢?背后所有的这个电力计算啊,这个所有等等等等都在中美发生就行了。 说中国和美国的整一个的这个算力供应链和背后的整个强大的电力供应链,是吧?整个的这个天花板啊,是在在这个 tucker 出海这个逻辑下是在不断被提高的,是吧?因为过去我们认为中国的电力,中国的模型供中国,美国的模型供美国是吧?现在是中美要供全球啊,就说整个天花板是提高的, 所以说呢,这个也背后也代表了整一个在未来一段时间电力的这个投资的这个持续性会更强。而且电力投资呢,还有一个问题,你因为是要去满足未来几年的规划的,所以说很多时候电力在做规划的时候呢,基本上我现在要去做的这个电力的一些规划,它是按照未来几年那个规划提前去布局的。 就比如说我现在建的这个发电厂啊,我是按照未来五年的整一个的这个算力中心去规划的,是吧?就说其实电力建设是领先于整一个的这个这个 ai 的 这个发展的啊,所以呢,就是这个整个五千到一亿度电,它其实真正建设就在未来一年到两年建设就完成了。那美国呢?这个电力建设主要靠什么?主要就是靠燃气轮机, 为什么呢?因为美国天然气便宜啊,美国的这个液燃气的这个很多成本也很低,说美国的主要就是用燃气轮机,是吧?那中国的话呢,其实主要呢就是一个呢是用这个煤电改造,另外的话呢,其实就是用风光储物啊,用风光啊, 然后呢通过特高压的电网电网,然后呢运运过来,甚至现在很多中国的一些算力中心叫西数东算,是吧?其实也就是把这个很多算力中心放到西部离风光这个更近的地方去做这个计算。相对来说的话呢,这个燃气轮机的这个增量未来的天花板会更高。 燃气轮机的话呢,其实整一个全球其实就就这么几家,是吧?就大的话其实就西门子。然后呢美国的这个机翼啊,就是通用电器,是吧?然后呢还有这个小儿子,这个三菱,是吧?其实就在三家龙头。然后呢现在的话呢,这个很多的中国公司啊,他其实也开始慢慢慢慢,然后呢去抢这些公司的这个市场了。 或者说是有些有些中国公司是西门子或者说通用的这个零部件供应商啊,比如说中国有些 a 股上市公司,他是做这个燃气轮机的这个叶片的啊,因为燃气轮机需要这个高温高压,是吧?它这个叶片不能够说是一下子就断掉了。 然后呢这个有些中国公司的话呢,这个就开始自己去切入,有些是做零部件的啊等等等等。所以说这种公司的话呢,我觉得在未来几年这个增长的这个增速啊,首先这个非常确定,然后呢增速也非常高,其实 talk 出来我觉得真正机会应该还是看在店里的。

字节跳动二零二六年的 ai 总预算已经正式上调至三千亿人民币,这不仅是一次单纯的军备竞赛,更是算力国产化和 ai 应用落地的关键转折点。 野村证券这份最新的专家会议,要向我们揭示了这家全球科技巨头最真实的超能力流向,他不再只是埋头训练,而是开始大规模向推理和国产替代倾斜。首先,我们要看最直观的数字,字节跳动在二零二五财年的资本支出大约是十千六百亿到一千七百亿人民币, 到了二零二六年,这个数字被直接拉升到了三千亿,比之前的预期整整多出了四百亿。为什么要追加预算?除了算力需求,内存价格的上涨是一个重要的成本推手。在这三千亿的盘子里,一千八百亿将砸向 gpu 服务器,另外九百亿则用于通用服务器,这种规模的投入放眼全球也是第一梯队的水平。 在芯片的选择上,字节跳动展现出了极其清晰的双线并行策略。一、海外市场 a、 m、 d 在 海外的 gpu 预算约一千亿人民币, 虽然英伟达依然占据百分之六十五的绝对大头,但 amd 的 份额预计将从二零二五年的不到百分之十跃升至百分之三十。国内市场国产算力链的春天在国内约七百五十亿的 gpu 预算中,分配给英伟达的仅剩一百二十亿到一百五十亿。真正的重头戏交给了国产芯片,含五 g 拿到了约二百五十亿, 华为升腾拿到了约两百亿,自研 aic 系芯片也占到了一百五十亿到一百六十亿,这意味着字节在国内的算力底座正在加速从依赖进口转向国产多样化。 很多人关心,买这么多芯片真的有用吗?数据给出了答案。字节跳动的 toc 消耗量从二零二五年初的五万亿,到年底暴增至五十万亿,预计到二零二六年底将达到惊人的五百万亿。 这种百倍级的增长直接导致了算力分配结构的变化。然而, arch 训练算力下降,二零二六年用于模型训练的算力占比将降至约百分之三十。 推理需求爆发,绝大部分算力将被用于支持日常的 ai 调用,也就是推理端云端租赁补充。还有约百分之二十的算力会通过火山引擎等云平台租赁来灵活调配。这释放了一个明确信号,大模型已经过了单纯比拼参数的阶段,现在拼的是谁的应用更普, 谁的调用量更大。最后,我们来看字节大模型的进化时间表,目前其基座模型已经稳居国内第一梯队,接下来的动作会非常密集。二零二六年三月,音频模型迎来重大更新,近期将发布原生的多模态模型。 二零二六年五月,机器人模型和大家期待已久的世界模型将会有重磅进展。总结一下,字节跳动的这份成绩单告诉我们, ai 的 下半场是属于推理和国产算力的。三千亿的投入背后,是一个更加智能、反应更快且底层更安全的字节系生态。

大家好啊,最近这段时间在西方的 a 圈里边讨论最多的这是一个小公司,就在前天,这小公司叫 ta 泰拉斯啊,不是特斯拉,是泰拉斯 t a a l a s t a。 这家公司呢,搞了一个事啊,他们把 ai 的 模型直接刻在了芯片上。然后呢,大家也要知道,无论是 deepsea 还是 gpt 啊,包括你现在说最火的这几家的,像千问啊,它们都是在模拟的参数运损,模型参数运行在内存里啊, gpu 像勤劳的搬运工是吧?每秒几十万次的从内存搬数据到计算单元,然后算完再搬回去。 这个搬运的过程就是治理 ai 的 一个重要的终极瓶颈,叫做内存强啊,无论英伟达的这个芯片有多强,百分之九十的能耗和时间都浪费在这个内存搬运上了。 然后 tiktok 这家新征程公司,它的解决法非常简单,搬运数据慢,我就把模型刻上去了,别搬运了对不对?他们把里尔玛三点一啊,这个八 b 的 小模型,全部参数通过光刻工艺,直接变成了规片上的物理电路。 看一下,以前模型是存在硬盘里的文件,需要播放器来解码,那现在呢,它变成一张黑胶照片,文字本身就是音乐。 芯片上的每个 g d 管对应的模型的一个权重或参数,电流通过就在进行推理计算。这种硬连线的架构呢,使得打破了相关的底层的依赖啊,数据和计算不分离,模型本身就是计算机,结果内存将消失了, h b m 的 高带突然不需要了啊,夜冷散热也省了,一张二百五十瓦的芯片跑出了一个比整机柜 g p u 还快的速度,推理速度一万七千个 toc 每秒。 这玩意有一个大问题,因为模型很多时候都不断在更新嘛,它把它刻在芯片上,明天出了新的新模型,怎么办?这个事呢?它做了一个什么呢?做了一个模型编辑器啊,能把手机网络呢自动翻译成芯片的电路。传统的 asic 的 设计,要流片要两年,当压缩要两个月,也就是说它可以两个月迭代一次这个芯片, 两个月迭代一次芯片,而且只改芯片最上层的两层金属眼膜,成本呢,也就大幅降低了啊。他们逻辑呢?一个大模型的推理呢?超过十亿美元的时候,让花两亿美元单独做一块芯片,只要节省百分之二十的推理的费用,实际上他们号称能节省百分之九十啊,这样开始一个全新的一个概念,软件定义硬件。 所以呢,这个情况,但是这里面会有什么?如果说推理速度提到一万七千个通通每秒,那很多模型就可以推到一个非常高的水平。当然这个是一个非常小的八八 b 的 一个小模型,但是如果你把一个比如二百三十五 b 的 一个大模型扣进去的话,那可能一个芯片可能会非常的大,但这是一条路啊,是一条测试的路, 但这个后面代价也是非常大的,对不对?一个是他除了推理速度以外,其他的准确度特别低,因为他这个非常小的模型。另外一个他每一次都要重新去做芯片,每一次升级都是做芯片的过程。这个思路属于什么呢?属于集市的这样一个架构, 他是极致的硬件,但后续东西可能对他就不是很有利了。你新的一些架构出现的话,那你要重新去设计个芯片,那你费的时间和相关的对后续东西的探索就更加的离谱啊,再加上我们现在的很多的芯片很可能要换方向啊,那这个事怎么办?是吧?有一些东西他现在还在 传统的传送门上,那其他的深度的 m o e 怎么办?他那个用的三点一码是传统的传送门,还没有涉及到 m o e 那 些怎么办?都有很多很多的问题,可能这条路走不通,但它只是一个测试,那这条路也是给我们提出更多的一些思考的方向,我觉得还是有价值的。 好吧,简单跟大家说一下啊,有朋友说老张你的会员视频很多都压住热点了,是很多朋友还很高兴啊,到哪看?关注我们的小程序,奥德豆豆与瑞克。老张科普课啊,这小程序赶紧到里边看好不好?我们现在正好年度会员,咱们的特价幺六九九九九啊, 这个要特价,现在那个平台给的补贴的,咱们还有几个名额,所以需要的赶紧。咱们这个年度会员,一年一百八十以上的会员视频,三十二场以上会员直播,所有转来免费看啊,现在咱们的阅读会员特价正在开啊,咱们到三月十五号结束 啊,阅读会员呢?幺幺九,原价幺九九的啊,除了时间,其他的跟年度是一样的啊。一个月咱们是十到十五个会员视频,这个两到三场的会员直播啊,所有需要包括之前的视频都能看。好,今天就到这,我是瑞小张,关注我带大家看中国科技的高度和温度,我们下期见,拜拜。

假期财经圈直接炸锅了,所有投资人都在聊的全新风口 token 出海,彻底火出圈。先给大家说透什么是 token, 它就是 ai 时代的核心基础单位,是人工智能处理信息的最小单元。简单说,谁的 token 消耗量最大,谁就是 ai 竞赛里的绝对头部。还记得互联网时代,我们拼的是日活月活流量,到了 ai 时代,规则直接变了, token 才是王道。 全球投资人都死死盯着 openroot 这个全球平台,就想从 token 数据里找出 ai 时代的新巨头。 而就在最近,这份全球榜单直接刷新认知,榜单前三名被中国大模型公司包揽, mini max、 kimi、 智浦直接登顶冠亚季军。再看海外科技巨头, gemini 排第四, cloud 第六,马斯克的 grog 才第七,这是什么概念? 中国大模型正在批量输出到海外,直接拿下 ai 基础设施层的主导权。而且 open router 是 完全开放的全球竞争平台,每一笔调用数据都是用户真金白银的使用,绝非实验室跑分空泛调研。 全球最火的 ai 智能体创人都公开为 mini max 站台,直言它是最好的开源模型。 mini max 新款模型发布仅一周,直接冲上掉用量榜首 周掉用量暴涨三零七 t tokens, 这个数据超过了另外三家头部模型的总和。更厉害的是,这波增长根本不是内卷,排名靠后的厂商掉用量没有下降,反而整个市场都在涨, 足以证明 ai 市场远没到天花板。 token 成本持续下降,应用层创新就不会停,行业增长飞轮已经高速转起来了,这里提醒大家赶紧关注博主最新财经热点,第一时间给你汇报, 绝不放过任何行业关键信息!先看 token 出海赛道实现逆袭!核心看 token 成本的三大关键人才,能源、算力。人才方面,咱们直接断层领先奥塞,金牌数量遥遥领先,工程师规模数倍于西方 华人,更是大模型领域的核心力量, gpt 核心团队里百分之三十五都是华人,硅谷技术小会都开始用中文交流。能源方面优势更是碾压中国电力成本不到美国的一半,而且电力供应充足稳定,数据中心想扩容就扩容,完全没有缺电困扰。唯一的算力短板, 顶尖算力卡只是用于模型训练,推理环节根本不需要。如今 ai 行业进入推理时代, tok 成本就是核心竞争力, 咱们靠着人才和能源的双重优势,直接量变引发质变,才有了霸榜全球的奇迹。谁能想到,两年前还在感慨国内 ai 产业调队两行冲进全球第一梯队, 现在 token 出海的新增长范式已经到来。现在 token 出海的新增长范式已经到来,国内算力、能源需求将被全面拉动, 中国 ai 产业彻底走出内卷,成为全球 ai 军备竞赛的核心受益者。这波中国科技的强势崛起,真的太提气了, ai 时代的中国力量已经站在了世界舞台的中央!

炸裂! ai 算力加偷天史诗级爆发,全链涨价加需求暴增,主升浪已开启,摩根大通重磅预判,二零二五到二零三零,中国偷天年复合增速百分之三百,三十五年狂增四百倍, ai 需求彻底炸穿天花板。点赞、收藏、关注、解锁相关核心概念,一、御能控股 二、华盛天城三、润泽科技 四、东阳光五、大卫科技 六、利通电子七、川润股份八、首都在线。

国产算力集体爆发,源于 tokun 出海这个概念啊,渐渐地被市场认可了。什么是 tokun 出海?那就是由于越来越多的全球开发者付费调研中国的大模型,这本质上就相当于我们的出口由电力和算力构成的自算符。 中国的大模型啊,正在全世界攻城略地。根据最新数据啊,全球头部模型平台 open loop 的 前十大模型中啊,中国模型的 tokun 消耗量占百分之六十一,约为五点三万亿。 其中 mini max、 kimi、 智浦、 deepsea 更是饱览了前五名中的世袭。这直接引发了底层算力需求的爆发,也直接立好算力技术设施板块,包括算力芯片、服务器、数据中心,整个产业链都将受益。首先是国产芯片, 尤其是华为升腾相关的传闻,华为升腾的九五零啊,它的性能已经超过了英伟达的 a 一 百,国产替代空间巨大,所以华为升腾产业链是非常值得重视的。其实是数据中心,由于所有的透看计算都发生数据中心, 随着各大互联网巨头加码 ai, 对 智算中心的需求增加,这直接带动了 ai dc 相关服务商的业绩, 重点关注智普、智捷相关的算力合作伙伴。最后是配套设备与传输,算力中心的建设与运营都离不开电力散热与网络传输, tok 则数据中心和全球用户中进行流动,也为这些配套领域提供新的增长点。和英伟达链一个道理, ai、 电源、业冷以及为 tok 计算提供传输服务的边缘计算和 cdn 都将迎来机会。透彻出海,本质上将中国的人员优势,也就是低电力成本和工程优势,也就是大模型工程交付能力,这两者进行打包,以算力这个载体进行全球交付,这并非短期炒作,而是有长期逻辑的,它是国际贸易中比较优势理论在 ai 算力这个领域中的实践。

我国有种看不见又摸不着的东西,正在疯狂占领全球。 openrail 的 最新周度数据显示,平台前十模型总抽更量大约八点七万亿, 中国模型就直接拿下五点三万亿,占比高达百分之六十一。 mini max m 二点五以二点四五万亿抽更空降榜首, kimi k 二点五以一点二一万亿紧随其后,芝普吉拉姆和 deepsea v 三也稳居前列。这是中国大模型第一次在全球开发者市场吃下六成以上的份额。 很多人还没反应过来,这背后藏着一个绝大多数人都没看懂的心绪。是抽坑出海,才是中国真正意义上的电力出口。先把最关键的概念说清楚,这里的抽坑和虚拟货币完全无关,就是 ai 干活的计量单位,你可以把它理解成 ai 的 计件工资。用一个抽坑,就是让 ai 处理一段文字, 好一段推理生成一段内容,是完全合法合规的数字服务凭证,也是全球类 i 服务最通用的结算单位。一个美国用户调用国产大模型的 api 数据,从加州出发,穿过太平洋海底光缆,到达国内的数据中心。 数据依靠中国的电力完成计算结果在原路传回去。整个过程里,一度电都没有走出国境线,但是电力的价值已经通过抽根完成了跨境交付。这就是最颠覆认知的地方,电卖不出国门,但是抽根可以。电有损耗,有边界,有电源限制, 但是抽坑没有。在抽坑的成本结构里,电力加上算力占比超过百分之七十,也就是说,每一个抽坑的价值,一大半都是由电和算力支撑的中国的低电价优势,正在实实在在转化成全球 ai 服务的定价权。 欧美地区数据中心电价是国内的三到五倍,土地人工环平,成本极高,算力紧张到排队。而我们拥有西部海量廉价的水电、风电、光伏电,拥有全球最完整的数据中心产业链,服务器、光模块、散热、电力设备全部自给自足。同样的雷爱服务,我们的成本只有海外的几分之一, 价格更低,响应更快,稳定性更强,全球开发者自然会用脚投票,纷纷转向中国模型这笔隐形的电力出口生意,没有集装箱,没有海运,没有关税摩擦。 在 wto 的 规则里,数字服务跨境免征关税,相当于给我们开了一条绿色通道,一根光纤就是一条跨国电力高速,把国内原本消纳不掉的绿电转化成数字服务, 卖到全世界,比传统商品出口更轻松,附加值更高,也更安全。那么,在这条看不见的产业链上,到底谁在闷声发大财?首先是国产大模型厂商 winnymax、 kimi、 智浦 d p c d 这些头部玩家,靠着效果过硬、成本极致的模型,在全球市场快速抢占份额,抽根掉用量指数级增长, 商业化直接落地兑现,从以前的烧钱研发变成现在的全球赚钱。其次是算力服务商和数据中心,全球抢抽可能本质就是抢算力,数据中心必须二十四小时满负荷运转,西部绿电数据中心成了最稀缺的资产, 才能供不应求,订单一签就是几年,躺着享受行业红利。在网上就是整条电力设备产业链,这也是最直观、最确定的收益环节。见数据中心跑算力,都离不开稳定供电。 变压器、开关柜、光模块、光纤机柜、冷却设备全线爆单,国内大量变压器工厂已经处于满产状态,订单直接排到了二零二六年,甚至二零二七年,生产线三班倒 机器不停工,门口货车排队拉货。看似火爆的背后,其实都是全球抽腾需求一路传导上来的结果。以前我们总觉得中国电力这么便宜、这么清洁,为什么不能出口赚外汇? 现实很残酷,电是物理资源,不能存、不能装箱,不能远距离跨境运输,跨国高压线审批难、损耗大、风险高,电天生就走不出国门。而现在, 投资者终于想通了,根本不用把电送出去,只需要在国内把电变成算力,再把算力打包成代币,通过互联网卖到全球,就完成了电力价值的跨境转移。这不是简单的生意,更是国家级的能源变现新路径, 是把能源优势转化为贸易优势、科技优势、外汇优势的关键一招。百分之六十一的全球占比只是一个开始。随着全球类 i 需求持续爆发, ai 应用从互联网向工业、金融、医疗、教育全面渗透,抽空的消耗量会越来越大。中国模型的技术还在不断迭代, 低成本电力加强,大蒜力加优质模型的组合,优势会越来越明显,出海的规模只会越来越大,更多的中国电力会通过这种隐形方式,源源不断的卖到全球各地。这不是短期的题材炒作, 是实打实的产业改革。以前我们出口衣服、家电、汽车,靠的是实物制造,赚的是辛苦钱。现在我们出口电力加算力加抽空灯,靠的是数字服务,赚的是高附加值的能源钱。物理的电有国界,数字的抽空没有国界。 店走不通的路,数字帮他走。店做不到的事,算力帮他做。店赚不到的钱,抽肯帮他赚。当全球还在关注传统贸易格局的时候,中国已经悄悄打开了一条全新的出口通道。抽肯正在吃掉全球市场, 电力正在以一种全新的方式走向世界。这笔无声无息却规模巨大的数字能源生意,正在改写中国出口的结构,也在重塑全球科技与能源的格局。未来几年,大家会越来越清楚,真正支撑起的癌算力,支撑起中国新出口优势的不是概念, 不是想象空间,而是藏在每一个抽屉背后,来自中国的一度度稳定而廉价的电力。这就是投资者最终想通的最硬也最长久的产业逻辑。

老师节后大宗领奖,今天 pcb 和半导体材料再度拉伸,主线机会到底在哪边啊?其实这个主线机会的话从来没有变过,大家不要觉得我们过了个年就有新的主线了,根本不是那么回事。这轮牛市的核心主线的话,无非就两个,我们说的非常的清楚了, 第一个就是美元朝西带来的通胀升温,但是通胀升温里面的话,你也不能只盯着金和银,对吧?金银先涨,然后铜铝根涨,现在化工的话,板块已经起来,当然最后有可能会轮到农产品啊,涨价周期其实是 a 股里面的话,一条非常重要的线索,而且是具有持续性的嘛。春节之后啊,我们第一天的话可以看到石油乱涨啊, 然后贵金属的话也是上涨的,最近呢又开始涨磷化工你还记得吗?春节之前的话,我们谈染料,我们谈环氧丙氨草氨磷,整个涨价因素的话,未来的话有可能会进一步的蔓延,可能会有更多的子分类,整个通胀升温这条线索的话,已经开始有进一步的资金去压住以及演绎了,这是一条核心主线, 另外一条核心主线的话,无非就是人工智能了,我们一定要知道,中美两国此轮牛是核心基石,就是科技改变生活,人工智能啊,这是根基当中的根基,所以说呢,最硬的逻辑和去年一样, 还是我们的这个算力,只不过今年的预期差有可能不是海外算力,因为海外算力的话确定性很强,去年涨幅也很高。那么今年为什么说最大的预期差的话是国内算力呢?大家可能最近一段时间看新闻或 看短视频啊,你会看到一个非常新的名词叫 tokens 出海,那我们最近的话发现有我们这儿有电呀,他那边不是缺电吗?未来的话我们 gpu 的 话可能也会有改 善,就最核心的设备 gpu 啊,中信国际的话,可能在新晋之城当中也会有破产,有可能的话还会引入 h 两百去补足我们最后一块短板。那我们这边的话,如果说显卡不缺,在 加上我们的电力优势,再加上我们大模型本身就降本增效,那是不是的话,在大洋彼岸甚至全球的对 tokus 的 消耗量会集中的开始的话,从我们这儿进行输出呢? 所以说这个 tokus 出海呢,最近的话被热议了,你在盘面当中短时间可能看到的还是 c p u 板块在演绎,可能看到的还是最近涨价的 p c b 以 及 p c b 里面这些子分支,什么电子布呀,什么箍针啊。但是我想告诉大家的是,今年的国内钻利的话,其实是不容小觑的,因为你要知道我们基数低啊,股市的话炒的是弹性,因为你基数足够低,那么有可能话就会爆发出极高的弹性来。去年的话,我们国内准备投四 千亿人民币在 a i d c 上,但我们都知道因为中间断了 h 二零的卡,这四千亿的话肯定是没花掉的,有可能花了一半两千亿左右,那么剩下的资金呢?包括今年的话,可能还有六千亿左右的资金的话是要投放,那么 未来的话,超预期的到底在哪?可能是我们国内的算力的技术建设,那国产算力的话是不是包括我们的显卡?是不是包括我们的 cpu? 是 不是包括我们所谓的升腾链条? 所以说的话,其实你在追逐今年的科技这条线的时候,那弹性方面的话,是不是可以给国内的算力更多的目光,毕竟偷克的出海,这 是目前市场上一个非常热的话题,只是还没有在 a 股上有所显现,那是不是我们可以多加关注呢?总体我们一定记得啊,炒股的核心其实就是找到一家好的公司,有弹性的企业,并且找到一个合适的价格。 所以说的话,我们认为主线呢还是通胀升温,还是算力震荡不改长期的方向,我们可以长期跟踪,逢回落考虑的话去捕捉它的机会呢?当然也希望大家的话可以关注点赞、转发我们的短视频啊,有空的话也可以来听听我们的直播,我们希望从产业的逻辑的话,帮大家一起去解剖市场上的机会和风险。

我发现一个对我国人工智能全球竞争尤为不利的严重事情,就是美国可以用上我们便宜的托肯,而我们却用不上美国同等的先进算力。 人工智能已经成为中美科技竞争的核心赛道,美国在高端算力芯片核心群领域占据先发优势, 而我国的核心竞争力集中于完倍的电力能源系统、全覆盖的通讯基础设施, 以及说规模化算力配套能力。但当前局面的要害在于我国的基础设施优势正单向输出服务于美国 ai 产业,而我方却无法同等利用其算力优势, 这就是一种我为人用人难为我用的结构性失衡,长此以往必将削落我们在人工智能领域的长期竞争力。因此,我个人觉得有必要在国家层面对 ai token 这一战略资源进行统一的规范和管理, 防止变成以前光伏出口那种恶性竞争,便宜了外国人,而却伤害了本土企业。需要给大家稍微解释一下什么是 token? 我 们平时在跟人工智能对话的时候, 给他输入一个文本,他会跟我们返回一段文本,我们给他输入的文字变成词以后,就是对应的 token 数输出也是同样的道理, 你输出文本越长,消耗的 token 就 越多。那就像我们平时跟豆包、元宝对话,每一次对话都要消耗一定的 token。 那 有一些云服务公司,他自己不直接跟用户对话,而是提供一些接口, 比如说供豆包和元宝调用,那调用它的时候就要根据使用了多少 token 来去计费。这就好比我们开水龙头用了多少升水,就像电费用了多少度电是一个道理,但是现在中美在 token 的 价格上是有十倍的差距的。 那在春节期间,有一个接口聚合平台叫 open loop, 它就发布了一月二十五号到三十一号一周的监测数据, 数据显示,当周平台排名前十的模型总 token 达到了八点七万亿次,其中国产大模型独占五点三万亿次,占比高达百分之六十一。 调用量榜单前三名均为中国国产模型。像排名第一的 mini max m 二点五 token 数达到二点四五万亿, 那像排名第二的 kimi k 二点五也来到了一点二一万亿次,智普的也有八千七百亿次排名第三。当然这些数据还不包括像豆包、元宝这些, 因为他们很多 token 呢是自产自销,没有去经过 opennot 这样一个平台。本来这是一件挺开心的事情,但是我从中看到了问题,就是 token 的 价格,像 mini max m 二点五,它的输入只需要零点三美元每一百万个 token, 而同样的美国顶级模型 cloud 要报价到五美元,这里面差了十几倍。同时在输出 token 方面, 中国模型的成本大约是一点一到二点五五美元每百万 toc, 而美国对应的模型要高达二十五美元每百万 toc, 价差来到了二十倍以上。 但同时我去看一些国内的价格,有一些要报到十八元每百万 toc, 按现在的汇率六点八几去算, 也就是说国外的价格现在比国内的还要低。同时我还看到他们在不断的进行恶性竞争,那这种企业的各自为战,低价竞争,不仅让国内的企业在占据全球市场的时候获得不了利润, 而且也形成不了竞争力,更使我国低成本的电力、通讯基础等核心优势资源变相成为美国 ai 发展的廉价供血包。我个人认为,如果不极早从国家战略层面加以规范管控, 不仅会拉大中美在 ai 核心技术上的差距,更将直接威胁我国人工智能在全球竞争中的主动权和产业安全。所以我建议应该提前整合规划,将 ai token 的 出口 纳入到国家制造业出口战略。应该建立一个由主管部门牵头、行业共同参与的定价协调机制, 制定出口定价底线,以行业规范。坚决要遏制无序低价竞争, 推动我国的供给优势转为全球定价权优势。应该建立一个国内充分竞争但对外出口要根据美国同等性能的大模型进行足级的增税, 这样可以防止我国电力、基建等核心资源被低价占用,维护产业安全和价值底线。同时,我觉得增来的调节税收全额注入 ai 自主发展专项基金, 专款用于国产高端算力芯片、大模型核心技术及自主算法基础设施建设。要形成出口收益反哺、技术突破的良性循环,为中美 ai 竞争提供持续动力。假如不进行这样一些提前规划, 我们的人工智能领域极有可能会布向类似光伏的后程。就算你不提前加价,到时候如果你价格特别低,美国极有可能去反向征收关税。 所以我们现在真的要提前采取行动。这个视频的相关内容我也制作成建议按我的渠道往上提爆了。如果你们也认可我的说法,也可以通过您的渠道进行反馈。这里是名人说,爱国爱家爱自己。

马斯克早就说过一句话,未来 ai 算力真正卡脖子的根本不是芯片和显卡,而是电力。大规模的 ai 计算,耗电量大到超乎想象,怎么稳定、便宜、持续的供上电,才是决定谁能主导 ai 时代的关键。为了解决这个问题,他甚至提出把算力中心搬到太空去, 听着很前沿,也很有想象力。但放到现实里看,这些都属于长远规划,短期内根本解决不了全球对 ai 电力爆发式增长的刚需。反观我们国家,电力和算力一直都是国家层面重点投入、大力发展的方向。 不管是发电能力、电网稳定性,还是大规模建设数据中心的速度和成本,放在全球范围里都是独一份的优势。 很多人可能没想过,店是没法直接大量出口的,远距离书店损耗太大,基建成本高,还会受到各种限制。想把国内便宜又充足的店直接卖给国外,根本不现实。但换个思路就完全通了, 店不能出口,算力可以。我们不直接卖店,而是把国内的店在本土转化成算力,再以 ai 服务的形式卖到全世界,这就是最贴合我们国情,也最能发挥优势的路线。 全球 ai 发展越快,对算力的需求就越夸张,而算力背后七成以上的成本其实都是电费。欧美地区电价高,电力扩容速度慢,建一个数据中心要审批要等,供电周期特别长,很多地方甚至出现显卡堆在仓库里,却没有足够电力开机运行的情况。 我们的优势就非常明显了,西部地区工业电价只有欧美国家的三分之一到五分之一,风电、光伏这些绿色能源的装机量全球第一,再加上东数西算这样的国家级布局,直接把数据中心建在能源充足的地方,用绿电带动算力,既稳定又便宜。 从发电、电网、数据中心到 ai 芯片、大模型接口服务,整条产业链我们都能自己掌控,不会被别人卡脖子。很多人会随之想到一个最现实的问题,其他国家凭什么放心把数据放到我们的算力中心里?怎么保证他们的数据安全? 其实这个问题早就有清晰可行的解决方案,而且都是用技术和规则来保障,不是靠口头承诺。核心做法很简单,第一是数据不出镜,只算结果出去。 国外用户的数据全程加密,我们只负责 ai 计算原始数据,不留存、不复制、不转移,算完直接返回结果,我们看不到真实内容。第二是全流程、可审计、可监督、可透明, 引入第三方国际机构审查,让客户随时能监督算力使用状态。第三是物理隔离加合规架构, 对外服务的算力集群单独部署、单独网络和国内系统完全分开,严格遵守各国数据安全和隐私法规。简单说就是只卖算力,不碰数据,从技术上就把安全风险降到最低。 所谓的 token, 说白了就是 ai 服务的计价单位,不是虚拟货币,也不涉及炒作,就是你调用一次 ai, 生成一段文字,做一次翻译,所消耗的服务量用统一的标准来计费。 我们把国内的店变成算力,再把算力变成可以全球调用的服务,通过接口卖给国外的开发者公司平台,相当于用数字服务的方式,把国内的能源优势输出到全世界。这种模式比出口服务器、出口硬件划算的多, 硬件利润薄,容易被替代,还容易遇到贸易限制。而 ai 服务属于数字出口,在国际贸易规则里本身就有优势,没有物理边界,利润更高,也更可持续。目前在全球主流的 ai 服务平台上,来自中国的大模型服务用量已经冲到前列,靠的就是稳定和性价比。 当然,这件事要真正做大规模,也有需要解决的问题。比如要符合不同国家的数据安全和隐私规则,像欧盟的相关法规都要严格遵守,保证内容合规、数据安全。 跨洋网络延迟也要优化,通过海外节点提升使用体验,还要慢慢建立海外用户对中国 ai 服务的信任。整体路径其实很清晰, 先用基础的 ai 推理服务,在东南亚、中东、拉美这些需求大、环境相对宽松的市场试水跑通模式和合规流程,再逐步扩大规模, 把西部的算力中心充分利用起来,最后形成从能源到算力,再到全球 ai 服务的完整闭环。太空算力是未来的方向,而依靠国内能源和算力优势把 ai 服务输出到全球,是现在就能落地、能见效、能真正建立竞争力的路线。 用中国的电养全球的 ai, 做数字时代的新生意,这不是概念,而是正在发生的现实,也是我们国家在 ai 时代最硬核、最持久的竞争力。

怎么算力?鬼故事又来了!加拿大一家只有二十四个人的公司,叫 talus, 不是 tesla。 他 们发了一款芯片,推理速度是英伟达最新 gpu 的 五十倍,成本降低二十倍,功耗再降低十倍。只因这款模型,它是叫做 model based chip。 这块芯片只能跑一个模型,这个模型的所有训练痕迹,他放在这块芯片里,如果要用别的模型,那就训练别的芯片,这事绝对敢为天下先。因为没有做芯片的公司这么着想过,把大模型的参数,所有的训练结果得出的东西,他焊在了芯片的晶体管里边,一妈的啪啪。 也就是说,他甚至不是加载到内存里去运行,是物理层面的写死在硅片上,他们的那个网站我已经登上去用了一下,是这样的啊,因为他目前只写死了拉玛三点一八 b 这个模型。也就是说,这块芯片物理上回复这个模型的问题的答案能达到一万七千个 toc 每秒。 这个拉玛三点一的话,如果放到英伟达 h, 二百是大概两百三十个 token 每秒。 sirius, 就是 那个超大精元的片,是两千个每秒,差距不是一点点。这个模型我刚试用了一下,体验就是你刚跟他说完话,他直接啪两千个字的回复,秒出,没有蹦字的过程,但是回复的质量很拉胯,这是目前最大的问题。 可是你想想,那大模型迭代呢?在放慢,用户对固定模型的粘性在增强,也就是说以后会不会就会出现针对每个模型的专门芯片? what the fiori? 以后你出差就带上这块芯片,你就永远拥有了这块模型,那如果在训练和推理的硬件上边彻底怎么样触顶了, 那么最终就是把训练结果物理挂钩在模型上。完了,扎克伯格还有现金吗?新的要买的东西出来了,快去买,他们 buy that metaphor bro。

兄弟们,最近很火的那个塔拉斯芯片简直太牛了。来啊来,兄弟们,不要眨眼,这个世界上最快的模型它出现了。来啊, 零帧起手有没有?哇塞,简直就是一秒零帧出答案。对比英伟达 h 两百来说,它拥有七十三倍的性能优势,三十八倍的成本降低和十倍的能效提升。再让我们来看一下性能对比,这是塔拉斯芯片,这是英伟达 h 两百, 这是塔拉斯芯片,这是因为达两百。 ok, 让我们来看一下这个,呃,成本对比,我去,这是因为达,这是塔拉斯芯片, 这妥妥的就是价格屠夫。那他其实提出了一个颠覆性认知,叫做模型及芯片。芯片及模型,那以往我们的 gpu 跑 a i 其实就像做题一样,他需要去图书馆翻书,然后再将书还回去。那现在来说的话就是塔拉斯芯片将 斑马三点一八 b 模型直接镶嵌在了这个芯片上,也就是做到了模型和芯片合二为一,数据不用在内存和处理器之间来回搬运,而是说啊,直接在 这个硅片上直接光速漂移,其实从一定意义上我觉得是实现了从同文计算机到专用大脑的一个转变。大家现在也会发现一个问题,就是随着大模型更新迭代速度越来越慢,以及说随着 呃我们对模型的一个粘性越来越高,那是否未来三年之后,可能我们买的一个笔记本手机,甚至咖啡机里面都有这么的一个 ai 硬件镜片,就是能它能做到的,它不需要云端部署,也不需要调用 api, 而是说它插电就是 gpt 级别的 ai 助手。 但其实呢,这块芯片的代价就是说他目前只能训练拉玛三点一模型,而不支持其他模型。那大家觉得这种专一但极简路线能否打败英伟达的通用的昂贵呢?评论区留下大家的想法。

春节期间,海外大模型聚合平台 openroot 发布了一张排行榜,全球排名前十的大模型透坑,总用量约八点七万亿,中国模型独占五点三万亿,占比高达百分之六十一。这个数据迅速点燃了国内资本市场对国产 ai 全球变现能力的想象力,透坑出海的新趋势随之诞生。 今天我们就来聊聊透坑出海目前落地的三种商业模式,模型聚合平台上的 api、 钓友海外版 ai 应用以及开源权重出海。 第一种模型聚合平台上的 api 调用,这是目前最直接、最纯正的投坑出海,也是目前资本市场最认可的商业模式。 海外开发者通过 openroot 等全球模型聚合平台,一键调用中国大模型的 api, 所有推理过程全部发生在中国本土的数据中心,海外用户按照实际使用的 token 来付费,中国大模型企业是最大的受益者。 这一商业模式的核心优势在于电力和算力不出境,但价值出境。第二种海外版安安应用,这类产品直接面向海外普通用户,因此也被称为 c 端投坑出海。 目前国内比较成功的出海 ai 应用主要有字节跳动旗下的豆包、海外版多兰以及 mini max 旗下主打 ai 陪伴的 toky。 前者在东南亚、墨西哥等国的免费 ai 应用市场中长期霸榜,目前海外日活已经突破千万。后者吸引了接近两百万海外付费用户,是 mini max 最核心的这一段变现产品 得益于国内 a r、 d c 服务的极致性价比,这两款产品的推理服务同样全部使用中国本土的算理平台,与第一种 m a i 是 模式不同的是,多拉这些海外版 ai 应用并不直接按照 tucker 卖给开发者,而是依靠订阅广告等 c 端方式来进行变现。第三种,开源权重出海, 这是国产大模型送大脑转生态的长期打法,中国公司将模型权重免费开源, guac、 fireworks 等海外推理算理平台在本地部署。中国的开源模型与前两种模式不同啊, 开源权重出海意味着海外开发者的所有投坑消耗都发生在当地的海外算力平台,中国大模型公司无法直接从中受益。 所以严格意义上说,这种模式和投坑出海没有直接关系。虽然目前开源模型只赚吆喝不赚钱,但中国大模型场上打的算盘是先通过开源抢占全球开发者心智, 后期再通过高性能的闭源模型导流到自家的 api, 以实现真正的投坑出海。我们总结一下,这三种商业模式其实并不新鲜, 本质上仍然是国产算力的蓄势内核。这两天热炒的投更出海,更像是为了国产算力蓄势,套上了一个更具传播力、更容易被二级市场理解的新马甲。所以大家要认识到这其中积累的炒无可炒的巨大风险。