00:00 / 00:41
连播
清屏
智能
倍速
点赞6640
00:00 / 06:56
连播
清屏
智能
倍速
点赞7
00:00 / 01:06
连播
清屏
智能
倍速
点赞141
00:00 / 00:41
连播
清屏
智能
倍速
点赞5298
00:00 / 01:11
连播
清屏
智能
倍速
点赞18
把信息变成认知,把认知变成判断。这里是费雪研究。 今天我们来聊一个足以载入全球科技史的标志性事件。就在这个2月,中国AI的模型调用量,首次超过了美国。 大家想一想,这意味着什么呢?根据全球最大的AI模型API聚合平台OpenRouter的最新数据,在2026年2月9日到15日这一周,中国模型以4.12万亿Token的调用量,历史性地超越了美国模型的2.94万亿。这还没完,紧接着下一周,中国模型的调用量直接冲高到了5.16万亿Token,三周之内暴涨了127%。同期,美国模型的调用量却跌到了2.7万亿Token。 更提气的是,在全球调用量排名前五的模型中,有四款都是我们中国的,分别是MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2。这已经不是单点突破,而是中国AI厂商的集群式崛起。 很多人会问,什么是Token?简单来说,Token就是AI世界里的“电子燃料”。过去我们衡量互联网价值,看的是流量;而在AI时代,Token的消耗量才是衡量应用深度和商业价值的真实“晴雨表”。调用量井喷,说明全球的开发者和企业,正在真刀真枪地拿中国的AI干活。 那么,这背后的深层逻辑是什么?为什么在这个时间点,中国AI能实现逆袭? 其实逻辑很简单,就四个字:极致性价比。 大家想一想,如果你是硅谷的一个初创公司,你要接入AI API。一边是性能顶尖但昂贵的美国模型,另一边是性能比肩、甚至在某些场景更强的中国模型,但成本却只要对方的十分之一甚至更低,你会怎么选?数据显示,像MiniMax M2.5这样的中国模型,每百万Token的输入成本仅0.3美元左右,而海外同类产品的价格可能高达5美元,相差超过16倍。 这种恐怖的性价比,不是靠补贴烧钱烧出来的,而是靠硬核的技术创新。比如,广泛采用的混合专家架构,也就是MoE架构。我们可以把它想象成一个超级大的公司,以前处理任务需要全员出动,成本极高;而现在,有了MoE架构,它就像一个高效的管理者,只激活最擅长处理这个任务的几个“专家小组”去干活,计算效率自然大幅提升。数据显示,这种架构能让推理时的显存占用降低60%,吞吐量提升19倍。这就是中国智慧的胜利。 这种变化会给资本市场带来什么影响? #中国AI模型调用量 #智谱 #minimax #AI算力 #openrouter
00:00 / 04:07
连播
清屏
智能
倍速
点赞85