最近 ai 领域有个关键词彻底火了, token 工厂、阿里云、百度智能云集体涨价,英伟达、黄仁勋重新定义数据中心,阿里成立专属事业群。押注这一系列动作背后,都是因为 ai 产业正式迈入了 token 经济驱动的新阶段。 今天我们就来深度拆解什么是 token 工厂?这条全新的产业链里藏着哪些核心机会?又为什么说掌握 token 的 企业将主导下一代数字基础设施的竞争? 首先我们得搞懂最基础的问题,什么是 token? 其实它就是 ai 处理信息的最小单元。就像我们拼乐高的小积木、 chat gpt、 deep seek 这些大模型,不管是理解文字还是生成内容,都会把所有信息拆成一个个 token。 比如中文里的人工智能会被拆成人工和智能两个 token, 英文的 unbelievable 会拆成 un believeable 三个。 简单说, token 就是 ai 世界的基础粒子,所有的智能输出都是由这些小单元拼接而成的。而 token 工厂这个概念,是英伟达 ceo 黄仁勋在今年的 gtc 大 会上重磅提出的, 他直接把专用 ai 算力集聚比作一座标准化工厂,输入电力、数据和算法这三大原料,输出的就是可量化、可调用的 token。 更关键的是,黄仁勋提出了一个全新的核心指标,每瓦 token 数 彻底取代了原来的算力指标。这标志着 ai 产业从拼模型能力的时代,正式转向了拼 token 生产效率的时代。这里有个数据能直观体现 token 工厂的价值。英 伟达透露,其核心客户微软单季度就能生成超过一百万亿个 token, 这个数字不仅反映了 ai 应用的活跃程度,更重要的是, token 的 深层能力已经直接转化为企业的确定性收入。谁的工厂能以更低的成本、更高的效率生产 token, 谁就能在 ai 时代拿到最核心的话语权。 toker 工厂的运行逻辑其实很清晰,输入是电力数据算法,输出是 toker。 而这些 toker 就 像数字世界的乐高积木,能转化为文字、图像、视频、三维结构等各种形态,成为支撑所有 ai 应用的底层智能载体。 现在,整个 ai 产业链的主线已经从原来的模型研发升级成了算力 token agent 三层体系对应的 token 工厂产业链也清晰地分为上游算力基建、中游 token 分 发与商业化、下游 agent 应用生态三大核心环节。每个环节都有明确的价值量和核心玩家,我们一个个来细说。 先看上游的算力基础设施,这是 token 工厂的厂房和生产设备,也是整个产业链的核心 beta 资产价值量占比超过百分之四十, 它的效率和成本直接决定了 token 的 市场竞争力。算力基建的核心就是为 token 生产提供 gpu 集群、制算中心、电力供应等基础支撑,同时还包括算力租赁、液冷技术、高速光互联这些关键配套。 gpu 集群是 token 生产的核心硬件。 现在国内的 gpu 集群发展已经进入规模化阶段,中科曙光的超节点技术能在单机柜部署六百四十张加速卡,摩尔县城的花岗架构,支持十万卡以上的智算集群。百度还点亮了国内首个自研昆仑新三代万卡集群。 国产 gpu 厂商主要采用两种技术路线,一种是华为、升腾为代表的全自研 ip, 从指令级到计算单元完全自主设计。另一种是通过授权外部 ip 进行二次开发的混合 ip 路径。 当然,搭建算力集群的成本并不低,硬件采购、电力贷款、场地租赁、运维、人力,每一项都是大开销,尤其是电力成本, gpu 运行时的耗电量巨大,电费往往是数据中心最大的成本支出。也正因为如此,算力租赁成了当下的主流商业模式。玩家主要分三类,阿里云、腾讯云这些传统云厂商,万国数据、世纪互联这样的专业 i d c 服务商,还有中贝通信、鸿博股份这些整合资源的名企。 算力租赁的优势特别明显,能帮企业降低百分之三十到百分之五十的 it 运营成本,还能灵活扩缩容,把大型应用的部署时间从几周缩短到几小时,对中小企业和初创企业来说几乎是唯一的选择。随着 token 生产规模的爆发,算力基建还有两个必选的升级方向,夜冷技术和高速光互联。 叶冷是 ai 方向,长坡后雪中长逻辑赛道,当前机柜功耗密度上行,推动叶冷由可选走向刚需。技术路线迭代,从单向变双向变到组合静默路线提升,叠加海外进入兑现期以及国内商业化提速,产业链核心环节有望迎来高速发展机遇。 ai 加速爆发,带动数据中心内部流量激增,光互联持续向算力连接环节渗透。光互联新技术 c p o n p o o o i o c s。 百花齐放,叠加高速光模块,加速迭代、放量,共同构建起光电算深度协调体系,为 ai 算力集群提供全链路技术支撑, 从跨数据中心光互联、领域相干光通信、板级光互联到机架级光互联。说完上游的生产环节,我们再来看看中游的 token 分 发与商业化,这是整个产业链的 alpha 来源,也是目前的核心瓶颈,价值量占比在百分之二十到百分之三十。 如果说上游是生产 tokken 的 工厂,那中游就是 tokken 流通的高速公路,核心作用是提供算力调度、跨境网络传输、 c d n 加速等服务,确保 tokken 能稳定、快速地从工厂送到下游的应用场景中。现在这个环节有两个非常关键的信号, 第一, tokken 的 消耗量正在呈爆发式增长,自解火山引擎的日军 tokken 使用量已经高达五十万亿,国产模型的 tokken 消耗量更是占到了全球前十名的百分之六十一,发展速度非常惊人。 第二, token 的 商业化还处于早期的零到一阶段,目前的商业模式还是以算利付费为主,而从算利付费向 token 计费的切换才刚刚拉开帷幕,这中间藏着巨大的市场空间和想象空间。最后就是下游的 agent 应用生态,这是 token 的 终端消费环节,也是把 token 转化为实际生产力的关键。 简单说, agent 就是 ai 智能体,它能把 token 这种智能基本单元转化为文字、图像、代码等具体内容,应用到企业服务、工业生产、个人办公等各个领域,例如金山办公深度集成 wps ai 实现文档自动生成、数据分析等 agent 功能。 福星软件通过 pdf 处理能力支持 open core 自动化办公。科大讯飞发布星火认知大模型及 agent 开发平台,在教育、医疗等垂直领域领先。三六零推出三六零智脑 agent 平台,聚焦安全搜索场景。 昆仑外围发布天宫大模型,推出 ai 音乐、社交 agent, 这些都是 agent 的 实际应用,而背后支撑这一切的,都是源源不断的头肯。近期爆火的 openclaw, 也就是大家常说的小龙虾,更是成了 agent 产业从技术竞争转向应用落地的关键拐点。 它是一个完全开源、能本地运行的 ai agent 框架,它的爆火标志着 ai agent 从巨头竞争真正走向了全民应用。 你在上面部署一个 agent, 它可以帮你订票、写邮件、处理文件,背后消耗的全是 token, 这直接导致了云端 token 需求的紧喷。阿里、腾讯、百度都迅速推出了针对 opencloud 的 一键部署服务,目的就是锁定未来海量的 token 调用。 未来三到五年会出现通用人工智能的早期形态,到时候会有数以百亿级的 ai agent 参与到数字劳动中。 这就像当年智能手机普及后,移动互联网流量爆发一样, agent 就是 那个让 token 消耗量呈指数级增长的杀手级应用。 token 工厂不仅是一个技术概念,更代表了一种新的商业模式。传统的云计算收费模式正在从算力付费转向 token 计费。 这种转变背后的逻辑是, token 直接对应 ai 应用的价值输出,而不是底层的资源消耗。这种模式变更带来了新的投资机会。在上游,拥有低成本电力规模化制算中心的企业具备先天优势。在中游,能够高效调度算力,保障 token 传输质量的服务商将获得溢价。 在下游,能够将 token 转化为具体应用价值的 a 阵平台,具有最大的增长潜力。从投资角度来看, token 工厂产业链的各个环节都有值得关注的方向。 上游可以关注算力基建的核心硬件、叶冷和光互联的技术龙头,还有算力租赁的头部企业。中游可以关注 cdn 算力调度的优质企业。下游则重点关注 opencloud 相关的产业链,以及垂直领域的 agent 应用龙头。 当然,这条产业链目前还处于发展早期,不管是上游的算力效率提升,还是中游的 token 计费模式落地,又或者是下游 agent 生态的丰富,都还有很多需要探索的地方,但长期的价值已经非常清晰。回顾 ai 产业的发展历程,从最初的大模型研发,到后来的算力竞争,再到现在的 token 工厂, 每一次迭代都是产业向落地向实用化迈进的标志。 token 工厂的出现,让 ai 的 价值变得可量化、可交易,也让 ai 普绘化成为可能。 未来,当 token 的 生产、流通、消费形成完整的体系,我们的数字生活、工业生产、企业服务都会迎来一场全新的改革。好了,今天关于 token 工厂产业链的解析就到这里了,我们下期再见。
粉丝13.1万获赞28.2万

大家好,今天咱们说 token 出海,这是真机会还是伪命题?咱们好好扒一扒。 首先呢,得弄明白 token 是 什么,简单说,它是 ai 大 模型处理文本的基本单位,就像英语里的 a、 b、 c 大 模型靠它来理解和生成语言。比如今天中午的螺蛳粉好吃,大模型会把它拆成今天 中午的螺蛳粉好吃,这几个头肯来处理。所以呢,人类的语言有多丰富,训练大模型就需要多少头肯。大家养龙虾抱怨的数以亿计,那些呢,都是常规操作。 新闻里,国外的 ai 企业都在抱怨电不够用,咱们中国电力又多又便宜,一年发电量比美国、日本加起来还多,电力成本呢,全球最低 token 成本只有海外的二十分之一。那么咱们用国内便宜的电生成 token, 再把这些电力价值卖到海外去,这不就是 token 出海了吗? 想象的空间就这么来了,相关概念的股票也跟着火了,甚至还有数据支撑。说在 openroot 平台上, 中国 ai 模型的 token 调用量都已经超过美国了,前五大模型里四个是中国的。看起来中国 token 已经在海外大杀四方, 但咱们先不要激动,深入拆解下这些光纤数据后,就能发现,那些调用量其实大多来自个人、开发者和小团体,他们的 token 消耗量只占全球 ai 生态的百分之一。 真正消耗 token 的 大户是谷歌、微软、 openai 这样的科技巨头,人家单月 token 的 处理量就是上千亿甚至万亿。我们想想,这些大户会用中国的 token 吗? 所以我们说的出海有两道绕不过去的坎,第一道是物理层面的,很多国产模型为了用户体验和合规,把服务器直接放在海外。你在美国调用一个中国模型,背后的算力可能来自美国的电,从物理层面,电力其实并没有真正的出局。 第二道坎是数据安全,大家想想 tiktok 就 明白了,美国为什么三番五次要封禁它,根本原因就是数据主权。美国担心由中国公司掌握的美国用户数据会带来安全隐患。现在换成 token, 道理是一样的, tock 不 仅仅是几个字母,它背后承载的是用户的对话记录、对话习惯、企业的商业机密,甚至国家敏感信息。如果这些 tock 是 在中国数据中心里处理的,那么美国政府和美国企业能放心吗?同样反过来,咱们中国监管层对数据出境也有严格的限制。 所以呢,所谓的 token 出海,面临着双向的数据安全墙,美国那边担心数据走进来,中国这边呢担心数据流出去。在这种监管环境下,指望像义乌小商品一样把 token 卖给海外巨头,确实不现实。 但是呢,我依然认为 token 出海的底层逻辑是成立的。为什么?因为历史已经验证过一次, 大概十年前,四川云南的水电站旁边到处都是比特币矿场,后来又把矿场开到了新疆内蒙,那些机器啊,二十四小时运转,用廉价的电挖比特币, 然后在全球交易所变现。电力没有离开中国,但电力的价值以比特币为载体流向了全世界。后来监管收紧,矿工散了。但这个用本地能源生产全球数字资产的逻辑没有消失,只是在等一个新的载体。 现在这个载体变成了 ai 大 模型。和比特币不同, token 产出的是代码、分析、创意,这些真实的服务价值直接嵌入开发者的工作流,粘性更强。更重要的是呢,比特币挖矿是被政策驱离的,而 token 出海是被全球开发者主动选择的。 从历史视角看, token 出海不是凭空创造,而是一种价值形态的迭代升级。既然逻辑成立,那真正的机会在哪?我的判断是,机会不在现在,而在未来的两到三年。 短期看,我们确实处在模型出海阶段,但这不代表没价值,它让全球开发者第一次大规模的用上了中国 ai, 证明了中国技术的竞争力,这是品牌认知的积累,也是生态建设的起点。 而中期看呢,从模型出海到电力出海,需要一个关键桥梁,就是上次咱们说的算电协同。 国家已经在推这件事,把算力中心建在西部能源赋能区,让风电、光伏就地转化成算力,再通过光纤服务全球。当这个布局真正落地,当西部算力中心的绿电成本优势完全释放,偷看出海的电力底色,它才会真正的体现。 长期看,偷看出海的中局不是电力替代芯片,而是能源加算力加生态的系统竞争。中国不仅有廉价的绿电,还有全球最完整的电力设备供应链、 变压器、液冷系统、特高压技术。当美国 ai 巨头在为找不到足够的电而焦虑时,我们已经可以相对从容地推进电力到算力到 token 的 价值转化, 那咱们投资上该怎么把握呢?首先得分清逻辑,国内方面, ai 发展倒逼电网升级,特高压配网智能化、电网数字化这些方向受益明确。 海外方面,虽然 token 出不去,但支持 token 的 电力设施设备这些,咱们中国制造有碾压的优势,完全可以出口到全球各地。转,实实在在的钱盯着算电协同这条主线,特高压智能电网、国产算力、节能技术、新型储能,这些才是这场百年能源改革中真正看得见摸得着的抓手。 数据层面的繁荣是真的,物理层面的落后也是真的。这说明我们正处在一个关键的转折点上, token 可以 轻盈地跨洋流动,电力可以沉默地留在国内,但产业红利必将会留向那些真正构建基础设施的地方。 嗯,好,你上一边去。好了,今天关于 token 出海就聊到这儿,希望能帮大家理清思路,拜拜!

大家好,我是你们的科普达人,今天咱们来聊聊个人开发者怎么低成本入门 tocan 生产。很多朋友可能觉得 ai 模型部署门槛高,成本贵,其实只要配置得当,咱们普通人也能玩转。先说说硬件怎么选, 如果预算在一万五以内,想先试试水,那 rtx 四零九零 d 或者四零九零显卡是首选。二十四 gb 或十三 b 的 模型,搭配 i 五或 r 五的 cpu、 三十二 gb 内存, e t b 的 nvme 固态硬盘,再加上一千瓦的电源和一套散热好的机箱,总价大概一万一到一万六就能稳定运行。模型 托肯吞吐量能到每秒两百到五百个,日常测试和小流量使用完全够了。要是预算能到两到四万,想搞小批量生产,那就可以考虑上双卡四零九零 b, 或者直接上 a 一 零零,内存加到六十四 gb, 这样吞吐量能到每秒八百到两千个,接下小 b 客户的需求也没问题。硬件搞定了,软件和模型怎么选呢?模型方面,七 b 规模的 q 文二七 b instruct 或者 lama 三七 b 就 很适合入门,显存占用小,延迟低, 聊天、写文案、生成代码都在行。十三 b 的 模型像 q d r 杠一三 b instruct, 复杂推理和行业知识库的应用效果更好。这里有个小技巧,优先用 i n t 四量画板,显存占用能降百分之七十五, 速度还能提升两到三倍,效果几乎没损失,性价比超高。推理框架推荐 v l l m 开源免费,吞吐量比原声 pie torch 高十倍以上,个人开发者首选。部署工具方面, fast api 或 flask 用来封装 api 接口, prometheus 和 grafana 监控性能, e l k stack 记录日记这些都是免费又好用的工具。大家最关心的成本问题来了,按三年折旧算,入门级硬件每月折旧大概四百一十七元。电费方面,单卡四零九零币,满载运行 每月电费差不多一百九十四元,总成本约六百一十一元。按每天产出两千五百九十二万 token 算,单位 token 成本约零点零零零零二三六元,也就是二点三六分。每千 token 对 比 openai 的 gpt 三点五 turbo, 成本只有它的四分之一,价格优势很明显,想快速上手, 一天内就能跑通,先装 uber 二二点零四 lts 系统,然后安装 cuda 十二点一 cuda n, 再装 python 三点一零和 vl l m。 接着用命令启动模型服务, 最后用 qiro 测试一下生成 token, 看看返回结果里的 usage 词段,统计 token 数就搞定了。最后给大家几个进阶优化建议,用 v l l m 的 批量请求功能提升吞吐量,尝试模型蒸馏,降低显存占用和延,使用 radis 做请求队列应对高流量 在整个数据库记录用户 token 消耗,实现自动计费。这样一套下来,你的 token 生产系统就既高效又经济了。怎么样,是不是觉得个人搞 token 生产没那么难?你最想先用这个系统来生成什么内容呢?评论区告诉我吧!

怎么生产透坑?很多人说是令牌啊,不能生产的,你怎么生产?我调查加行动基本上落地了两个多月,一句话其实就可以把这个事情讲明白。 电力驱动芯片,芯片运行模型, ai 模型,模型通过一次次的预测,然后逐步生成透坑。 就这样子三个条件,电芯片模型。我是不懂这个号,你们把我当成放屁就可以了。那些黑粉都是程序员,一个个都是程序员。我不是啊,我就是个小白,我现在最重要的是是什么?是解决怎么卖的问题,怎么产。 通过调查和自己亲自去测试,结果发现我是没有那个实力的,我只能解决怎么卖的问题,而不是怎么生产的问题。还是那句话,风已起,站好自己位置就可以了。

阿里这次突然成立 token 事业群,先别把它只理解成一次普通重组。更值得看的是,阿里开始把 ai 业务按 token 这条线重新算了。 新事业群叫 ath, 由吴永明直接负责,整合了通义实验室、 mark、 千问、悟空还有 ai 创新业务。 他给自己的目标也写的很直接,创造 token、 输送 token、 应用 token。 这意味着阿里现在想打通的已经不只是模型研发,而是从模型能力到平台分发,再到应用落地,整条链路一起做。 这里面最值得注意的是首次曝光的悟空事业部,他盯的是 b 端 ai 原声工作平台。也就是说,阿里这轮调整已经不止想做个人助手, 他还想把 agent 能力直接塞进企业工作流里。所以,这次成立 at, 重点不只是组织变化,更大的信号是阿里开始把 ai 下半场往 token 消耗和 agent 落地上集中火力了。

哈喽,大家好,欢迎收听我们的播客,今天咱们要聊的话题呢是 token 出海,那这个话题呢,我们会从 token 出海的基本逻辑,为什么现在这个时间点 token 出海会成为一个风口,让包括 token 出海的产业链上面有哪些重要的企业,以及 token 出海未来的市场会怎么发展这几个角度来给大家聊一聊。 好,那我们就直接开始今天的主题吧。咱们先第一个先来聊出海的逻辑啊,就这个 token 出海到底是个什么东西?它的本质是什么啊?就是简单讲就是,呃,海外的用户或者企业,他通过调用我们国内的这个大模型的 a p i, 然后呢?呃,他每消耗一个 token, 就 相当于他用了我们国内的一份算力嘛?那这个时候他的这个请求是通过网络发过来的,我们国内的这个智算中心进行计算之后,把结果再回传给他。 这个过程其实就是一个我们把算力以 token 为单位卖到了海外,听起来像把国内的算力变成了一种可贸易的数字商品,没错没错,对,那它的这个底层其实是靠我们国内的这个绿电以及我们的这个大规模的 gpu 集群,还有我们的这个先进的大模型技术,然后把我们的这个电力变成了一种高附加值的数字服务出口, ok, 对, 那它其实跟这个传统的这种硬件或者说云服务的出海还是不太一样的,它是一种 更高效的、更灵活的一种跨境的商业模式。你觉得中国的这个 token 出海为什么可以在全球市场形成这么强的商业模式,你觉得中国的这个绿电价格非常便宜啊,可能就欧美电价了四分之一, 然后呢,我们又有这个大规模的制算中心,所以我们的这个算力的成本也被拉下来了。我们可能就是,呃,每百万 token 处理的成本比欧美要低百分之三十到六十,有的甚至可以说我们的这个成本只是他们的十分之一到二十分之一,成本优势确实吓人。对,然后更巧的是这个 wto 的 这个电子传输是免征关税的, 所以我们这个 token 出海是几乎没有什么贸易壁垒的。再加上我们的这些国产的大模型在国际上面的这个评测当中也越来越强,所以我们现在不光是有价格的优势,我们现在也有技术的优势,所以就是相当于我们这个竞争力是非常非常强的。你觉得这波 token 出海热潮背后的核心的推动力到底是什么?我觉得首先第一个就是全球对 ai 算力的需求是爆发式的, 你看这个多模态,还有这个 ai agent 这些新的玩法出来之后,大家对这个推理的需求就是成倍的往上翻,然后市场规模可能接下来几年都是以万亿为单位的, ok, 但是呢,这个海外的这些云厂商呢,他们又在不断的提价, 所以大家就开始寻找更便宜的地方。那这个时候呢,中国的这个算力就成了一个新的宠儿。确实,现在大家都在追求又便宜又好用的算力嘛。然后呢,我们国家又有这个东数西算这个工程,把我们西部的这个绿电和我们的这个大规模的集群都用起来了,所以我们的这个算力的成本是全球最低的。我们的这些国产的大模型 在国际上面的这个评测当中也越来越强,再加上我们的这个政策层面,不光是给你免税,还给你把这个数据跨境和这个合规的框架都搭得非常的稳, 所以就是相当于给你铺了一个高速公路,让你这个东西可以出海。然后咱们来进入第二部分,就是咱们来聊一聊这个 talkin 出海的这个产业链都有哪些核心的企业在这个不同的环节。 ok, 那 这个产业链主要都分哪些环节呢?整个这个产业链的话,其实可以分成上游的绿电和跨境网络,以及下游的这个大模型 a、 p、 i 和 mas 平台。 ok, 那 在这个其中呢, 其实每一个环节都有一些骨干的企业在里面发挥作用,就说每一个关键的步骤都有专门的玩家在里头深耕,是吧?没错没错没错,是的是的,你比如说像这个提供绿电的和能耗指标的,那肯定就是一些 大型的能源企业啊,然后包括一些有地方国资背景的一些公司在做。那这个智算集群和算力租赁呢,就有一些头部的这种云计算的公司啊,也有一些这个专门的这种新锐的玩家在里面。 那这个跨境网络和数据的流通呢,就有一些呃专业的这种 c、 d、 n 和边缘计算的公司在帮你做保证,这个芯片和硬件呢就更不要提了,有一些呃国产的这种芯片巨头在帮你做支撑。这个大模型和 mas 平台呢,就更是有一些这种本土的这种 ai 龙头和一些呃,全球化的这种平台在帮你做。最后就是这个 金融和合规这一块,也是有一些支付科技的公司和一些啊持牌的这种机构在帮你做,保驾护航, ok, 对, 就是这样大家才能形成一个合力,把这个 token 出海这件事情真正的做起来。你觉得这些 token 出海的这些企业,他们在布局上面有什么共通的地方吗?呃,其实我觉得他们第一个就是大家都在跟头部的大模型做深度的绑定, 就是确保自己的这个 token 的 消费是有一个持续的很大的量的。然后第二个就是大家都在电价比较低的地方,或者说绿电比较充裕的地方去建自己的这个智算中心 啊,来压低成本。所以就说既拼技术也拼资源呗,没错没错没错。然后除了这个智算中心的布局呢,大家也都在全球各地去铺自己的这个节点啊,来减少用户的访问延迟,包括在网络的合规啊,数据的安全啊,上面下很多的功夫,就是让你能够 跨国的这个调用就像本地一样的顺畅。同时呢,大家都是聚焦在这个推理的算力上面啊,来实现一个更高的资源利用率和一个稳定的收益。你觉得这些企业在这个头肯出海这个赛道里面,他们的竞争优势到底在哪里?我觉得首先就是他们已经形成了一个从 绿电的供给啊,到芯片啊,到这个制算中心啊,到这个跨境的网络啊,到大模型啊,再到这个金融的合规啊,这样的一个完整的产业生态, 那这个其实是全球范围内都是非常少见的哦,等于说大家是在多维度展开竞争。对,而且就是呃,头部的公司都在加紧的绑定这个低价的绿电啊,然后扩充自己的这个制裁的潜能啊,不断的去拓展海外的市场啊,也在跟这个监管啊,去推动这个合规的互任啊等等的。那这些其实都是一些门槛,让后来者很难去快速的跟上, 所以就说未来的格局会越来越清晰,那这些龙头的公司的优势也会越来越明显。我们来进入第三个板块,我们来聊一聊未来的趋势啊,就是中国的这个 token 出海的市场份额和这个地域的格局会怎么发展?呃,这个其实最近的数据已经很震撼了,就是中国的这个 ai 模型的 token 的 全球的市占率已经超过了百分之六十。 然后呢,这个头部的厂商里面有很多,他们的海外的收入已经占到了大头,甚至有一些就是纯海外的用户占比超过九成啊,这个就是说海外的需求已经成为绝对主力了。对,没错,而且这个日军的 token 的 消耗在过去的一年半的时间里面涨了三百倍,然后呢,预计到二零二六年可能会突破五百万亿,就是全球每消耗三美金的推理的算力就有两美金,是中国的 这个北美、欧洲是主要的市场,但是呢,东南亚、中东这些地方也在加速的增长,所以就说未来中国的这个主导地位只会越来越巩固,可能到二零三零年的时候市占率会超过百分之七十,你觉得接下来几年这个 tokin 出海在技术和产业生态上会有哪些新的变化?呃,我觉得就是首先就是芯片和硬件层面的这个国产替代会明显的加速, 就是升腾啊,海光啊、韩五 g 啊这些本土的方案会成为智算中心的主力。然后呢这个也会让整个这个算力的占从下到上都能够自主的掌控,所以整个链条都在变得更自主、更高效。对,没错。然后呢,包括这个大模型本身也会在这个 混合专家模型啊,包括这个迪比特量化啊,包括这个多模态的能力上面不断的去突破,包括这个智算中心本身也会往这个夜冷啊、绿色节能啊去发展。 整个这个液态也会从这个单纯的卖 api 调用到这个提供一整套的这种算力加模型、加应用,加合规的这种全站的解决方案,甚至是跟这个终端的应用出海形成一个壁画,所以就是说这个技术和生态的这个护城河也会越来越高。你觉得就未来这个 token 出海在商业模式和这个产业格局上会有哪些新的变化? 呃,现在大家还是以这个按 token 计价的这种推理机服务为主。那未来的话,这个通过开源模型和这个微调工具来吸引用户,然后再叠加这个企业级的定制啊,和这个生态的分成,会成为一个主流, 那这个聚合平台的作用也会越来越大,就是他会成为一个全球的开发者,都来接入中国的这个算力的一个统一的入口,所以头部公司的优势会越来越明显吗?对,就是这样,就是最终会形成一个 强者越强的一个局面,就是那些拥有低价绿电的啊,然后拥有大规模的制算中心的,以及掌握了核心的模型的,这些巨头会牢牢的占据这个主导地位,那其他的一些小的玩家可能就会被整合,或者是说就出局了,那整个这个产业的协助也会变得更加的紧密。那同时呢,大家也要去面对这个各地的监管的挑战啊,数据合规的挑战, 所以这个行业的门槛也会越来越高。对,今天我们从这个托肯出海的基本的逻辑,到他背后的一些驱动力,然后再到这个产业链的全景以及未来的一些趋势给大家聊了一遍。那其实最后我们也可以看出来,就是这个 浪潮其实给投资者带来的是一个非常独特的横跨多个高成长赛道的这样的一个投资机会。好了,那就是这一期节目咱们就到这里了,然后感谢大家的收听,咱们下期再见,拜拜。拜拜。

你以为这只是阿里又一次部门整合,其实他抢的是整个 ai 时代的主导权。阿里这次突然搞出一个阿里巴巴 token hub, 由 ceo 吴永明亲自挂帅,把阿里 ai 战队全给凑一块了。能让 ceo 亲自带队,这 token 有 这么重要吗? 首先我们先来了解一下什么是 token? token 说白了就是 ai 干活的计量单位。举个例子,输入想吃火锅,后台会切分为想吃火锅三个 token, ai 干多少活,就看他耗了多少 token, 跟咱们上班干多少活,拿多少钱一个意思。 那阿里为啥突然要围绕 token 集合力量?其实核心就是为了在 ai 战场上抢地盘。未来像做表格、跑重复流程的这些数字化工作,大部分都会交给 ai 去干,而这些智能体跑起来,底层烧的就是 token。 想到这,想必大家就明白了吧, token 就是 ai 时代的燃料,连卖铲人黄仁勋都在把重心从卖硬件往推理和 ai 智能体这边靠,也想分 token 一 杯羹。阿里现在不抢,等 ai 智能体全面爆发的时候,再想进场就晚了。除此之外,阿里的大公司病已经到了不得不动刀的地步。 大厂大家都懂得,为了抢点资源,几个部门能开一下午会,百分之八十的时间在对齐颗粒度。 整合之后的部门目标就一句话,创造 token、 输送 token, 应用 token。 至于每个部门具体干啥,咱就不细说了,又不是要去阿里上班。最关键的来了,阿里的优势在于它能走出一条完整的变现道路,一方面它能让 token 稳定大规模被调用。你看阿里搞了这么多年,双十一每秒几十万笔订单都能扛住, 更别说让他在海量的调用下把数据稳定送出去洒洒水而已。另一边,他让 token 不 止停留在云端和企业后台,而是让咱们普通人每天都能用上。阿里拿到了苹果在中国 iphone ai 功能的 本地合作资格,这意味着我们以后用的 siri 接的是阿里的大模型。最后,你觉得阿里这次整合能不能先坐上 ai 时代 token 生意的 c 位?

你知道吗?二零二七年,全球上市行业将迎来一个生死交叉, ai 模式的收入曲线将第一次全面超越传统软件。这不是预测,这是正在发生的现实。 sales force 市值已经开始成压,无数上市大佬彻夜未眠。而这一切的幕后推手,是一个你可能从未认真理解过的词, hoken。 今天我们就来聊聊,为什么说谁掌握 token 流动,谁就掌握 ai 时代。先问大家一个问题,你用 check 的 gpt 豆包通一千,问 excel 的 时候有没有想过,你到底在买什么?买的是 ai 的 智商,买的是模型的参数,还是买的是会聊天的程序?都不是你在买的是扣肯。 每一次你输入一段话,每一条 ai 回复都在消耗扣肯。扣肯就是这个时代的人民币。现在很多人还在争论,大模型谁最强,参数规模谁更大, 融资谁最多。但真正看懂局势的人早就明白,这场战争的核心根本不是模型参数的军备竞赛,而是托肯的生成效率于流动控制。为什么阿里这次重组, ceo 吴永明要亲自挂帅,成立专门的 ai 事业群,打通托肯为王的旗号?因为他们看清楚了,谁能以最低的成本生成最多有价值的托肯, 谁就掌握了 ai 竞争的主动权。这才是大厂压住 ai 的 核心逻辑。你说这太抽象了。来看一组更硬核的数据,英伟达最新发布的 robo 平台 fork, 生成效率两年增长了三百五十倍。三百五十倍?这是什么概念? 就好比两年前你开的是五菱宏光,现在直接换成了高铁,而黄仁坤更加直接。坦途, ai 与实体经济结合,将创造九十万亿美元的市场。九十万亿美元,约等于中国加日本、加德国加印度、加英国的 gdp 总和。这不是画饼,这是万亿级财富重新分配的号角, 而这个分配的筹码正是投肯。如果你在互联网、科技、金融任何一个跟时代沾边的行业,投肯将成为你接下来几年最重要的谈资, 因为他正在重新定义什么叫做有价值工作,什么叫做值钱的能力。好,我们来认真拆解一下,透坑到底是什么?为什么它如此重要? 你用 ai 大 模型,其实就做三件事,第一,你输入一段话, ai 把它变成透坑。第二,模型基于这个透坑做注意力计算。第三, ai 一个一个的生成输出。透坑就像工厂流水线,每个透坑都是精心组装的产品, 而这个工厂的生产效率、良品率才能上线,全部取决于 token 的 处理能力。所以你看大模型的智商, 本质上就是 token 生成质量,大模型的速度,本质就是 token 的 生产效率。大模型的价格,本质就是 token 的 单位成本,一切都是 token。 但 token 的 意义远不止于此,它不只是技术革命,它正在重写整个商业世界的里程逻辑。过去二十年,大师是怎么赚钱的?订阅制、年费、月费,用户越多,收的越多。这是一种承诺式的商业模式,不管你用不用,我先收钱。而 ai 是 怎么收费的?按 token 的 消耗,用多少付多少, 这是一种消耗式的商业模式,真实消耗,实时计费。当 ai 可以 用更低成本完成 sars 工具支撑的全部工作,流用户凭什么还要付那份承诺费?所以, sars 死亡交叉不是危言耸听,而是技术眼睛的必然结果。 有人会说, ai 会消灭萨斯,不对, ai 不 会消灭萨斯, ai 会用更高效的 token 经济重写软件价值。这就是为什么我把这句话放在前面,谁掌握 token 流动,谁就掌握 ai 时代。因为 token 的 流动本质就是信息流、资金流、智力流的重新分配。 谁在生产偷啃?谁在消耗偷啃?谁在定价偷啃。这些问题决定了未来十年的财富流向。这不是科幻,这是正在发生的商业革命。阿里压上了最重的筹码,因为达量出最强的胜利,全球杀手正在瑟瑟发抖。 而这一切都指向同一个结论,偷啃是未来三十年最重要的生产要素。我们已经站在一个新旧时代交界线上, 旧的秩序正在崩塌,新的规则正在建立,而这场革命的入场券叫做 token。 最后,我想问你一个问题,看完这期视频,你觉得 token 经济会改变你所在的行业吗?

今天我们要聊的呢是,在这个所谓的 token 工厂的概念下啊,哪些 a 股的公司是最有可能会直接受益的?那我们就直接开始今天的讨论吧,我想问问,就是这个 token 经济学的时代来临之后啊,数据中心到底会有哪些变化?其实在这个英伟达的 gdc 二零二六大会之后呢,这个, 呃, token 经济学就真的是被替上了日程哈,然后他们的 ceo 也说了,就是未来的数据中心其实就是一个生产 token 的 工厂。 哇,这相当于说数据中心的角色被彻底颠覆了呀。没错没错,而且就是,呃,到二零二七年,全球对于这个 ai 基础设施的需求是会达到一万亿美元的,那这个 ai 算力它就不再是一个成本中心了,它变成了一个利润中心。嗯,然后企业的这个估值和盈利能力都要看每瓦 token 吞吐量这个指标了解。 具体到 a 股市场,哪些方向会成为这个 token 工厂概念之下最主要的受益方呢?呃,其实核心的机会是分布在三个大的层面啊。第一个层面呢,我们叫做卖产人啊,就是那些提供生产 token 所必须的基础设施的公司啊,尤其是解决算力和工号瓶颈的光通信、 c p o 以及夜冷。对,这是第一个层面, 那看来这个基础设施这块儿真的是挺挺关键的啊。对,然后第二个层面呢,我们可以把它类比成发电厂啊,就是那些提供算力底座和 i d c 服务的运营商。嗯,那第三个层面呢,是增效剂, 就是那些通过数据治理和应用优化来提升 token 价值的服务商啊,这三类公司其实都会在这个 token 工厂的生态里面充分的受益。行,那我们就顺着这个思路来看看东方国信为什么会成为这个 token 工厂时代算力池建设的一个核心的受益者。其实啊,就是随着推理的需求暴涨,算力池的搭建就变成了一个刚需嘛。 那东方国信呢,它是国内企业级大数据和云计算解决方案的一个头部厂商,而且它有自研的云计算基础设施软件以及丰富的 i d c 资源储备哦, 所以说它不光是卖硬件,更多的是靠软件和服务来切入这个市场。完全正确,它是可以提供数据中心、裸金属、 gpu 虚拟化等等这些租赁服务的啊,然后它会在客户去构建这个 ai 算力池的时候提供更高附加值的解决方案。 对,那现在模型的需求一上来,推理上云的需求就激增吧,所以它就可以把自己的 idc 资源变成生产 token 的 核心资产,然后不断地靠算力租赁来获得持续的现金流。懂了懂了, 那我们下面要聊的是英文课对,它是怎么通过叶冷技术在这个 token 工厂时代占据领先地位的呢?这个的话,就是因为在 token 工厂里面啊,工号是一个核心的约束, 就是你的每瓦 token 吞吐量直接决定了你的收入。那现在这个算力密度飙升之后呢?叶冷就从一个可选项变成了一个 b 选项。对,尤其像这个英伟达推出了新的 vira rubin 架构以及后续的 final 架构之后, 黄仁勋在 gtc 大 会上面已经明确地宣布了,所有的新的机架都要采用液冷,它是自主开发的这个库林赛全链条的液冷解决方案 啊,它的技术成熟度非常的高,然后也已经进入了英特尔和英伟达的产业链。嗯,它可以帮助数据中心降低 pe, 就是 把更多的电转化成算力。 ok, 所以 随着国内的这个 ai 算力竞赛越演越烈, 包括谷歌这些海外的巨头都开始来国内考察叶冷设备。那英伟克作为一个已经通过了验证的核心供应商,它肯定会充分地受益于这个叶冷的渗透率快速地提升。明白了, 那飞龙股份,在这个 token 工厂的叶冷系统里面,它的竞争优势到底体现在哪些方面?飞龙股份呢,它是掌握了这个叶冷系统里面的核心零部件,比如说 c d u, 也就是冷却液分配单元和叶冷泵。 对,那这些产品呢,都是进入了全球高性能液冷散热解决方案的,所以说飞龙股份它是跟核心客户有深度的绑定是吗?是的,没错,而且就是这个 c d u 液冷泵,它的技术壁垒非常高。 嗯,一旦你通过了客户的验证之后,你的供货关系是非常稳定的。 ok, 它又是一托于自己在热管理领域的技术积累,然后又非常顺利的切入了这个高增长的赛道。所以它的产品价值量是随着数据中心大规模的从风冷转成夜冷,它是不断的在提升的,对它的这个中长期的试战率也是有持续上升的空间的。了解了, 然后咱们来看看中电兴隆啊,中电兴隆呢,它其实是为这个产品线包括云计算平台、大数据基础平台、 视频监控管理平台、 v m s 以及存储设备。所以说,呃,数据的存储和处理是它的一个核心的竞争力。没错没错,因为随着这个 token 经济爆发之后,数据的清洗、存储和计算的需求是暴增的嘛。对,那中电兴隆的话,它就是用自己的这个存储设备给海量的 token 提供了一个原料仓库。 嗯,然后再加上它的云计算和大数据平台,又可以做这种深度的价值挖掘,所以尤其是在智慧城市这种需要大量视频数据实时分析的领域,它的这个软硬件一体的方案是非常有竞争力的。行,那我们来聚焦一下海天瑞生,其实在这个 token 工厂的体系里面啊, token 的 质量和价值是比单纯的生成速度要重要的。 对,那高质量的数据其实就是决定你这个 token 到底值多少钱的一个关键。那海天瑞生呢,它作为这个 ai 训练数据领域的一个领军者,他其实是已经完成了一个升级, 就是他从一个数据提供方升级成了一个 token 增效服务商。哦,他最近跟华为联合发布了这个海田瑞生 x 升腾 deepsea 数据飞轮智能体。啊,那这个就是一个零代码门槛的智能体部署方案,它可以帮助企业在全场景里面实现智能化的升级。 那其实这个就标志着海田瑞生已经完全掌握了把原始数据转变成高价值 token 的 这个核心的能力。 ok, 那 中国科传在这个 token 经济学里面到底是凭什么能够成为这个高质量 token 的 源头呢?这个啊,就是因为数据是这个 token 工厂的一个原材料嘛。 那中国科创它是背靠科技出版的国家队,所以它是积累了海量的高壁垒的学术内容资源,这些其实都是训练专业 ai 模型生成高价值 toc 非常稀缺的原料。而且它现在已经不仅仅是一个出版商了, 它更像是一个高质量 toc 的 原始矿主。嗯,因为它通过 ai 技术对自己庞大的内容资产进行了深度的挖掘和结构化的处理,然后把它变成了一个专业的知识库。 ok, 那 这个知识库就可以被大模型直接调用,所以这就相当于它掌握了生产高价值、高定价权 token 的 核心的生产资料。是的,那它就可以在这个 a a s s, 也就是智能体及服务的这个新时代里面牢牢地占据产业链的制高点。没错没错, 那下面我们来看看这个天福通信啊,它是怎么借着这个 c p o 和光气件的技术优势,在这个 ai 算力进入光学时代之后抢占先机的。关于这方面,其实在 g t c 大 会上面,这个黄仁轩就已经喊出了需要更多的铜锣产量,更多的光芯片产量,更多的 c p o 产量。 对,然后它也现场展示了全球首款量产的 c p o 交换机。嗯,这个就被很多人认为是 ai 算力进入到光学时代的上游。对,天福通信呢,它是处于这个光模块产业链的上游, 然后它是一个一站式的光气件平台。 ok, 它在光引擎和光气件上面是有很深的技术壁垒的,嗯,所以它是直接受益于这个 c p o 技术路线的, 而且它又跟全球的光模块龙头都有深度的合作,所以随着 c p o 大 规模的商用,天孚通信是有望迎来业绩和估值的双重提升的。好的, 那我们再来说说新易胜啊,新易胜其实是全球领先的光模块解决方案的供应商哦,在这个高速率光模块,像八百 g 和一点六 t 这种,它的产品布局和出货能力都是全球领先的,而且随着这个 gtc 大 会之后推理需求的爆发,嗯,这个八百 g 和一点六 t 光模块的需求也是急剧上升的。 那新易胜呢?他又凭借着自己的技术优势和成本控制能力,深度地打入了海外的头部云服务提供商的供应链。 对,然后再加上这个英伟达的 blackcloud 和 rubicon 平台陆续地出货,新益盛作为能够大规模交付高速率光模块的厂商, 它肯定是会充分地受益于这个市场的放量以及产品的溢价带来的利润的提升。懂了,懂了,那中际旭创为什么能够成为这个 tokin 工厂的光模块领域的一个绝对的龙头?中际旭创呢?它是全球领先的光模块供应商,嗯,在这个高速光模块领域,它是份额和技术都是遥遥领先的, 而且它是英伟达这些头部的算力企业最核心的合作伙伴之一,而且它在这个创业板人工智能 etf 里面的权重占到了百分之二十六点六二啊,然后再加上这个 gdc 大 会之后,这个全球的 ai 算力基础设施建设加速,嗯,无论是从这个需求还是从技术的升级以及光互联的明确的趋势, 都是非常利好,重积蓄创的。对,而且它在这个八百 g 光模块上面是领先量产的,然后在这个一点六 t 上面也是快速的跟进,所以它是可以充分的把握未来两三年的这个算力爆发的红利。 ok, 那 么最后来看看这个工业复联啊,这个公司为什么能够在这个 token 工厂时代成为 a 股里面受益最直接最核心的公司,这就不得不说工业复联,它是全球最大的 ai 服务器的开发商和数据中心的建设者。从它跟这个英伟达是有非常深度的合作的 啊,它不光是说 ai 服务器的代工的份额遥遥领先,它甚至会参与到客户的数据中心的整体的设计和搭建里面。而且从这个 hopper 到 blackblack 再到 ruby, 每一次这个 ai 平台的升级都会带来服务器内部结构的巨大变化。嗯,那工业复联呢?它就是能够凭借着自己的研发设计和供应链的优势,率先地把这些最新的技术变成可以大规模生产的产品。 对,然后再加上他自己也运营数据中心,也做算力租赁和云服务,所以他是可以在这个产业链的每一个环节都充分的享受这个 talking 经济带来的红利。好了,那么以上就是这期播课的全部内容了啊,感谢大家的收听,我们下期再见,拜拜!拜拜。

今天分享一个让我觉得很有意思的组织架构调整。 token 这个词第一次被放到组织架构的核心,一个以 token 为价值尺度的新时代可能真的要来了。 嗨,我是 ai 于一,我的本体做了四千五百小时 ai first 实验,研究和实践个人与组织如何成为 ai 新物种。 阿里今天公布了一个组织调整,让我感兴趣的不是谁向谁汇报,也不评论组织架构调整本身。让我感兴趣的是他们给新部门起的名字叫 token hub 的 部门。我觉得这是一个价值坐标变化的世界。所以今天想聊聊命名背后对大家有影响的事情。 如果你是打工人,未来衡量你工作价值的可能不再是你花了多少小时,而是你的一个决策,一个工作流为公司节省了多少 token, 或者创造了多少高价值的 token, 你 的 kpi 可能会变成 token 效率。举个例子,你写市场分析报告,如果 token 成为价值尺度,老板会问你这份报告消耗了多少 token, 产出的洞察值多少 token? 我 自己现在评估 ai 工作流,第一步就是算 token 成本,因为这直接决定了它能不能规模化 一个工作流。 token 成本太高,就只能小规模试验,不能全公司推广。反过来,如果你能设计出低 token、 高产出的工作流,那它的价值是指数级的, 所以 token 效率会变成新的职场竞争力。那对一个公司呢?老板们要思考的问题也变了,以前是管理人效,以后是管 token 效能。怎么用最低的成本生产出最优质的 token, 再把它应用到业务里,变成利润, 整个业务流程都可以看成一条 token 流水线。公司每月消耗多少 token? 哪个环节最消耗 token? 哪个环节的 token 产出价值最高? token 预算怎么分配?这是一个全新的管理视角, 我自己会给每个 ai 任务打标签。消耗多少 token? 产出什么?产出能附用一次 token, roi 就 很低。如果产出能附用一百次 token, roi 就 很高。 这就是 token 预算的逻辑,不是省 token, 而是让每个 token 产生最大价值。所以下次你打开 ai 的 时候,可以想一想 你输入的这句话正在创造什么样的 token? 它值钱吗? how one ai 好 玩, ai 一 起探索 ai 时代的生存,摸鱼和杠杆机会。鱼鱼说他不关心 agi, 只关心 how one ai。 希望这期内容能给你启发,我们下次再聊,欢迎点赞、收藏评论。


下班了,大家好,这周阿里成立了 tucker 哈布事业群,创造 tucker, 输送 tucker 应用 tucker 黄仁勋在 gdc 上把数据中心重新定义成了 tucker 工厂。 两个顶级公司呢,不约而同的把 tucker 推到了舞台中间。但真正让我体验到 tucker 时代到来的呢,还是自己的亲身经历啊。前几天我哥在公测上线爆火,服务器崩了,那状态就跟小学时候学校 突然停电全当欢呼一样,但笑着笑着就笑不出来了,因为你发现自己真的回不去了。还有更扎心的,昨天三月刚过半啊,我公司的两个头盔账号全都用完了,新的额度申请还没批下来。我平时的工作状态也是这样的,同时开五个 code body, 智能体干五千,不同的任务,交替验收、发指令, 头盔一断,我能做的事极其有限,把几个上下文不复杂的小任务迁移到 jimmy 和 magna 上凑合着干。 但那些已经工作了好几天的文字报告改到一半的 ppt, 我 几乎没法做任何操作。有人说,你不能手工接着干,不是不会,也不是犯懒,是整个工作流已经彻底改变了。 我不能把 ai 生成的 macdunk 文档转成 word 继续手搓,也不可能把改到一半的 html 的 ppt 手工改回泡泡那里去拍吧。 因为一旦切回原来的工作流程和格式,等 token 恢复之后, ai 的 效率会大幅下降。除非 token 断好几天,否则切回人工模式的成本是不可能承受的啊。就像你不可能因为停一小时的电就去买个手摇发电机。 overclock 的 爆火呢,是一个重要的转折点。实话,没有这只龙虾,也会有别的对虾、鳞虾。年初几个国产 a 阵的模型交替发布的时候,我就判断,今年长城之行的智能体将带来 token 使用量至少两个数量级的爆发。 以前你用达摩星问一个问题,回段话,几百个头肯。现在一个 a 阵的从接到任务到完成交付,中间要规划、搜索、写代码、调试所修正,一个任务跑下来几万甚至几十万个头肯。 我同时开五个,一天的消耗量远超以前几个月的他们,消耗从对话级跳到了直性级,这是一个质变。 所以阿里为什么要用电力行业的逻辑,发电、输电、用电来组织爱业务。黄仁勋为什么要把数据中心变成 token 工厂?因为他们看到了同样的东西。当 token 真正开始干活,就不是一个计量单位了,它是基础设施,是新时代的电力。 但现实还是很骨感的,现在所有的龙虾基本都在开会、在聊天,没几个在干正事。我去各行业交流讲课,大家的状态都是焦虑和懵逼,知道 ai 厉害,知道 ai 阵势趋势,但是不知道怎么用,不知道从哪下手。企业买龙虾,就像去年买的 deepsea 体系一样,先养一个再说,至于养来干嘛,不知道。 这其实是一个非常典型的技术落地困境,技术供给已经到了,但需求侧的认知和组织能力还没跟上来。 你看现在 a 阵的使用场景,绝大多数还是程序员在用。写代码、改 bug 大 项目,这是 a 阵的最先跑通的领域,因为程序员天然懂得怎么下指令,怎么拆任务,那怎么验收?但这只是冰山一角,真正的爆发点,在每一个行业、每一个岗位,都学会用 a 阵的工作逻辑来干活的那一天。 一个月以前,我研究 f d e 全线部署工程师这个概念的时候,其实很困惑。道理很简单,要深入一线场景,要帮助用户跑通工作流。但中国企业的数字化基础太差了,很多公司连 erp 都没整明白。你跟他聊 a 阵的写作,我其实也不知道这条路该怎么走。但龙虾和 workday 的 出现呢,让我一下看清了一条更容易落地的 f d e 之路啊,它不需要再教会每个人编程,而是带着工具进场景现场共创。明天,我会跟 workbody 的 团队和教育行业的同事一起去明德学校啊,给老师们做培训,不 光讲 ppt, 而是坐下来跟每个老师一起啊,把他们教学中的真实场景拆出来啊,用 a 阵的帮老师实现因材施教 啊。这个四个字,说了几千年,传统教育很难做到,因为一个老师面对几十个学生根本不可能。但如果每个老师有几个智能体助手呢? 这就是 f d e 的 正确打开方式,不是培训完发个手册,而是带个工具啊,在现场,一个场景一个场景的跑通啊,固化成工作流和 skill 啊,再推广到下一个学校和行业。 这套能力不是程序员专属的,每个知识工作者都应该也能够学会。这也是大厂让员工提前体验无限 pockin 的 真正意义,不是让你提前半年以上,看到整个社会和所有行业的未来工作状态。 腾讯、阿里都给员工标配了几乎用不完的 tucker。 华仁勋说,给员工配了价值年薪一半的 tucker, 然后因为能力越强, tucker 对 你的放大就越强。然后我相信配 tucker 会成为所有企业的基本共识啊。 当每个行业都跑通了自己的 fde 最佳实践,当 agent 呢,不只是程序员的工具,而是成为每个人的日常操作系统。就像我们已经体验到的那样, tucker 消耗量就会迎来真正指数级的爆发。到那一天呢? tucker 断供带来的混乱可能比今天大面积停电还要严重。 还有个事啊,今天看到有人又在征集偷看这个词的中文,觉得词源无法包含多模态的概念。我的建议是呢,一定是外国人能听懂的音译叫通根,如何 啊?万是万物之根啊!同意的可以点个赞啊,不同意的在评论区说说你的想法,感谢关注未来博士,我们一起用跨界的视角看懂未来的方向。

兄弟们,今天是个福利局呃,我将手把手教大家领取到一千万的免费 token, 并部署到我们的小龙虾, 呃,首先我们进入这个呃超算互联网的网站,右上角点击登录注册,然后在这个地方点击注册, 我们所需要的信息呢,只需要这么多就可以了,那么具体注册过程呢?大家自己去注册好就可以,注册成功过后它会自动登录,然后我们点击右上角的控制台, 在控制台里面我们在这个地方选出模型 a p i。 好, 这个之后在这个地方我们先领取一下免费额度,先领取到每一个一百万的,然后在这个地方点击领取, 然后在这个地方领取大模型 api 模型,我们选择 minmax。 二五,好,我再看一眼, 好,这个地方我们可以看到我已经领取到我们的 toolchain 了,总共是一千一百万。下一步我们进入到我们乌班图虚拟机的文件目录去, 进入无斑图形以及目录,然后 home, 然后进入我们的用户目录,然后 opencloud, 然后将我们的 opencloud 点 json 这个文件先复制一份,以防万一,然后点编辑。在这个地方 我们重点需要修改的地方就这两个,就是关于模型的配置,这两个地方,好,我们回到这个位置啊,接口文档 open c, 将我们将这个位置复制下来, ctrl 加 c 复制,然后放到这个位置, 然后直接粘贴,粘贴过后将它对齐, ctrl 加 c 保存一下,然后还有一个地方我们需要修改,就是这个关于模型的配置,这个位置 ctrl 加 c 复制,然后我们粘贴到这个位置, ctrl 加 v 粘贴,哎,这个删除掉, 然后我们再进入我们的控制台页面,将 api key 复制下来, 在这个地方放入我们的 api key, ctrl 加 c 复制好了,下一步我们就是要进入我们的 open cool 来重启我们的网关, 现在打开我们的飞书测试一下, 我们直接给它发送消息, 你现在用的是什么模型? 等他回答, 你看他这就回答,我现在用的是 minimax m 二点五模型。好,我们回到我们这个页面,去超算中心的页面,然后我们点那个用量信息, 嗯,这个地方还没有统计,过了一会儿时间啊,我们的统计结果出来了,你看这个地方我们就用了这么多的 token, 然后呢我们就是这样子的,我们这种模型就直接接入到我们这个免费的 token 使用里面去了。 最后给大家说一下,我们还它这里还有免费的 open caller 的 可以部署的。那我们进入控制台过后, 我们直接点取这个 open caller, 然后点取这一个一键部署你的 open caller 点立即开始,过后呢我们就可以与它的进行对话了。

全球首个以 token 命名的事业群来了!日前,阿里成立了一个新的事业群,叫阿里巴巴 token hub, 也就是 a t h 事业群,并且呢,致力于 ceo 吴永明管这个事,为啥惊动了大老板呢?看看组成就明白了。 同意实验室搞基础模型,麦子搭服平台,千问做个人 ai 助手。悟空呢,主攻弊端,企业工作流,还有一个创新事业部,探索新的方向。那么这五大块,从模型研发到应用落地,全 cover, 核心就三个字,造 token、 送 token, 用 token。 重点得说一下武功这个部门呢,是头一回露面,定位 b 端 ai 原生工作平台。阿里呢,本来就是擅长企业服务的,现在呢,把大模型直接塞进了企业工作流,用百亿级 ai agent 替代传统工具,这个架势啊,明显是要在 b 端市场放大招。所以说啊,这不是简单的部门变化,是阿里 i 战略大升级。 以前呢,各业务可能是分头跑,现在呢,用偷根这条线穿起来,从模型到应用的兼容效率呢,也直线拉满。 尤其是弊端这一块,企业数字化需求大,但传统工具呢,更新慢,悟空带着 ai ai 针呢杀进去,相当于给企业工作流装了一个智能的加速器。 ai 时代,拼的是把技术变成生产力的速度。阿里这部剧呢,既守住了 c 端千万的用户基本盘,又在 b 端深水区布了重屏。 未来 ai ai 针呢,要是真的能大规模跑起来, token 的 需求啊,肯定会爆炸。现在提前用组织架构锁定这条路,眼光够准够狠。那么从单点突破到全链条作战,阿里的 ai 级啊,下的是越来越稳了。

今天我们一起来学习一下 tokken 出海的行业梳理, tokken 啊,是 ai 大 模型的最小语言单位, 也是呢, ai 大 模型收费的一个标准啊,大模型的话, ai 都是按照 tokken 来去计费的。从二零二六年二月份开始啊, 中国模型的 tokin 的 雕有量已经超过了北美,而且呢,黄仁勋最近啊正式定义数据中心为 tokin 的 生产工厂。接下来我们详细的学习梳理一下。 目前啊整个 talking 这边主要是与大模型进行绑定。目前国内的第几家大模型大家可以详细的看一下,第一个就是 mini max, 第二个是 kimi, 第三个是 deepsea, 第四个是智普 ai, 第五个是字节的豆包,第六个是阿里的千问,第七个是腾讯的元宝,最后一个是百度的 文心。接下来我们详细的梳理一下。首先我们先看与 mini max 合作的,目前国内的洪博股份公司,首都在线公司都有与 mini max 提供分布式的算力与制算的服务。第二个是 kimi, 目前国内的润泽科技公司,亚康科技公司都直接或间接的通过火山引擎的云服务为 kimi 提供算力的服务。再一个是 deepsea, deepsea 的 话,目前国内的 润泽科技公司和韩钢股份公司主要为 deepseek 进行提供这种数据中心以及算力集群的一个部署。下一个是智普 ai, 智普 ai 方面,目前与它绑定的 网速科技公司,优克德公司、奥菲数据公司。这三家公司啊,主要为智普提供这种边缘的算力 c、 d、 n 的 分发,包括提供算力的基础施施和支持。下一个我们看一下豆包方面, 豆包方面的话,目前国内与豆包自结合作的,国内的润泽科技公司、东阳光公司、东方国信公司 都为字节跳动 a i d c 的 服务商。下一个我们看阿里的方面,阿里千万方面,目前国内的数据杆公司,韩钢股份公司,锐健股份公司,锐健股份公司啊,这三家公司有为阿里云 提供相应的智算服务,以及云计算的一个数据服务提供商。下一个腾讯元宝方面,目前国内的科华数据公司,润泽科技公司、群星玩具公司,这三家公司啊, 与腾讯啊有相应的数据中心的合作,以及算力的租赁的一个长期的单量, 包括算力集群的一个服务。最后一个是百度,百度方面的话,百度文新方面,目前国内的奥菲数据公司、数据港公司、一米康公司有相应的这种 与百度签订了长期的这种算力长单,以及提供 idc 的 托管服务,包括数据中心的这种温控和部分微模块的一个实施。 未来大模型是发展的核心方向,而托肯是整个大模型计费输出的核心环节,号称 ai 的 新石油,大家可以详细的学习梳理一下。


今天我们一起来学习一下 tokken 出海的行业梳理, tokken 啊是 ai 大 模型的最小语言单位,也是呢, ai 大 模型收费的一个标准啊,大模型的话, ai 都是按照 tokken 来去计费的。从二零二六年二月份开始啊, 中国模型的 tokin 的 雕有量已经超过了北美,而且呢,黄仁勋最近啊正式定义数据中心为 tokin 的 生产工厂。接下来我们详细的学习梳理一下。 目前啊整个 talking 这边主要是与大模型进行绑定。目前国内的第几家大模型大家可以详细的看一下,第一个就是 mini max, 第二个是 kimi, 第三个是 deep seek, 第四个是智普 ai, 第五个是字节的豆包,第六个是阿里的千问,第七个是腾讯的元宝,最后一个是百度的 文心。接下来我们详细的梳理一下。首先我们先看与 mini max 合作的,目前国内的洪博股份公司,首都在线公司都有与 mini max 提供分布式的算力与制算的服务。第二个是 kimi, 目前国内的润泽科技公司,亚康科技公司都直接或间接的通过火山引擎的云服务为 kimi 提供算力的服务。再一个是 deepsea, deepsea 的 话,目前国内的 润泽科技公司和韩钢股份公司主要为 deepseek 进行提供这种数据中心以及算力集群的一个部署。下一个是智普 ai, 智普 ai 方面,目前与它绑定的 网速科技公司,优克德公司、奥菲数据公司,这三家公司啊,主要为智普提供这种边缘的算力 c、 d、 n 的 分发,包括提供算力的基础设施和支持。下一个我们看一下豆包方面, 豆包方面的话,目前国内与豆包字结合作的,国内的润泽科技公司、东阳光公司、光环新网公司、大卫科技公司、亚康股份公司、东方国信公司 都为字节跳动 a i d c 的 服务商。下一个我们看阿里的方面,阿里千份方面,目前国内的数据感公司,韩钢股份公司,锐健股份公司啊,这三家公司有位阿里云 提供相应的智算服务,以及云计算的一个数据服务提供商。下一个腾讯元宝方面,目前国内的科华数据公司,润泽科技公司、群星玩具公司,这三家公司啊, 与腾讯啊有相应的数据中心的合作,以及算力的租赁的一个长期的单量, 包括算力集群的一个服务。最后一个是百度,百度方面的话,百度文新方面,目前国内的奥菲数据公司、数据港公司、一米康公司有相应的这种 与百度签订了长期的这种算力长单,以及提供 idc 的 托管服务,包括数据中心的这种温控和部分微模块的一个实施。 未来大模型是发展的核心方向,而 tok 是 整个大模型计费输出的核心环节,号称 ai 的 新石油,大家可以详细的学习梳理一下。

大家好,今天我们用三分钟讲透 ai 产业底层商业逻辑。黄仁勋提出的 token 工厂经济学,首先明确核心概念。这里的 token 中文意思叫磁源,和虚拟货币、区块链没有任何关系,它是 ai 大 模型处理信息的最小数据单元,是 ai 时代的标准化产品。 黄仁勋这套理论的核心,就是把 ai 算力变成了一套标准化、可量化、可盈利的制造业体系,它彻底重构了数据中心的价值。 传统数据中心是存文件的仓库,而 ai 时代的数据中心就是一座二十四小时不间断生产 token 的 智能工厂。这座工厂的完整逻辑非常清晰, 电力是生产原料, ai 芯片与算力集群是生产核心的硬件底座, ai 服务器、高速光互联、液冷散热、高端 pcb 是 核心生产设备,最终产出的产品就是 ai token。 而整个工厂的核心 kpi 也是核心盈利密码就是 token w, 也就是每瓦电力能产出的 token 数量。核心目标就是在固定电力上限下最大化 token 产出,最小化单位 token 成本。为什么这个指标是行业黄金标准?因为黄仁勋点破了 ai 产业的物理铁律, 是 token 工厂不可突破的天花板。一个数据中心的供电总量是锁死的,单纯堆显卡、堆积柜没有长期意义。未来 ai 算率的竞争,本质就是效率的竞争。同等电力下, token w 越高,生产效率越高,单位成本越低,盈利能力就越强。这套经济学彻底改写了算力行业的游戏规则, 全产业链的价值平台都围绕能不能提升 token w 展开,而算力租赁就是 token 工厂产能的商业化分销出口。在这套思维下,行业竞争的核心早已不是单一芯片的比拼, 而是算力集群整体系统能力的提升。在这一赛道中国具备全球领先的核心竞争优势。首先是无可替代的电力成本优势。 剔除西部丰富的绿电资源与东数西算工程的全国算力网络布局,我们拥有全球极具竞争力的低电价,直接击穿 tiktok 工厂的核心成本线,从根源上拉高磁源瓦的核心效率。其次是全链条自主可控的配套优势,我们拥有光互联、 pcb、 叶冷等 tiktok 工厂全环节的全球核心产能, 供应链稳定性与成本优势独步全球。更关键的是全球顶尖的系统级优化能力,以华为 atlus 九百五十算力集群为典型代表,通过算力调度、网络协调、能效管理的全占优化,实现了万卡集群百分之九十以上的限行加速比, 把算力损耗降到最低,直接将磁源瓦效率拉至全球第一梯队。这些从能源底座、硬件配套到系统优化的全闭环优势,让中国在全球 toc 工厂的竞争中掌握了核心的效率话语权。 也正是基于这套核心逻辑,我们准备了三期系列节目,带大家完整梳理 tiktok 工厂的全产业链机会。第一期聚焦 tiktok 工厂的传输神经网络光互联赛道。第二期拆解工厂的硬件载体 与散热心脏, pcb 与夜冷赛道。第三期落到产能变现中局算力租赁赛道筛选同步高成长标地。感谢收听我们系列节目,再见!

腾讯、阿里开始给员工发 token, 也就是 ai 工具的算力额度了。腾讯的员工现在人均一年有二十二万的 token, 很多人欢呼说大厂福利太香了,简直堪比免费的三餐下午茶,这才是真正的 ai 时代福利。但是 别傻了,那不是福利,那只是新的挖掘机而已。这条视频我们会用资本的逻辑去翻译一下,你就会全明白了。 先来看看什么叫福利。以前你在工地上搬砖,老板每天管你一顿红烧肉盒饭,那叫福利,那是为了让你吃饱了之后能多搬两块砖。现在呢,老板给你配了一台价值两百万的重型挖掘机,然后告诉你,这也是福利哦,好好干。 你坐在驾驶室,吹着空调,听着音乐,觉得老板真大方。那你想过没有,给你挖掘机,是为了让你一个人干出一百个人的量,不是让你更轻松,是让你的产出翻一百倍。 其次就是工具变强了,并不等于你变轻松了,这是很多人最深的误解,你以为公司发 token 是 为了让你用 ai 工具提高效率,然后早点下单。 其实真实的剧本是这样的,以前你不用 ai, 写个底层代码要一周。现在给你 curser, 你 半天就该跑通。以前你写文档慢一点,别人糙一点,大家还能互相打掩护,摸个鱼。现在呢?只要你部门有一个人能用好这些 token, 一个人干了以前三个人的活,剩下的两个人就要面临被优化的危险。 工具变强了,意味着你必须变得更强,否则你就是那个无法适配新生产力的落后,才能也该淘汰了。 第三就是,这不仅仅不是福利,甚至是一种生产工具的强行升级。这是让我想起一百多年前的泰勒科学管理就是当年福特发明流水线,不是为了让工人更轻松,而是为了把工人每一个动作都标准化、量化,让机器来控制人的节奏。 现在的 ai 工具,就是新时代脑力劳动者的全自动化流水线。你拿了无限额度的 g、 l m, 拿了高额的 cursor, 拿了很多 token, 但到了年底考核,你的产出并没有发生质的飞跃。在领导和 hr 眼里,你就是那个无法适配新生产力的人。 历史规律无数次告诉我们,技术革新带来的效率红利,大头从来不会流向底层的打工人,老板拿走绝大多数的增量打工人面临的是更高维度的无差别内卷。 所以说,回到问题本身,有人问算力, token 到底会不会成为以后大厂的标配?一定会,但是绝不会以福利的形式出现,而是以基础设施和考核指标的形式出现。 二十年前,互联网公司给员工配台式电脑连宽带,那是福利吗?不是,那是基本的办公条件。未来的 token 也是一模一样的宿命,它只是这些大厂的基本工具罢了。你今天领了 token, 明天就要交出答卷,你用了不好,产出不够,你就是那个该被优化的人。 那我们该怎么办呢?游戏的规则变了,以前你可以在舒适区里待着,慢慢干,慢慢学,但现在不行了,要么你变成一个人能干三个活的人,要么你就成为被剩下的两个人之一。 所以该怎么选?第一就是我们不要把 token 当做福利,要把它当武器,公司给你挖掘机你就得开,你不仅要会开,你还要把它当成坦克来开。第二就是你不只要会用工具,你还要能设计工作流,让 ai 干 ai 的 活,你干你的活,你负责判断决策单责,这才是 ai 现在替代不了的事。 再就是我们要把工具的能力变成你自己的资产,公司给的 token 是 公司的,但是你自己的,你在公司用 ai 练出来的能力,以后去哪都能用。 这半年我也一直在做一件事,就是帮职场人、管理者和创业者去看清 ai 时代真正的规则,不是教你用工具,而是一起聊你的处境,你的行业,你的卡点,然后帮你找到那个 ai 替代不了的位置。 所以,如果你也在思考怎么从被考核的人变成考核决策和用工具的人,怎么让 ai 帮你提效,而不是帮你内卷,怎么在工具升级的浪潮里成为那个不被剩下的人。 欢迎来找潘妮聊聊个人和团队企业咨询,也欢迎后台私信咨询了解详情。当然,如果你想给自己留条后路,我还整理了全国十七个城市的 o p c 一 人公司政策资料,可以先看看哪些地方再给你送钱,私信留言 o p c 获取。 总而言之,大厂发 token 不是 福利,你可以选择坐在驾驶室里等着被安排,也可以学会开挖掘机,甚至造挖掘机,让自己变成那个能够以一敌百的人。关注潘妮,我们一起看清规则,玩对新游戏!