粉丝3.3万获赞26.9万

最近最火的新名词词源是 ai 时代真正的印钞厂,那词源也就是 token 工厂到底是怎么运行的呢?今天这个视频我准备分三步让大家彻底理解 token, 并且呢,开启属于你们的 token 工厂。 黄仁勋在 gtc 二零二六有一句话说的特别经典,他说未来的数据中心不是存文件的仓库,而是二十四小时不停产 token 的 智能工厂。什么意思呢?就是你往里面投电力,投数据,投模型,他就往外产出 token, 而你拥有的计算能力呢,就直接等于你的收入。这个呢就是 token 工厂的核心逻辑。 既然是工厂,咱们就从开工厂的第一步说起。看懂啊,怎么开这样一家印钞厂,就是先定产品,也就是选对 token 赛道,这一步呢,我觉得直接决定你以后赚多赚少。开工厂首先要知道自己生产什么, token 工厂也是一样的。 那第一种呢,就是通用 token, 就是 用千问啊, deepsea 这些开源大模型,生产门槛特别低,谁都能上手,价格呢也特别透明,大家都在买,那竞争呢,已经杀成红海了,这种铜壳呢,单价低,只要靠走量,利润特别薄。第二种就不一样了,就是做垂直高附加值的 token, 简单说呢,就是不贪多,你专门盯着一个行业做深做透,比如说专门做代码生成的头肯给程序员用,专门做影视动漫的头肯给设计师用。还有医疗诊断呀,工业设计这些领域,用专用的模型产出的头肯,价格呢是通用型的三到五倍,而且客户特别稳定,利润高,竞争对手也少。 这里呢,我给大家一个核心原则啊,就是千万不要去通用市场瞎选,选你自己有客户资源的垂直领域,比如说你懂医疗,你就要做设计领域的,这样呢才能稳稳赚钱 好产品呢。接下来就是第二步就是选设备,买对真正能干活的生产力工具。 tok 工厂的核心设备呢,就是 ai 服务器,大家一定要记住啊,不是训练机,而是推理机,这两者差别很大, 优先呢,要选这个推理型 gpu 服务器,比如说 h 两百、 rtx 五零、九零,这些机器的优势特别明显,单位时间里产出的 tok 呢,是训练机器的两到三倍,更适配现在大模型推理的刚需,能够帮你多赚钱省时间。 还有成本结构,我也给大家算一笔明白账, gpu 硬件呢,占百分之五十,电力加散热占百分之三十,运维加网络占百分之二十。 而且咱们国内呢,有个天然优势,就是电价和工程师,成本呢,只有美国的五分之一,这是咱们中国偷看工厂能够在全球立足的关键。当你设备选好了呢,第三步就是建工厂了,也就是搭建 a i d c。 建这个工厂呢,有几个核心要求缺一不可, 一个是要高密度电单机柜呢,要达到六十到八十千瓦,不然呢,带不动这么多 gpu。 一个呢是夜冷散热,传统的风冷呢,根本扛不住高密度 gpu 的 热量, 今年夜冷的渗透率呢,已经直接破百分之五十了,降温快,能效高,还能把蒜粒跑满,不浪费。选址也非常有讲究啊,像西部的这个绿电基地,比如青海、内蒙、宁夏,定价便宜,适合大规模量产,偷啃走量为主。东部的枢纽城市,比如说上海、深圳实验低,适合做低延迟高价值的偷啃业务, 比如说实施的 ai 客服啦,或者是在线设计啊,这样就能赚更多的溢价。工厂建好了,设备也装好了。第四步呢,就是装生产线,也就是做模型部署和调度优化,相当于给工厂装上了大脑。然后呢是智能调度系统,也叫 token hop, 作用呢就是统一管理所有的模型和服务器,相当于工厂的调度员。简单的任务,比如查天气啊,写短句就用小模型,便宜的算力。 复杂的任务呢,比如说写论文,做工业设计就用大模型,高算力,动态分配资源,不让 gpu 闲着,把控载率呢,压到百分之五以下,最大化利用每一分算力。生产线装好了呢,托肯也能稳定生产了。接下来第五步就是拓市场了, 把生产出来,托肯卖出去,变现赚钱。一台 h 两百服务器呢,成本大约是二百四十万,满负荷的运转,一年呢,能生产大约十到十五万亿的托肯,按现在的市场价,每 每百万十元的托管算呢,一年的收入就是一百到一百五十万,去掉电费啊,运维费啊,设备折旧费,静态回本时间大概是两到三年。如果做的是垂直高附加值的托,可能价格更高,回本时间呢,能压缩到一点,五年以内还是很可观的。 但是这个行业呢,看着暴利,风险也非常大,最关键的呢就是芯片迭代风险,大家看 h 一 百刚出来没多久, h 两百就来了,现在又有了 b 三百,一年以换代,硬件贬值特别快,如果你三年内回不了本,那这些服务器啊,就直接报废了,血本无归。所以呢,一定要控制好回本周期。

最近我收到最多的后台私信就是 token。 既然是个新的大众商品,那普通人能不能自己生产 token 自己卖?今天一条视频给你讲清楚。先说结论,能生产,但你算完账,你就不会干了。我们来算一笔账, deepstack 目前最火的大模型,它卖 token 的 价格是多少?输出,每百万个 token 三块钱。 一百万个 token 是 什么概念?大约相当于五十到七十万个中文字,一本书大概十万字,也就是说, ai 帮你能写将近七本书的内容,只收你三块钱。反过来说,你自己要生产这一百万 token, 至少得花几十万买个 gpu, 装一台服务器, 二十四小时不断电。就这样,你的一台机器大概需要十几个小时才能生产出这一百万个 token。 而且这个你还没有算你的工程师维护机房电费和宽带费。 deepsea 为什么能卖三块钱?因为它拥有几万张 gpu, 同时跑,一天处理上千亿个头梗,成本被摊到几乎为零。这就好比你自己在家养了一头牛,挤了奶想拿出去卖,一瓶卖五块, 你觉得能赚,但是你一算,买牛花了两万,饲料每月两千,一天只能挤几斤奶,隔壁蒙牛一天出几千吨,一瓶卖三块钱还能赚?你的奶不比它的差,但是你的成本是它的一百倍还要多。 这就是普通人生产 token 面临的问题,不是做不了,是做了一定亏。所谓普通人在 token 这门生意里的正确姿势,不是自己生产 token, 而是用便宜的 token 去创造贵的服务。 举个例子,你用 deepstack 花三块钱买一百万个 token, 让 ai 帮你写十篇小红书文案,通过小红书的文案带货去赚钱,那么你的成本就是三块钱。 你赚的不是 token 的 差价,是你知道怎么用 token, 而别人不知道的信息差。再举个例子,你用 ai 帮一个小型企业搭建一套 ai agent 的 token, 成本可能不到十块钱,但你收企业五千块钱的咨询费, 企业买的不是你那十块钱的 token, 而是你的判断力和方案。不要去跟巨头抢着生产 token, 要去想怎么用三块钱的 token 创造三千块钱的价值。生产 token 的 钱留给巨头去赚,用 token 去做赚钱的生意,才是留给普通人的机会。我是文思,关注我每天带你看懂 ai。

toc 工厂里的 toc 是 怎么生产出来的?它和电一样可以存到电池里面吗?还是和手机流量一样不能存? 答案是后者。 toc 只有在你发送问题和回答问题的时候才会计算和产生。当你给 deepsea 发问题的时候,以及他回答你答案的时候, deepsea 这个大模型所在的那台 ai 服务器在高速的消耗电力来思考和回答你, 服务器会计算你的问题和答案一共用了多少个字和标点来进行收费。由于碳模型是英文优先,你的问题大部分时候翻译成了英文,再翻译成数字来计算消耗,通常的结果差不多是一个中文字消耗一点二到一点五个 token。 你 问问题的时候差不多是两块钱, 而他回答你的时候可能是八块钱,每一百万个字,因为回答是经过思考的,所以更贵。另外你用豆包和 dipstick, 为了回答的更好,他通常会把你之前的问题和答案和你新的问题一并发过去,就会消耗大量的图腾。 所以你会发现生产 token 这个说法其实是打比方。为了好理解,实际上 token 只是计量单位,就像手机的流量用了多少 k 多少兆一样,是黄仁勋给大家打的一个比喻。我们消耗 token 的 背后其实是在消费 ai 芯片的折旧数据中心的算力,基础设施的折旧 电力, ai 大 模型工程师的研发和数据中心维护工程师的巡检。一句话, token 是 计算单位,不是一件商品。

toker 出海怎么出?四种模式,你会如何选择?一、传统模式,你通过电话邮件或者是聊天工具告诉海外的云服务商,你有一个定量的 toker 包,比如一千亿的千万 g l m 或者 cds 的 toker, 然后让海外的小伙伴线下去销售。但这个沟通商务时差,老外的效率、邮件方式和收付款都很低效,在做这件事情的时候未必划算,只适合大客户和大订单才能这么做。 二、聚合分发模式,把你的 token api 接入到大的聚合分发平台,它们根据稳定性和价格进行调用,低价就多调用一些,高价就少调用一些。 c 端统一一个 api 可接入的平台, 我们其实已经做好这些平台的接入要求,但在缓慢的排队中,接入的效率以及商务其实不太开放。 三、打包借通道的模式,这个需要你的 token 包很大很稳定,这几个小的 token 工厂的包 打包在一起,通过大厂和运营商进行一个合规的备案,出海到海外的大 b 端或者 c 端。四、 toc 模式,哪怕你只有几十亿的 token 价值在数千,你可以通过电商或者社交媒体进行少量的 toc 转售。 总结一下,托肯出海和磁源经济是一个三月份才开始进入大众视野的事情,还很早期受制于 openroot 的 不 open。 我 们团队决定做一个中国版的 openroot 是 有很多挑战,但我认为磁源经济和托肯需要一个更开放的生态和宅体。月十一号的广州线下沙龙,我们将发布这个中国版的 openroot。

token 工厂这项业务的全流程是什么?包括选 token、 选设备、建厂、开店和维护五个环节,两分钟讲清楚。一、选 token ai 使用的 token 和电力是不一样的,电力是标准的,谁生产的电都一样。 但是 token 由于是智力单位不同,大模型出来的 token 是 不一样的,有聪明一点的,弱一点的,有擅长编程的,比如 cloud code, 有 擅长做视频的,比如 view、 sora 和我们的 cds, 还有擅长软件工程的,比如 gm。 这里面闭源的模型像 gbt、 cloud、 gmail、 豆包、 mini max, 你 有 ai 服务器也没办法,你只能在服务器上面部署开源的 ai 大 模型,比如 kimi、 千问、 deepsea 和 glm 来生产 token, 至于选哪个,就要看生产销售的性价比了。 二、选设备。通常准备卖 token 这个生意都是看上我们的电力和工程师比较便宜,所以我们的 token 大 概是 美国 tok 的 五分之一到七分之一。而选择推理型的 ai 服务器或者说芯片,它的耗电量和维护量都更高,我们村的优势更大。而且推理服务器像五零九零芯片,它的产值也更有优势。这个在我之前的视频有说,后面也会单独出一期。 关于 tok 工厂的设备选择三、建厂选好模型和设备以后,就要选择一个 a、 i、 d、 c, 把我们的设备和模型部署进去, 基于稳定性的需求,现在 t 三级别以上的 a、 i、 d、 c 才能考虑。然后是选店和网络都便宜的地方,把 ai 服务器进行主网,然后安装大模型 进行统一调度,就可以不断地生产 token 出去了。四、运营销售有三种,一种是上架到 token 的 分发平台,像 openroot 直接在 openroot 上面开店就好了。 另一种是直接甩锅给云服务商,让云服务商去代卖,这种就需要缴纳高额的费用。还有就是自己去找,像高校影视动漫公司去分销。五、维护维保托肯工厂建好以后不是一劳永逸的,英伟达的 a f 武器的年维护量或者说故障率在百分之十五到百分之二十 是要维修或者说维护的。此外, tok 的 性价比也会动态变化,大厂们每个月都在 pk 谁家的模型号,也许这个月你卖 deep six 划算,下个月就是小米模型或者 g l m 了,大模型是需要动态调整的,如果对你有用,请点赞关注,我会持续更新,我们 tok 出海的过程也会提供相应的技术支持服务。

很多人觉得做投资很难,但其实和卖保险几乎一样,我给你讲完你就懂了。卖保险的人很多也不懂保险产品,更不懂精算。但他们为什么能卖? 因为他们认识人,他们知道谁刚买房子,谁养孩子,谁开始关注,保障 他们收集需求,再推荐保险产品,成交之后他们拿佣金。而且很多卖保险的人,以前可能是老师、司机、宝妈、刚毕业的学生,他们并不是专业人士,但是他们都能做 token 渠道。其实是一样的逻辑,你不需要懂 ai 技术,你也不需要做产品,你只需要认识人,收集需求。比如你有个朋友做电商,他说每天写文案太累, 你去找一个已经做好的 ai 写作工具,拿到分销资格,推荐给他,客户用了,背后就在消耗 token, 而你拿销售佣金。为什么这个模式成立?因为现在很多 ar 公司有产品,没有销售渠道,就像保险公司,有产品,但需要代理人,普通人就是那个代理人。 其实 ar 行业正在复制当年保险、房产、云计算的发展路径,技术公司做产品,渠道负责 渠道负责卖,而 token 就是 ar 时代的消耗品。所以普通人做 token 最合适的角色不是技术人员,而是 ar 产品代理。 就像卖保险一样,你卖的是产品,背后是服务,在背后是 talkin。 问,第一个 talkin 客户从哪里来?你身边第一个有需求的人开始。 如果你认识做生意的人、开店的人、做销售的人,其实你已经具备做做 租 talk 渠道的条件呢?如果你身边已经有人需要写文案、做客服,做短视频评论区,打个代理,看看有多少人已经具备租 talk 渠道的条件。关注我,一起探索 ar。

oken, 取了个中文名叫词源,一个英文单词,值得国家亲自命名,说明这个东西的重要性远超大多数人的想象。今天用一条视频帮你彻底搞懂它。你发一条语音微信,消耗的是流量,你打一通电话,消耗的是话费。你让 ai 帮你干件事,消耗的就是 token。 词源。词源就是 ai 时代的流量,区别是手机流量传输的是信息,词源消耗的是智能。你让 ai 想得越深,干的越多,词源烧的就越快。 一个中文字大概等于一到两个词源。你让 ai 写一篇一千字的文章,大概消耗两千个词源。听起来很多,但换算成钱,用 deepsea 的 大模型,大概花了零点零零六元不到一分钱,便宜到你根本不会注意到它在烧钱。 但国家注意到了,刚刚公布了一组数据,中国日军词源调用量已经突破了一百四十万亿。你可能对这个数字没有概念,就这么说吧,一百四十万亿词源,相当于二百五十个国家图书馆的全部藏数量。这是一天的消耗。 二零二四年初,这个数字是一千亿,两年时间涨了一千四百倍。更关键的是,今年二月,中国 ai 大 模型的调用量,历史上第一次超越了美国,是在定义一个新的经济指标,就像用电量反映了工业活跃度,资源调用量反映了 ai 产业到底有没有在真正的运转。 数字越大,说明越多人在用 ai 干活,越多企业在用 ai 赚钱。资源是智能时代的价值锚点,是连接技术供给与商业需求的结算单位。 什么意思?以前你买软件是买一个产品一次性付费,以后你用 ai 是 按用量付费,你用了多少资源就付多少钱,这和你交水电费是一个逻辑。 资源就是 ai 时代的水电表读数。但关于资源,有两件事大多数人不知道。第一件,资源消耗量正在爆炸式的增长,但不是人在消耗,是 ai 在 消耗。以前你跟 ai 聊天,一来一回消耗几千个资源,但现在 opencloud 火了, ai 不是 跟你聊天,它是在帮你干活。 一个智能体执行一个任务,自己跟自己对话。几百轮消耗的资源就是你手动聊天的上百倍。一百四十万亿这个数字里,绝大多数的时候,不是人在问 ai 问题,是 ai 在 帮人跑任务。这就是为什么三个月涨了百分之四十,不是突然多了百分之四十的人在用 ai, 是 每个人用 ai 的 方式变了,从回答变成了干活。第二件事,资源的价格正在崩塌。 deepsea 刚把价格降到了一半以上,输出资源从十二块降到了三块, 阿里通易、百度、文心、 kimi 全在跟着讲。有的模型输入价格已经低到一毛钱每百万次元。这意味着什么?意味着 ai 干活的成本正在以你想象不到的速度接近于零。 今年你觉得 ai 太贵,不划算,半年后可能一毛钱就搞定。这些事好搞懂了词源是什么?为什么重要?最后一个问题,跟我们有什么关系? 三件事。第一,你的竞争对手可能已经在用资源干活了。他用 ai 一 天出二十版方案,你手工出两版。不是他比你聪明,是他比你会多花这几分钱。资源越便宜,用 ai 的 人越多,不用 ai 的 人会被拉开的差距越来越大。 第二,一批新的工作和生意正在围绕着资源诞生。有人专门帮企业优化资源消耗率,同样的任务,别人花十万资源,他帮你花三万资源就搞定,这就是一门生意。有人专门用便宜的资源批量生产内容,转手卖高价。 有人帮小企业搭 ai 工作流,本质上就是帮他们规划资源怎么花最划算。第三,中国的资源正在迈向全世界。 中国的大模型价格是美国的几十分之一,全球最大的 ai 模型平台上,中国模型的调用量已经占了百分之六十一。中国靠便宜的电、便宜的算力、便宜的模型,生产出全世界最有性价比的资源。工作报告里面写的算电协同落到产业层就是这件事。用中国的电生产全世界的资源。 两年前,没人知道 token 是 什么,今天给它起了个中文名叫磁源。公布日军电话量,把它定义为智能时代的价值锚点。当一个东西重要到亲自命名的时候,说明它已经不是趋势了,是基础设施。 电子时代有电表,网络时代有流量, ai 时代的计量单位就是磁源。读懂了磁源,你就读懂 ai 时代最底层的经济逻辑。我是文思,关注我,每天带你看懂 ai!

大家好,今天我们用三分钟讲透 ai 产业底层商业逻辑。黄仁勋提出的 token 工厂经济学,首先明确核心概念。这里的 token 中文意思叫磁源,和虚拟货币、区块链没有任何关系,它是 ai 大 模型处理信息的最小数据单元,是 ai 时代的标准化产品。 黄仁勋这套理论的核心,就是把 ai 算力变成了一套标准化、可量化、可盈利的制造业体系,它彻底重构了数据中心的价值。 传统数据中心是存文件的仓库,而 ai 时代的数据中心就是一座二十四小时不间断生产 token 的 智能工厂。这座工厂的完整逻辑非常清晰, 电力是生产原料, ai 芯片与算力集群是生产核心的硬件底座, ai 服务器、高速光互联、液冷散热、高端 pcb 是 核心生产设备,最终产出的产品就是 ai token。 而整个工厂的核心 kpi 也是核心盈利密码就是 token w, 也就是每瓦电力能产出的 token 数量。核心目标就是在固定电力上限下最大化 token 产出,最小化单位 token 成本。为什么这个指标是行业黄金标准?因为黄仁勋点破了 ai 产业的物理铁律, 是 token 工厂不可突破的天花板。一个数据中心的供电总量是锁死的,单纯堆显卡、堆积柜没有长期意义。未来 ai 算率的竞争,本质就是效率的竞争。同等电力下, token w 越高,生产效率越高,单位成本越低,盈利能力就越强。这套经济学彻底改写了算力行业的游戏规则, 全产业链的价值平台都围绕能不能提升 token w 展开,而算力租赁就是 token 工厂产能的商业化分销出口。在这套思维下,行业竞争的核心早已不是单一芯片的比拼, 而是算力集群整体系统能力的提升。在这一赛道中国具备全球领先的核心竞争优势。首先是无可替代的电力成本优势。 剔除西部丰富的绿电资源与东数西算工程的全国算力网络布局,我们拥有全球极具竞争力的低电价,直接击穿 tiktok 工厂的核心成本线,从根源上拉高磁源瓦的核心效率。其次是全链条自主可控的配套优势,我们拥有光互联、 pcb、 叶冷等 tiktok 工厂全环节的全球核心产能, 供应链稳定性与成本优势独步全球。更关键的是全球顶尖的系统级优化能力,以华为 atlus 九百五十算力集群为典型代表,通过算力调度、网络协调、能效管理的全占优化,实现了万卡集群百分之九十以上的限行加速比, 把算力损耗降到最低,直接将磁源瓦效率拉至全球第一梯队。这些从能源底座、硬件配套到系统优化的全闭环优势,让中国在全球 toc 工厂的竞争中掌握了核心的效率话语权。 也正是基于这套核心逻辑,我们准备了三期系列节目,带大家完整梳理 tiktok 工厂的全产业链机会。第一期聚焦 tiktok 工厂的传输神经网络光互联赛道。第二期拆解工厂的硬件载体 与散热心脏, pcb 与夜冷赛道。第三期落到产能变现中局算力租赁赛道筛选同步高成长标地。感谢收听我们系列节目,再见!

来,今天咱们在市场上抓一条主线,讲一讲它的名字就叫磁源,就是那个国外一直讲的 talking。 啥是 talking? 呃,简单的说吧,就是像咱们打电话用的分钟数,用电用的几度电,它是一个单位, 就是用来形容你用了多少算力。比方说呢?这个调用算力这个事吧,我们在使用豆包和 deepink 的 时候,呃,其实就是机器在调用算力,帮我们计算、搜索、整理数据,最后给我们输出一个结果。 这个过程呢,简单的说就是在大模型的加持下,把电力把它加工成算力的这个过程。所以整个产业链上呢,涉及到五大板块,板块里头都有谁?讲一讲看能不能发出来。

有一个电站能不能做 token 工厂?怎么做?我很明确的说可以,但也很明确的说,这个其实不是标准的工厂,更像是 token 做法,使用场景和销售是完全不一样的群体。 怎么做?一、你首先需要招商引资。电只占 token 工厂成本的一小部分,在推理场景下,电力消耗占比在百分之十左右,百分之九十的成本来自于设备的折旧和维护, 你卖多少店就倒算一下要招商多少。我们也确实看到了很多基金在准备这件事情和在找电站。二、你需要做一整套的规划,包括硬件的建设、软件的部署、销售和维护的方案,还有一个长期的团队,我们在做这件事情的过程中发现其实比想象的要难。三、销售。 现在主流的云服务厂商和分发平台对上家的 token 的 稳定性和并发性要求很高,普通 token 工厂或者说是做坊是无法接入的,只能选择小的分发平台或者电商平台合作。 总结一下,对于持有电站或者廉价电力的小伙伴来说, token 工厂能做,但也有难度。比较好的消息是,多个大型公司正在建立支持小型电站的 token 分 发平台和调度系统,这一进度将会很快,电站的小伙伴确实可以密切关注和做好准备。

做 token 代理,卖 api 接口赚钱,这绝对是今年最大的韭菜盘。最近后台问我最多的就是能不能去批量批发豆包、 deepsea, 千问这些大厂的算力资源 token, 然后当个二道贩子卖给别人赚差价。听完我只问了他们三个问题,第一,人家凭什么买你的? 成为代理商的门槛你自己知道吗?豆包、 deepsea 官方的接口又便宜又稳定,你一个私人搭的草台班子,三天两头断线,你卖给谁? 第二,你的护城河在哪?你既没有自己研发底层模型的能力,也没有独家的客户渠道,你就是一个纯粹没有任何附加值的中间商,在算力成本无限趋近于零的今天,中间商死的最快。第三,也是最致命的, 大厂一旦打价格战宣布免费,你的库存瞬间变成一堆废纸,就连大厂的脚后跟都摸不着。记住,在 ai 时代,单纯的算力搬运工作没有任何生存空间。你要做的是拿着豆包千万的便宜算力,去开发一个能帮助大多数企业解决问题的工具, 赚应用层的钱。别去碰底层的基建,不是普通人玩的。任何人跟你谈偷看代理和销售的,要么是大佬,要么就是要割你。我是文思,关注我每天带你看懂 ai。

三种算力销售模式算力闭口租赁算力开口租赁和偷啃销售有什么本质区别?哪个更赚钱?我们一个一个来看。 一、算力闭口租赁起因是大厂需要大量的 ai 服务器,又不能买,因为他的设备或者不想中投资,所以找人买了租给他,但是资产方担心你租了一年以后不租了,我也找不到别人用啊,这不完蛋了吗?所以就要求大厂担保,租到他回本回息为止, 这个我们称之为闭口协议。大傻觉得你既然要我全兜了等于我买,那你也别想太赚钱,你就拿点利息吧,用完以后的旧设备还是要送给我。这样就形成了成熟的算力闭口租赁模式,大概就是一百块钱,五年能多拿二十块钱左右。 二、算力开口租赁随着 ai 紧凑度的提高,开始有资产方发现这些电子产品和服务器还能增值,也不快,旧设备免费送太可惜了,而且使用方也越来越多,不担心砸在手里, 于是就开始接受短租一年到两年。而大厂也不想承担 ai 服务器的价格波动或者更新换代的滞约,原来的五年闭口租赁模式开始往一年两年的中期合约转变,资产方来承担风险,享受增值和残值。 三、 token 工厂模式随着 open cloud 把 ai 应用和大模型解开捆绑,此外 ai 编程也大幅提高了 token 的 消耗量。资产方也可以抛开大厂,用开源大模型部署,直接给客户提供大模型的 token 服务。这个是三月份 gtc 二零二六黄仁勋开始大力站台后的一个全新的模式。 总结一下,算力闭口租赁其实更像建大楼给一个企业。算力开口租赁更像建一栋大楼,按年出租给不同的企业。而 token 工厂就像建一栋大楼,开一家酒店,接受预定,按天收费。

一九五六年,集装箱被发明出来,在此之前,全球贸易的成本里,装卸要花掉一半的钱。因为货物大小不一,形状各异,搬上搬下又慢又贵。集装箱来了之后,所有东西都被装进统一尺寸的铁皮箱子, 运输成本断崖式下降,全球贸易开始疯狂增长。到了二零二六年, ai 世界也冒出了一个类似的东西,名字叫 token。 很多老板一听到 token, 就 觉得是搞技术的名词。 但如果你是个做生意的人,你应该看明白,这背后是一次脑力服务的重新定价。 token 到底是什么?说白了,就是 ai 处理文字的最小单位。你让 ai 帮你写一段话,改一份代码,出一份报告,背后都在消耗 token。 关键是, token 这东西,可以数得清, 可以定价格,可以跨国买卖。这就像当年的集装箱一样,把原本乱七八糟、没法标准化的智能服务,统统塞进一个统一的数字容器。从此以后,脑力劳动可以像矿石一样,从一个人手里卖到全球任何地方 来算一笔经济账。一度电直接卖出去,大概能拿到零点五元。把这一度电用来炼铝,做成铝,定能卖一点五元,翻了三倍。但如果把这一度电拿去跑大模型呢? 一度电大约能产生五百多万的 token。 按国内主流 ai 模型的定价,这些 token 能卖到十一元,是直接卖电的二十二倍。如果按美国 openai 的 价格来算,差不多能卖到四百元,相当于七百八十五倍。你看出门道了吗? 同一部店换了一个包装,价值差了几十倍甚至几百倍,这已经不是能源生意了,这是算力生意, 是脑力出口的标准化工序。更厉害的一点是,店本身没法装箱运输,但 token 可以 跨国流动,不需要电网,不需要高压线,不需要别的国家批准,只要一根网线。 一个印度的开发者调用部署在中国西部的 api, 背后是甘肃的风电,青海的光伏在转动,电没离开中国,但钱进来了,这才是真正的结构性机会。有人会问,现在 ai 这么卷,价格都打成白菜价了,还能赚钱吗? 你要看清楚一件事,刚才说的二十二倍不是天花板,恰恰是价格战打完之后的结果。美国那边把 token 的 价格定在一个很高的位置,负责教育市场。中国这边靠工程能力把成本打到地板,负责规模收割,一个定标准,一个降成本, 这就是全新的全球分工。真正值得你琢磨的,不是哪个 ai 模型技术更强,而是在这个时代,你是打算继续卖店,还是开始卖 tiktok? 是 继续卖原材料,还是卖标准化的脑力服务? 所有的行业都会被 token 重做一遍。教育行业,学生问一个问题,消耗 token, 老师不用再按小时收费了。客服行业,解决一个用户问题,消耗 token, 企业按解决效果。编程行业,生成一段代码,消耗 token。 程序员从卖时间变成卖产出、 营销、法务、设计、咨询,统统会变成按 token 计费的智能服务。一旦能被计量,就能被规模化。一旦能被规模化,就会长出新的行业巨头。 商业的本质从来没变过,谁掌握标准,谁就能赚溢价,谁只卖原料,谁就只能被压价。一九五六年,集装箱改变了全球制造业。二零二六年, token 正在改变全球脑力市场。电力过剩根本不是问题,算力过剩才是真正的机会。 美国把 taco 的 价格炒上去,中国把 taco 的 成本打下来了,西电东算的政策才刚刚拉开了。如果你是个老板,现在你真正该问自己了,不是我要不要用 ai, 而是你能不能把自己的行业也装进 taco 里卖出去。

talkin 将成为 ai 时代的这个新石油啊,为什么看好 talkin 产业链?什么是 talkin? talkin 的 细分包含哪些正宗标的?那这个视频我会说的很详细,视频比较长,耐心看完并收藏,半年或者一年之后,你会感谢这个视频。 那么第一部分,什么是 talkin? talkin 是 ai 能理解啊,然后处理输出的这个最小心系的单元,那么与固定大小的这个字符不同啊,同一段文本在不同的这个 ai 模型中 拆分的 token 数量存在差异,是 ai 交互的这个基础的主体,然后现在呢,我们中国把它命名叫磁源啊。 然后第二看好 token 的 这个完整逻辑啊,首先整个这个 ai 产业形成了啊,从能源到芯片到算力基建啊,就数据中心,再到大模型,再到 ai 应用 agent 的 这个 token, 全产业链,上游啊,完成 token 的 生产, 下游完成 talk 的 这个消费,全链路的这个经济活动,都将围绕 talk 的 生产效率与这个价值 兑现展开啊。然后第二部分, a 股与 talk 概念最接近的核心标的有哪些啊?呃,主要有五个积分,每个积分大概有两到三家标的啊。呃,不是只有两到三家,就是我整理的比较呃,大型的这种 talk 标的啊。 第一是这个 tokken 的 生产核心引擎是 ai 算力芯片啊啊,它属于这个 tokken 工厂的发动机,直接决定 tokken 生产的效率与上限, 是最核心的这个卖产量的环节啊,比如说毛海光啊,它是国产 dcu 和这个 ai 芯片的龙头,产能性能对标国际的这个主流,适配国内所有主流大模型,国内超四成这个 ai 服务器啊,搭载他们的这个芯片,然后它的二零二六年 q 一 的营收同比增长百分之 六十六到六十七啊,直接受益于这个 tucker 才能扩张带来的芯片需求爆发。然后某五 g 啊,它是国产这个云端 a 啊芯片的这个标杆,新一代啊,思源系列的这个芯片已经实现了大规模的商业化的这个落地,订单量大幅增长啊,是国内大模型训练与推理的这个核心 芯片供应商啊,直接这个承接 tokken 的 生产的这个算力芯片这个需求啊。然后第二是 tokken 生产核心的这个载体啊, ai 服务器与这个算力群体, 那么它是 tokken 工厂的这个生产机床啊,那么 tokken 生产的这个硬件承载,直接决定 tokken 工厂的这个产量规模 啊。比如说某浪潮,它是国内 ai 服务器的这个绝对龙头啊,它的实战率超过百分之六十,全球稳居第二啊,是阿里云啊,然后腾讯云啊,字节跳动等这个头部 talk 工厂的这个 呃,运营方的核心服务器供应商,他的订单也已经排到了这个二零二七年了啊,直接承接这个 talk 才能 扩张的这个核心硬件采购需求。复联啊,复联是这个英伟达全球这个核心服务器代工的这个供应商啊, 是全球 ai 算力硬件的这个核心交付方深度绑定那个英伟达托克工厂的这个生态服务器出货量,随着这个全球托克需求的这个爆发,可能肯定也会持续的翻倍增长啊。然后曙光啊,曙光,它是国内这个高端算力服务器的一个龙头啊,业冷技术的这个国内是领先领头羊啊。 然后是国家对算力建设的个主力核心客户覆盖这个科研机构啊,然后政企啊,还有一些主流的这个大模型厂商,全面受益于这个国产 tok 工厂的规模化建设啊。然后第三个细分是 tok 生产核心厂房啊,呃,主要是制算中心和这个 idc 啊,他们是这个 tok 工厂的这个生产车间啊,比如说像任泽,他是国内最大园区级的这个数据中心运营商啊,廊坊级群单机,这个 单柜的这个功率达到一百三十千瓦,然后这个呃液冷技术实现这个 p u e 一 点零八与字节跳动,签了这个五年的这个长险翼,是这个字节豆包大模型 万亿级 top 肯推理的这个核心算力底座,然后它的二零二六年的这个 a i d c 收入啊,占比将会超过百分之六十。 然后像那个奥菲啊,他是阿里和百度核心的这个 i d c 的 这个服务商,直接受益于阿里 top 事业群成立后的这个呃能源扩张,同时他在这个海外布局这个和规划类中心,可以直接承接全球的这个 top 生产需求, 是顺利出海的那个核心的标的啊。然后像数某港啊,他是阿里云核心 i d c 运营商啊,深度参与这个通一千万大模型推理集群的这个建设,他有三十五座数据中心啊,布局这个东数西算核心的这个枢纽的那个节点,是国内头部 tucker 工厂的这个核心 基建供应商啊。然后第四个细分是 tucker 传输核心的这个通道,主要是光模块和这个光束连接,他是 tucker 工厂的这个血管, 那么 tokken 的 生产的这个 ai 机型需要超高带宽的这个高速互联,那么是 tokken 高效流转的这个核心主体, 那么里面包含啊,比如说像中继啊,它是全球光模块的绝对龙头,试战率超出超过了百分之三十,它的八百级和一点六 t 的 产品啊,那个批量交付英伟达深度绑定那个全球 tok 工厂的这个生态, 直接受益于 tucker 才能爆发带来的高速互联的这个需求。然后还有一个龙头是某一胜啊,它是全球高速光模块的核心厂商啊,它的一点六 t 的 光模块已实现量产,北美头部的这些营厂商订单也已经排到了大概二零二七年。 是全球 tokken 工厂啊,高速互联的这个核心供应商。然后第五个细分是 tokken 消费与商业化啊,主要包含大模型和这个 ai 应用,它是 tokken 的 最终消费的这个终端啊,那么直接通过 tokken 计费实现商业化,是 tokken 价值的最终的一个兑现环节。 比如说昆仑啊,昆仑它是拥有这个模型加应用加算力的这个全闭环的啊,旗下大模型这个 api 服务按 talk 计费,然后海外的收入它也已经占比超过了百分七十,推理 talk 的 这个消费量啊,持续是高增的,是 a 股直接实现 talk 商业化变现的这个核心标的啊, 还有像迅飞啊,迅飞是国内大模型的这个龙头,它的薪火大模型已经完成了这个完整的 talkin 计费体系,企业级的 api 服务收入也是稳定增长的,是国内 talkin 消费场景覆盖最广的这个厂商之一啊。 然后像那个首都啊,就是它是这个智普 ai 核心的这个算力供应商,全球布局一千五百家的这个节点,北美啊、欧洲啊这些它都部署了这个 gpu 的 集群,它的日处理 tokun 超两百个亿,直接为这些 ai 应用厂商提供 tokun 的 生产与交付服务。

tock 工厂经济学是一个用来描述大模型时代核心生产模式的领域。他将人工智能模型视为工厂,将 tock 级模型处理文本、图像 制平等数据的基本单位视为产品。这套经济学体系揭示了人工智能从科研探索向规模化工业产业转变的底层逻辑,涉及的领域与范围,其核心在于用工业化的视角结构人工智能的生产过程。在算力供应链层面,他将算力从单纯的硬件采购 重构为算力算法数据的协同系统。这里的工厂不再是物理厂房,而是由 gpu 集群、高速互联网络、冷却系统以及分布式计算框架构成的巨型计算集群。 token 的 生产成本由电力消耗、 硬件折旧、模型推理效率共同决定。这直接催生了算力租赁、市场、边缘计算以及模型量化压缩技术的快速发展。在产业组织与商业模式领域, 它改变了软件产业的成本结构,传统软件编辑成本趋近于零,而人工智能服务的每一轮对话都对应着实时的算力消耗。这催生了基于使用量的定价模式,如每百万 tpu 定价,并导致了产业链的垂直整合。头部企业向上游自研芯片,如 tpu 定制加速卡,以降低原材料成本, 同时向下游打造应用平台以锁定出货量。在数据与知识管理方面,该经济学将高质量数据视为维持工厂运转的核心原材料。随着互联网公开数据被消耗殆尽, 合成数据成为新的原材料来源,这促使企业建立从数据清洗、标注、合成到模型迭代的闭环供应链,并引发了关于数据、产权、版权却全及收益分配的法律经济学讨论 对人工智能领域的影响。这种经济学视角深刻重塑了人工智能领域的技术眼睛路径。在透更工厂的逻辑下,模型架构的优化目标从单纯的追求 智商转向极致的降低单位成本,这也解释了行业为何从堆叠参数转向探索混合专家模型、多投潜在注意力等架构。他们本质上是让工厂在不增加推理成本的前提下扩大产能。他重新定义了人工智能领域的竞争壁垒与产业格局。规模法则使得工厂的初期资本开支 门槛极高,导致产业呈现寡头化趋势。但与此同时, toc 生产成本的持续下降使得人工智能能够大规模渗透进广告、搜索、电商等对价格敏感的行业,推动了从炫技到应用的范式转换。它还引发了关于价值分配与宏观影响的讨论。 当 token 成为可计量的通用商品,其定价权可能成为新的经济制高点。一方面,这推动了绿色算力的发展,因为电费是可变成本的核心。另一方面,它也带来了通缩性影响,弱智能的编辑成本持续归零,传统依赖人力或信息不对称的商业模式将面临重构。总的来说, token 工厂经济学 不仅是技术或商业模式的描述,它标志着人工智能正在演变为像电力网络一样的基础公共资源,其核心矛盾正从能否实现转向如何以更低的成本、更高的效率、更可持续的方式生产智能。

大家好,我是陈逸媛。今天我们来聊透 ai 时代最核心的价值逻辑,算力生产 toc 电力无法出口,却能通过 toc 中文叫磁源的实现价值跨境流转。同时把 coco kai 的 无线算力和传统中心化芯片算力的本质区别一次性讲清楚。 在 ai 世界里, token 就是 ai 运行的最小使用单元,不管是 ai 对 话、内容生成、图像识别、逻辑推理,还是模型预算,所有操作都要消耗 token。 可以 说, token 就是 ai 时代的通用算力货币,是数字世界的硬通货。 而 token 的 生产离不开算力,算力的来源离不开电力。但电力有一个天然短板,无法物理出口,跨境书店成本高、损耗大、覆盖有限,大量赋于电力,只能就地消耗价值,很难走出国门。 而现在,一条全新的价值通道已经形成,电力算力 tocan 全球价值流通,电力不用出镜,通过算力转化为 tocan, 就 能实现价值的全球化传输。接下来重点对比两种完全不同的算力生产模式。首先是传统中心化芯片算力, 它依赖大型数据中心海量 gpu、 npu 芯片集群,由少数机构集中建设,集中运营。 这种模式有几个致命问题,第一,成本极高,芯片采购、机房建设、散热运维、电力消耗都是天文数字,普通参与者根本无法进入。第二,扩容受限,算力上限由芯片数量决定, 想要提升算力,必须继续采购,硬件周期长,投入大,很难灵活应对 ai 爆发式的需求,致。 第三,资源垄断且浪费严重。算力集中在少数巨头手中,普通用户和小型项目很难公平使用。同时,中心化机房负债不均,大量算力闲置或过载能源利用率极低。 第四,容易出现瓶颈,一旦网络、机房或核心设备故障,整个算力体系可能瘫痪,稳定性极差。再来看 cockey 无限算力, 它从底层逻辑上就和中芯化算力完全不同。愧 coco cat 采用分布式节点网络,不依赖单一中芯化芯片集群,而是汇聚全球海量分散节点,共同提供算力支持。 它的核心优势非常突出,第一,真正无限扩容节点越多,算力越强,没有物理上限,可以随 ai 需求持续增长,彻底摆脱芯片数量和硬件规模的限制。第二,成本极低,效率更高,充分利用分散的闲置算力与电力资源, 不需要重资产,投入耗更低。第三,去中心化更安全稳定, 没有单一核心控制点,不会因为某个节点故障影响大局,抗风险能力远超传统中心化架构。 第四,普惠共享,人人可参与,打破算力垄断,让普通参与者也能共享算力收益,让偷看的生产更加公平开放。总结来看,传统中心化芯片算力是重资产、高能耗、有上限、易垄断的旧模式, 而 coco cap 的 无限算力是轻量、高效、无限扩展、去中心化的未来模式。在电力转化为 token 这条全新价值赛道上, coco cap 用分布式无限算力重构了能源算力与数字资产的关系。 电力不必出境,价值却能走向世界。算力不再被巨头垄断,人人都能参与数字经济的价值分配。未来 ai 的 竞争,本质是算力的竞争, 谁掌握更高效、更普惠、更无限的算力体系,谁就能主导 token 的 价值规则,占据 ai 时代的核心话语权。而 coco cart 正是这场算力革命的关键力量。