也就说一月,其实上,呃,一月,一月前半个月主要应用在讲,其实一月中旬之后,呃,我们能看到,呃各种海外的一些 agent 也好,固定的这个进展也好,其实我们从需包括模型的进展就是我们从需求侧就是就是看到了 整个 token 消耗,就是需求的一个快速的增长。所以当时我们就提出来了说这个 我们是其实从全年来看,我们都是看好整个的算力的这个通道链条的,那后来其实这个逻辑其实是在不断地强化的。那我们可以回顾一下,就是说,呃,从整个的算力的通道,从 gpu 到存储到这个 其实一月份当时除了存储以外其实还涨,还涨过一点这个 cpu 啊,然后到这个云浮啊,到 a、 b、 c, 就是 从整个的这个链条来看,它是逐步的从这个上游的这个 上游往下游就是逐步的外溢的。那么现在的话基本上可以确定就是正式传达到云浮这个环节。 呃,我印象中就是在一月二十五号,就是最应该是一月二十几号,当时是亚马逊先涨价,然后一月二十五号,当时这个谷歌已经开始开始说这个海外的这个 cbn 也涨价。 呃,当时其实市场还是炒了两天,这炒了一天还是两天这个国内的云云厂商的。当时我,我其实在一月底二月初的时候,其实我,呃跟一些领导会,就是路线线下路演汇报的时候,我就提到说为什么很多领导就比较疑惑说为什么 我感觉这个感觉这个云厂商涨价,涨的就是那个股价吧,走的特别不流畅,就是上蹿下跳的。呃,我当时的判断就是因为当时其实大家只是看到了海外云厂商的一个涨价, 呃,但然后预期国内云厂商涨价,但是呢国内的云服务的这个竞争格局跟海外又不太一样, 所以其实当时就是炒预期,既然是炒预期呢,那就没有什么催化,之后就很容易就是股价再掉回去。所以其实那会其实这样,然后到二月初,二月初五号,呃,这个网速正式 这个公布,它四边涨价,然后二月十一号这个,呃,二月十一号应该是这个优克德公布涨价。 其实当时其实属于这种 c、 b、 a 以及说啊中小云厂在涨价,但是大比如说阿里、腾讯啊、百度啊,就是大厂其实并没有涨价。当时全市场的一个或者说啊云服务的产业链的一个态度是什么呢?就大家都在观望,为什么观望呢? 因为大家都在观望阿里和智杰的这个节奏,就他们两家如果不涨价,其他的中小运场或者稍微小一点运场其实大家也不太敢涨价的啊,所以大家都是一个观望的一个心态。但是呢, 但是呃,很明确的一点是什么?当时比如说 gpu 卡,因为它会随着每个批次的这个价格,然后来随机就是来这个动态调整的,所以这个其实不影响。然后但是确定的是存储肯定是要涨价的, 这个是其他中小型这个存储肯定也是要涨价,这个是明确的。但是其他的原因整个是比较涨,当时是比较观,是观望的。 那么一直到现在其实阿里已经涨价,然后今天这个阿里正式涨价,然后百度正式涨价,包括前面这个腾讯对他的一些模型,啊,对吧?就上了一个特定的模型,这个 top 在 涨价,包括智普的 top 连续涨了两轮。 所以这个呢?其实我们反反复复的,其实发过好多次,就说今年整个算力,算力,算力的这个通道链条的, 那 token 涨价呢?你一定是一个必然的趋势,所以这个我觉得才是因为更多,因为这个是我们更多从需求侧去看到这样一个一个特点。然后呢?在,然后我在这个 平时路演的时候,我就会发现,其实很多领导对这个 token 的 这个叫什么?对 token 的 这个传统逻辑,包括一些变商业模式其实是比较有点搞不清楚的。所以我今天呢,就是我们今天就是从头到尾捋一捋到底为什么这个 算力通胀统,就是算力通胀到底持续性怎么样?然后这个股价从去年这一轮的整个算力的上涨, 呃,从去年三季度的 gpu 开始,到现在炒到了云服务,当然现在像像 i d c 的 这个前内的 i d c 的 价格可能还没有涨, 那最后最终肯定也会才传到到 i d c 了。那这个链里面到底到底整个链条是怎么传到的?这个是我今天跟各位老汇报的一个重点。 呃,那这里面的话我们就看先,我们先看一下,就是今天这个前两天的时候,阿里重组了他的一个叫这个 coca cola 的 一个事业事业群,那他的核心逻辑就是什么呢?从 大模型创造 token 开始,会议实验室,然后再到它的云去输送 token, 以及到下游应用去应用, token 就是 整个链条,围绕链条去把整个的 token 的 这个产业链其实是从头到尾打通了, 我觉得它比较叫什么呢?就比较有代表性,就是 token 到底是一个怎么传到,从需求到供给,到底这个东西是个怎么传到的?那我这里面画了两张,画了两张图,我觉得比较能让大家清晰的感觉感知到,知道说这个 token 到底咋回事儿。 呃,首先我觉得就是我们如果说从这个产业的这个远近的这么一个视角来看的话,呃,首先是因为大模型的能力提升,以后 就是大模型不断在迭代它的能力,那,呃,然后才会产生相应的 ai 应用。那么呃 今年以来大模型其实主要比如说在固定上,在 ag 这块儿能力提升的非常快, 所以我们的应用基本上就从 chatbot 逐步地开始往这个 ai coding, 包括 ai 程序以及多模态这这几这些应用上去 去升级,然后这块就是越往下柔去升级,那未来大模型可能还要再往这种世界模型或者物理模型去引进。那么未来像三 d, 三 d 的 需求,呃,三 d 视频,什么机器人、自动驾驶、 air force 等等,还会有新的一些需求出来,那 应用的爆发之后会带来 token 的 这个消耗量的一个指数级增长,这个我们后面会哎,会再去看这个环节的它的这个 token 需求消耗量到底大概什么情况, 那所以也就说大模型能力的提升催生了相应相应的 ai 应用,那相应的 ai 应用的因为不同形形态的 ai 应用呢?它的投分消耗消耗量又是就是应该说从 chatbot 到 coding 到 agent 到 agent 到 dom, 它是逐级的指数级的增长的。 那现在的整个我们处在的阶段是什么呢?我们现在处在就是从 chatbot, 呃,同时 ai coding 已经 h 是 包多模态,同时这三个中间这三个是同时在爆发的, 那未来是看呃这个物理世界,世界模型这一块的这个需求。那 ai 应用的爆发之后呢?会推推升整个 token 的 这个,呃就是推升这个推理算力的这个 举手。那推理推理算力的供给呢?又会受到就是推理算力的这种,或者说 token 的 这个供给吧?它靠的是什么呢?增长靠的什么?第一个呢?当然是就是呃各家云厂商、大模型厂商他们的资本开支能够买到的 gpu 的 算力, 呃,包括这个单卡物理性能的一个提升,比如老黄说他的现在的什么,呃,对吧?哎,如比你这些比之前之前的这个 h c a 增长多少多少倍,哎,这就是单卡物理性能的提升。另外呢还有什么呢?还有这个算法和工程优化的这个 倍数,因为大模型也在不断的迭代,就是呃,在呃之前的时候,我汇报过一个叫中美大模型的推理成本测算的那么一个,当时那么一个电话会,当时其实我们走出的结论是什么?从单位抽空来说,呃,中国大模型厂商, 尤其在这种稀疏算法家国的模型场上,在这种架构上面创新,包括这个这个 mo 架构的这些创新呢,所以它的抽空输出量其实效率是大幅提升的, 所以这个呢肯定也是一个影响因素,然后呢减掉这个基层的一些损耗,所以这个呢是我们头可能能够理论上它,它它的这个供给,那这里面比如说资本开支到这个算力,对吧?才会受到物理的各种各样的电的, 电的物理约束也好,这个什么存储产物的物理约束,各种产物的物理约束也好,它会受各种各样的约束,所以它本质上整个 tokon 的 供给级肯定还是限行,限行增加的, 所以呢也就是我们面临的是什么呢?面临的是需求的指数级增加,指数级的增加,以及呃这个 tokon 供给的一个限行的增加,所以我们可以得出就是中间是 是有一个巨大的价值,那,那所以得出结论说这个整个的 token 的 涨价它一定是个必然趋势, 那 token 带来的肯定是,就是,对吧?我们最后又回推到这个算力的这个这个供给算力的这个这个环节上去,所以这个是我们去讲说整个的这个 token 就是投分涨价的这么一个主要核心逻辑是在这。那第二个就是我觉得我觉得可以,从这我又画了另外一张图,就是说从这个用户视角,就之前其实我觉得很多领导是有点分不清楚,好像我们的这个叫什么,我们的这个 就是我们用的时候,比如说我们现在用龙虾或者用的时候,到底这个这个 token 这个需求是怎么传达的?首先就是我们说用户分 c 端用户和 b 端用户,然后呃 c 端用户的话,像 chatbot 这种包括这个多模态生成, 呃,当然现在的,比如说视频生成可能还是有些是 b 端的,但之前比如多模态的一些需求主要是偏 c 端的用户, 然后像 air coding 呢? agent 多工作, agent 工作流呢?就是 air coding, 主要是 b 端用户用多,然后 agent agent 就是 c 端、 b 端都有这个龙虾,比如现在还还是很多是个人用, 当然也有一呃开始这个很多 b 端的客户也逐步地开始用这套框架,对吧?这个是就是说我们说从用户侧出发以后,我们会用碰到这些应用,碰到这些应用之后呢? 那我们去用龙虾的时候,肯定是所要的要填这个大魔性的 a t i, 那 大魔性的 a t i 呢?我们通常有几种几种的这个,呃,这个买的渠道吧 你,你要么就去找这个大魔新厂商的官方去买它的这个 b p m, 比如说你买智普的也好,你买这个什么 g m x 的 也好,对,你总归是要找大魔新厂上去买的,那要么呢?你就你,你会去找这个云厂上去买, 呃,比如说你,比如说我去买这个阿里云的,阿里云的 call 店餐套餐,它里面呢既包含千万的模型,也包含什么智普、 minx 其他的一些模型上模型,所以这这也是一种渠道。那第第三种渠道,还有这种第三方的聚合场, 这种,呃,一般是比,比如说最最经典的就是,比如说海外的 oppo neutral, 国内也有一些聚合,聚合场上,它本质上就是我要帮你去呃它平台上会有多 多种模型,然后你买了他一个统一的套餐之后呢,你可以用多种模型,所以这这是就是我们通常购买的渠道,也就是这这几个,那 这些模型就是这些 api 的 提供方,他们的算力是来自于哪?他们的算力就是大模型厂商的话,一般他肯定是一般情况下,他都是这个租的这个算律租赁的。 然后云厂商呢?他有可能是这个自建的啊,就自建的 idc, 要么就是租赁的,反正无外户,就是自建 idc 或者是租,呃,这个代建或者商业租赁这种, 那第三方聚合厂商其实也是,之前就是这个,我们也讨论过这个问题,就是假设 oppo 助手上一个美国用户在 oppo 的 这个 api, 那他的这个算力,他推理算力,推理需求是在哪呢?是在海海外还是国内处的处理中心处理 这个呢?其实整体来看肯定还是国内的偏多呃,然后海外的偏少呃,相对来说比例更小一点,但是各家厂商又不太一样。你说这不可能,主要在国内, 然后海外,海外的需求在海外,国内的需求在国内, local for local 的, 所以这个呢,作家,作家可能可能不太一样,所以像,尤其像海外的一些这种 呃聚合厂商呢,他可能就会呃,就是既可能会调用国内的专利,也可能会调用这个海外的专利,所以这个是就是可以给大家讲一下。当然 d 端用户还会有四有划部分,这个在我们今天讨论的重点啊, 然后再往后就是那 i d c 场上,或者在租的租赁场上,他们就要去建机房,买硬件设备,然后搞电,对吧?搞搞搞这个散,这个散热设备,五 d 等等,然后再往上有就到这种芯片和元气垫这些这些场上,然后最后就到这个 金源代购台资店这块,中天国际这一块,呃,当,当然再往上没有什么,对吧?呃,光刻机这这些我就没有没有话了,这个数,这个是一个反倒的一个就是需求是是从从左往右窜到的,这个我们待会也会讲,就是说, 呃,我们一直说这个,我们当时给了两个结论,就是第一个结论是什么呢?就是算力的就是 token 肯定是要涨价的,也就是算力的总需求, 呃,就是算力的需求远大于供给,这是第一个结论。第二个结论就是算力的通胀链条里面我们更看好就是上游,或者说更看右边这个。然后这个相对来说他的涨价的这个 顺序肯定是从从右边写,从从这个右边往左边顺序往往下去外溢的烦恼的。所以就说竞争格,这这个其实本量是有竞争格局决定的, 大家是从右往左穿导的,这个也是我们待会,待会到重点去,可以去看一下这个里面。所以这个是我今天汇报,其实核心的就是结论性的东西,我觉得大家可以这个 就是,对,大概是是这两个,那我们接下来就,就,我们就专门就是就是把每个环节我们看一看他大大概现在是什么情况。首先说模型的迭代方向,今年以来模型迭代方向其实其实就三个, 一个是这个 cody, 然后 aj 多模态,这个刚才其实也说过了。然后今年,今年的话就是,呃,有一个我觉得就今年大家的感受是什么?就大摩市场上在疯狂的 就是甲方设卡要赚收入,这个我觉得是今年大家可能跟去年不太一样了,那为什么呢?为什么会是这样呢?本质上就在于今年的整个资本市场的风向是转变的, 去年是说你的资本开支越大,然后我国家越涨,对吧?一级融资也比较顺,也会更顺利一些,但是今年不一样,今年二级是你的投入,你如果投入产出比你的资本开支增速远大于你的收入增速的话,你股价肯定是要跌了, 然后你再一,然后你如果是非上升公司,就一级市场融资肯定也是不不好融的,所以这个是今年的一个 弱点,所以呢,就是说大模型厂商就会啊疯狂想想我要怎么赚钱。所以今年我们非常看,就是看到比较多的就是大家,就是我们去海外,比如说海外厂商,海外厂商模型厂商的话就是不断的去拼这个,比如说旗舰模型,我就要拼信了 啊我,我不断的去迭代我的性能,然后中终端模型啊,包括一些免费,免费的模型我就会去,比如说终端模型,我会把这个性能可能跟旗舰差不多,但是我的价格会便宜很多, 然后包括这个你看,呃,昨就是,哎,今天还是昨天就是低五点四的那个 mini 和什么 milo, 它那个成本对吧?一下子价格就还蛮低的,就很轻量化了,请大家就是要赚,就是搞性价比,搞收入, 那这个是我觉得这是一个就是背景,那今年就是然后呢?就是 asapic, asapic 在 according to agent 的 这个方向上呢?这个对吧?大杀四方,然后它同时它也给大家 也让大,就是它的收入的一个增速,它这个十个月,十五个月二十倍的一个增长,增长的这个速度就是让其他场上也看到了 cody 和 agent 这个方向上它是真的能赚钱。所以,呃,无论是海外的 opi, opi 也好, 还是这个国内的这些司晓龙也好,其实不包括这个,包括这个什么?包括其实国内的这些模型常常都好吧,就是大家全部都往这个空地过 a j 的 这个方向去, 去这个去去劫难,然后而且就是小步快跑吧,整个劫难速度还是挺快。所以 这个是就是模型厂商他今年发生的情况。那我们因为我对我就简单先介绍介绍这些,因为模型这块,因为我们今天重点是把整个的从需求到供给的整个链条,这个捋这个脉络捋清楚啊。 那第二个就是那,那好到应用层的话,因为模型能力的在扣定 ag 的 能力上,包括多模态能力上的一个提升之后, 所以相应的这些领域的这个应用也开始在爆发。那这个里边的话,我们先讲 coding, air coding 这件事情呢? 你这个图其实我在一月份当时讲 air coding 的 时候还讲过,就是讲过这个图,其实也就说我们现在 air coding 分 两部分,一一部分就是这个面向专业程序员的, 那它基本上从现在逐步是从代码、股权往这个端到端的,这个也就说,诶这个方向去去引进,还有一部分是 web coding 的 方向,那右侧就是 web coding, web coding 呢?是面向非诚学院, 那面向非诚学院由自然语言生成生成这个 coding, 那 现在的话就说去去年的时候, 去年七月份是上面是没有的,就只有下面和这个右侧有一点,就左下角和右侧有一点,写上就是上半部分都没有,但现在这也就半年过去了。 呃,这个 cloud code, 然后今天 t 呃 open i 包括这个 cloud core, 对 不对? cloud core 在 在这个面向程序员部分,当然还有很很多的, 包括这个谷歌的也好,口袋鼠也好等等,就是大家现在的这个进展,基本上都都已经从这个代码的这个股权到这个 自主自主的智智能体的这样一个阶段,所以整整个的这个发展速度还是很快。然后这个图呢,也是之前我们也讲过,就是说第二个就是 card code 呢,对,这个开启了 code agent 的 一个超级时代, 从这个 carlo oppo 四点五,当时是一一一万行吧,一万行左右代码,也就说这个这去年十一月份的, 去年七月份是一千行,到到十一月份是一万行,然后到二月份就是十万行, 所以整个过程呢,也就说这个迭代的速度越来越快,所以这个是 coding 的 coding, 也就说 coding 现在应该是全就是所有的 ai 应用里面渗透率最高的。然后 cloud code 就是 之前 公布过他的一个数据,他的这个收入里面有一半,或者说他的需求里面有一半是来自于这个这个 coding 的, 所以这个呢是就是目前 ai coding 的 一个这个能力,能力大概就在这个水平了。 呃,然后呢就是从这个市场规模来说,当然这个呢,其实下面这个图呢,其实就是说无论是这个呃网网页也好,还是 app 也好, 包括这个给他放的这个 code 代码的这个贡献量也好,整个其实代码定已经是带来了生产力的一个大幅的提升。从这个市场规模来说的话, 呃,如果他仅仅只是一个代码股权的话,他最多最多能有这个三百亿美金就错了。但是 他现在从整个 corporate 往这个 agent 去去去啊迭代,那其实替代的就是程序员的,程序员的这个这个市场,那这样的话,比如说海外,海外 基本上就是中期,就是中期市场能有个五百到一千亿美金,国内嘛,你除以十或者除以六,对吧?基本上 给厂商给瓜分去瓜分掉,被国内的这些呃模型这几家模型厂商给瓜分掉。这个呢,就是我觉得至少是,呃现在国内的这些模就是主流,主要这几家模型厂商能看得到的比较清晰的这个潜在的市场。 所以这个呢是 coding 的 情况,然后 agent 这个情况, agent 的 这个情况的话就是这个就不说不多说了。龙虾代表了现在 agent 的 一个最, 对吧?最热的一个粉一个。我说他在这个 open 周车上的这个分掉用量吧,就是 open 的 掉用量已经从百分之十二月份百分之十二,然后三月份的百分之十七,现在我们上周当时讲那个 各种各种龙虾的时候,对吧?各种国产龙虾衍生出来的时候其实都讲过,这个我就不多说了,这个是应用现在的情况,那么那么我们就接下来说到底不同的应用他们的对抽空的消耗量到底有什么区别?这个我觉得肯定是也是大家比较关心的一个话题啊。 呃,那我们就说这个 token 消耗量,如果说从需求来说, token 消耗量指数级增长,它有三层需求逻辑。第一个呢是 coding 本身,确实从从这个 web coding 包括到这个 agent 这个这个这种智能体的一个工程, 它其实 token 整个 token 消耗量,对吧?基本上你每一次能力提升就是十倍的,至少就十倍的一个消耗量吧。然后 agent 的 数量, agent 这个其实还 呃,我这个收听今天的 a b y radio 热点双声道就是 a, 今天 a 股市场整体走强,应该要乘三个,应该说乘三个乘数,第一个呢是 a 建的数量,第二个是这个 a 建的工作时长,第三个还有什么就是单位的这个 上下文的这个窗口的大小,这个这个也是这个其实这应该再再成,也就说这个其实是应该再再成一个就是单位开头的, 呃,单位的这个这个上下文的窗口,因为我们现在看到,现在看到这个上下文的窗口越来越来越大。 我我这两天这个搞龙虾的时候就就有一次其实就是直接把他的二,因为我用的吃谱的,然后把他二十万的这个上下文创都用用用光了,用光了他就截断了, 截断之后就就直接就死机了,就就就就没有没有任何反应了,只能就是重新再拆开窗口,开窗口,可能这种时候 呃,就是导致的,就是我可能前面的一些工作内容他就没有实时的保存,就等我可能就得从中间又得从头来,所以这个其实就是上下文的这个上下文的一个重要性嘛。那这是这是第二个,就是 a 型的本选的这个第三个其实就是多模态,这个我们待会也可以看一下,就是 就是比如说最近那个谁,那个现在十二点零的那个视频的那个价格也出来,大伙可以看一下这个这个消耗量部分的消耗量和价格的有关系。 呃,那这个其实我主要想说什么?这这这一页 ppt 呢?主要想说的是,哎,这个时代对这种他到底有哪些变化?其实我后面也也也用这个 ott 做了一个,做了一个这个对比, 呃,但是就说呃 agent 的, 就是相比这个 chatbot 的 话, agent 其实有一有,首先就是在存储和记忆层,这个呢主要变化就是什么呢?现 agent 有 一个特别显著的特点,就是我要常持久性的去记忆各种各样,就是用户的所有的信息, 所以这个是一个就是记忆的一个外置化,所以这个是一个很很大的一个区别,因为 chatbox 基本上是属于这个叫什么?你你你每次问他,他都是新的,他只回答你,当当前的, 当,现在各大模型厂商呢,也开始就是其实有已经在有意识的这个记住用户的信息,就是哪个模型你用的越多 你,你就会发现他越懂你,他知道你是你大概是个什么身份,你平时的需求,比如说我就是个研究员,对吧?我平时对头研比较感兴趣,比较关注比较多,他会记住你的人是大概对你的用户画像是有一个大致的这个记忆的,然后前面还 前天还之前还发生过一件事情,当,呃,之前那个就是,就是那个 iso tech 被那个美国国防部给拉黑的时候,拉黑之后呢?没过几天, 当时这个美国很多 c 端用户就就去找这个,就是签一层就卸载 cc 又,然后又去下载这个 cloud 模型,然后当时这个 cloud 就 出了一个功能, 是什么呢?就支持用户一键把这个 gpt 的 或者是 java 的 这个用户的这个对话记录一键导入到 call 里面去, 就本质上其实就是获得用户的所有的这个上下层的信息是这个,这个其实是一个比较重要的变化。呃,当然还有其其他的,其实就是芯片和存储的架构这这个变化,这个我待会儿我觉得拿 oppo pro 的 举例比较比较合适一点。 那第三再往下呢?就是就是说这个,呃, open source, 就是 我们讲其实我们这这这个这个主要讲这个 ajax 得到的对效率的影响是什么。 呃,这个这个的话,其实比如说我们以龙虾为例的话,因为龙虾的这个他的这个非常典型的一个任务,就是他基本上是你给他一个入会思考规划,然后叫工具,叫工具的话就是你联网搜索也好, 包括这个运行脚本、裁剪的脚本也好,等它会用各种工具,然后再再再观察,然后如果错了,中间错了,然后好这个你再给它纠错,纠错之后它会把整个更新的东西,然后记记记忆到它的这个 memory 的 m d 的 文件当中会反复的搞紧, 所以所以就是在我自己实际使用的过程当中,呃,一个非常深的感受就是你如果这个任务做的比较顺利吧,其实 进行非常多轮的纠正和纠错,然后修改这个过程其实就是个很爆炸的过程,很爆炸的一个过程。 所以整个的一个 agent 的 一个总的计算量,其实就是用户的请求量乘以这个平均的 agent 的 一个循环次数,然后到这种动态的上下文, 其实就是我,我这个刚才我直接直接打二十万用用超了,对吧?但是如果说你是用了超的模型,肯定一百万的,一百万的上下文你肯定是 实际写的,就是你肯定大概率肯定是用不超的。这个呢?其实这个是整个 tiktok 的 消耗量,所以如果去对比这个 chatbot 和这个 oppo 的 这个这个 tiktok 的 消耗量的话,那确实就是 啊,可能是一百倍,甚至,对吧?从这种重,如果是就简单的相对简单的也是可能是一百倍的差距,如果是这种重度的复杂任务的话,那可能是一千倍,这个确实是 啊,确实是一个非常大的一个差,一个差差别。那当然就说这个龙虾他抽成色号的这个最核心的原因,其实一个就是上下文界,因为他每轮都带这个全量的这个这个上下文,还有这种多轮的循环调用, 这个其实刚才都说过了,当然还有他有的定,还有这个定时任务,就是他也有这个 happy 的 机制,好几个这个定时机制有几个就是一个是 happy 的 机制,他现在应该是默认三十分钟吧, 你如果要设定他的话,就是你可以让他每三十分钟巡检一次整个的所有的任务,然后看他有没有任务,他,所以他这样的话他就可以七成二十四小时去运行。那这样的话脱困的消耗,他其实就是从这种脉冲式的到这种持续的一个算法消耗, 因为你的 cpu 一, 你的这个算力一直是在算的,因为它是二十四小时的,包括这个工具的,包括这个返回的日记,还有 这种节奏这一块呢。呃,我们现在比如说可能很多的,我们可能网上刷到过很多的一人公司,或者这种几人公司,包括 github 上很多开源项目,就是做这种多多智能体协做的一些开源项目。呃,非常火爆。 那很多创业公司或者这种一人两人公司的就是都在搭建这种多智能写作的这种模式,那这个其实整个的消耗肯定是一个倍增了,所以这个呢,是整个就是龙虾从总量上来的一个一个变,就是最抽空的消耗量的一个直观的,这个 直观的一个影响吗?就是主要的原因是这个。呃,当然他对结构性其实也是有影响的。 那结构性的影响的话,这个里面,比如说本地的算力啊。本地算力其实这个里面就是我觉得主要是这个显存, 比如说你个人在这个 pc 也好,或者说服务器,纳尼的服务器也好,就是你的显存肯定是还是有基础要求的 啊,因为就是太,如果特别老的,你会发现特别老的产,就是我们可能一些一些比较简单的任务,比较简单还能跑的起来,你但凡任务稍微比较重的话,肯定是这个对个人 pc 是 有要求的。 呃,然后如果说未来这个,比如说类似类似龙虾的这种多一线的产品往这个企业去延,就是往弊端去延伸的话,企业的这种 整个企业的这些,呃, ceo 本 ceo 化不符的这种需求,算力的需求肯定是是爆发的,这是本地算力吧。然后云端的算力的话,其实主要有几个, 一个是这种云端算力,它需要这种非常高的极高的吞吐量,还有这种极低的这个首次突破的生成的一个延时,那这个呢?这种 t k f t 就是 首次突破生成延时呢?它又取决于这个, 主要是取决于这个就是预前冲阶段 free flow 阶段的一个计算的速度,所以它对这个高速的互联,包括光峰线这个就就要求比较高。然后这刻的阶段呢? 呃,剔透的阶段呢?就是它其实就两个嘛,一个是逆天冲,一个是剔透的阶段,剔透的阶段是决定这个吞吐量的,那对这种高高 p 高 p 处理的这种技术,它会产生庞大的这种 fill charge, 然后对这个 hbm 的 话,包括这些肯定都是 hbm, 肯定都是会有的, 带来一个大的需求,那进而影响这个先进工装。所以这个呢,是对云端的话,主要是高速互联 h b 包括先进工装的需求会增加。当然边缘计算也会,就是因为 边缘计算里面涉及到两种吧?一种就是我们可以去买一些电源服务器,对吧?我们无论是个人也好,还是这个企业也好,可以买电源服务器的设备。第二呢,还有这种工业场景下的,包括智能家居场景下的 nasa 呀,什么这些,对吧? l t 设备的需求也会也会这个增加,那剩下的是包括,就是,呃,这种自主的循环执行多轮工具的调用,所以包括包括它的三级的存储架构这些呢?其实对 dram 包括企业级的需求都会有增加。 呃,那第二个当然还有就是什么呢?还有就是这个 c p u 的 c p u。 确,虽然说大家现在就是就是从产业层面来说我们 c p u 发,嗯,大家之前讨论的好像 c p u 的 涨价这个逻辑是比较弱的,或者说需求好像没有,没有,那么 就是体现那么明显。呃,我个人的理解是这样子的,就是说呃,因为 c p u 其实它本质上还是要啊,随着整个 h m 数量的大规模爆发以后才会达到一个显著的一个一个增加。那这个, 那这个里面的话,就是我们现在其实处在一个我觉得就是 a 战队爆发的就是这个趋势,其实已经,我觉得是已经确认了,但是现在还没有实质性地说我现在已经整个 a 战队已经, 嗯,正是在大功率爆发的这这么一个状态当中。所以他还说到你谈到到产业的这个涨价这个层面,他可能就还确实还是有一定的这个时间时间距离的,所以这个是我我的一个理解。另外还有就是 c p u 这块的话,呃,之前这个 也有领导问过我一个问题,说好像还说我们不是个人电脑都可以跑,跑起来这个龙虾这些嘛,那那对 c p u 好 像要求也不高, 但是这个里面其实是这样的,因为我们我们本地部部的龙虾就用个人电脑跑的,这个东西其实只是处理处理一下自己本地的一些东西,这个要求本来确实就不高,但是我们调用大模型, 调用大模型,大模型就是这么频繁调用大模型,这种需求量呢,其实是大模型背后的云端的,也就是大模型背后的这个机房里的这种服务器的 cpu 需求是是增加的, 其实要增加在服务器的 cpu 了,对这个个人的 cpu 呢?呃,当然确实核数肯定会逐步的提升,但这个体现的肯定不是很明显,主要还是这个服务器就是数据中心里面的服务器的 cpu 的。 对,这种比如说你的高核就是高密度的核性高核核数的增加,包括 高的这个 i o, 还有低功耗这种需求,这种需求肯定是会增加的,因为主要是你的 ag, 你 说 ag 是 集群爆发以后,这个肯定是的,所以跟我们的体感可能不太一样,但是核心,核心是这么个原因吧。 呃,其他就是什么叶龙、沙香这些我就不多说了,这个是 ag 的 对整个的一个算力的结构性的一个影响。呃,那第三个就是第三个是多模态啊,这个多模态,这个反正我大概的去算了一下。 呃,我们以这个 c 三 c 三十二点零的这个是这个来看,我们分这个视频和图片 c 三十二点零的视频生成抽空的消耗量的话,就他当时他应该上周给了一个价格,就是大概是这个 这个十五十五秒视频,大概是三十点八八万的三十点八八万的投屏消耗量,呃,那也就是算,算下来就是说,呃,那个叫什么?每秒视频就是二十 k, 二十 k 就是 两万,每,每一秒视频大概消耗两万的 token, 那么一分钟的话大概就是一百二十万的 token。 如果是这种短视频,短视频实战假设按十秒来算的话,假设一百万的短视频乘以十,再乘两万大概就是两千亿的 token, 我一百万短视十秒短视频大概消耗是两两两千一套粉,然后这个价格的话,这个是个输入的价格,就是四十六四十,就是这个每百万投四十六块钱,这个平均算下来也就是这个一块钱一秒的这个视频吧。 哎,一块钱一秒的话,你其实一分钟就是六六十五,一分钟就是六十六十块钱, 确实对整个这种工业视频,对吧?电影或者说短短短剧、慢剧这些来说,这个成本肯定大幅的下降了,所以这个这个就是做模态的这个情况。然后图片的话,这个 图片抽的销量相对会会大概是个,就是大概一张都在一千一千多分吧,所以他肯定还是要比这个 视频一秒一秒视频大概是两万,他这个一张大概是一千,所以差别还是有那个主要这个,所以说 c 片是二点零这种视频生成对抽空的消耗,消耗量肯定是最大 啊。对,这个其实我们就重点讲了,就是说 open 这三类需求,三类运动,抠进、飞进和和这个做摩擦,这三类运动对头盆的消耗量到底大概是什么?什么情况?然后第四部分呢?我们讲,我们讲这个, 呃,就是 open 的 这个供给侧,那供给侧的话,呃,那我们就还是看这个,这个我供给侧这里面的话,其实就看最右边儿这个供给推理算,我们因为今天其实重点是在讨论这个推理算力,没有就是就区间算力不在我们今天讨论范围内了。 我们说这个推理算力的这个调剂就是理论的公式,对吧?他他能够得到的就是一个是资本开支,有关系就是资本开支包括观察的物理性,这个物理性的包括这个算术优化减去这个指数的损耗。那这个公式里面我们先看资本开支,这个 资本开支这个,呃,那从今年整个年初,这个海外的几大厂商的这个云长给出来的这个资本开支的这个数据的话,大概在六千 三百亿到六千六百亿,或者说就拿差不多六千五百亿来算吧,大概七百百分之七八十的一个增速,这个比去年可能是要更高的。那但是之前也有领导说,哎,这个东西,对啊,他是一个资本开支,本身是个二阶党, 因为它还有一些这个,呃,你的性,我们用的卡越越好,以后单位 token 的 这个这个性能也也 就是成本也越低,对吧?包括模型这些,这个其实都是属于,所以这这个其实就是我说的这个后边这两个,就这这两个呢,就是我们最后去算这个的时候,肯定是会有这个单位 token 的 这个 把价格的,不是价格,应该说单位 token 的 成本的一个下降的过程。 所以当然我们今天可能也没有办法把它完全量化,但是我觉得大家可以感知一下,首先就是资本,资本开支大概七八十的一个增速,呃,当然这个资本开支呢?其实因为这是个理论数字,我不知道大家有没有印象,就是当时这个资本开支出来以后,其实市场是跌的, 为什么呢?就是一个是觉得我靠这资本开支增速太快了,怎么办?好几个公司,好几个云强的收入增速并 并不支撑,就是定都是低于这个资本开支的数据的。第二个呢?第二种声音就是什么呢?你给了这么大的数字,但实际上呢?无论是这种供应链的瓶颈,对吧?这里面这个你的 gpu 的 潜能啊, 然后包括你的这个,包括里面的这个电,甚至连变压器,就是数据中心里面的硬件的短缺,包括电,对吧?这些都是这个, 呃,都是这个物理的约束,那这如果包括亲子当中就还有些还有什么财务的呀?这个就不好了,就我们就单纯考虑物理的约束来看的话,那可能这个数就是我们说六千多亿,这个这种开支,就这个钱吧,不一定能花的出,完全花的出去。 所以这个呢,其实是一个呃,就是现实当中说他的一个呃兑现的约束,那在当然第二第二个就是我们讲说单卡性能的这个提升,呃,单卡性能的提升的话,其其实正好这个前两天这个呃, gtc 大 会的时候, 这个老黄的这张图其实也讲到了说 g b 系列呢,相比这个 h 一 百,这推理效率提升五倍,然后 ruby 的 话,相比 g b 系列又又提升了两到两到十倍。 呃,当然如果 ruby 加 l p u 的 话,相比 g b b 又会提升三十五倍,所以说它肯定是一个提升。呃,这个 速度很快,速度很快的一个一个状,一个状态。但是这个里面当然现在第一个呢啊,如饼这些肯定还是要到下半年,就是量还不够,就是现在这个节奏肯定还没有那么快, 这是第一个。第二个呢,就是现在的这些大模型厂商呢?呃,其实更好的卡,比如说 gb 系列也好,甚至也有人开始用上这个如饼系列也好做推理,就是 之前其实很,所以现在很多模型厂商的是这个主力的推提卡,可能还是比如说 h 一 百这个,呃,很多是,其实是,比如说我如果说我 h 一 百一张卡,这个我的折旧可能是在可能 三年,那三年之后,他虽然说呃,他的会计折旧算就是算折就完了,但是 实际上他可能会把这种 h 过去做这种虚拟的资源池,然后把这个东西用来做推利。所以很多时候这个 h 一 百可能还是他激励卡,当当逐步逐步未来的时候,可能逐步逐步的可能就比两百的更更好的卡,会 会这个用到推理当中去。但是反正肯定是有个过程吧。所以这个呢,肯定就是对整个 token 产生量的供给,肯定是有有十个正向作用,对吧?刚才这个自动开就是正向,但是它有一个负向的,就是物理的约束, 然后单卡的这个性能的提升就是一个正向的因素。呃,那我之前我们之前其实算过这个,就是这个我截了一页 p t 啊,就是之前我算过,比如说拿 g p t 五来算,它如果算 h 一 百的话, 他的这个每百万头肯的成本大概是一块七毛三,当然这个数字就是理论值,我们就横向对比一下,后来我也算过拿 gdp, 就是 还同样的拿 gdp 来算,我给他算一下,换成这个这个 gdp 两百之后呢,他这个成本就变四毛五了, 四毛五美金了。所以其实确实会,就是这个老黄讲的这个事,确实肯定是对了。但是就我刚才说的,他肯定是有一个过程啊,这个就是想讲的,就是说这个 整个 token 的 供给来说,本质上肯定还是信现性的,就算这种开支增加,再加上他的这个卡有一个逐步提升的过程 啊。然后再加上就说你因为还要再还有一个副项是什么?比如说你集群的一些损耗,因为集群的幼负担率,通常好的情况可能五六十,对吧?国内有些可能就三四十,所以就整个这些呢,都是副项的一些因素,整个来说 就是你投盆的供给肯定不是,对吧?几一百、几百倍、一百倍、两百倍,甚至几百倍的增长,肯定不是这样的, 那,那相比需求来说还是远远不够的。所以我,所以我们才看到的大伯星投盆涨价,包括各种这种涨价,其实这个都是结果,本质上还是背后刚才讲的这些东西。 呃,所以这个呢,其实就是我们做最后就是,呃,就说这个解这个结论的这个就是这种整个通胀链条。呃,最后这个想汇报一点什么呢?就是之前 其实这个很多领导就在讲嘛,就是我,其实我们大家回忆一下的话,就是这一轮的一个啊增长,呃,不是这轮的这个算力的上涨,其实 远期和这个源头是什么?源头是去年二季度末的时候,我们看,其实五月份开始,五月份看到谷歌的 top, 菲律宾的这个 top 销量的大幅上升,后来六月份,我记得微软啊、加马逊啊那几家巨头的 top 销量都是一个指数级的一个增长。所以 从七月,基本六月底七月初开始开始,这个开启了,这个是吧?整个蒜位上涨的一个主升了。那先涨的是什么?先涨的肯定是 gpu, 包括跟 gpu 相关的光头块儿和什么 cbd 这些,因为为什么呢?因为 gpu 其实是跟 啊这个 token 的 消耗总量有关系的,后来,其实,然后后来涨完这个 gpu 相关了,当然中间涨完 gpu, 涨 asic, 后来涨完又涨存储,这就逐步的开始了,就大家不断的要去想去找这个, 哎,哪些哪些是紧缺的环节,哪些有涨价预期的,这么一会一些环节从存储到到这个先进制程,后来今年一月份的时候又到这个,呃, 从这个 hbm 到这个什么,呃 brm 和 ssd, 这些就是服务的网网取,因为这里面就可惜还是比如说我们看到 a 信的爆发,包括这个超长上下文等等,其实它的这个存储的这个 环节也开始往外溢了,对吧?这里就是它里面的一个小的,然后到这个一月份也涨过 cpo, 到现在云服务,到现在 idc, 对 吧?到后面可能后面看不到 idc, 所以 这个过程其实我们 我们会发现,呃,这个链条从去年三季度开始到现在基本上涨,涨到最后的两个环节,也就说我们这张图,这张图就是就是还是这个的就是涨价是先从先从右边开始的,然后逐步逐步往往左边这个往左边传到的。 因为为什么这个是有竞争格局决定的,当大家发现就是不是发现就是从其实从这个需求,从产业内的供需的这个这个格局来看,就是这样的。呃,大家发现这个需求 对吧?远远大于供给的时候,那大家就就会先从这个最紧缺的环节开始 开始涨价,一定是先从最紧缺的环节开始涨价,逐步开始往下游传导,一直传导传导那最紧缺的环节,这里面涉及到的要这有两种,一种是受物理约束比较大。 呃,第二种就是格局就只有这一这一个厂商的,对吧?或者一一个两个厂商的这种格局,就寡头垄断的这种肯定是最容易最容易涨价的。然后呢?越往下游呢厂商越多, 然后他的竞争相对会更激烈一些,而且他一定是需要一个过程的。那那这样的话他的这个涨价的这个 叫什么?涨价的这个主动性或者说这个确定性相对会就就会弱一些,所以他其实就是从从从从右往左逐步传到的一个过程,那到现在就是到你们这一块, 那这是当然是。然后今天就今天其实云云云场涨的很比较强,那但是 idc 这种包括三里苏利其实也涨,因为它三里苏利比较直接,是吧?您的这个比需求比较直接, idc 呢?是还没涨 啊,但是后面我觉得茅根店他肯定也也会涨的。那这是这是一个我觉得 which 他 是这么一个传播的过程,这是第一个想想第二个想说的是什么呢? 就是很多领导比较疑惑,为什么 c p u 相关的,包括,呃,是一个大,对吧?光模块相关的,对吧?讲的都是小光、大光都在,肯定都是都是一个融谈的,或者说震荡的一个过程,一个一个最近都是这这个状态。 为什么每每场子提供对,就是都是涨其他的一些结构性的东西,或者是大家,因为短线来说大家肯定都是找编辑变化的,那编辑变化就是我的涨价的这个东西逐步的往下人编辑的去 去去外溢的。所以这个我觉得新今天涨云服务过一段,可能涨 i d c 我 觉得都是可以理解的,就是都是在这个框架内的, 那什么时候又会涨到 g p o, 又会回头来讲 g p o 我 觉得就是在下一个节点,我们看到总 top 需求量的一个,就又一次指数级增长的时候,那这个节点 会不会来?肯定会来,因为因为我们比如说我们天天研究这些东西,包括我们,对吧?用小龙虾这个东西弄的很多这个有切身感受的就会觉得这个需求肯定没问题,但是对于大众来说还得有人跳出来,对吧?无论是鱼场跳出来,还是有什么第三方机构跳出来,说 好现在全球的总体销量相比去年的时候有有多少倍多少倍的增长,到那个时候我觉得算了,又会重新来一轮,来一轮是什么呢?就是又会从 gpu 开始,又开始往下头去找,我觉得它会是这么一个一个循环 啊,因为核心还是 gpu, 它其实跟跟 ok 有 有关系的,这个呢我觉得是,就是大家可以跳出来这个是更更高一层去看这个事的话,我觉得就比较这个结构就是比较比较清晰的。 那那这个是这个就是说,所以就说,呃,从如果说我们拉长周期看的话,呃,短线的话,因为我们短线其实是是朝,是朝边际变化的,那我短线朝零也好,或者说再往后朝 i、 d、 c 也好,我觉得都没问题。但是呢就是拉长中我们中期看,再拉长周期看的话, 那还是回到这个点,回到这张图,也就说越右边的肯定是格局越好,然后涨价了,就是因为需求还是确定的,需求趋势肯定还是在的,那越往右边的这个这个这些环节的他的这个逻辑肯定是越硬的,涨价的确定性更强以及持续性更强。 所以从中期来说,仓位配置上我们肯定是越往上游应该越重,越往下游呢,相对越轻一点,越小一点。我觉得大概是这么一个一个结论吧。 对,这个这个呢就是我今天汇报的一个重要内容,大家从从整个的这个在最后就是汇报一下,就是什么呢?就是我们现在整体的 a、 r 前面的一个观点的话,就是抓两头,一头是算力,一头是模型场上,其实刚才模型场上是最直接受你的需求的, 所以这个我觉得也很,就是也很好理解。虽然说智普米 nice, 这个对吧?涨了这么多了,其实大家现在算估值根本也算不出来,但是我我觉得大概率他们肯定还是会继续涨, 因为需求需求的这个渗透率或者 ai 的 渗透率还是在快速提升的过程当中,所以这个呢是是我们在核心的观点。然后当然概率里面就是,呃,优先右,优先右边的, 对,然后他为啥优先?就是优先右边的?然后这个其他的越往后越小一点,转转,现看编辑变化,大概是是这么远。对,大概我是一个观点。呃,然后最后的这个时间的话,这个这样,呃,那会会议助理这个行政这边就可以先结束了。 好的,坐好。呃,最后最后的话就是,呃涉及到这个,比如说云服务里面金山云,这个金山也有领导问的比较多,那让那个我们呃王浩建和浩天给我们再汇报一下金山云的一个具体的情况。 ok, 你 再讲一下吧。 哎,好的,好,各位领导晚上好。我今天这个就是这个云展架背景,再跟各位领导汇报一下,就是今天接下来的一个情况,包括后续怎么看 好看清。呃,看。呃,刚才郭老师也跟大家汇报到就是整个这个云展架的一个链条啊。那其实我们看到关注到里面的这个标题选择的话,我觉得话就基本就是其实状态也讲到了基本就从这三层。那, 呃,就是开始选啊,那其中这个弹性比较大的,我们关注到就是这个 ai 因子环节中的这个云涨价真正落地之后啊,那对于金山云的他的一个 这个编辑推动,包括他自己自己本身有一定的编辑变化啊,那我觉得整体金山云的弹性来看的话,还是还是比较不错的啊。然后包括一些这个其他标的这个细节问题,我们可以这个会后再进行探讨啊,那我下面汇报一下,就是整个金山云的一个投资逻辑吧。啊,那首先从它的这个,呃 呃两个点来看啊,一个是传统云业务这块,那传统云业务这块跟随今天的这个阿里百度啊涨价来来看啊,其实从今年年初起,就是金山云这边的这个传统 cpu 云新签的合同已经在这个逐步减小折扣了啊,也就是说变相的其实已经在涨价了, 所以说,呃,也是受益于整体这个大厂的涨价云背法啊,也是可以啊,可以一起去跟着这个 啊大厂涨价的节奏在这个 cpu 云这边提价的,所以说整体啊 cpu 云这边的涨价啊,呃,目前我们从产业了解下来还是比较顺的啊。那第二点的话,就是主要是它的这个 ai 与业务这块啊,那 ai 与业务这块 尔顿的话啊,预计二六年这个 ai 云的话,还继续可以保持这个翻倍增长的这样的一个节奏啊。那首先从下面几个部分来看吧啊,因为我们知道就是金山云这边的这个 ai 云业务,其实主要就是给给这个小米集团去提供啊整体的 ai 的 算力知识。 那从首先从训练测来看啊,训练测来看,其实我发现就是市场现在对于这个小米的这个模型的业务,或者说 ai 投入的决心是明显是低估的啊。从他的这个第一代模型,就是去年五月份的时候,他开源的第一个是七 b 的 模型, 大家觉得就是因为小米要跟他的这个端侧呢去相相结合啊,所以说有一个这个小模型出来,但是当时这个七 b 的 模型跟当时市面上的这个几十倍甚至上百倍的模型的这个这个能力呢,也是不相上下的。 然后包括之前在这个 dc 挖挖过去那个罗浮丽去做整个这个这个去牵头去搞 ai 啊, 然后其实还有一个啊模型,就是去年年底十二月份的时候,就是它这个呃它的这个 mimo 啊, v v 二的 flash 啊,也是开源区进行发布,然后是三百零九币的这个参数规模 啊,然后但是它的这个 m o m o e 架构做的也是很极致啊,因为它也是用了这个限行锐利机制,然后可以仅激活数笔参数,也就是说其实它是这个一个 几百倍参数的模型,有个主流参数大小的模型,但是它的这个通过极致的 m a 架构其实实现了,就是比较低的一个这个 费率成本,那其实我们就可以把它当成一个这个呃就是几十亿,甚至呃这个这个十几亿的啊这个模型来看啊,那其实那如果看它效果的话啊,也是也是来到了这个比,也是达到了比较好的效果,其实跟当时这个发布的时候也是来到了这个,就是啊当时模型的这个第一梯队啊, 其实呃我们之前,其实呃就是这波 openlog 齐亮啊,之前其实大家是没有特别关注这个 open rooster 数据的,当然其实我们如果看 open rooster 之前的这个数据, 呃这个呃就是各家模型的这个调用量的分布。来看下面右下角这张图,这里面这个黄线呢,其实是这个小米的模型的调用啊,其实我们可以看到在这个二五年底和这个二六年初 啊,一月份的时候,其实就是在这个啊,它这个 mimo v 二 flash 啊发布之后,其实一度啊,小米的模型也是一度来到了这个国产模型调用第一的这样一个位置啊。所以说其实啊,这个呃它的这个模型能力呢,当时从从 呃就是刚发布那段时间来看,其实也是还是也是非常能打的啊,也是非常能打的这样一个模型能力。只不过说后续的这个 g m 五呀,包括 k 二点五,二点五发布之后呢啊,后续就是呃这个,因为它毕竟是一个轻量级模型嘛,然后后续的这些模型呢,这个变化要上去了,所以说我们在这个 open source 上看不到它的名字, 这是这是一点,所以说,嗯,那从小米整集团的整个战略来看啊,今年也将继续去加大这个 ai 投入啊,所以说小米对于这个我觉得市场市场目前对于小米去投 ai 的 这个决心呢,其实是有比较大的一个预期差的啊。所以说,而且目前我们看到一个点,就是模型层的利润正在增厚,包括像 这个就是 g d c 大 会啊,昨天去汇报,跟大家去汇报 g d c 的 时候,其实也讲到就是为什么说因为哪现在去愿意去去投云厂商啊,或者说愿意去投 y 啊,那其实也是看到了,就是后续这个呃,真正这个进入区块链时代之后啊,那云厂商和摩天厂商的这个利润一定是增厚的,所以说这块是一定有 很大的一个创造价值的一个机会的啊,所以说因为哪里去做这样的事,所以说在这里面我觉得就不要低估了,就是雷区这个人,他一往一致啊,就是一往以来的这个做事风格,就是摘桃子的这个能力, 每次包括选手机的时候也是啊,等这个产业链就是比较成熟之后再再进去啊,包括做造车也是啊,所以说当下这个阶段呢,我觉得这个对于整体小米目前是有比较大的一个预期差的啊,所以说当下这个阶段呢,我觉得这个对于小米,是呢,为了说明就是小米还会在这个 啊, ai 的 啊,训练上去继续的去加大投入啊,所以说这一块的这个算力的承承接是谁呢?那会那就是完全大部分,绝大部分啊,是来到金尚云这边,因为对于金尚云来说,其实满足这个小米的这个训练需求是他的这个政治任务啊,这是从训练侧角度来看啊,那从推理侧角度来看, 前几天当然,呃呃,这个呃,应该大家也都看到了,就在 open source 上突然有一个新模型,就是这个 hunter alpha 这个模型,那当时大家通过这个分词啊,分词测试啊,包括就是 就是通过一些这个去掉去掉系统,系统题词啊,去诱导出模型,说自己是属于什么,是是什么模型啊?大家也是看到了它是 是这个这个 mimo 啊, mimo 二啊, mimo 二二的这个模型啊,那其实我们看从这个雕像来看啊,这周的这个雕像,其实因为这周还没过完嘛啊,但是从这个这周来看啊,这个 harp 已经来到了这个第三的啊位置,然后包括从这个 小空调这种产品的测评来看,其实这个 hallowar 也是达到了比较不错的效果。其实在这上面在这个测评来看,其实也是来到了一个就是国产最好的啊这样的效果来看 啊,然后甚至,呃从一些这个就是调用的反馈来看啊,就说一些场景是达到了这个 office 的 一个水平啊,所以说从这个角度来看,应该还是比较不错的。那今天晚上啊,就在今天大概六七点钟的时候吧,在这个就是 artificial analytics 啊,这个就是 也是比较官方的这个模型的这个 rank 网站上啊,那我们看到就是小米这个模型呢,它没有官方发布,但是悄悄地在这个网站上去打榜了啊,那我们看它的一个位置呢,就是这个 mimo v two pro 这个模型,那它的位置也是来到了这个国产模型第二的这个位置啊,又仅次于这个 g r n o 五啊,所以说,所以说那大概率就是前几天在 open source 那 个模型呢,也大概率被实锤是这个啊,就是小米的这个模型了, 所以说从这个角度去看啊,我们也看到现在的这个包括支付宝 max, 现在估值也都到到了一个大家算不过来的一个程度。所以说如果一旦说小米这边也有一个这样的这个模型出来,那对于这个呃 就是跟小米目前身份绑定的这个最啊相对最纯血的啊,这个云服务提供商啊,先生允,那他的这个一旦这个模型的表现的效果不错啊,然后后续在这个 呃,在这个这个呃包括一些这个这个呃通过 a p i 调用啊,去调用这个去去做各种主要产品的时候啊,如果调到这个模型,那其实这里面的这个算力的弹性啊,算力的弹性其实是是是是是是非常大的。所以说, 呃,从呃从这个角度来看吧,我觉得,呃推理测啊,总结来看啊,就是不管说这个亨特尔法是不是小米啊,小米今年 这这还是我一开始还没有在这个 official n 呃, official nexus 出来这个时候啊写的,那小米今年一定有新媒体发布,那今晚我们已经看到了,所以说金山云作为这个小米系的最主要的提供商啊,那整体这个 mimo 模型的这个调容的增长啊,那一定会给金山云这边带来巨大的一个这个 ai 就是 ai 啊,就是 ai 云调用的这样一个弹性啊,那包括那除了小米之外啊,那除了,呃那还有就是国内的这个专利的非常非常的一个向上,那包括小米,包括今日敏这边的 kimi 啊,字节了一些其他客户的这个也也在快速增长。所以说今年的这个 啊,一直在强调就是 opencard 的 这个发酵一定会是持续的。所以说对于小米这边的话,今年的 ai 收入我觉得至少啊是一个这个可以看翻倍的这样的一个,呃呃这样这样这样的一个增速吧啊?然后那包括就是跟这个, 呃就是跟小米集团的这个关系交易的一些啊,相关的问题一些,这个细节可以这个会后有人感兴趣可以再跟我去讨论啊。 那如果怎么看空间呢?那啊这个如果把业务啊,大概是可能六七十亿,那如果看到走收入的话,基本就可以到这个一百四十亿左右,那如果 看这个杰瑞现在的这个估值还是很便宜的啊,那如果去对比这个就是云的这个统一的这个估值公式,大家可能给他四五倍的这个 ps, 那 我们保守一点给他三倍的这个 ps 来看的话,仍有这个不少的向上空间啊,至少还可以向向上再看个这个百分之五十的一个空间吧, 那如果他的这个星座型在调用在这个啊 a 型的调用中,一旦在放量啊,那其实这个的这个这个想象空间就是就是就是巨大的啊。所以说啊,在今天呢,就是趁着这个机会跟国领导去重点提示一下精神病的机会。
粉丝1.3万获赞1.9万

你以为这只是阿里又一次部门整合,其实他抢的是整个 ai 时代的主导权。阿里这次突然搞出一个阿里巴巴 token hub, 由 ceo 吴永明亲自挂帅,把阿里 ai 战队全给凑一块了。能让 ceo 亲自带队,这 token 有 这么重要吗? 首先我们先来了解一下什么是 token? token 说白了就是 ai 干活的计量单位。举个例子,输入想吃火锅,后台会切分为想吃火锅三个 token, ai 干多少活,就看他耗了多少 token, 跟咱们上班干多少活,拿多少钱一个意思。 那阿里为啥突然要围绕 token 集合力量?其实核心就是为了在 ai 战场上抢地盘。未来像做表格、跑重复流程的这些数字化工作,大部分都会交给 ai 去干,而这些智能体跑起来,底层烧的就是 token。 想到这,想必大家就明白了吧, token 就是 ai 时代的燃料,连卖铲人黄仁勋都在把重心从卖硬件往推理和 ai 智能体这边靠,也想分 token 一 杯羹。阿里现在不抢,等 ai 智能体全面爆发的时候,再想进场就晚了。除此之外,阿里的大公司病已经到了不得不动刀的地步。 大厂大家都懂得,为了抢点资源,几个部门能开一下午会,百分之八十的时间在对齐颗粒度。 整合之后的部门目标就一句话,创造 token、 输送 token, 应用 token。 至于每个部门具体干啥,咱就不细说了,又不是要去阿里上班。最关键的来了,阿里的优势在于它能走出一条完整的变现道路,一方面它能让 token 稳定大规模被调用。你看阿里搞了这么多年,双十一每秒几十万笔订单都能扛住, 更别说让他在海量的调用下把数据稳定送出去洒洒水而已。另一边,他让 token 不 止停留在云端和企业后台,而是让咱们普通人每天都能用上。阿里拿到了苹果在中国 iphone ai 功能的 本地合作资格,这意味着我们以后用的 siri 接的是阿里的大模型。最后,你觉得阿里这次整合能不能先坐上 ai 时代 token 生意的 c 位?

下班了,大家好,这周阿里成立了 tucker 哈布事业群,创造 tucker, 输送 tucker 应用 tucker 黄仁勋在 gdc 上把数据中心重新定义成了 tucker 工厂。 两个顶级公司呢,不约而同的把 tucker 推到了舞台中间。但真正让我体验到 tucker 时代到来的呢,还是自己的亲身经历啊。前几天我哥在公测上线爆火,服务器崩了,那状态就跟小学时候学校 突然停电全当欢呼一样,但笑着笑着就笑不出来了,因为你发现自己真的回不去了。还有更扎心的,昨天三月刚过半啊,我公司的两个头盔账号全都用完了,新的额度申请还没批下来。我平时的工作状态也是这样的,同时开五个 code body, 智能体干五千,不同的任务,交替验收、发指令, 头盔一断,我能做的事极其有限,把几个上下文不复杂的小任务迁移到 jimmy 和 magna 上凑合着干。 但那些已经工作了好几天的文字报告改到一半的 ppt, 我 几乎没法做任何操作。有人说,你不能手工接着干,不是不会,也不是犯懒,是整个工作流已经彻底改变了。 我不能把 ai 生成的 macdunk 文档转成 word 继续手搓,也不可能把改到一半的 html 的 ppt 手工改回泡泡那里去拍吧。 因为一旦切回原来的工作流程和格式,等 token 恢复之后, ai 的 效率会大幅下降。除非 token 断好几天,否则切回人工模式的成本是不可能承受的啊。就像你不可能因为停一小时的电就去买个手摇发电机。 overclock 的 爆火呢,是一个重要的转折点。实话,没有这只龙虾,也会有别的对虾、鳞虾。年初几个国产 a 阵的模型交替发布的时候,我就判断,今年长城之行的智能体将带来 token 使用量至少两个数量级的爆发。 以前你用达摩星问一个问题,回段话,几百个头肯。现在一个 a 阵的从接到任务到完成交付,中间要规划、搜索、写代码、调试所修正,一个任务跑下来几万甚至几十万个头肯。 我同时开五个,一天的消耗量远超以前几个月的他们,消耗从对话级跳到了直性级,这是一个质变。 所以阿里为什么要用电力行业的逻辑,发电、输电、用电来组织爱业务。黄仁勋为什么要把数据中心变成 token 工厂?因为他们看到了同样的东西。当 token 真正开始干活,就不是一个计量单位了,它是基础设施,是新时代的电力。 但现实还是很骨感的,现在所有的龙虾基本都在开会、在聊天,没几个在干正事。我去各行业交流讲课,大家的状态都是焦虑和懵逼,知道 ai 厉害,知道 ai 阵势趋势,但是不知道怎么用,不知道从哪下手。企业买龙虾,就像去年买的 deepsea 体系一样,先养一个再说,至于养来干嘛,不知道。 这其实是一个非常典型的技术落地困境,技术供给已经到了,但需求侧的认知和组织能力还没跟上来。 你看现在 a 阵的使用场景,绝大多数还是程序员在用。写代码、改 bug 大 项目,这是 a 阵的最先跑通的领域,因为程序员天然懂得怎么下指令,怎么拆任务,那怎么验收?但这只是冰山一角,真正的爆发点,在每一个行业、每一个岗位,都学会用 a 阵的工作逻辑来干活的那一天。 一个月以前,我研究 f d e 全线部署工程师这个概念的时候,其实很困惑。道理很简单,要深入一线场景,要帮助用户跑通工作流。但中国企业的数字化基础太差了,很多公司连 erp 都没整明白。你跟他聊 a 阵的写作,我其实也不知道这条路该怎么走。但龙虾和 workday 的 出现呢,让我一下看清了一条更容易落地的 f d e 之路啊,它不需要再教会每个人编程,而是带着工具进场景现场共创。明天,我会跟 workbody 的 团队和教育行业的同事一起去明德学校啊,给老师们做培训,不 光讲 ppt, 而是坐下来跟每个老师一起啊,把他们教学中的真实场景拆出来啊,用 a 阵的帮老师实现因材施教 啊。这个四个字,说了几千年,传统教育很难做到,因为一个老师面对几十个学生根本不可能。但如果每个老师有几个智能体助手呢? 这就是 f d e 的 正确打开方式,不是培训完发个手册,而是带个工具啊,在现场,一个场景一个场景的跑通啊,固化成工作流和 skill 啊,再推广到下一个学校和行业。 这套能力不是程序员专属的,每个知识工作者都应该也能够学会。这也是大厂让员工提前体验无限 pockin 的 真正意义,不是让你提前半年以上,看到整个社会和所有行业的未来工作状态。 腾讯、阿里都给员工标配了几乎用不完的 tucker。 华仁勋说,给员工配了价值年薪一半的 tucker, 然后因为能力越强, tucker 对 你的放大就越强。然后我相信配 tucker 会成为所有企业的基本共识啊。 当每个行业都跑通了自己的 fde 最佳实践,当 agent 呢,不只是程序员的工具,而是成为每个人的日常操作系统。就像我们已经体验到的那样, tucker 消耗量就会迎来真正指数级的爆发。到那一天呢? tucker 断供带来的混乱可能比今天大面积停电还要严重。 还有个事啊,今天看到有人又在征集偷看这个词的中文,觉得词源无法包含多模态的概念。我的建议是呢,一定是外国人能听懂的音译叫通根,如何 啊?万是万物之根啊!同意的可以点个赞啊,不同意的在评论区说说你的想法,感谢关注未来博士,我们一起用跨界的视角看懂未来的方向。

全球首个以 token 命名的事业群来了!日前,阿里成立了一个新的事业群,叫阿里巴巴 token hub, 也就是 a t h 事业群,并且呢,致力于 ceo 吴永明管这个事,为啥惊动了大老板呢?看看组成就明白了。 同意实验室搞基础模型,麦子搭服平台,千问做个人 ai 助手。悟空呢,主攻弊端,企业工作流,还有一个创新事业部,探索新的方向。那么这五大块,从模型研发到应用落地,全 cover, 核心就三个字,造 token、 送 token, 用 token。 重点得说一下武功这个部门呢,是头一回露面,定位 b 端 ai 原生工作平台。阿里呢,本来就是擅长企业服务的,现在呢,把大模型直接塞进了企业工作流,用百亿级 ai agent 替代传统工具,这个架势啊,明显是要在 b 端市场放大招。所以说啊,这不是简单的部门变化,是阿里 i 战略大升级。 以前呢,各业务可能是分头跑,现在呢,用偷根这条线穿起来,从模型到应用的兼容效率呢,也直线拉满。 尤其是弊端这一块,企业数字化需求大,但传统工具呢,更新慢,悟空带着 ai ai 针呢杀进去,相当于给企业工作流装了一个智能的加速器。 ai 时代,拼的是把技术变成生产力的速度。阿里这部剧呢,既守住了 c 端千万的用户基本盘,又在 b 端深水区布了重屏。 未来 ai ai 针呢,要是真的能大规模跑起来, token 的 需求啊,肯定会爆炸。现在提前用组织架构锁定这条路,眼光够准够狠。那么从单点突破到全链条作战,阿里的 ai 级啊,下的是越来越稳了。


但凡你是关注 ai 的 兄弟,就会注意到最近有一个爆炸性新闻,就是最近阿里新成立的一个事业部叫 token 事业部,这是继他几个大事业部整合,第一次推出一个全新的事业部。那这个事业部基本上把它 ai 各种相关的都包到里边,但是为什么它不叫 ai 事业部 叫 token 事业部,这里边就有一个重要的研判在里边了。我非常喜欢阿里这套分法,上周的时候我跟大家聊过一个事情,核心想给大家表达那八个字叫算法退位, token 为王。他第一次把 ai 这个东西用做基础设施的比喻给说明白了。 那他说的所谓创造托根、输送托根、应用托根我还是听不懂,但是你见过发电、输电和用电吧?是不是都是基础设施?是不是提的什么概念叫算电协调啊?既然算和电都是基础设施,那么是不是他们的分类就应该类似? 阿里是不是把他所有的五个部门全都装到这里边去了?装到这里边第一个创造托根的是什么东西?就就是做模型的呗,同意吗? 它就像发电站一样去创造模型,创造 token。 那 输送 token 的是谁啊?输送 token 是 不是就是那些数据中心啊?我之前上一周跟大家聊过那个数据中心的对接呢? 那包括你数据中心需不需要有些接口接进来?那就是不是就是他那些 api 呀?那就是接口,是不是啊?各种接口你都凸 b 的 也好啊,凸 c 的 也好,是吧?这些接口全都接近的,接近你的技术设施来,让他能在上面跑。而且这个所谓的输送 token 就 说非常形象,为什么?就是你既然是一个输送 token, 就 类似书店这种功能,那是不是只能输阿里的 token? 不对吧?那你应该是所有的店或者是所有的拓客你都能在上面跑,那所以大家如果真的在用这个阿里云服务的时候,大家会发现他的小龙虾其实里边是可以用其他的模型的, 他也能用 mini max, 也能用,也能用 kimi, 所以 这是不是把输送拓客这个东西说的非常形象了? 最后一个叫什么叫应用图腾,按理说之前的应用图腾是应该是什么?就是现在的小龙虾是不就是很典型的 原生的叫 ai 应用啊?那阿里已经不满足于单纯的就给各种软件开一些接口,或者说单纯的为各种商业流程去做一个工作流,这种事情已经做厌了,而且每一个工作都有自己的特殊性,很难做到 让大家满意。现在他要做一个什么东西?是一个 b 端的应用平台,像小龙虾一样平台,所以他的三块内容是不是比较清晰了?那这三块内容其实大家会发现基本上都属于什么东西,都跟什么偷看有关。大家都知道 ai 的 三大元素, 算力、算法、数据。那我们看一下其实阿里数据有没有数据?他在另一个大的事业部里边,智能云事业部有吧? 算力他平,头哥好像没病到里边是不是专门做芯片研发的?是不是他也有?那我问大家算法去哪了?算法之前是不是阿里的同意在做? 那同意,现在是不是被完完整整的被并到了头肯事业部里边的创造头肯这个部分里边去了。所以我跟大家说,算法这个东西现在重要性,还能够跟数据算力平头共进吗? 如果他那么重要,为什么我们在输送托肯的时候,不仅可以输送千万的托肯,他也可以输送 kimi, 也可以输送其他,只要国外大厂你愿意把算力接进来,他也可以输送呢? 他更像是一种基础设施里边的一部分了。这个研判跟上周我跟大家说的一致吧。那么看再看其他几个事业部, 之前的千问和百炼,一个是凸 c, 一个是凸 b 的, 大家用过没有啊?我用千问这东西我老是找不到北 就是他的阿里云,千问百炼各有一个借口,然后完了之后我一搜,然后完进去之后点点点啊,在各个平台这些切切切,现在他并成一个,全都并成 输送 token 这个部分去了。而最新成立的这个悟空啊,会放到应用 token 里边,不过它还有一个创新事业部。但是总体大家看下来就是把算法挪到了第二期队里边,而把 token 整合成了一个第一期队, 那以后大家聊起来就不是算力算法数据了,以后就是算力数据和 token 了,而算法是不是放到了 token 的 一个子模块里边,就证明算法这个东西对于整个 ai 系统的影响正在变小。 这个框架一推出以后,你有可能还会看见更强的芯片,有可能会看见更好的数据归机方式和更好的云,但是单靠一个模型或者单靠一些好的算法 就能够脱颖而出的时代一去不复返了,以后比的是电力、钻力和模型的各种协同,比的是你的 ai 是 否能够真正被大家接受,真正能够很好的应用,比的是整个的 ai 协同的生态。那现在这种生态比较好的在哪里啊? 是不是还带我们大港股?这也是上周我跟大家说港股大家可以多几份期待的一个原因。说实话,最近用一段时间龙虾之后,我还是有一点感慨的,就是之前我们老形容我们自媒体做得好叫公平公正啊,客观, 但是现在看起来,我们再公平,再空中快客观,也很难客观过 ai 了以后,算法都变成了一个统一的标准体之后,它生产出来东西就是公平、公众和客观。我们这些自媒体人所在的意义在哪呢?我也在想,以前我特别 不太理解天天给大家疏通这种情绪价值,但是在看完了 ai 同理之后,我觉得可能未来我的真正的功能也是给大家提供情绪价值,让大家在搜完了 ai 的 一些答案之后说啊,真人也是这么看的 啊,所以我现在诚心审视我自己的价值,然后多给大家没事唠唠嗑,在大家情绪低点时候,带,大家没有信心的时候带,大家 不太坚定的时候,我能够站出来说啊,除了 ai, 人也是这么看的,真人也是这么看的啊,所以珍惜每一个还在独立思考,跟 ai 做了最后斗争的人类啊,真人希望每天可以见到你们,再见!拜拜!

阿里刚刚完成一次关键重组,成立阿里巴巴 token 哈布事业群,由 ceo 吴永明亲自带队。这不是简单的架构调整,而是战略重心的正式切换,从模型研发转向算力变现与产品落地。 而这个新战略的核心落点,就是刚刚发布的全球首个企业级 ai a 整的平台,悟空通一实验室负责创造 tope, 百炼平台负责输送 tok, 而悟空则与千万一起负责应用 tok, 它是阿里整个 top ai 能力的统一出口,将直接内置到超两千万企业组织的钉钉中, 让每个团队都能拥有一只二十四小时工作的龙虾军团。从底层模型到企业平台,再到端测场景,全链路打通。 而这个四加 n 生态闭环的最终目的只有一个,把 tucker 卖给企业,让 ai 真正干活为什么这么急?算力和研发成本高起,技术开源已成标配,谁能把 tucker 卖出去,谁才是最后的赢家。而悟空,就是阿里手里那张最大的牌。


阿里彻底不装了,组织大重组, all in ai 时代的卖水生意。刚刚,阿里宣布了可能是近年来最重要的一次组织调整,不 搞电商内卷了,不玩流量游戏了,目标明确,未来五年要从 ai 和云身上赚一千亿美元。核心就一件事,成立阿里巴巴 token hub a t h 事业群, ceo 吴永明亲自带队,把所有 ai 家底全塞了进去。一句话看懂逻辑, 从流量为王到 token 带币为王。以前互联网的核心是用户时长和流量,现在 ai 时代模型运转,每次回答都要消耗 token。 token 就是 ai 世界的电和油,阿里这次就是要当那个最大的发电厂兼加油站,看看 ath 这个新巨无霸里有什么发电厂。通义实验室研发千问大模型,生产最核心的 token。 国家电网 mass 业务线百炼平台 把 token 通过云输送给全行业家用电器千问 app, 面向你我这样的个人用户消耗 token。 工业电机新成立的悟空事业部,这是最大亮点,专攻企业级 ai 应用,让 ai 员工七成二十四小时在钉钉里给企业打工,这才是未来赚钱的大头 前沿。实验室 ai 创新事业部,探索未来场景,为什么是现在?看财报就懂了。传统业务增长乏力,但云和 ai 的 收入已经连续十个季度翻倍增长, 卖 token 的 生意比想象中来得快,来得猛。吴永明,必须把宝全压在这条路上,一场千亿美元的豪赌,筹码是悟空。这次调整等于正式宣告阿里未来的天花板,不取决于淘宝卖了多少货,而取决于悟空能在多少企业里干活,消耗多少 token, 国内 ai 大 混战从此进入新阶段。以前是各家秀模型肌肉,现在是拼真刀真枪的商业化、平台化和生态化。阿里把分散的兵力收拢成一个拳头,目标直指成为 ai 时代的基础设施。这场以 token 为核心的终极赌局已经开打。

呃,刚刚有一条消息啊,阿里给员工发 tok, 鼓励使用 ai 工具工作。阿里巴巴集团正在推进一步一项内部计划啊,向员工提供 tok 额度,鼓励员工在工作中使用先进的 ai 模型与工具。根据该计划,阿里员工可以免费使用悟空等付费 ai 工具 啊,用于技术研发和通用办公,公司将向员工提供托管额度。此外的话,员工购买百炼抠定 play 会员或者外部 ai 开发工具可以申请报销 啊,这是一个 ai 趋势,里边又是一条。呃,又是一又一个这个重要线索啊,包括前一段时间龙虾的爆火,包括各种 ai 应用的爆火,包括现在大厂开始推进 ai 的 应用的工作, 已经落到时速,咱们会发现慢慢的可能就短短一两个月,这个变化会越来越快,会超乎我们的想象。所以的话,短期我们还是要重点关注一下数据中心,还有国产算力这个赛道。

阿里这次突然成立 token 事业群,先别把它只理解成一次普通重组。更值得看的是,阿里开始把 ai 业务按 token 这条线重新算了。 新事业群叫 ath, 由吴永明直接负责,整合了通义实验室、 mark、 千问、悟空还有 ai 创新业务。 他给自己的目标也写的很直接,创造 token、 输送 token、 应用 token。 这意味着阿里现在想打通的已经不只是模型研发,而是从模型能力到平台分发,再到应用落地,整条链路一起做。 这里面最值得注意的是首次曝光的悟空事业部,他盯的是 b 端 ai 原声工作平台。也就是说,阿里这轮调整已经不止想做个人助手, 他还想把 agent 能力直接塞进企业工作流里。所以,这次成立 at, 重点不只是组织变化,更大的信号是阿里开始把 ai 下半场往 token 消耗和 agent 落地上集中火力了。