啊?啥呀?说实话,现在所有人的眼睛都专注于战某征上面去了,但是说实话,他不管这种局部的怎么打啊,咱 ai 产业该发展还是发展的,就比如说最近的 top 肯, 你要知道为什么美子那边不天天讲 top 肯,因为我们这边 ai 时代的优势是 电力非常的便宜啊,他们那边可能是算力非常的给劲,那我们电力便宜代表我们的 tucker 就 便宜,我们这边非常着急的把 tucker 命名为词源就说明问题了。再然后是前段时间有消息称 tucker 的 啊,日军调研量暴增 百分之十万,百分之十万,你说现在有哪个行业还能对某样东西的一个需求量能暴增百分之十万呢?没有了,基本上都是红海存量竞争,但是滔凯这个东西他是蓝海,那 可以预示的到这一部分的这个肉啊,非常的肥,非常的多。 ipc 所跑的那平台不再是英伟达了,而是咱们菊花的芯片。 那三月底的时候,腾讯阿里字节啊,也是定了一堆菊花的芯片,可以预示的到我们这边啊,芯片更便宜,然后对于芯片的使用效率也非常的高, 再加上电力便宜,那我们这个掏坑的成本会非常的低,那这个利润会非常的有想象力, 届时我觉得啊,今年下半年会有很多的云服务厂商啊,这个业绩爆炸,业绩暴增的啊。所以说不要只关注于这个战争什么的,抛看对于我们中国 ai 时代代表着什么好玩。
粉丝4430获赞6.0万

来,亲爱的朋友们,最近网络的小龙虾除了用电还需要啥?用 talkin 这个 opencry 啊,很多人呐,说起来呀,它就是一头雾水,那 talkin 呢,到底是个啥呢?跟咱们炒股有啥关系?普通的散户,哎,能不能跟着赚点小钱?今天重点呢,就用大白话给你说一下,不绕弯,也不搞专业的术语,我还做了一张表,你也可以去收藏着去看一下,听完了 咱们再可以讨论。先给大家说一下, talk 呢,就是数字世界的通用的计量的单位,你可以把它理解成上网的流量,游戏币,加油卡,它就是用多少算多少,充值 越多的人用,那需求就越大,价格呢?和相关公司的业绩呢?那肯定就要涨了。而现在大火的这个 open cloud, 它就是直接大量的去消耗 talk 的, 它的核心的应用, 那小龙虾一火那 tucker, 他 这个需求就直接爆了相关的股票。咱们来说一下,首先分论点,一,我用最普通俗的话讲啊,这个 tucker 呢,很多人一听啊,就觉得他是一个虚拟币, 那有点大错特错了,咱们股市里说的 pok 呢,和炒币呀,完全是没有关系的,它是互联网云计算智能应用里的这个使用的计费的一个单位,你用一次功能,跑一次程序,查一次资料,它都要消耗, 就像你手机用流量一样的,用的越多,那就扣的就越多。服务商呢,当然就能赚到钱了,简单的是 top 呢,就是数字服务的计费的筹码,谁能提供 top 的 服务呢,谁就能够支撑 top 的 运行,那他就是风口上的, 哼!六点二,奥根可乐和 talk 它到底是个啥关系?前面已经基本上说了一下,再说一遍,奥根可乐,它是现在最火的一个应用的,它是一个项目,它运用一次呢, 就要消耗一次,比普通的软件多很多倍。他越火呀,使用的人越多,需要的 top 可能就越多,卖 top 的 服务,提供运行支持的公司,他的订单和业绩就会大幅的增长。这就是股价上涨的核心了, 不是炒作,是真的有需求的支撑,你只要用,你就得买。论点三,二零二六年三月当前市场上核心受益的股票,我们大家说一下当前的价格,一家算力支撑的红薄的那个, 昨天收盘价十六块八毛三,他负责提供运行的算力, blockchain 的 用量越大呀,他就越受益。第二家呢,就是做计费服务的,昆仑,现价五十点五,一直接做 blockchain 的 相关的服务,业绩那就相当直观了。第三家呢,就是做全球网络服务的,首都, 现价三十一块八毛五,专门适配啊, opencloud 这类的应用,需求增长相当快。这三家呀,是当前 talk 加 opencloud, 它的主线里面最稳的几家的标的。最后呢,给普通的咱们散户啊一个建议,不要买仓,小仓位的分批进仓,当然也追不了大涨了,现在已经回调到啥时候了,四号止损位,严格的执行纪律。这个方向呢, 应该是二零二六年实打实的业绩的风口,它不是短期的概念,就像当年的移动啊,通讯啊这些一样的 talk 的 逻辑,你就抓住了今年的一波啊重要的机会。 好,今天就说这些,觉得有用你就点赞收藏一下,下次呢再给大家深挖一下细分的第一位的标点,让大家的这个小资金呢也能跟上风口,我们这期就聊到这,再见。

电力板块加上今天已经连续绿了好几天了呀,哎,难受,多个板块集体跌停。先说我的结论啊,当然黄毛化 k 线的影响是最大的,但是板块的逻辑上,市场的态度还是比较撕裂的,分歧很多,我们来看一下。第一,有哪些分歧呢? 呃,可以分为两派,一派说退潮开始,核心票跌停,中位 a 杀,符合所有退潮的特征, 明天最多给个弱修复,这大洋线反包才算强,否则就是超跌反抽。另一派说主升浪还没结束,资金介入很深,全球能源紧张加算力需求,电力从配角变成了主节,现在的回调是倒车接人。 我觉得都对,但也不全对,因为他们都在用同一个维度讨论问题,不是涨就是跌,咱们需要看的是结构啊。电力板块今天的分歧不是多空分歧,而 而是时间维度的分歧。短线资金在撤,这是没错的,但是中线产业资本和长线战略资金在利用这次分歧调仓啊。你如果分不清自己手里的票是给谁准备的,你就会被两边来回的收割呀。 嗯。第二,电力 token 化,这才是真正的趋势升级。很多人看电力还在盯着绿电占比,电网投资,特高压建设,这些都对,但我觉得都是去年的逻辑了,今年的变量是电力变成了 token。 以前卖电要铺电缆,损耗大,利润薄, 毛利率百分之五到百分之十五,妥妥的重资产苦生意。现在呢?西部风光发电直接送进数据中心,产出的是智能客服,深层设计, ai 渲染, 以透肯形式通过光纤瞬间到全球啊。同样一度电出口赚几毛钱,变成双利服务赚几块甚至几十块,毛利率从百分之十五拉到了百分之六十, 这不是产业升级,这是商业逻辑的基因重组。我做一个大胆的预测,三年内中国最大的电力公司不再是电厂,而是算力中心运营商。西部不再是能源基地啊, 而是全球 ai 服务的输出节点。电力股的价值重估,不是因为电涨价,而是因为它变成了数字贸易的底层通货啊。大美卡,我们的芯片,没关系,他缺的是电, 我们把绿电变成了 to, 肯出海就能在数字贸易规则里拿到话语权。欧盟探边境税,对实体商品征税,但对数字服务还没有避雷,这是窗口期,也是战略机遇期啊。第三,咱们现在该怎么办? 呃,分三种情况来看吧,不要问现在电力要不要跑,问你自己,你是想短线做还是做长期的价值逻辑。 第一种,你拿的是纯情绪的连板票,中位跟风,没有基本面支撑。残酷的真相是,这类票反弹就是卖点,不要等什么回本啊,你等不到的。量化主导的市场只给你一次反抽的窗口,大概百分之十到百分之二十分批走,走不掉,就准备等跌百分之三十以上再谈住点。 第二种呢,你拿的是核心龙头,有绿电资产,有算力中心布局,有电网设备实质订单, 这类票资金会自救啊。你可以等一次强修复,但别幻想第二波主神浪,修复之后减半仓,留一半看长线趋势。 第三种,你根本不应该买个股,这个阶段电力的分化会极其剧烈,鼓掌结束四个子赛道会走出完全不同的曲线。绿电电网设备算电协同储能,你如果看不清个股质地,直接买 e t f 就 行了。绿色电力, e t f 电网设备, e t f 大 数据, e t f。 主声浪里面回调,对 e t f 来说是倒车接人,对垃圾股来说是最后逃命的机会。第四,最大的风险不在排面,在你的心态。我今天必须说一句很多人不爱听的话,你如果被套了百分之二十还在问该不该割,说明你一开始就没有什么交易纪律。量化主导的市场没有等回本这三个字啊, 你等来的往往是更深的套牢。正确的做法是什么?承认错误啊,缩小亏损半径,跌百分之三十之后说量两根小阳线助底,再考虑把成本降下来,而不是在跌停板上去猜明天会不会反弹。最后说一个所有人忽略的信号,川字发言,全球市场大跌, 韩国垄断,美股成压,很多人觉得这是利空,我告诉你,这恰恰是检验电力成色的试金石。如果明天市场再次急跌,电力板块那些逆势抗跌,资金净流入的细分方向,就是下一阶段的主线, 不是因为他强,而是因为弱势,你还能被资金承接,说明背后的趋势足够硬啊。我的判断是,电力板块没有结束,但玩法彻底变了,从炒概念到炒落地,从看涨停板 到看透肯的转化率,从拆政策到算探官税避雷,最后留一个悬念吧,也是咱们该重点跟踪的指标。电力透肯化的第一个落地验证节点,不在国内,在中东 沙特,用光伏加海水淡化加滤芯,想把阳光变成高附加的产品,我们用绿电加算力中心,把西电风光变成了东部算力,谁先跑通这个商业模式,谁就能定义下一代的数字贸易的规则。下期见。

买一亿 token, 从一百三十五元到六万八千零四十元不等,但问题是, token 到底是什么?它如何变成账单上的数字?一亿 token 梦干啥?这篇文章从本质消耗到价格,给你把账清。 token 到底是什么?很多人把 token 等同于汉字或单词,其实不是。 token 是 大模型理解语言的最小计算单位。模型眼里,文本不是连续的句子,而是一堆被拆分好的积木。你问的每一句话,发的每段文字,都会被先切成 token, 再送入模型处理。 不同模型的切法不一样。英文模型多用 bpe 算法,把单词拆成更短的片段,压缩性强。中文模型则偏向单字或词组分词,更贴近我们的表达习惯。简单理解,一个 token 大 约对应一到两个汉字,但这只是估算 精确技术,要看模型内部算法。为什么按 token 计费?因为它能精确度量、算力消耗、输入提问要算,输出回答也要算。每多一千个 token, 对 应的 gpu 运行时间、电费、人力成本都是限性增加的。 对开发者和企业来说, token 是 最直观、最可控的成本单位。你可以把 token 看作 ai 世界的度量横。没有 token, 模型无法量化你输入的内容,也无法给出公平的价格。 日常任务到底消耗多少 token? 不 同人、不同场景, token 消耗天差地别。下面按使用人群分级,给你一个可直接套用的计算。每天写五封邮件,翻译两篇短文,偶尔问几个问题,属于轻度用户。 这类场景 token 消耗很低,每天大约两千 token。 如果你只做这些,一亿 token 够你用整整五十年。中度办公与内容创作,每天写代码、处理文档、整理会议纪要、批量写稿,属于中度用户,日均消耗大约五万 token。 一 亿 token 大 约能用两年。 自媒体创作者日更一到两篇长文,每篇两千到三千字,单次生成约三千 token。 加上批量修改标题优化,多轮对话, 全天消耗可能落在三万到六万 token 区间。重度企业场景,比如企业级 ai 客服智能知识库内部 agent 系统,一个中型客服系统,每天一万轮对话,每轮平均两百 token 就是 两百万 token。 如果再加上自动回访、语义解锁、总结分析,消耗量可能到一千万到两千万 token, 每天 一亿 token, 对 这类公司来说,大约只能撑五天到十天。专业高消耗任务编程 agent 代码生成,项目级开发科研模拟一个完整的小项目, agent 可能要反复写代码,调试解释逻辑,单次任务消耗可达一百万 token, 代码审查一次也可能消耗五万 token。 所以 你看到的是一个问题,一句话,但模型背后可能是成百上千次的内部计算和 token 消耗。二零二六年最新价格,一亿 token 到底值多少钱?以下价格按二零二六年三月行情第一超清量模型梯队,这些是个人用户、中小业务的首选。性价比拉满。 genuine flashlight 一 百三十元每一 token。 通一千问一百四十元每一 token。 gpt 五一百六十二元每一 token。 deepsea, 两百四十八元每一 token。 选择这一档,个人日常办公足够用五年以上。对中小公司来说,月度 a p i 成本几乎不会成为负担。第二,终端模型梯队。适合中小企业日常业务、中等复杂度任务。 gpt 五 mini 八百一十元每一 token。 kimi k 二,九百九十元每一 token。 gemini are flash, 一 千零八元每一 token。 这一档在逻辑推理、内容结构化、代码生成上比轻量模型更稳,同时价格可控, 很多公司把百分之八十的非核心业务放在这一档。第三,旗舰模型梯队。企业级核心应用的主力配置, g p t 五,四千零五十元每一 token germany r pro, 四千零五十元每一 token。 cloudsonnet, 四,六千四百八十元每一 token。 它们的上下文窗口大,推理能力强,长文本处理稳定,适合知识库、科研分析、多模态内容生成等关键业务。第四,顶级推理模型梯队。这是 ai 产业的塔尖。 cloud opus 四,三万两千四百元每亿 token gpt 五 pro 六万八千零四十元每亿 token。 主要用于尖端科研、金融量化、高端代码开发、复杂系统仿真,普通场景很少用到,但它们能完成普通模型无法完成的深度推理。从一百三十五元到六万八千零四十元,一亿 token 的 价格差距超过五百倍。为什么差这么多? 因为能力、算力、成本、战略目标完全不同。价格差背后的真相是,基础能力、廉价化模型、基础能力,文本理解、内容生成、基本问答已经成为标准化商品,技术成熟,竞争激烈,所以超轻量模型能把成本压到百元级别。顶尖推理、稀缺化 数学推导、跨领域深度分析、高精度代码生成仍然需要千亿参数、海量数据、高端 gpu 集群,这些资源,成本居高不下,导致顶级模型价格无法下降。二零二六年的 ai 市场很清晰,基础能力像矿泉水便宜且可替代 顶级推理,像黄金仍然稀缺且昂贵。另外,输出比输入贵三到十倍,大部分模型输出 token 价格是输入的三到十倍。 输入是你说的话,输出是模型生成的内容,生成过程更复杂,成本更高。如果你在做长文本创作、报告生成、故事写作,要特别注意这一点,一篇五千字报告,输出可能比输入贵十倍。 a 阵时代消耗暴增,怎么省 token? 三个方向七成成本可压缩。第一,提示词精简, 把永长指令改成简短要点,比如,请详细、全面、系统的分析问题,并给出创新、实用的方案,约一百五十 toc 优化成分析问题,并提供三个实用方案,约四十 toc, 节省超过七成。 删除废话,保留核心动词和名词,不要用形容词堆句子。第二,模型分级,使用简单任务用轻量模型,复杂任务用终端,关键业务采用旗舰,这叫模型路由,是企业降低成本的最有效手段。 第三,缓存上下文压缩 r a g 缓存重复问题,命中率可达三成,成本低十倍。定期压缩对话历史可节省五成到七成。用剪缩增强生成替代长提示词指剪缩最相关内容,节省三成到七成。总结下, token 是 ai 世界的通用计量单位,是你和模型之间的成本桥梁。 日常使用它藏在每一句话里,企业使用它体现在每天的账单上。二零二六年,一亿 token 从一百三十五元到六万八千零四十元不等,背后是能力、成本战略的分层。 看懂 token, 就 能看懂 ai 时代的价格逻辑,也能在数亿元的产业中找到最适合自己的性价比区间。 ai 不是 遥远的技术,它正在变成每一个人、每一个公司都要掌握的工具,而 token 就是 你打开工具大门的钥匙。

最近每天还是有很多大聪明来问我蒜薹机房的事情啊,我觉得你不要把蒜薹机房当做这种数字地产,我都烦了。如果你觉得买几台 mac mini h 的 一百,然后 b 二百也好,坐着收租就能发财,那我觉得你在我的公式里面已经要破产了。我也做了一个很简单的资产投资回报率。看吧, 其实我们要分析你们的物理本质啊。第一部分,算力机房的本质是什么?它不是高科技,它是个能源转化工厂,但它也不是那么容易啊,它需要你用现有的开源大模型运维和销售一些相关的技术和资源储备。 你的资本支出 carx 是 买那些昂贵的折旧极快的芯片、耗材、 gpu, 然后你的 opax 运营支出是把电力转化为这种智能的 token, 在这个模型里面,能源就是你的货币啊。 p o e 其实能源效率,其实你看那些很多 mac mini 搞一堆在那,其实它的能源散热那东西,它都根本没有考虑,这能源效率是你的生死线,包括呃电费啊这些东西 风险临界,为什么很多人亏钱?因为他们不懂技术代差对于你资产的冲击。你以为 h 一 百是资产,其实在 b 两百面前,你的它的算力 啊,能效可能一年后就跌破成本线。就好像你开了一家工厂,你的机器每年都在变慢,而隔壁的机器每年都在变快。在这种高额折旧下,如果你没有核心的行业订单, 那你就是跟时间在对赌,而且赔率很低。呃,还有一个就是利润的模型啊,很多人以为算力模型就是把机器放在那 run 就 有钱了,其实并不是这样,这完全就是一个骗局啊, toc 是 要有人用啊。第一种方式就是你有了算力机房,你是裸金属租赁,就是卖的是显卡的这种 gpu hour 利率取决于你的机器成本和本地的一个电费。 还有一种情况就是你卖 toc, 就是 你需要绕模型将算力打包成稳定的基群卖给 b 端,然后赚取这种的溢价。所以呢, 你你这时候你就需要去啊,不是卖裸金属,你是卖一个综合的模型加电力加产生 token 的 这个服务。 然后这个核心逻辑拆解的话,我读 p r d 的 方法就是用我读 p r d 的 方法来拆解这个生意有四步,第一,第一步就是批判你的客户是谁,是只会跑脚本的羊毛党,还是需要极致推理的 b 端客户,你是卖裸金属还是卖 token? 第二就是这种我们来复盘啊。算力其实某种意义上讲已经异无小商品化了,单纯卖算算力没有利润,利润藏在这种能力缝合的调度里面。也就是说你可能用呃,用呃 mix 的 jimmy 和你的开源这种模型在一块儿,可能还有一些东西 可以挣钱。第三步就是优化怎么样做的更好,不是买更多的卡,而是建立呃大脑,就是这种这种运维和这种研发团队,让这种算力直接参与这种企业的决策效率。这种是我认为可以挣钱的, 就是预判就未来哈,我觉得算力的终点不是 token 的 买卖,因为我预计在未来的一一年里面,这种算力会变得非常卷,就是说你可能在做 identity 的 这种啊 solution 就是 解决方案上面还有一点机会,就是利用你的便宜的 token, 结合现有的业务才能产生现金流,这也是我在看的东西,所以,所以我最后的感悟就是韭菜它太多,割都割不完。当然你有政府大投资是另外一回事,因为这是加加大你的杠杆率,也就说你一开始有一百万,政府投一千万,那你就有十倍的杠杆率,这时候就可以有,有一定的就是运运作空间了。 如果再这么搞的话,我都想开课,就是告诉你怎么算这个东西了,割割你们的韭菜。

推理芯片呢?我觉得未来的几个应用场景的的确确是跟原来会有所不同。 a 股啊,对于这个应用场景的理解,其实大家会发现东西很多,预计五花八门啊。比方说像一月份的这个 ai 中的营销叫 g e o, 然后到后面的 mas, 然后大家再去看各种各样的 ag 城, 再到最近比较火的这个小龙虾,那我想这个龙虾可能是一个爆款前夜 就是我认为这个场景,其实目前看下来,就你前面所说的很多场景最终是靠它来突破,因为它涉及的领域太多了,每个行业其实它都能涉足 你 ag, 它越爆发,那倒推它的整个 talk 的 这种逻辑就会很顺。但是问题就又来了,如果说啊 talk 里面有一个绕不开的东西,那又回到了点, 所以大家又看到算电协同,包括原来的西电东输,那我想这些很多的政策端其实已经帮你放在那边了,所以我想托肯围绕的这个绕不开的方向,那电依然是绕不开。所以你去看这一次,如果一旦市场见底的话,那智能电网这一端 肯定是有机构会配的,而且这个定价权关键是在我们中国自己手上。所以我觉得一个是智能电网打跌完之后,大家可以去看。第二个呢,就是找应用场景的爆款,我不是去直接找那个应用端,其实你会发现应用端基本都是昙花一现,现在没有能够超过两周以上的, 所以我觉得就是 c d n 云服务、云计算那些可能也会穿插。第三个呢,就是如果真的那个爆款出现了,对应的那个上市公司,或者说那个题材方向,那可能就会股价产生比较大的一个 变量。现在就是大家会发现小龙虾其实是监管的制度跟不上啊,太快。所以安全补丁啊,各种漏洞的补丁其实也在迭代, 就是我觉得等这个体系全部至少大家都能接受的那个度的时候,可能我觉得真正是应用端的这个爆款级产品出现,所以在国民级应用的这些产品没有出现之前,那我觉得还是会围到托克国产算力啊,然后就是云,然后就是电,围绕这三个方向。

talkin 将成为 ai 时代的这个新石油啊,为什么看好 talkin 产业链?什么是 talkin? talkin 的 细分包含哪些正宗标的?那这个视频我会说的很详细,视频比较长,耐心看完并收藏,半年或者一年之后,你会感谢这个视频。 那么第一部分,什么是 talkin? talkin 是 ai 能理解啊,然后处理输出的这个最小心系的单元,那么与固定大小的这个字符不同啊,同一段文本在不同的这个 ai 模型中 拆分的 token 数量存在差异,是 ai 交互的这个基础的主体,然后现在呢,我们中国把它命名叫磁源啊。 然后第二看好 token 的 这个完整逻辑啊,首先整个这个 ai 产业形成了啊,从能源到芯片到算力基建啊,就数据中心,再到大模型,再到 ai 应用 agent 的 这个 token, 全产业链,上游啊,完成 token 的 生产, 下游完成 talk 的 这个消费,全链路的这个经济活动,都将围绕 talk 的 生产效率与这个价值 兑现展开啊。然后第二部分, a 股与 talk 概念最接近的核心标的有哪些啊?呃,主要有五个积分,每个积分大概有两到三家标的啊。呃,不是只有两到三家,就是我整理的比较呃,大型的这种 talk 标的啊。 第一是这个 tokken 的 生产核心引擎是 ai 算力芯片啊啊,它属于这个 tokken 工厂的发动机,直接决定 tokken 生产的效率与上限, 是最核心的这个卖产量的环节啊,比如说毛海光啊,它是国产 dcu 和这个 ai 芯片的龙头,产能性能对标国际的这个主流,适配国内所有主流大模型,国内超四成这个 ai 服务器啊,搭载他们的这个芯片,然后它的二零二六年 q 一 的营收同比增长百分之 六十六到六十七啊,直接受益于这个 tucker 才能扩张带来的芯片需求爆发。然后某五 g 啊,它是国产这个云端 a 啊芯片的这个标杆,新一代啊,思源系列的这个芯片已经实现了大规模的商业化的这个落地,订单量大幅增长啊,是国内大模型训练与推理的这个核心 芯片供应商啊,直接这个承接 tokken 的 生产的这个算力芯片这个需求啊。然后第二是 tokken 生产核心的这个载体啊, ai 服务器与这个算力群体, 那么它是 tokken 工厂的这个生产机床啊,那么 tokken 生产的这个硬件承载,直接决定 tokken 工厂的这个产量规模 啊。比如说某浪潮,它是国内 ai 服务器的这个绝对龙头啊,它的实战率超过百分之六十,全球稳居第二啊,是阿里云啊,然后腾讯云啊,字节跳动等这个头部 talk 工厂的这个 呃,运营方的核心服务器供应商,他的订单也已经排到了这个二零二七年了啊,直接承接这个 talk 才能 扩张的这个核心硬件采购需求。复联啊,复联是这个英伟达全球这个核心服务器代工的这个供应商啊, 是全球 ai 算力硬件的这个核心交付方深度绑定那个英伟达托克工厂的这个生态服务器出货量,随着这个全球托克需求的这个爆发,可能肯定也会持续的翻倍增长啊。然后曙光啊,曙光,它是国内这个高端算力服务器的一个龙头啊,业冷技术的这个国内是领先领头羊啊。 然后是国家对算力建设的个主力核心客户覆盖这个科研机构啊,然后政企啊,还有一些主流的这个大模型厂商,全面受益于这个国产 tok 工厂的规模化建设啊。然后第三个细分是 tok 生产核心厂房啊,呃,主要是制算中心和这个 idc 啊,他们是这个 tok 工厂的这个生产车间啊,比如说像任泽,他是国内最大园区级的这个数据中心运营商啊,廊坊级群单机,这个 单柜的这个功率达到一百三十千瓦,然后这个呃液冷技术实现这个 p u e 一 点零八与字节跳动,签了这个五年的这个长险翼,是这个字节豆包大模型 万亿级 top 肯推理的这个核心算力底座,然后它的二零二六年的这个 a i d c 收入啊,占比将会超过百分之六十。 然后像那个奥菲啊,他是阿里和百度核心的这个 i d c 的 这个服务商,直接受益于阿里 top 事业群成立后的这个呃能源扩张,同时他在这个海外布局这个和规划类中心,可以直接承接全球的这个 top 生产需求, 是顺利出海的那个核心的标的啊。然后像数某港啊,他是阿里云核心 i d c 运营商啊,深度参与这个通一千万大模型推理集群的这个建设,他有三十五座数据中心啊,布局这个东数西算核心的这个枢纽的那个节点,是国内头部 tucker 工厂的这个核心 基建供应商啊。然后第四个细分是 tucker 传输核心的这个通道,主要是光模块和这个光束连接,他是 tucker 工厂的这个血管, 那么 tokken 的 生产的这个 ai 机型需要超高带宽的这个高速互联,那么是 tokken 高效流转的这个核心主体, 那么里面包含啊,比如说像中继啊,它是全球光模块的绝对龙头,试战率超出超过了百分之三十,它的八百级和一点六 t 的 产品啊,那个批量交付英伟达深度绑定那个全球 tok 工厂的这个生态, 直接受益于 tucker 才能爆发带来的高速互联的这个需求。然后还有一个龙头是某一胜啊,它是全球高速光模块的核心厂商啊,它的一点六 t 的 光模块已实现量产,北美头部的这些营厂商订单也已经排到了大概二零二七年。 是全球 tokken 工厂啊,高速互联的这个核心供应商。然后第五个细分是 tokken 消费与商业化啊,主要包含大模型和这个 ai 应用,它是 tokken 的 最终消费的这个终端啊,那么直接通过 tokken 计费实现商业化,是 tokken 价值的最终的一个兑现环节。 比如说昆仑啊,昆仑它是拥有这个模型加应用加算力的这个全闭环的啊,旗下大模型这个 api 服务按 talk 计费,然后海外的收入它也已经占比超过了百分七十,推理 talk 的 这个消费量啊,持续是高增的,是 a 股直接实现 talk 商业化变现的这个核心标的啊, 还有像迅飞啊,迅飞是国内大模型的这个龙头,它的薪火大模型已经完成了这个完整的 talkin 计费体系,企业级的 api 服务收入也是稳定增长的,是国内 talkin 消费场景覆盖最广的这个厂商之一啊。 然后像那个首都啊,就是它是这个智普 ai 核心的这个算力供应商,全球布局一千五百家的这个节点,北美啊、欧洲啊这些它都部署了这个 gpu 的 集群,它的日处理 tokun 超两百个亿,直接为这些 ai 应用厂商提供 tokun 的 生产与交付服务。

蜂也能涨价,你听说过吗?是真的!乌兰察布的蜂啊,还真涨价了,因为它不再仅仅是蜂,而是被重新定义为全球 ai 时代的核心生产要素。这股蜂啊,连同宁夏的光、四川金沙江的水,这些曾经只用于点亮灯泡的清洁能源, 如今呢,正通过一条看不见的链条,转化为驱动全球人工智能发展的核心资产。 paul, 也叫磁源 toker 呢,是 ai 模型处理信息的最小计价单位,是智能时代的数字零时。当一位欧美程序员调用 ai 生成代码,或者是一位视频剪辑师用它渲染特效的时候, 他们每一次的操作所消耗的 toker, 其能量源头呢,都可能来自万里之外的中国西部。这一价值的转换过程啊,是一场深刻的产业跃迁。在我国西北啊,廉价而充沛的庞大的算力中心, 成千上万的 gpu, 如同高效的数字熔炉,将绿色的铅瓦石转化为强大的算力,并最终呢,封装为可供全球即可调用的 tok。 这不仅仅是能源的出口啊,更是价值形态的换道超车。 tok 呢,以数据流的形式,通过光纤网络 顺时跨境,规避了传统贸易的物理地雷与关税成本。凭借显著的绿电成本优势,中国在全球 ai 模型市场中已占据了重要席位,试战率呢,超过百分之六十,其核心竞争力正源于这一度电一毛钱的成本互成合 据推算,到二零三零年,算力调用使用量呢,还会翻三百多倍。这一改革,催生了一条全新的产业链,从提供核心算法的大模型厂商, 如智浦、阶月、星辰,到承载算力服务的 i d c 企业如润泽、奥菲,再到提供底层硬件的 ai 芯片公司如海光、韩武,以及作为价值源头的绿电运营商与电网设备商,一个完整的绿电 tucker 价值产业生态已然形成。

兄弟们,今天给大家扒一扒托肯中转站的这个底裤啊,首先呢,我建议大家不要去,尽量不要去某鱼或者某宝上面去买那种中转站的托肯, 你以为你买到的是那种又便宜,性能又牛逼的打磨型托肯?其实这里面的水很深很深的。 首先我给大家现场去演示一下啊,大家看了就明白了,这个网站啊,就是我今天花了半天时间,借助 ai 的 力量帮我搭建的一个中转站, 这都不是重点,重点是什么呢?我这里是可以添加账号的,就是我把我自己在 club 的 或者在 open i 上面开的会员账号给它导进来,导进来之后作为二道贩子给它卖出去,卖出去,这都能理解,关键有些什么骚操作,来,我们直接把这里的鼠标往下滑,滑到最后, 这里有个账号计费倍率,你可以改,比如说你可以改成两倍或者是一点五倍,那这意味着什么呢?意味着你的顾客实际消耗一百五十美金,其实在你这里才跑了一百美金等值的托克。 好,这是第一个骚操作。第二个骚操作,你可以点击这里,用 a p i 接口来对接。 a p i 接口对接之后呢,这里可以选择模型印刷,然后你可以直接点击这里, 这是什么意思呢?就是这个左边是消费者实际想请求的这个模型,然后右边是实际输出的模型, 请求的模型是 oppo 的 四点六输出的模型,是 cloud 的 免费版模型。这意味着意味着你的大模型在这里面是可以掺水的就好的大模型和差的大模型掺在一起卖出去。看完这些操作,我相信大家都应该一目了然了吧, 我觉得一般做这种中转站生意,想要赚钱,我觉得一定是会掺水造假的,因为赚不到钱的,或者说利润很低, 因为你既要稳定,又要大模型牛逼,然后又要价格便宜,我觉得这是一件不可能三角的事情。 一般来说,黑心中转站常规的操作有哪些呢?我给大家总结一下啊。比如说,首先第一个就是盗刷黑卡,因为有人可以偷这种信用卡批量去注册 ai 的 账号,成本几乎是为零,封了无非再开嘛。 还有第二种就是可以把像 open ai 啊或者 cloud 的 这种网页版破解掉,然后包装成官方的 a p i 卖给你,你以为是正版的,其实是二手搬运的。 然后还有就是想办法拿到某些大厂商的,给这种初创公司的免费的算力额度,然后低价再卖出来,这种都还好,其实最可恶的就是掺水,直接掺水用,用好的大模型和差的大模型混在一起,然后卖给你。还有一种模式就是退款流,因为像 pro 的 这种 大模型厂商的话,他经常不是封号吗?封号了之后,他们这些中转站无非就是封了就退款,退款之后相当于你用了,他卖出去了,然后退款了之后相当于他自己又把钱退出来了,相当于零成本的。所以呢, 还是非常强烈的建议大家一定要想尽各种办法去用上官方正版的会员账号啊,这样子才能够让自己体验到真正最牛逼的大模型,最好的大模型,而不是那种掺水造假的以次充好的大模型。

但凡你是关注 ai 的 兄弟,就会注意到最近有一个爆炸性新闻,就是最近阿里新成立的一个事业部叫 token 事业部,这是继他几个大事业部整合,第一次推出一个全新的事业部。那这个事业部基本上把它 ai 各种相关的都包到里边,但是为什么它不叫 ai 事业部 叫 token 事业部,这里边就有一个重要的研判在里边了。我非常喜欢阿里这套分法,上周的时候我跟大家聊过一个事情,核心想给大家表达那八个字叫算法退位, token 为王。他第一次把 ai 这个东西用做基础设施的比喻给说明白了。 那他说的所谓创造托根、输送托根、应用托根我还是听不懂,但是你见过发电、输电和用电吧?是不是都是基础设施?是不是提的什么概念叫算电协调啊?既然算和电都是基础设施,那么是不是他们的分类就应该类似? 阿里是不是把他所有的五个部门全都装到这里边去了?装到这里边第一个创造托根的是什么东西?就就是做模型的呗,同意吗? 它就像发电站一样去创造模型,创造 token。 那 输送 token 的是谁啊?输送 token 是 不是就是那些数据中心啊?我之前上一周跟大家聊过那个数据中心的对接呢? 那包括你数据中心需不需要有些接口接进来?那就是不是就是他那些 api 呀?那就是接口,是不是啊?各种接口你都凸 b 的 也好啊,凸 c 的 也好,是吧?这些接口全都接近的,接近你的技术设施来,让他能在上面跑。而且这个所谓的输送 token 就 说非常形象,为什么?就是你既然是一个输送 token, 就 类似书店这种功能,那是不是只能输阿里的 token? 不对吧?那你应该是所有的店或者是所有的拓客你都能在上面跑,那所以大家如果真的在用这个阿里云服务的时候,大家会发现他的小龙虾其实里边是可以用其他的模型的, 他也能用 mini max, 也能用,也能用 kimi, 所以 这是不是把输送拓客这个东西说的非常形象了? 最后一个叫什么叫应用图腾,按理说之前的应用图腾是应该是什么?就是现在的小龙虾是不就是很典型的 原生的叫 ai 应用啊?那阿里已经不满足于单纯的就给各种软件开一些接口,或者说单纯的为各种商业流程去做一个工作流,这种事情已经做厌了,而且每一个工作都有自己的特殊性,很难做到 让大家满意。现在他要做一个什么东西?是一个 b 端的应用平台,像小龙虾一样平台,所以他的三块内容是不是比较清晰了?那这三块内容其实大家会发现基本上都属于什么东西,都跟什么偷看有关。大家都知道 ai 的 三大元素, 算力、算法、数据。那我们看一下其实阿里数据有没有数据?他在另一个大的事业部里边,智能云事业部有吧? 算力他平,头哥好像没病到里边是不是专门做芯片研发的?是不是他也有?那我问大家算法去哪了?算法之前是不是阿里的同意在做? 那同意,现在是不是被完完整整的被并到了头肯事业部里边的创造头肯这个部分里边去了。所以我跟大家说,算法这个东西现在重要性,还能够跟数据算力平头共进吗? 如果他那么重要,为什么我们在输送托肯的时候,不仅可以输送千万的托肯,他也可以输送 kimi, 也可以输送其他,只要国外大厂你愿意把算力接进来,他也可以输送呢? 他更像是一种基础设施里边的一部分了。这个研判跟上周我跟大家说的一致吧。那么看再看其他几个事业部, 之前的千问和百炼,一个是凸 c, 一个是凸 b 的, 大家用过没有啊?我用千问这东西我老是找不到北 就是他的阿里云,千问百炼各有一个借口,然后完了之后我一搜,然后完进去之后点点点啊,在各个平台这些切切切,现在他并成一个,全都并成 输送 token 这个部分去了。而最新成立的这个悟空啊,会放到应用 token 里边,不过它还有一个创新事业部。但是总体大家看下来就是把算法挪到了第二期队里边,而把 token 整合成了一个第一期队, 那以后大家聊起来就不是算力算法数据了,以后就是算力数据和 token 了,而算法是不是放到了 token 的 一个子模块里边,就证明算法这个东西对于整个 ai 系统的影响正在变小。 这个框架一推出以后,你有可能还会看见更强的芯片,有可能会看见更好的数据归机方式和更好的云,但是单靠一个模型或者单靠一些好的算法 就能够脱颖而出的时代一去不复返了,以后比的是电力、钻力和模型的各种协同,比的是你的 ai 是 否能够真正被大家接受,真正能够很好的应用,比的是整个的 ai 协同的生态。那现在这种生态比较好的在哪里啊? 是不是还带我们大港股?这也是上周我跟大家说港股大家可以多几份期待的一个原因。说实话,最近用一段时间龙虾之后,我还是有一点感慨的,就是之前我们老形容我们自媒体做得好叫公平公正啊,客观, 但是现在看起来,我们再公平,再空中快客观,也很难客观过 ai 了以后,算法都变成了一个统一的标准体之后,它生产出来东西就是公平、公众和客观。我们这些自媒体人所在的意义在哪呢?我也在想,以前我特别 不太理解天天给大家疏通这种情绪价值,但是在看完了 ai 同理之后,我觉得可能未来我的真正的功能也是给大家提供情绪价值,让大家在搜完了 ai 的 一些答案之后说啊,真人也是这么看的 啊,所以我现在诚心审视我自己的价值,然后多给大家没事唠唠嗑,在大家情绪低点时候,带,大家没有信心的时候带,大家 不太坚定的时候,我能够站出来说啊,除了 ai, 人也是这么看的,真人也是这么看的啊,所以珍惜每一个还在独立思考,跟 ai 做了最后斗争的人类啊,真人希望每天可以见到你们,再见!拜拜!

算力销售中的算力闭口租赁,还有这个算力开口租赁和 token 销售到底哪个更赚钱?然后他们有什么区别呢?大家先收藏啊。那第一个呢,就是这个算力闭口租赁是什么回事啊? 呃,算力闭口租赁呢,他其实起因是大厂需要大量的 ai 服务器,但是他不能直接去买英伟达的设备,因为被管控嘛,然后呢,他又不想投入太大,然后太重资,所以他就去找了一个买了设备的人来租给他, 但是呢,资方会担心,如果你租了一年以后你不租了,那他这么大的投入不就等于完犊子了吗? 所以这个大。呃,所以资金方的就要求这些大厂要担保租到他们这个回本回息为止,这就是我们所说的叫闭口协议。 那大厂觉得你既然要我全兜了,那等于我自己在买,对吧?那你也不能想着太赚钱,你就拿点利息吧,然后用完之后呢,你的旧设备还是要送给我的,那这样子它会形成一个成熟的算力闭口租赁的模式。 呃,大概呢,就是你投个一百块钱,然后五年能最多拿二十块钱左右回来,但是这里是按月回款啊。然后第二个就是开口租赁, 开口租赁呢,就是伴随着 ai 普及度的提高,那开始有一些资方会发现,这些电子产品和服务器它还能增值,而且折旧的呢,也不快,旧设备呢,如果免费送给资方,太可惜了。 呃,而且呢,使用方法呢,也越来越多,对吧?这个根本不用担心砸在自己手里。于是呢就开始接受短租,一年或者两年, 而且大厂呢,他也不想承担 ai 服务器价格上面的波动,或者是更新换代的这个滞约,所以原来五年闭口租赁模式呢,开始往这个一年两年的中期合约去转变, 资产方来承担风险,然后但是他又享受了增值和产值。呃,第三个呢,就是 token 工厂的模式,伴随着这个 opencloud 把 ai 应用和大模型解开捆绑以后,呃,资方 也可以抛开大厂,直接用这个开源的大模型去做部署,然后直接给客户提供大模型的一个全新的模式啊。 我总结一下就是算力闭口租赁其实更像是在建大楼给一个企业。那么算力开口租赁呢,更像是建了一栋大楼,然后按年出租给不同的企业。 呃,托克工厂呢,它更像是建了一幢大楼,开了一家酒店,那么接受预定啊,按天收费。

今天我们要聊的呢是,在这个所谓的 token 工厂的概念下啊,哪些 a 股的公司是最有可能会直接受益的?那我们就直接开始今天的讨论吧,我想问问,就是这个 token 经济学的时代来临之后啊,数据中心到底会有哪些变化?其实在这个英伟达的 gdc 二零二六大会之后呢,这个, 呃, token 经济学就真的是被替上了日程哈,然后他们的 ceo 也说了,就是未来的数据中心其实就是一个生产 token 的 工厂。 哇,这相当于说数据中心的角色被彻底颠覆了呀。没错没错,而且就是,呃,到二零二七年,全球对于这个 ai 基础设施的需求是会达到一万亿美元的,那这个 ai 算力它就不再是一个成本中心了,它变成了一个利润中心。嗯,然后企业的这个估值和盈利能力都要看每瓦 token 吞吐量这个指标了解。 具体到 a 股市场,哪些方向会成为这个 token 工厂概念之下最主要的受益方呢?呃,其实核心的机会是分布在三个大的层面啊。第一个层面呢,我们叫做卖产人啊,就是那些提供生产 token 所必须的基础设施的公司啊,尤其是解决算力和工号瓶颈的光通信、 c p o 以及夜冷。对,这是第一个层面, 那看来这个基础设施这块儿真的是挺挺关键的啊。对,然后第二个层面呢,我们可以把它类比成发电厂啊,就是那些提供算力底座和 i d c 服务的运营商。嗯,那第三个层面呢,是增效剂, 就是那些通过数据治理和应用优化来提升 token 价值的服务商啊,这三类公司其实都会在这个 token 工厂的生态里面充分的受益。行,那我们就顺着这个思路来看看东方国信为什么会成为这个 token 工厂时代算力池建设的一个核心的受益者。其实啊,就是随着推理的需求暴涨,算力池的搭建就变成了一个刚需嘛。 那东方国信呢,它是国内企业级大数据和云计算解决方案的一个头部厂商,而且它有自研的云计算基础设施软件以及丰富的 i d c 资源储备哦, 所以说它不光是卖硬件,更多的是靠软件和服务来切入这个市场。完全正确,它是可以提供数据中心、裸金属、 gpu 虚拟化等等这些租赁服务的啊,然后它会在客户去构建这个 ai 算力池的时候提供更高附加值的解决方案。 对,那现在模型的需求一上来,推理上云的需求就激增吧,所以它就可以把自己的 idc 资源变成生产 token 的 核心资产,然后不断地靠算力租赁来获得持续的现金流。懂了懂了, 那我们下面要聊的是英文课对,它是怎么通过叶冷技术在这个 token 工厂时代占据领先地位的呢?这个的话,就是因为在 token 工厂里面啊,工号是一个核心的约束, 就是你的每瓦 token 吞吐量直接决定了你的收入。那现在这个算力密度飙升之后呢?叶冷就从一个可选项变成了一个 b 选项。对,尤其像这个英伟达推出了新的 vira rubin 架构以及后续的 final 架构之后, 黄仁勋在 gtc 大 会上面已经明确地宣布了,所有的新的机架都要采用液冷,它是自主开发的这个库林赛全链条的液冷解决方案 啊,它的技术成熟度非常的高,然后也已经进入了英特尔和英伟达的产业链。嗯,它可以帮助数据中心降低 pe, 就是 把更多的电转化成算力。 ok, 所以 随着国内的这个 ai 算力竞赛越演越烈, 包括谷歌这些海外的巨头都开始来国内考察叶冷设备。那英伟克作为一个已经通过了验证的核心供应商,它肯定会充分地受益于这个叶冷的渗透率快速地提升。明白了, 那飞龙股份,在这个 token 工厂的叶冷系统里面,它的竞争优势到底体现在哪些方面?飞龙股份呢,它是掌握了这个叶冷系统里面的核心零部件,比如说 c d u, 也就是冷却液分配单元和叶冷泵。 对,那这些产品呢,都是进入了全球高性能液冷散热解决方案的,所以说飞龙股份它是跟核心客户有深度的绑定是吗?是的,没错,而且就是这个 c d u 液冷泵,它的技术壁垒非常高。 嗯,一旦你通过了客户的验证之后,你的供货关系是非常稳定的。 ok, 它又是一托于自己在热管理领域的技术积累,然后又非常顺利的切入了这个高增长的赛道。所以它的产品价值量是随着数据中心大规模的从风冷转成夜冷,它是不断的在提升的,对它的这个中长期的试战率也是有持续上升的空间的。了解了, 然后咱们来看看中电兴隆啊,中电兴隆呢,它其实是为这个产品线包括云计算平台、大数据基础平台、 视频监控管理平台、 v m s 以及存储设备。所以说,呃,数据的存储和处理是它的一个核心的竞争力。没错没错,因为随着这个 token 经济爆发之后,数据的清洗、存储和计算的需求是暴增的嘛。对,那中电兴隆的话,它就是用自己的这个存储设备给海量的 token 提供了一个原料仓库。 嗯,然后再加上它的云计算和大数据平台,又可以做这种深度的价值挖掘,所以尤其是在智慧城市这种需要大量视频数据实时分析的领域,它的这个软硬件一体的方案是非常有竞争力的。行,那我们来聚焦一下海天瑞生,其实在这个 token 工厂的体系里面啊, token 的 质量和价值是比单纯的生成速度要重要的。 对,那高质量的数据其实就是决定你这个 token 到底值多少钱的一个关键。那海天瑞生呢,它作为这个 ai 训练数据领域的一个领军者,他其实是已经完成了一个升级, 就是他从一个数据提供方升级成了一个 token 增效服务商。哦,他最近跟华为联合发布了这个海田瑞生 x 升腾 deepsea 数据飞轮智能体。啊,那这个就是一个零代码门槛的智能体部署方案,它可以帮助企业在全场景里面实现智能化的升级。 那其实这个就标志着海田瑞生已经完全掌握了把原始数据转变成高价值 token 的 这个核心的能力。 ok, 那 中国科传在这个 token 经济学里面到底是凭什么能够成为这个高质量 token 的 源头呢?这个啊,就是因为数据是这个 token 工厂的一个原材料嘛。 那中国科创它是背靠科技出版的国家队,所以它是积累了海量的高壁垒的学术内容资源,这些其实都是训练专业 ai 模型生成高价值 toc 非常稀缺的原料。而且它现在已经不仅仅是一个出版商了, 它更像是一个高质量 toc 的 原始矿主。嗯,因为它通过 ai 技术对自己庞大的内容资产进行了深度的挖掘和结构化的处理,然后把它变成了一个专业的知识库。 ok, 那 这个知识库就可以被大模型直接调用,所以这就相当于它掌握了生产高价值、高定价权 token 的 核心的生产资料。是的,那它就可以在这个 a a s s, 也就是智能体及服务的这个新时代里面牢牢地占据产业链的制高点。没错没错, 那下面我们来看看这个天福通信啊,它是怎么借着这个 c p o 和光气件的技术优势,在这个 ai 算力进入光学时代之后抢占先机的。关于这方面,其实在 g t c 大 会上面,这个黄仁轩就已经喊出了需要更多的铜锣产量,更多的光芯片产量,更多的 c p o 产量。 对,然后它也现场展示了全球首款量产的 c p o 交换机。嗯,这个就被很多人认为是 ai 算力进入到光学时代的上游。对,天福通信呢,它是处于这个光模块产业链的上游, 然后它是一个一站式的光气件平台。 ok, 它在光引擎和光气件上面是有很深的技术壁垒的,嗯,所以它是直接受益于这个 c p o 技术路线的, 而且它又跟全球的光模块龙头都有深度的合作,所以随着 c p o 大 规模的商用,天孚通信是有望迎来业绩和估值的双重提升的。好的, 那我们再来说说新易胜啊,新易胜其实是全球领先的光模块解决方案的供应商哦,在这个高速率光模块,像八百 g 和一点六 t 这种,它的产品布局和出货能力都是全球领先的,而且随着这个 gtc 大 会之后推理需求的爆发,嗯,这个八百 g 和一点六 t 光模块的需求也是急剧上升的。 那新易胜呢?他又凭借着自己的技术优势和成本控制能力,深度地打入了海外的头部云服务提供商的供应链。 对,然后再加上这个英伟达的 blackcloud 和 rubicon 平台陆续地出货,新益盛作为能够大规模交付高速率光模块的厂商, 它肯定是会充分地受益于这个市场的放量以及产品的溢价带来的利润的提升。懂了,懂了,那中际旭创为什么能够成为这个 tokin 工厂的光模块领域的一个绝对的龙头?中际旭创呢?它是全球领先的光模块供应商,嗯,在这个高速光模块领域,它是份额和技术都是遥遥领先的, 而且它是英伟达这些头部的算力企业最核心的合作伙伴之一,而且它在这个创业板人工智能 etf 里面的权重占到了百分之二十六点六二啊,然后再加上这个 gdc 大 会之后,这个全球的 ai 算力基础设施建设加速,嗯,无论是从这个需求还是从技术的升级以及光互联的明确的趋势, 都是非常利好,重积蓄创的。对,而且它在这个八百 g 光模块上面是领先量产的,然后在这个一点六 t 上面也是快速的跟进,所以它是可以充分的把握未来两三年的这个算力爆发的红利。 ok, 那 么最后来看看这个工业复联啊,这个公司为什么能够在这个 token 工厂时代成为 a 股里面受益最直接最核心的公司,这就不得不说工业复联,它是全球最大的 ai 服务器的开发商和数据中心的建设者。从它跟这个英伟达是有非常深度的合作的 啊,它不光是说 ai 服务器的代工的份额遥遥领先,它甚至会参与到客户的数据中心的整体的设计和搭建里面。而且从这个 hopper 到 blackblack 再到 ruby, 每一次这个 ai 平台的升级都会带来服务器内部结构的巨大变化。嗯,那工业复联呢?它就是能够凭借着自己的研发设计和供应链的优势,率先地把这些最新的技术变成可以大规模生产的产品。 对,然后再加上他自己也运营数据中心,也做算力租赁和云服务,所以他是可以在这个产业链的每一个环节都充分的享受这个 talking 经济带来的红利。好了,那么以上就是这期播课的全部内容了啊,感谢大家的收听,我们下期再见,拜拜!拜拜。

谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了, 我们可以去一下欧拉玛,之前没有安装欧拉玛的兄弟们也不用担心,直接去他官网安装即可。一个羊驼啊,现在已经开始玩龙虾了,但是这个不,这个是我们,我们首先 现在官方已经开始逐渐的把羊驼和龙虾结合到一起了,我们直接选择对应的登录的,然后找到你符合要求的版本,直接安装到您的电脑上就可以。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载詹姆四到你本地的电脑上,我们可以使用它的官方指令找到官网的 model 选项,然后这有一个詹姆四,我们进入,他会告诉我们直接怎么样去进行詹姆四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行,输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话,老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗。我们看一下啊,这个显存直接拉满的达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢剧效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open klo, 接入到我们的龙虾里,让他们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open klo 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频,咱们可以去到时候去看一下。只不过这期视频呢,我想给大家来讲解一下这个 wsl 的 这个部署优势。 很多兄弟看老张之前视频都是用 note 直接下载安装的,但是为什么老张最后给大家又转回到了 wsl 这一块了呢?因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢,是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后,之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点,你得先在你的 windows 系统下把 wsl 安装一下。当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格,杠杠威森,如果弹出定的版本号证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令, wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班 图,安装之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三、安装一个压缩包工具,方便安装一个 note 点 gs, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本,如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,比如说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错,还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的, ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班途中跑起来。老张刚才给大家测试的是 g m 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。 如果说你现在只想用 openclo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给它删掉,如果说你不,你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆斯直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 col 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 col 的 方法报错的话,直接使用 npm 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接使直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型, gm 四三十一 b, 然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话了。但是如果说善于观察的兄弟们也发现了,老张呢,把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 open klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用 e s b 的 给大家进行演示,发一个。你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来,然后老张呢也会及时给大家更新啊,无论是在评论区中还是视频中,教大家如何使用,我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。

来,今天咱们在市场上抓一条主线,讲一讲它的名字就叫磁源,就是那个国外一直讲的 talking。 啥是 talking? 呃,简单的说吧,就是像咱们打电话用的分钟数,用电用的几度电,它是一个单位, 就是用来形容你用了多少算力。比方说呢?这个调用算力这个事吧,我们在使用豆包和 deepink 的 时候,呃,其实就是机器在调用算力,帮我们计算、搜索、整理数据,最后给我们输出一个结果。 这个过程呢,简单的说就是在大模型的加持下,把电力把它加工成算力的这个过程。所以整个产业链上呢,涉及到五大板块,板块里头都有谁?讲一讲看能不能发出来。

很多人听到卖 token 就 懵逼了,别被专业术语吓到,我用最直白的方式告诉你,所谓 token 就是 ai 世界的流量包。你们记不记得智能手机普及的当当时,那个时候每个人都要买流量包,什么三十元五百 g、 五十元一 gb, 运营商光靠卖流量包等持续赚钱,现在历史在重演,只是换成了 ai token。 很多人觉得卖托管跟我有什么关系?那我们作为普通该如何入群的时候,我跟你讲个简单道理,你就明白了。你像所有卖保险的,他们也不懂产品,他们也不会开发,他们也不懂精算,但他们为什么能卖?因为他们知道他们要卖给谁。他们很多人刚买房子,谁有孩子谁要保障,对吧?他们收集需求,推荐保险产品, 这就是他们的所谓代理人,成交之后就拿到佣金。很多卖保险的,他们可能说是身兼数职,什么司机、老师、宝妈、学生等等,这些都有,对吧?人人都可以卖保险,其实是一样的逻辑,你也不需要懂 ai 技术,你也不用做产品,你只需要知道人认识人,你去挖掘他们需求,收集他们需求。 比如你一个朋友,他在做生意对吧?他不会做网络推广,他不会做视频推广,那么你去找一个已经做好的 ai 工具,拿到分销资格,你就能实现拿佣金。 第一个拓客,客户哪里来?我们就从你身边第一个有需求的人开始。如果你已经认识有做生意的人,开店的人,做销售的人,其实你就已经具备做拓客条件了。

不会还在有人花钱买 tokyo 养龙虾吧?嗯,看我如何实现本地免费的算力查询一下杭州今明两天的天气, 可以看到现在龙虾已经开始调研工具了。那我是怎么实现的呢?就是本地这台可以跑满血 mini max 二点五的 大模型推理服务器,现在这里已经开始发热了,那么其实并不需要英伟达八张 h 一 百显卡。那么给大家看一下我们这台机器的配置, 我们用的是 k transformer 架构,把所有大模型放在内存里,而实际上只用了一张四零九零显卡就可以实现哦。那么这台本地大模型推理服务器你想拥有吗?

很多人觉得做投资很难,但其实和卖保险几乎一样,我给你讲完你就懂了。卖保险的人很多也不懂保险产品,更不懂精算。但他们为什么能卖? 因为他们认识人,他们知道谁刚买房子,谁养孩子,谁开始关注,保障 他们收集需求,再推荐保险产品,成交之后他们拿佣金。而且很多卖保险的人,以前可能是老师、司机、宝妈、刚毕业的学生,他们并不是专业人士,但是他们都能做 token 渠道。其实是一样的逻辑,你不需要懂 ai 技术,你也不需要做产品,你只需要认识人,收集需求。比如你有个朋友做电商,他说每天写文案太累, 你去找一个已经做好的 ai 写作工具,拿到分销资格,推荐给他,客户用了,背后就在消耗 token, 而你拿销售佣金。为什么这个模式成立?因为现在很多 ar 公司有产品,没有销售渠道,就像保险公司,有产品,但需要代理人,普通人就是那个代理人。 其实 ar 行业正在复制当年保险、房产、云计算的发展路径,技术公司做产品,渠道负责 渠道负责卖,而 token 就是 ar 时代的消耗品。所以普通人做 token 最合适的角色不是技术人员,而是 ar 产品代理。 就像卖保险一样,你卖的是产品,背后是服务,在背后是 talkin。 问,第一个 talkin 客户从哪里来?你身边第一个有需求的人开始。 如果你认识做生意的人、开店的人、做销售的人,其实你已经具备做做 租 talk 渠道的条件呢?如果你身边已经有人需要写文案、做客服,做短视频评论区,打个代理,看看有多少人已经具备租 talk 渠道的条件。关注我,一起探索 ar。