算力租赁领域目前订单最多的十家公司,算力租赁就是把算力服务器、 gpu、 显卡等算力资源租给企业和大模型公司使用。现在 ai 全面爆发,高端算力一卡难求,各家企业订单全部爆满,供不应求。 以下是订单量前十的行业龙头,前两名更是占了整个行业的大半份额,实力断层领跑。以下内容只做行业分析,不构成投资建议。第十名,奥菲数据长期订单超十点八九亿元,华南 i d c 老牌龙头企业,顺利拿下百度二十年长期算力合作协议, 各地计算中心持续落地投产,订单整体排至二零二六年底。第九名,鸿博股份 ai 算力租赁签约定单超十五亿元,深度绑定英伟达生态体系运营,北京核心智算中心,整体算力出租率达到百分之八十五, 手握稀缺高端 gpu 资源,长期合作头部大模型企业,订单排至二零二六年二季度。第八名,中贝通信 目前在手算力订单约二十五亿元,采用英伟达、华为双线并行布局,现有头产算力达到一点八万 p, 后续规划新增扩建一点一万 p 算力储备,长期为政企单位、互联网大厂提供算力服务。订单排至二零二六年底。第七名,拓维信息,国产算力订单超三十亿元,华为深腾生态核心企业,整体算力规模两至二点五万 p, 是政务算力租赁核心服务商,同时深度配套国产大模型发展。订单排至二零二七年一季度。第六名,协创数据, 在手算力租赁订单超三十五亿元,专注打造万卡级大型智算中心,累计投入三百二十二亿元,加码硬件采购与算力,破建再建,总算力突破四万屁,算力租赁业务迎来高速增长,订单全面排至二零二七年第五名。中科曙光 算力租赁订单超四十亿元,国产超算加智算国家队自有算力规模一点五万屁。叶冷节能技术行业领先,是科研机构、大型央企的核心算力供应商,订单排至二零二七年一季度第四名。润泽科技在手订单超六十亿元。 字节跳动核心算力合作厂商主打叶冷智算中心,总算力突破三万 p, 全国布局六十一座数据中心,算力上架率稳定,超百分之九十,订单排至二零二六年底第三名。利通电子,在手订单超七十亿元,纯正算力租赁龙头, 可调度算力规模三点三万 p, 和英伟达深度绑定,合作长期服务腾讯、阿里等头部大厂,整体出租率百分之一百,订单排至二零二六年末第二名。工业复联算力相关订单超两百八十亿元。英伟达第一大代工厂,全球 ai 服务器代工占比百分之四十以上, d g x h g x 高端设备代工比例高达百分之九十,深耕算力,基础设施代工制造订单排至二零二七到二零二八年第一名。浪潮信息在手 ai 算力订单超三百五十亿元,合同负债三百一十五亿元,同比大增百分之一百七十八点九二, 全球算力服务器出货量排名第一,国内智算中心建设的绝对主力,订单排至二零二七年二季度。
粉丝673获赞1670

欢迎来到显卡日报,先来过一下内存,今天内存价格有所下跌,但是有些常规型号又是涨跌一块钱。 价格走势图上,最近原厂 pcie 四点零固态的价格基本上全面低于三点零,四点零还能向下兼容,没有什么意义,买三点零了。再来看看显卡大盘,今天显卡价格有涨有跌,其中 rx 九零七零涨幅领先,但是五零九零 dv 二跌幅比较明显。 价格走势图上可以看到,最近五零九零 d v 二的价格有所松动,六幺八会不会俯冲一下呢?就让我们拭目以待吧。 cpu 价格方面,今天散片的价格有所下跌,其中酷睿幺四九零零 k f 跌幅比较明显。二手盘方面,今天小黄鱼二手成交价有小幅度下跌。接下来是硬件新闻,根据 wccf tech 原有的 information 消息,北美 ai 巨头的英伟达 gpu 出现大规模闲置, 其中马斯克的 x a i 仅仅使用其中的百分之十一,而利用率较高的优等生,比如谷歌和 mate 也有超过一半的 gpu 闲置。据需 x a i 目前有大约五十五万张,英伟达 gpu 大 部分是 h 一 百和 h 二百的组合,尽管数字很庞大,但是公司仅能利用其中六万块 gpu。 报道称,瓶颈主要是软件站存在若干不一致之处。所谓软件站,包括从 gpu 驱动到网络传输协议,再到上层的 ai 训练框架等一整套软件系统统称为软件站,集群规模越大问题越多。 软件站瓶颈也是行业通病了, mate 和谷歌利用率在百分之四十三到百分之四十六。利用率这么低,还是出租算了,据说 xi 想把自己的算力给租出去。 再来看看 amd。 根据 video card 报道,最近锐龙 ai max plus 四百九十五现身 passmore 这款产品,也就是去年斯克黑了的换皮版本,规格几乎没有变化,但是最大内存容量从上代的一百二十八 g 扩大到一百九十二 g, 最大内存容量多了百分之五十, 也就是从单片十六 g 的 内存换成单片二十四 g 的 内存,意味着能部署参数量更大的模型,但是以目前的内存成本来看,售价肯定更贵了。今天的日报就到这里,每晚十一点准时更新,日报有用记得关注哦!你的鼓励真的很重要!

算力租赁和 r、 d、 c 业务是有区别的,算力租赁是租服务器的, r、 d、 c 是 租机柜的,服务器淘汰快,资产重。机柜呢?相对资产没那么重,淘汰没那么快。像润泽数据港,奥菲官方新网,秦淮数据等等吧,包括万国以及实际互联 是出租寄贵的网速做 c、 d、 n 也做阿 d、 c 业务,像年初的一些海南花铁,航钢股份、云山智联等等,还有红薄股份等等,这些是做出租算力的出租服务器的。出租服务器的呢?迭代非常快。 你看过去两年因为打的 a 一 百, h 一 百, h 二百, b 二百 b 三百,现在马上如饼的系列出来了, 迭代非常快,价格很昂贵。 a 一 百最早时候七十多万,后来涨到了一百六十多万一台 h 一 百一上市就两百多万,现在去两百两百四十多万。 b 两百要两百八十多万, b 三百要三百二十多万,非常重资产。所以说算你最近他不是一个特别好的业务, 你看英文达的亲儿子 callive 也靠英文达书写。所以说我昨天看到有网友在评论区里一直在质疑我们对算力租赁业务的判断,我就问你哪个家算力租赁业务跑出来了? 他说他卖出了润泽。润泽他不是做专利租赁的,他做 rdc 业务的,他在北京周边廊坊信息港,在上海周边的平湖信息港,在深圳周边的惠州都有自己的大型的数据中心。他是大机房出租机柜的。但有人认为润泽就在他身上,收专利他也不是自己收的,他是帮别人代产的, 大部分这种上市公司不会持有这么高风险的资重资产的。当然啦,比如传言他在海外收了一些七二百,这另当别论了。但是主营业务是出售 r d c 的, 包括数据港也是。好吧,关于夫妻业务做了多少?这里面一定是有一些业务的。但是我气息并不透明。好吧,关注我,一起来到亚萨利。

咱们来聊聊奥菲数据这家企业,简单说就是做数据中心服务的,二零零四年成立,核心业务就是给企业提供机柜、贷宽这些数字基础设施,相当于互联网世界的大型服务器托管站。技术上他挺能打, 自研的液冷技术把能耗降到一点一左右,比行业平均低不少,一年能省下不少电费,还适配 ai 芯片的散热需求,网络延迟不到二毫秒, 自建了智能运维系统,能实现无人止手,故障自动恢复。现在还搞了 ai 算力云,能满足客户的训练和推理需求,手里有不少专利和软件著作权。行业地位方面, 它是华南地区的龙头,大湾区市占率大概百分之十五,比同行万国数据、市际互联都要高,全国范围排民营 i d c 前五,在京津冀、西部也有布局, 手里握有稀缺的能耗指标,正从区域服务商往全国性算力公司升级。客户资源特别硬核,绑定了阿里、腾讯、字节、跳动、快手这些互联网大厂,前五大客户贡献了一半左右的收入, 还有像阿里云这样的长期合作协议,现金流很稳,发展前景挺明朗。现在 ai 算力需求爆发,加上东数西算政策支持,它正在扩产能计划,新增不少夜冷机会, 而且布局了绿电项目,能降本增效,毛利率也在稳步提升,但整体跟着算力需求走,成长性挺足。希望以上信息能帮助您更多了解这家企业。

最近我看了他们的三季报和一些业务动态,感觉这家华南 i d c 龙头真的是闷声发大财,而且在 a i d c 领域的布局相当有看点,所以今天就跟你好好拆解一下。 首先,咱们先搞清楚奥菲数据到底是做什么?他们的核心业务主要有三大板块, i d c 服务、算力租赁和新能源配套。 你可能知道, idc 就是 互联网数据中心,简单说就是给企业放服务器的地方,但现在的 idc 早就不是以前那种单纯的机房了,尤其是随着 ai 大 模型的爆发,算力租赁和新能源配套已经成了它们增长的关键引擎。 先来说说他们的体量,截至二零二五年六月,奥菲数据自建自营的基柜已经超过五点七万个,到年底还会突破七万个。这个规模是什么概念呢?在国内 i d c 行业能排进前二十,而且在华南地区是妥妥的龙头, a i d c 领域更是能排进前三。他们的数据中心主要布局在京津冀、粤港澳大湾区这些国家算力枢纽的核心区域,比如广州、廊坊、张家口这些地方,总共十四个自建数据中心, 这里必须提一下他们的技术优势,奥菲数据中心 pe 低至一点一以下。什么是 pe? 就是 数据中心总能耗比上 it 设备能耗越接近一越节能,一点一已经是国内顶尖水平了,这主要得益于他们领先的液冷技术, 而且高功率机柜占比超过百分之六十,都是八千瓦以上的,这对 ai 大 模型训练来说太重要了,因为大模型需要的算力功率非常高,普通的低功率机柜根本带不动。 接下来咱们聊聊他们的大客户,这可能是奥菲最硬的底牌了。你知道吗?他们的客户几乎覆盖了国内所有头部互联网公司,而且都是长期深度合作。 先说说阿里云,奥菲从二零二零年就开始和阿里云合作华南数据中心,合同金额大概五亿元,期限还能延长到八年。关键是他们是阿里云唯一公开协议的算力租赁方,这个身份就很不一般。 然后是百度,他们在廊坊固安数据中心和百度合作的合同金额约九点五亿元,之前还两次拿下百度十九点五亿元的订单,这说明百度对他们的服务和算力质量非常认可, 腾讯也是他们的重要客户,双方在数据中心、云服务、边缘计算还有算力领域都有深度合作。奥菲不仅给腾讯云提供服务器托管和贷款资源,还参与了腾讯长三角 ai 超算中心的算力集群部署。 字节跳动这边,他们通过子公司给字节提供数据中心综合服务,覆盖国内和东南亚地区。字节的业务量有多大,不用我多说吧。能成为他们的供应商,奥菲的实力可见一般。 最重磅的应该是和华为的合作,他们签了超过五十八亿元的合作协议,含盖了数据中心建设、新能源企业数字化,还有 ai、 智算这些领域。五十八亿啊,这可不是小数目, 说明华为对奥菲的技术和资源能力非常信任。除了这些巨头,金山云、快手、三六零这些都是他们的客户,头部互联网企业贡献了超过百分之六十的收入,而且政企客户的占比也提升到了百分之三十,这说明他们的客户结构越来越健康,不再单纯依赖互联网企业,抗风险能力更强了。 两万大客户,咱们再看看他们二零二五年的三季报,这数据真的亮眼,前三季度携入收入十八点二四亿元,同比增长百分之十五点三三, 规模净利润一点四五亿元,同比增长百分之三十七点二九,尤其是第三季度单季表现,营收六点七六亿元,同比增长百分之二十九点八六,净利润五千七百五十五万元,同比增长百分之九十点三六,这个增速相当猛。 毛利率方面,前三季度达到百分之三十四点九九,同比提升了九点四四个百分点。 q 三单季更是高达百分之三十七点五五,净利润前三季度百分之九点一四, q 三单季突破百分之十,达到百分之十点五六, 这说明他们的盈利能力在持续提升,成本控制做的很好。经营活动现金流同比增长百分之三十一点八八,现金流也非常健康。 核心增长引擎肯定是 idc 服务板块,二零二五年上半年营收八点九五亿元,同比增长百分之四十二点二二,这个增速远超公司整体营收增速,说明 idc 服务是他们增长的主要动力。 而且随着 ai 算力需求的爆发,算力租赁业务的增长应该会更快,毕竟现在各大互联网公司和 ai 厂商都在抢算力,奥菲的高功率机柜正好能满足这个需求。 接下来咱们聊聊奥菲的未来,展望他们的成长预期非常明确,二零二五到二零二七年,规模净利润从二点零八亿增长到四点四七亿元,年复合率四十到百分之四十五。 营收从二十五点八零亿增长到四十六点一零亿元,年复合率百分之三十五以上。机贵数量从七点零万增长到十点零到十点五万个,年复合率百分之二十以上,这个增速在 i、 d、 c 行业里已经是非常高的了,说明市场对他们的发展前景非常看好。 核心增长点主要有几个方面,首先是高功率机柜的头产,廊坊固安项目新增八千九百二十五个八点八千瓦机柜,张家口怀来项目规划一万五千个机柜,这些高功率机柜主要就是为 ai 大 模型训练准备的,投放后应该能带来可观的收入增长。 然后是 ai 算律服务,奥菲推出了迅推一体机和 deepsea 联合开发,还接入了中国电信,这说明他们在 ai 算律服务领域已经有了实际产品和合作。不是光喊口号, 分布式光伏也是他们的重要布局,配套数据中心建设光伏电站,这样可以自己发电给自己用,降低能耗成本,毕竟数据中心是耗电大户,能把电费降下来,利润就能上去。 海外拓展方面,他们在香港布局了节点,还在开拓东南亚算力市场。东南亚的数字经济正在快速发展,算力需求增长很快,这是一个新的增长点。 政策方面,奥菲受益于东数西算战略数字经济建设和双碳目标。东数西算就是把东部处理,奥菲在张家口这些西部算力枢纽有布局,正好能承接东部的算力需求。双碳目标下,数据中心的能耗控制越来越重要,奥菲的液冷技术和光伏电站正好符合这个要求, 能享受相关的政策支持。不过咱们也得说说风险提示,奥菲的资产负债率比较高,达到百分之七十五点八三, 这主要是因为数据中心建设需要大量的资金投入,都是靠负债融资,所以长债压力不小。还有行业竞争家具,现在国内做 itc 的 公司越来越多,尤其是三大运营商自己也在做数据中心, 奥菲面临的竞争压力不小。另外就是 ai 算力需求不及预期,如果大模型发展不如预期,算力租赁业务的增长可能会放缓。 整体来看,奥菲数据在 idc 和 aida 领域的实力还是很强的,大客户资源丰富,技术优势明显,成长预期也比较明确。虽然有一些风险,但只要他们能保持技术领先,持续拓展客户和业务领域,未来的发展应该还是值得期待的。

第一名,奥菲数据,长期订单超十点八九亿,华南 i d c, 老牌龙头企业。第二名,鸿博股份, ai 算力租赁,签约定单超十五亿元,深度绑定英伟达生态体系运营。第三名,中北通信,目前在受算力订单约二十五亿元,采用英伟达、华为双线运行布局。 第四名,拓维信息,国产算力订单超三十亿元,华为升腾生态核心企业。第六名,中科曙光,算力租赁,订单超四十亿元,国产超算加智算国家队。 第七名,润泽科技,在手订单超六十亿元,核心算力合作厂商,主打业冷智算中心。第八名,利通电子,主营算力服、核心算力租赁赛等。第九名,工业复联算力相关订单超两百八十亿元,英伟达第一大代工厂。第十名,浪潮信息,在手 ai 算力订单超三百五十亿元,全球算力服务器出货量排名第一。

如果你还在等一张英伟达新款显卡,我想跟你说一件事,英伟达可能已经不想做你的显卡了。过去三年,如果你买过英伟达的显卡,你会发现一个问题,越来越难买,越来越贵,而且出新款的速度越来越慢。 这不是因为他们产量跟不上,这是因为他根本没把产量给你留。黄仁勋的原话是, ai 数据中心是公司首要任务,游戏业务排在后面。你仔细想想, h 一 百 h 二百,一个 ai 芯片卖几十万美金,而你那张游戏显卡卖两千九百九十九美元, 哪个赚钱一目了然。更扎心的是,黄仁勋还说了一句话,我们正在为 ai 时代重构整个公司的产品线。 注意,他说的不是我们新增了 ai 业务,而是整个公司重构。意思是,游戏卡这边的研发资源正在被抽掉走。 英伟达不再是你的显卡品牌了,他已经是 ai 时代的军火商,你只是顺便被服务的那波人。觉得这个逻辑扎心的点个赞,我们下期见!

五月开门红啊,今天直接增量到三点二万亿,看了榜上呢,基本都是量化主导啊,那五月呢,可以撸起袖子加油干了。主线很明 显主要是科技为主啊,一个是国产芯片概念,电力呢要看看持续性,还有一个是算力,所以主要还是算力和存储芯片这两个板块呢,是有望能走出持续性的,因为四月的时候呢,算力板块主力就已经悄悄的潜伏 进去了,今天就开始放量了。那专利概念的话,还是前面提过的光环奥瑞二六 s, 那 奥菲这个数据,这个也是可以的,同板块的大家可以去看看啊。那国产芯片的话就是存储为主了,不过我看存储的价格呢,一般的散户还真是买不起, 所以呢,看各自的情况去决定了。目前我个人还是比较喜欢算力,电力这些位置相对来说第一点的。那目前呢,只说看也没啥问题,所以呢,家人们抓住主线干就完了。还没关注小师妹的可以关注小师妹,每天呢都在更新市场的最新动向。

对标英伟达计算卡, amd ai 加速器迎来新成员 insistent mi 三五零 p 登场,这是 amd 近五年来该系列首款 bce 卡产品。过去 amd 的 顶级 ai gpu 基本都是 oam 模块,而这次标准的 bce 卡可以直接进入普 通企业机房,让很多现有服务器直接就能插。这款产品本质上就是 amd 旗舰 m i 三五零 x 加速器的一半,一百四十四 gb 的 hbm 三亿显存,四 t p 每秒的显存带宽 f p 八算力超过两批 flops, 核心架构还是 amd 最新的 cdna。 四、更关键的是功耗只有六百瓦。除此之外, amd 还提供了四百五十瓦的 tpp 模式,但是目前并未爆料 m i 三五零 p 是 否支持多卡互联,可能还是得通过 pci 总线来实现通信。可以发现,目前英伟达正在走 ai 超级地段进度线, 而 amd 反而走上了英伟达的老路。你对 amd 这款 pci 产品有什么看法呢?是否能跳动英伟达在数据中心的王者地位?欢迎在评论区留言讨论。

巴塞罗那的会展中心里,十点九万名专业观众正盯着同一个方向。华为在 mwc 二零二六上甩出了一套让所有人意外的算力方案,不是更强的单卡,不是更高的算力峰值,而是集群加超节点的组合拳。这个选择立刻引发了一个尖锐的问题, 当英伟达用单卡性能统治全球百分之八十以上的数据中心、 gpu 市场时,华为为什么要走一条 完全不同的路?这到底是技术突围的新思路,还是在制程受限下的无奈妥协?更关键的是,集群对抗单卡,谁的路线才真正代表 ai 算力的未来? 要回答这个问题,我们得先搞清楚华为到底做了什么。传统的算力竞赛玩法很直接,就是比谁的单块芯片更强,谁的浮点运算能力更高,谁的显存贷宽更大。英伟达在这条赛道上跑了很多年,从 k 八十到 a 一 百,从 h 一 百,每 每一代产品都在刷新单卡性能的上限。全球的 ai 研究者、互联网公司、云服务商,几乎都被绑定在英伟达的 c、 u、 d、 a 生态上。 这个生态建立了十几年,无数的软件库开发、工具、应用框架都基于这个平台开发。这种垄断不仅仅是技术上的领先,更是整个产业链的深度锁定。但华为在 mwc 二零二六上展示的方案走的是另一个方向,他们强调的是集群化的架构设计, 通过多块芯片的协调工作,通过超节点的系统及优化来实现整体算力的提升。这听起来像是绕了一个弯字,但背后有非常现实的技术逻辑,当你在先进制程上受到限制,单卡性能很难做到和对手同一水平时, 把多块芯片高效的组织起来,让他们协同工作产生的损耗降到最低,这就成了一条可行的突破路径。这里面最关键的技术点 是芯片之间的互联。当你把十块、二十块甚至更多的芯片连接在一起时,他们之间的数据传输速度、 通信延迟、覆盖均衡,这些系统级的指标会直接决定整体性能。如果互联技术不够强,多块芯片协同工作时产生的额外开销,可能会把单卡性能的叠加效果完全抵消掉。华为的超节点设计就是要解决这个问题, 让多芯片系统在某些分布式计算场景下,甚至能展现出超越简单堆叠的性能表现。但我们必须看到一个现实, 单卡性能和集群性能是两个不同维度的指标。在某些需要极致单点算力的场景下,比如超大规模语言模型的某些训练环节,单卡性能依然有它不可替代的价值。一块性能足够强的 gpu, 能够把一个完整的模型层加载进显存, 这种效率是多卡携同,很难完全复制的。而在另一些场景下,比如大规模的推理服务,比如分布式的数据处理、集群架构,确实可能展现出更好的性价比和可扩展性。这就带来了一个根本性的问题, 未来的 ai 应用场景到底更需要哪种算力形态?如果你看训练超大模型,英伟达的单卡路线显然有优势,因为模型规模越大,对单卡性能和显存容量的要求就越高。但如果你看边缘计算、看端侧 ai、 看分布式推理, 华为的集群思路可能更适应这些场景的需求。更重要的是,通信技术和 ai 的 深度融合,正在改变算力的分布形态。 mwc 二零二六的主题是 theiq era 众智起心。这个众智两个字其实很有意思,它暗示的是算力不再只集中在几个超大型数据中心里,而是要分散到网络的各个节点上,分散到边缘设备上,分散到终端上。六 g 技术的演进方向 也在强调算力和通信能力的一体化设计。在这种趋势下,集群化、分布式的算力组织方式可能比单纯追求单点性能更符合未来的需求。来自全球两百一十九个国家和地区的两千九百余家参展企业, 他们在 mwc 上展示的不仅仅是硬件产品,更是对未来技术路线的判断。 ai run 这个概念正在被越来越多的运营商接受,让人工智能直接参与到无线接入网的资源调度和优化中去,这需要算力下沉到网络边缘、智慧城市、工业互联网、自动驾驶 这些应用场景对算力的需求千差万别,没有一种技术方案能通吃所有市场。从市场格局来看,英伟达在数据中心 gpu 市场的份额超过百分之八十, 这个数字意味着他们在云端算力领域拥有近乎垄断的地位。但华为的算力方案主要服务的是中国市场和部分区域市场, 这不是缺陷,而是现实约束下的务实选择。中国市场的规模足够大,足以支撑起一套独立的技术体系和产业生态,而且在供应链不确定性增加的背景下,拥有自主可控的算力方案本身就具有战略价值。但我们也要清醒的认识到, 从区域方案到全球标准,从技术可行到生态成熟,这之间有很长的距离要走。英伟达的 c u d a 生态经过十几年的积累,全球无数开发者、企业、研究机构都基于这个平台开发应用, 这种生态年薪是任何新进入者都必须面对的巨大挑战。华为要让自己的集群方案被更广泛的接受,不仅需要在性能指标上有竞争力,更需要在软件生态开发、工具应用适配上投入长期的资源。所以,当我们讨论集群对抗单卡,谁的路线更有未来时, 答案可能不是非此即彼。技术路线的选择从来都不是单纯的技术问题,它涉及到应用场景、市场需求、产业生态、 供应链安全等多个维度的考量。英伟达的单卡路线在云端大模型训练领域有明显优势,华为的集群路线在分布式场景和边缘计算上可能更有潜力。真正的竞争可能不是谁取代谁, 而是谁能在自己擅长的领域建立起更深的护城河,谁能更准确地把握住技术引进的方向。巴塞罗那的这场盛会迎来了他的二十周年,从二 g 到三 g, 从四 g 到五 g, mwc 见证了移动通信技术的每一次跃迁。 而今年,当 ai 成为这个行业最核心的变量时,算力之争的本质也在发生变化,它不再只是比谁的芯片跑得更快,而是比谁能更好地把算力通信应用整合成完整的解决方案。

双利租赁领域订单最多的十家公司。第十名,奥贝数据,在手订单十点八九亿,这家公司是华为地区的 idc 龙头,与百度签订二十年期超长双利合同。 第九名,鸿博股份,在手订单十五亿,他是英伟达生态里的标杆企业,在北京的 ai 创新中心手握 h 一 百、 h 两百这些稀缺资源,目前他的算力出租率超过百分之八十五。 第八名,中贝通信,在手订单二十五亿。这家公司同时布局了英伟达和华为两条路线,目前已经投场的算力达到一点八万匹,主要服务政企和互联网大厂。第七名,拓维信息,在手,订单超过三十亿,他是华为深层生态的核心玩家, 主要做政务领域的双利注定也是很多国产大模型背后的服务商。第六名,携创数据,在手,订单超过三十五亿。这家公司专注于建设万卡级的大型智创中心, 业绩爆发力非常强。第五名,中科曙光,在手订单超过四十亿。作为国产双利的国家队,曙光在业人技术上很有优势,主要服务于 科研机构和大型央企。第四名,润泽科技,在手,订单超过四十亿,他是叶冷智算中心的龙头,也是字节跳动的核心算力供应商,手头可调度的算力超过三万匹。第三名,利通电子,在手,订单超过七十亿, 他是纯算力租赁领域的绝对龙头,是英伟达的核心合作伙伴,手里可调度的算力达到三点三万匹,而且出租率是百分之百。 第二名,工业互联,在手,订单超过二百八十亿。他是英伟达全球最大的代工厂,在 ai 服务器代工市场的份额超过百分之四十, 供应链溢价能力极强。第一名浪潮信息在手订单超过三百五十亿,他是全球 ai 服务器出货量的冠军,在国内的市场份额超过百分之五十。

今天收到英伟达寄来的桌面级 ai 超级计算机 d g x spark, 老黄也给马斯克送了一台同款,用一句话形容它是一台极其便携、自带英伟达显卡的乌邦图迷你主机,国内售价三万五千元,来看看发布会上老黄是怎么说的。 we call it d g x spark20 cpu cores and now the gpu has 128 gigabytes one petaflots who is a software engineer or ai researcher? or you know just data scientist and you would like to give them you know what the perfect christmas present。 我 实测下来, d g x park 有 四个核心优势,首先是很轻很便携,塞到书包里就能直接带走到各种展会,线下布展都非常方便。 第二是算力强,号称有一千 top 的 f p 四算力和五零七零显卡差不多。第三是显存大, cpu 和 gpu 共享一百二十八 g 内存,可以在本地端测训练和推理大模型。 第四是预装了扩大和 nvcc 环境,直接省去了几个小时的安装配置时间,而且丝滑兼容英美达生态的各种物理、 ai 和机器人仿真工具。 这四个优势让 d g x bug 非常适合大模型和机器人玩家。这期视频就来盘点一下我发掘出的五个邪修玩法。 第一个玩法,部署优乐二十六目标检测模型,不管是视频还是摄像头,实时画面推流速度都很快,特别适合工业质检的终端设备。关于优乐二十六后续会出一系列的训练和推理教程。 第二个玩法,本地部署开源大模型 d g x bug 上可以丝滑运行欧拉玛 v l l m 这些本地大模型推理工具, 我用摩达社区开源的模型压力测试工具 evo scope 测试了一下,千问三零点六 b 首投肯时间只要五十毫秒,每秒钟输出一百一十五个投肯延迟和吞吐的分布也非常集中,没有明显的肠胃抖动。本地部署开源大模型有八大好处, 最大的好处就是无限免费调用,没有 token 焦虑,哪怕是 open cloud 这种 token 核弹也能随便用。另一个好处是局域网里的所有用户都可以共用。 我在 d g x bug 上本地部署了面壁智能开源的全模态大模型, mini c p m o 四点五 omni, 连上我家 wifi 的 所有用户都可以通过 ip 地址访问 d g x bug 的 推理接口,摄像头,电脑屏幕、手机 ai、 眼镜、 esp 三二,任何带摄像头的设备都能调用这个模型。 这个模型是一个参数量九 b 的 全双工实时模型。 ai 持续在听看书,你现在听到了什么声音?我又听到敲门声了。如果宝宝哭闹了或者出现意外情况,就请告诉我。好吧, 好的, 你看宝宝开始哭闹了呢。 好家伙,开局就到 c 一 点,这也太顶了,快跑啊,有个狙击手,这个狙击手还在 看,我来攻略了他。是的,狙击手还在, 他好像已经死了。小心你被急火了。 哎呀,你这局打太烂了,敌方坦克在这。漂亮,我镭射锁定了,很安全,给他来个雷。好,先清人漂亮,收掉一个 又一个,再来一方。哎呦,这把太牛了,完全没给对方任何机会,真是太强了, nice。 推理如果放在云端,通信延迟和 token 消耗就很大了。放在端侧,本地部署推理是最佳的方案,因为达还专门给 d g x spark 做了一个仪表盘,方便随时查看显存和 gpu 占用情况。 另一个本地推理的刚需场景是机器人 d g x spark, 既可以直接作为机器人的上位机,比如 hackincase 发布的桌面陪伴机器人 richie mini, 也可以作为具身智能的端侧大脑,借助 hackintosh 开源的机器人工具包 la robot 以及 groot 这样的 vla 视觉语言动作大模型, 配合英美达 jackson soren 或者 d g x spark 作为具身大脑,就能让机器人自主完成叠衣服、收纳桌面、夹取物品、双臂协助这类长系列模仿学习任务。 去年我在深圳柴火窗口空间看到不少了 robo 的 机器人项目,我自己也写了一整套了 robo 的 保姆级教程,手把手带你丝滑跑、通摇操作、采集数据训练、本地推理模仿学习的全流程。我最近做了一个具身智能握手交互装置,探龟之握, 人类一握手,他也热情伸手,人类缩手,有的时候也会竭力挽留,想和人类贴贴,仿佛具有灵魂和情绪。 用到的 v l a 模型是字面量开圆的握 o s s, 参数量三点九 b。 还有 physical intelligence 开圆的派零,参数量三点三 b。 在 以前,我只能托一台笨重的四零九零主机,机 器人插到主机 usb 口,每次扳机枪胳膊都要疼好几天。现在直接把 d g x park 塞到书包里带走,随便找个插线板就能开机玩起来。 总结一下,英伟达的 d g x park 是 一台极其便携、自带英伟达显卡的乌邦图迷你主机,重量轻、算力强、显存大,是本地部署大语言模型、多模态模型、 open cloud 聚深智能 v l a 模型的绝佳选 择。程序员、机器人、工程师、艺术家、音乐家都可以拥有自己的端侧最强大脑。

今天我给大家看一下,我们这一台价值三十个 w 的 一台超威的八卡的英伟达显卡的一台服务器,到底是一个什么样的配置啊?那现在我们这台机器已经是在跑这个呃磁盘阵列了,因为这个机器组了两组的磁盘阵列,一组是 系统的实盘阵列,一组是数据的实盘阵列,它分了两组。那我们来看看机器,我们已经开机了,这个声音其实是很大的,那我们这一台是 cpu 是 用了英特尔志强的,它用了两个 cpu, 两个 cpu 一 起跑啊,这个是六三三零的一个金牌的 cpu 来的,用了两颗内存条是用了六十四 g 乘以八,就是五幺二 g 的 内存条。然后硬盘的话是组了两个十盘阵列,系统盘是两 k d 乘以二,然后数据盘的话是五个做了锐的五的,那系统系统盘是做了锐的一的。那你像我们这样的一台整机,它搭配的英伟达的显卡是我们这一个, 还有二零的一个四十八 g 的 一个英伟达的专业显卡,这显卡都是没有风扇的,所以我们在打开的时候,现在这个温度是比较高的了,我们一会录完了就马上把它盖起来了,一会要不把它给弄烧了。这个外观其实是跟 一百 h、 一 百这些外观都是一样的,这种专业的显卡,然后这个吹风是往这边出去的,后面的有四个两千瓦的电源。那你像我们这里还有个小细节,这里是加了一个 阵列卡的,那这个机器除了加阵列卡之后还可以加什么卡呢?加个采集卡,加个网卡都是 ok 的 啊,它还有空间可以可以去做扩展的,包括我们的内存槽也是可以扩展的。你看我们的内存槽还有槽位可以加啊。然后这几个是八个暴力风扇,这个机器一旦跑起来 是噪音比较大的,他不能放在办公室里面,他只能放在机房机柜里面去。所以像有兄弟想要了解服务器,了解工作站的,你不懂配置不懂方案的可以私信我们或者你的工作站。呃,服务器遇到问题的可以私信我们,我们可以给你技术支持。好不?感谢支持。

五月十四日,一家你可能没听说过的公司要在纳斯达克敲钟。它叫 cybrass systems, 发行价区间一百一十五到一百二十五美元,对应估值最高两百六十七亿美元。它的目标是打败英伟达。 先别急着鼓掌,在 ai 芯片这个英伟达几乎统治一切的赛道, cybrass 说,我们的推理速度是它的二十一倍,成本只有三分之一,工号只有三分之一。 二零二五年,这家公司收入五点一亿美元,同比增速百分之七十六。招股书里净利润写着二点三八亿美元,看起来健康的不像一家初创公司。但剥开会计处理, non g a a p 口径下, 净亏损七千六百万美元,运营亏损一点四六亿美元,而他要求市场给出两百六十七亿的估值,五十二倍的市销率,英伟达现在是二十一倍。一家运营亏损的公司要求比英伟达更高的估值倍数, 它凭什么?这就是今天要聊的问题。我们从技术讲起,再看财务,再看风险,最后看那个改变了所有蓄势的大单。要理解 sirius 的 价值,先要理解英伟达 gpu 在 推理任务中的一个结构性瓶颈在内,叫它内存强。 英伟达的 gpu 是 什么逻辑?多颗芯片协同工作,每张 gpu 有 自己的高宽带存储,芯片之间通过 nv link 互联。 当你在跑一个大模型推理任务时,模型的权重参数需要不断从存储、搬运到计算单元,计算完再搬回去。这个搬运动作在大规模推理场景下会成为速度瓶颈。数据离计算越远,延迟越高,这是物理定律,不是工程问题。 sirbrass 的 解法非常直接,也非常激进,造全世界最大的芯片 wse 三鲸源级引擎第三代, 整张晶圆就是一颗芯片,面积约七十二平方英寸,包含数十万个 ai 核心,以及大量片上存储。类比来说,英伟达 gpu 集群向城市里的快递员在各小区仓库之间跑, ws e 三是把所有仓库都搬进了同一栋厂房,数据不用搬运,片上带宽可以达到二十 p b 每秒以上的量级, 这是 gpu 集群无法企及的数量局。在低延迟推理这个具体场景, wse 的 优势是结构性的,不是靠堆算力堆出来的实时 ai agent 需要极低首字母延迟的对话系统长上下文处理,这是 sirbress 真正的主场, 但技术也有清晰的边界。训练任务不是 w s e。 的 优势。场景超大规模模型仍需外挂存储扩展。软件生态与英伟达 c u d a。 的 差距是真实的。以年计,不是以月计。 制造上完全依赖台积电,良率风险被精元级设计放大,而且英伟达不会做事。 vero rubin 溢购价购,二零二六年交付, 明确针对低延迟推理优化,并且带着 c u d a。 生态进场。如果他在推理场景兑现承诺, sirbrass 当前最核心的差异化窗口将显著收窄。招股书显示, sirbrass 二零二五年净利润二点三八亿美元,乍一看盈利了,很健康。 对比二零二四年净亏损四点八二亿美元,看起来像是戏剧性翻盘。但这是一次性会计处理的结果,不是经营改善的结果, 背后是特定长期合同负债的重估调整,产生了账面收益。剥开这层, non g a a p 净亏损七千六百万美元,运营亏损一点四六亿美元,而且这个运营亏损比二零二四年的两千一百八十万扩大了近七倍。收入在增长,亏损也在扩大, 增速确实是真实的。二零二二年收入两千四百六十万,二零二三年七千八百七十万,二零二四年二点九亿,二零二五年五点一亿三年二十倍。 毛利率也在改善,从二零二二年的百分之十二走到二零二五年的百分之三十九,这个进步是真实的,反映了规模效应和产品组合优化,但百分之三十九远低于英伟达的约百分之七十五, 主要原因是硬件产品毛利率偏低,靠云服务和托管服务拉升整体。然后是估值两百六十七亿,市值五点一亿,收入五十二倍。 英伟达现在二十一倍, amd 大 约六倍。五十二倍意味着市场需要相信 openai 合同,按计划确认收入。 uae 客户不出叉子,毛利率持续改善,英伟达在推理市场无法反击。四个假设需要同时成立, 这是很高的要求。现在来说最关键的问题。二零二五年 sirius 的 两大客户是 g 四二和阿布扎比人工智能大学。 m b c u a i。 两家阿联酋机构在会计准则下被认定为关联方, 他们合计贡献了 sirius 二零二五年百分之八十六的收入。年末应收账款中, m b c u a i。 独占百分之七十七点九。 一家挑战英美达的美国芯片公司,百分之八十六的钱从中东来,这不是秘密,写在招股书里, 但这句话的地缘含义值得仔细想。二零二四年, cybers 第一次递交 s 一 准备上市,随即美国外资投资委员会 c f i u s 介入审查。审查焦点是 g 四二,是 cybers 的 股东间最大客户 c f i s, 担忧其历史东大商业关系 可能构成京元级技术外流通道。最终, g 四二同意剥离东大投资持股被调整为无投票权。 ipo 重启,监管风险暂时清清,但不等于永久消失。中东地缘局势如果再出变数,美国出口管制如果进一步升级,这个问题会重新回来。 但今年一月,局面出现了变化。 openai 和 sirbraz 签了一个多年期协议,提供七百五十兆瓦算力容量,合同价值超过一百亿美元,期限至二零二八年。 这是这次 ipo 能够成功推进的最核心趋势支撑从中东资金变成了 openai。 算力供应商 a w s 也在 bedrock 上接入了 sirbraz 的 高速推理,客户名单里出现了 meta male、 clinic、 美国能源部。为什么 openai 要选 sirrus, 而不是直接用英伟达?逻辑很清晰,第一,有了替代供应商, openai 对 英伟达的谈判筹码更强。第二, openai 的 实时推理服务对手字符延迟极其敏感, sirrus 在 这个场景的速度优势是真实需求。第三,算力多样化本身就是大型 ai 公司的合理策略。这笔合同不是 openai 要抛弃英伟达,而是 openai 在 构建一个更复杂的算力组合。 但有一个细节必须说清楚, sirbress 透露的剩余履约义务高达两百四十六亿美元,约为年收入的四十八倍,这个数字让很多人兴奋。看这么大的 backlog, 但 rpo 是 合同承诺,不是已经确认的收入, 更不是已经收到的现金。 openai 的 一百亿大单,绝大部分还躺在 backlog 里,需要随着服务交付逐步确认。这个确认节奏取决于 openai 实际使用算力的速度,以及双方合同里的里程碑条款。 backlog 不 等于收入, 这是一场和时间的赛跑。 openai 合同何时开始大规模结款,决定 sirbrass 能否在下一个风险事件发生前真正完成客户多样化。 这家公司,它可能是华尔街推出的蓄势泡沫,但也可能是 ai 硬件格局重写的起点。一张晶元级芯片,在推理这个越来越重要的战场上,找到了英伟达护城河里真实存在的裂缝。历史上 每一个不可撼动的技术垄断,最终都被一个你没预料到的方向撕开了口子。英特尔不是被另一家做 x 八六的公司打败的,它是被 arm 打败的。 只是这一次撕口子的,是那张全世界最大的芯片,还是那张从中东收钱的账单?先出了问题,我们拭目以待。我是清醒财经,我们下期见。