近日,科技圈被国产无损 r d m a 成功突破的消息刷屏,这项被视为 ai 万卡算力集群生命线的核心技术长期被海外巨头垄断。 此次突破意味着中国在高端算力基础设施的关键短板上实现了从跟跑到并跑的重大跨越,为国产 ai 算力的自主可控征程打通了至观重要的任督二脉。 那什么是 r d m a? 用在什么地方突破有什么意义?本期节目我们就来一同解密。对了,本次提到的所有公司都只是基于公开资料客观整理,均不做推荐。由于部分涨幅过大,请各位注意风险。那究竟什么是 r d m a 呢? 你可以把传统的网络数据传输想象成一座繁忙城市的普通快递,一份数据从服务器 a 到服务器 b 需要经过多个中转站,先由 a 的 cpu 处理,交给操作系统内核,再通过网卡发往网络,到达 b 后又要经过反向流程,由 b 的 cpu 最终处理。 这个过程步骤繁琐、延迟高,且大量占用 cpu 资源,让本应用于计算的大脑疲于应付搬运工作。 而 r d m a 则像在城市间修建了一条点对点的直达货运专线,它允许服务器 a 的 应用程序通过专用的智能网卡直接将数据写入服务器 b 的 内存中,全程绕过双方的 cpu 和操作系统。 这种方式实现了零拷贝和零 cpu 干预,将数据传输延迟从毫秒级降至微秒级, 概宽利用率逼近硬件极限。对于动辄需要数万张 gpu 卡同步交换海量参数的 ai 大 模型训练而言, r d m a 提供的超低延迟和超高吞吐是保证算力效率、不被网络拖垮的神经枢纽。而 d m a 是 一个协议标准,具体实现主要有两大技术路线, infini bin 和 r d m a over converged ethernet, 也就是 ro c e。 infini bin 可以 理解为专门为超级计算修建的专用封闭高速公路,它从道路交通规则到车辆都是一套独立的、最优化的体系。 因此, ib 能提供极致的性能,是顶级超算和 ai 级群的标配。但这条专用高速造价昂贵,且核心技术构成壁垒,国内难以获取。 r o c e 则可以看作在现有的以太网普通国道基础上,通过设立专用滤波通道、严格管控等措施,试图达到近似高速的通行效率。它利用广泛存在的以太网设备,成本较低,生态更开放。但国道终究不是高速, 其基础的 tcp ip 协议并非为 r d m a。 设计。为了实现无损低延迟,需要依赖一系列复杂的流控和拥塞管理技术,一旦配置不当或规模扩大,就容易出现堵车甚至丢包,导致性能急剧下降。 因此,业界常说,真正的 r d m a 体验无法被 ro c e。 完美模拟。在万卡级超大规模人群中, ro c e 与 i b 的 性能和稳定性差距会被显著放大。 此次国产无损 r d m a 的 突破,核心在于实现了从基于 o c e。 的 改良到研发原生无损 r d m a 的 跨越。 海外高端 i b 方案价格高昂,是建设大规模算力中心的重要成本负担。国产方案通过自主研发,在保证性能的前提下,预计可将相关组网成本降低约百分之三十,这 使得以更合理的成本建设万卡级高端 ai 级群成为可能,将加速我国智能算力基础设施的普及和升级。 此外,自主可控的高性能网络与国产 gpu、 服务器存储等产业环节形成正向循环,共同壮大中国完整的 ai 算力生态。在全球科技竞争背景下,算力基础设施的自主可控关乎国家安全与发展主动权。 此前,英伟达及其 melenox 在 高端网络市场的垄断地位已被关注。国产无损 r d m a。 的 成熟恰逢政策推动关键窗口期,如运营商己采明确要求高比例自主可控,为我国 ai 产业的可持续发展提供了坚实的网络底座保障,摆脱了在算力大动脉上受制于人的风险。 至于本次是谁突破了国产无损原生 r m d a。 虽然尚未公布,但是一切证据都指向了中科曙光。 公司作为技术引领者,在几个月前率先推出 layinfinband 性能的原生无损 r d m a。 解决方案 scale fabric, 并在大规模组网能力上实现突破,其定位不仅是产品提供商,更是国产算力生态的积极构建者。当然,国内还有云麦、新联、中科艺、海威等也在努力研发 相关概念的,有浪潮信息、紫光股份、锐捷网络、同有科技等。总而言之,无论是谁实现了国产无损 r d m a。 的 突破,都是是中国在算力竞赛中攻克又一个关键堡垒的标志。 它不仅仅意味着一项技术指标的提升,更代表着我国已具备构建从芯片硬件到系统软件的全站高端算力网络的能力, 这条自主可控的数据高速公路的通车,将有力支撑中国 ai 大 模型产业的澎湃需求,为数字经济的未来砥砺坚实根基。从追赶并跑到未来的引领,国产算力基础设施的崛起之路正越走越宽。
粉丝11.2万获赞31.0万

重大利好! ai 算力的核心支撑技术,国产无损 radma 迎来重要突破,这一步将直接改写国内智算网络的格局。先给大家讲明白 radma 到底是什么?它全程是远程直接内存访问,简单说就是能让服务器跳过 cpu, 直接传输数据,把延迟压到微秒级,堪称万卡 ai 级群的专属高速路。没有它, ai 算力再强也跑不起来。但长期以来,这项关键技术一直被英伟达的 infini band 垄断,成本高,一掐脖子。而今年,国产替代彻底迎来爆发期,中国移动砸十亿机彩 roce 交换机, 其中自主可控的产品占比超百分之七十三。中科曙光更是推出国内首款类 i b 原生无损 rad 们,性能直接对标国际水平,国产方案,成本直降百分之三十, 算力利用率还提升了百分之五十五,正加速替代海外产品,彻底打破垄断。产业链的核心龙头企业老雷也给大家端上来了,先赞后看,财运不断!一、中兴通讯。二字光股份。 三、锐捷网络。四、中科曙光。五、海光信息。六、瑞斯康达。

最近外媒都在报导的咱们国内几家公司在 i b 网络无损 r d m a 技术上的突破。你可能之前没太听过这俩词儿。别慌,我先给你掰扯清楚,保证说人话,不整那些晦涩的术语。 首先说 r d m a, 简单来说啊,就是远程直接内存访问,你平时发个文件,传个数据,是不是得先经过 cpu 处理?就像你快递东西得先让快递员上门取件儿,再运过去。 r d m a 就 不一样了,它能绕过 cpu, 直接把数据从一台电脑的内存传到另一台电脑的内存里,这意味着什么呢? 延迟特别低,效率特别高,就像两个邻居隔着墙直接递东西,不用绕一大圈。然后是 ib 网络,也就是 infinite band 的 网络,这个之前是英伟达垄断的高端方案,是 ai 训练的首选。你想想,现在大模型训练,动不动就上万张显卡一起跑, 数据传输量超大,对网络的要求特别高。 ib 网络就是干这个的,能让这么多显卡之间的数据传的又快又稳。 还有无损二 dma, 这个就更关键了,就是零丢包。你上网的时候有时候会不会遇到文件传一半断了,得重新传?在万卡集群这种大规模的 ai 训练里,要是数据丢包了,整个训练进程都可能受影响,甚至得重来。 无损二 dma 就 能保证数据百分之百传过去不会丢,这对万卡集群来说简直就是刚需。好了,概念说清楚了,咱们来聊聊国内这几家做出突破的企业。 第一家是云麦新联,这家公司二零二一年才成立,算是个后起之秀,专门盯着 r d m a 芯片作,二零二四年,他们量产了四零零 g 芯片 y s a 零零客户还挺厉害的,像浪潮、新华三、中原懂艺这些行业里的大玩家都在用他们的东西, 他们用的是 roc v 二技术路线,简单说就是在以太网基础上实现 r d m a, 成本可能相对低一点,兼容性也不错。 第二家是中科曙光,这家可不一样,是国内唯一一家真正做 i b 网络的企业。他们自研了 scale fabric 技术, 二零二六年二月的时候在郑州部署了一个三万卡的集群,还支持十万卡扩展。技术路线直接对标英伟达的 i b。 这是什么概念呢?就是说他们的技术已经能和英伟达这个行业老大掰掰手腕了, 以后咱们国内的大模型训练不用再完全依赖英伟达的 i b 网络了,自己就能搞定。第三家是中兴通讯,大家对中兴应该不陌生, 他们做的是全站 r d m a, 还自研了定海 d p u 芯片 d p u, 你 可以理解成专门处理数据传输的芯片,和 c p u g p u 搭配起来用,能把数据处理效率提上去。他们和快手合作了万卡集群,还服务过阿里、腾讯这些头部客户,技术实力也是相当在线的, 用的也是 o c v r 路线。说到这,你可能发现了,中科曙光和另外两家的技术路线不太一样。中科曙光是真正做 ib 网络的,直接对标英伟达,而与麦新联合中心通讯用的是 r c v r 路线,虽然也是 r d m a, 但底层网络不一样, 这两种路线各有各的优势, ib 网络性能更强,适合超大规模的集群, o c v r 成本更低,兼容性更好,适合更多场景。 其实咱们国内能在这个领域取得突破真的挺不容易的,之前高端的 ib 网络和 r d m a 技术基本都被国外垄断了,咱们想用就得花钱买,还得看人家脸色。现在好了,有了自己的技术,不仅能降低成本,还能保证咱们的信息安全,不用再担心被人卡脖子。 你想想啊,以后咱们国内的大模型训练用的都是自己的网络和芯片,那发展速度肯定能更快,也更有底气。 好了,今天咱们就聊到这,简单总结一下, r d m a 和 ib 网络是 ai 训练的关键技术,国内三家企业云麦新联、中科曙光、中心通讯分别在不同路线上取得了突破,其中中科曙光是唯一真正做 ib 网络的直接对标英伟达 希望咱们国内的企业能继续加油,在更多高端技术领域实现突破。如果你对这个话题还有什么想法,欢迎在评论区留言,咱们下次再聊。

兄弟们,外媒又爆了,这回谁也挡不住国产算力血脉觉醒了啊!就在这两天,多个外国媒体传的消息,国内某国产算力厂商即将发布自研爱必网络互联方案。这次啊,是直接对标爱必网络,也就是原生无损的 r d m a。 这一直是英伟达的自留地大规模计算集群系统的超顶配技术。 过去我们一直用的是 roky, 就是 通过以太网模拟无损的 r d m a, 但是呢,宽带吞吐能力和 i b 存在整整一个带差的距离啊,而且网络延迟、整个的庸色控制方面都是差强人意,大规模场景模拟下很容易出现丢包。现在我们国产大模型参数量暴涨对吧?万卡级群已经形成了主流,这种超大规模的模型训练中,传统 roky 已经很难满足 网络高速互联的稳定性、持续性的要求。而要想让大蒜力真正跑起来,充分发挥效能,就必须向高性能原生 r d m a。 进阶,打破英伟达的 i b 技术垄断。这回啊,国产蒜力显然是压制不住了,估计就这两天就官宣。如果能真正填补国产 i b 网络技术空白,那超算、智算这些市场绝对要迎来一波大洗牌啊! 最期待的啊,应该就是那些 ai for science 和大模型的训练用户了。现在看啊,美国厂商用着最先进的计算系统训练 ai, 我 们又拿不到 n v 的 监督芯片,甚至网络互联还处处受制于人,那哪行呢?今年趁着这波国产 ai 崛起的势头,必须给我们关键技术环节加 buff, 全面激活中国人工智能的澎湃动能!


最近圈子里有两件事热度很高哈。一个呢,是外媒突然集体爆料,说中国供应商正在全面开发自主设计的原生 infini band 的 产品, 全站研发性能要优于主流的 rocky 解决方案。另一个是国内媒体呢,也在热议万卡集群时代,真正的 r d m a 到底能不能被模拟呢?这两条新闻放在一起看呢,就很有意思。它其实引出了一个困扰 ai 基础设施圈很久的灵魂拷问, 当你的集群从千卡扩展到万卡甚至十万卡的时候,网络到底该选哪条路呢? 很多人喜欢把 i b 和 rocky 放到天平的两端去比较,比贷款,比延迟、比成本,但这些呢,都只是表象,真正决定两者命运的是它们的设计。 i b 从诞生那天起,那就是为大集群计算量身定制的。 它的底层逻辑呢,叫信用流控,发送数据之前,先确认接收端缓存够不够,不够呢我就不发,从根儿上保证了无损。 这就像银行转账前先查一查余额,确保万无一失。而且 ib 的 用色控制呢,主要由硬件处理的,交换机不需要存储,收到即发,交换延迟能够做到一百纳秒左右。 rocky 走的是另外一条路, 他想把 ib 的 优点移植到仪态网上,所以呢,用了 pfc e c n d c q c n 这套组合拳。 pfc 是 什么呢?简单说就是交换机缓存快满了,就发一个暂停针,让上游停一停。 这有点像堵车的时候,交警手动控流有用,但容易呢,引发连锁反应。业内有个说法哈,叫 pfc 风暴,一个端口暂停可能波及整片网络。 再看优色控制, rocky 依赖 d c q c n 算法,需要反复调整水线参数,跟网络结构、流量模型紧密相关, 非常依赖经验。而 ib 的 优色控制是内建的,它不需要用户天天调餐,即插即用。所以现在回头看外媒的那个爆料哈,国产自研的原声 infini band 要来了。这其实释放了一个强烈的信号, 在万卡这个 iq, 我 们终于意识到,靠模拟跟打补丁去追赶真正的无损难度太大了。 有人说 rocky 通过精细调优也能接近 i b 性能,这话没错哈,北大华为的联合评测也证明了在小规模集训中, rocky 确实表现不俗。 但当我们仰望十万卡级群那个级别的星辰大海,需要的是从骨子里就为无损而生的底网。真正的 r d m a 可能真的无法靠 rocky 模拟平替,这条路很难,但必须走,因为 ai 计算的下一站,网络的命脉必须握在自个手里。

最近圈子里有个话题特别热,万卡集训了,网络选择题外面那边连续爆料说中国正在搞资源 ip 全站开发,性能要对标国际巨头。国内媒体在追问同一个问题, 当 ai 大 幕型算力迈入了万卡时代,真正的 r d m a 到底能不能够被模拟?这个问题问到了根儿上,咱们今天就掰开揉碎了聊聊 i b 和 rocky 到底差在哪里? 为什么说有些东西模拟就是模拟,替代不了?先给新朋友们科普一下, r d m a 就是 让两台计算机的内存可以直接对话,不经过操作系统,不麻烦 cpu 实现极低延迟的数据传输。这项技术是万卡级群的命脉。具体到实现层面,主要分为两条路, ib 和 rooting。 ib 是 什么?是业内公认的高性能计算的顶配。它从诞生的那天起,就是为 h p c 量身定制的原生 r d m a 协议,就像一条专用的高铁线路,从轨道到信号系统全部为高速直达设计。但 ib 有 个问题,它 被英伟达垄断了,自从收购了 melon knox, 这项顶配技术就成了国产厂商可望不可及的白月光。那 rocky 呢? rocky 走的是另外一条路,他想把 ib 的 优点移植到一探网上, 用 udp 加 ip 封装,让数据包可以被路由,可以使用以太网的交换设备。这是一个聪明的曲线救火方案,成本低,开放性好, 所以过去国内企业应用是相当广泛。但问题是,相同场景下,如可以对比, ib 性能损失是零百兆的。咱 们来看几个关键的差距。第一,延迟。 ib 交换机可以做到无需存储,收到即发,交换延迟一百纳秒左右。 root 交换机需要先存储再转发,延迟在三百到五百纳秒。在 gpu 高频同步的场景里面,每一纳秒都是在消耗算力。第二,流控机制。这是最核心的差异。 ib 用的是基于信用的流控, 发送数据前先确认接受端的缓存够不够,不够就不发,从根上保证了无损。 root 用的是基于暂停机制的 pfc 流控,相当于给网络装了一个急刹车缓存,快满了就喊停。 第三,拥塞控制。如可以强力依赖拥塞控制来避免丢包,算法需要反复调整参数,跟网络结构、流量模型紧密相关,依赖经验 i b。 由于流控机制好,拥塞控制不依赖人工调餐,使用过程简单。第四,主网规模。 i b 原生支持数万节点以上的规模 网,性能限速增长。 rocky 虽然也能主大网,但跨 p o d 通信性能明显打折,厂商通常不推荐大规模跨 p o d 部署。宽带就更不用说了,近一代的 i b 已经是四百 g 了,而国内 rocky 最高还在两百 g, 整整一个代差。所以真正的 r d、 m a 能够被模拟吗?答案其实很清楚, rocky 做了这么多年的努力,确实让以太网离无损更近了一步。但当万亿参数模型和万卡集群成为主流, 这种模拟和补丁带来的性能差距已经越来越难以承受。外媒最近密集爆料,中国字眼 ib 国内头部厂商将目光投向了原生无神的国产 ib 网络。这不是偶然,这是行业发展到这个阶段必然要迈出的一步,期待国产厂商真正打破封锁,补全中国 ai 计算产业链最关键的一环。


朋友们,今天这条内容有点炸,就在这几天,外媒突然集体炸锅了,连续多条快讯刷屏,核心信息就一个,中国自主研发的本地 r d m a 技术即将问世,国内厂商正在全面开发自主设计的原声 infiniab 的 产品 全站研发,性能直接对标甚至优于主流的 rocky 解决方案啊!紧接着国内媒体也坐不住了,纷纷跟进,这是什么信号?那个被国际巨头攥在手里十几年的网络天花板,终于要被捅破了啊!咱们先捋一下,为什么这个事这么炸。 但凡搞过 ai 机群的人都知道,万卡时代,现在大模型训练动辄万卡,十万卡网络已经成为木桶的最短版。目前主流方案就两个, i b 和 rocky。 ib 是 公认的性能天花板,但过去一直被英伟达垄断。 rocky 基于以太网,成本低,生态广,是国内厂商的平替首选。但平替是有代价的, rocky 要实现无损,得靠 pfc 和 ecn 这套组合权。 pfc 是 什么?优先级留控啊,相当于给网络装了个急刹车缓存,快满了就喊停。这套机制呢,在小规模级群里没问题,但是到了万卡级别,很容易出现刹不住或者刹过头。业内呢,叫它 pfc 死锁一个端口,堵了整片网络跟着瘫痪。 再看载均衡, rocky 主要靠 ecmp 哈希转发,遇到大象流就头疼,哈希不均,有的链路挤爆,有的链路闲置啊。虽然现在有 flowlight、 动态负荷平衡这些优化手段啊,但是配置复杂,对运维团队要求极高。 ib 呢,用的是基于信用的流控,发送前先确认接收端缓存够用啊,根本不会丢包,而且 ib 支持逐包自适应路由实施,避开拥堵 啊。当然, rocky 也有自己的江湖地位,成本优势和生态广度不容忽视。但这次外媒集体把聚光灯打在国产 i b 上,说明风向变了。 过去我们觉得能用 rocky 跑通万卡已经很牛,但是现在我们开始追求,能不能像搭积木一样轻松扩展到十万卡,能不能把足网成本再降降, 能不能让网络真正做到即插即用,而不是训练两天,调餐一周?外面说中国在挑战 n v 的 主导地位,这话对了一半,我们不是在挑战谁,而是在补全自己产业链最关键的一环,万卡时代,王者为王,这一仗必须打赢!

财经放大镜,用专业拆解趋势,问你个问题,如果告诉你,有一家卖服务器的公司,最赚钱的业务居然是当包租公,收算力租金, 你会不会觉得我在讲段子?今天这条视频,用一百四十九点七亿营收、扣费利润百分之三十点一七增长的最新年报数据,给你拆解三个反常识的真相, 为什么卖硬件的公司突然变房东、国产?而 dma 突破后,他凭什么躺着赚钱?他最大的风险竟然是钱太多花不出去,内容硬核信息量巨大,先赞后看,财源不断。 我是真没想到,一家做服务器的公司,二零二五年交出的成绩单是营收一百四十九点七亿,同比增长百分之十三点八六。 但更离谱的是,他的扣费净利润直接飙了百分之三十点一七,什么意思?卖的没多多少,赚的却多了一大截,为什么? 因为他发现,卖硬件是搬砖,卖服务才是收租。郑州,国家超算互联网核心节点三万卡集群刚上线就启动了算力租赁试点,当前利率已经干到百分之六十二。这就像你家楼下开了个健身房,别人还在卖年卡,他已经开始收私教课时费了。 而且这还不是最骚的,最骚的是他修了条高速公路,所有跑在上面的车都得给他交过路费。你以为他只是个卖服务器的?错,他最骚的操作是跑去搞了条高铁专线,国产无损 r d m a 网络 scale fabric。 而 dma 是 什么?就是 ai 芯片之间通信的数据高速路,英伟达的 infini band, 垄断了全球高端 ai 集群,贵得要死,还得看人家脸色。中科曙光自己搞的这条线,宽带四零零 g, 延迟低于一微秒,组网成本直接砍掉百分之三十。 关键是它完美兼容英伟达的 i b 生态,用户想从国外方案切换过来,代码都不用改。就像从安卓手机换到苹果手机,所有 app 直接能用。 这种无缝切换的能力,让他在政务、国企这些敏感领域几乎成了唯一选择。而且,你知道每套万卡超级群对应多少 r d m a 相关产品的价值量吗?二到三个亿,毛利率比普通服务器高十五到二十个百分点。 按二零二六年计划交付十二到十五套万卡集群来算,光是这块就能带来二十四到四十五亿的营收增量,贡献毛利七到十三亿。 这就像你修了一条高速公路,每个收费站都归你管,车流量还越来越大,收过路费收到手软。它的单机柜能塞进六百四十块 ai 加速卡,算力密度提升二十倍。 什么意思?别人建一个万卡集群得占半个足球场,空调得配满整个楼,它只需要几个机柜,液冷技术让 pu 一 直低到一点零四,电费还省一半。你是不是一直困惑,为什么 ai 算力这么贵,企业还抢着买?因为跑大模型就像开赛车, 你发动机再牛,道路堵了也白搭。中科曙光修好了这条高速路,还配了最牛的加油站,所有车都得给他交过路费。但最骚的操作还在后面, 他手里有张王牌,持有海光信息百分之二十七点九六的股权。海光是国产 c p u d c u 的 绝对龙头,二零二五年前三季度就给曙光贡献了五点四七亿的投资收益,占规模利润的百分之五十六以上。这就像你不仅开收费站,还控股了加油站, 所有跑在路上的车油也得从你这加。这种收费站加加油站的双重收割模式,让它在 ai 算力产业链里占据了最核心的卡位。最让人震惊的是什么?郑州这个三万卡的超大规模集群,从样机亮相到正式投产,只用了两个月, 行业内通常需要六到八个月,他硬是把时间压缩了三分之二。二零二六年,他规划交付十二到十五套万卡集群,月均交付能力是三套,对应的月均收入是二十到二十五亿。年底还要推八十亿可转债项目,砸钱扩展 ai 讯,推一体机和国产化存储系统, 这哪是在做生意,简直是在印钱。当然,没有完美的人设。这家公司最大的问题是现金流太差,二零二五年前三季度经营活动现金流净额是负十二点九六亿,钱去哪了? 都被政府和科研机构的项目占用了。回款周期能拖到六到十二个月,应收账款周转天数高达一百五十天,比行业平均多出一倍。但这恰恰是他的护城河, 普通企业根本熬不起这种账期,钱压进去半年就撑不住了。只有他这种国家队背景的选手,才能接得住这些政府超算中心的大单和浪潮信息比,他毛利率是百分之二十四点四五,对方只有不到百分之五。和华为比, 他在政务云算力底座的试战率高达百分之六十七。所以你看他的核心博弈逻辑,就一个,市场对国产算力自主可控的长期预期,和他现金流成压的短期现实之间的错位感。短期看,二零二六年一季度业绩预测,营收四十三到四十六点四亿, 同比增长百分之五十四到百分之六十七,规模净利润六点八到七点五亿,直接翻倍,但环比四季度会下滑,因为四季度是政府项目集中交付的旺季,一季度是淡季,这是行业规律。 中期看 r d m a 订单能不能落地,郑州集群的算力租赁利用率能不能从百分之六十二干到百分之八十,这直接决定他二零二六年下半年的业绩弹性。 长期看,他在超算领域连续十二年试战率第一,叶冷技术、国内垄断政务云底座占七成,这些壁垒让他在国产替代浪潮里稳坐钓鱼台。所以你看他不像是卖服务器的,更像是一个算力。二房东, 建数据中心,铺高速网络出租算力,顺便收点过路费,当别人还在卷价格的时候,他已经靠收租闷声发财了。我就潜伏在评论区,欢迎来聊。以上信息仅供参考,不构成任何投资建议。关注我,带你看透商业背后的底层逻辑,一起在复杂世界里找答案!

近期,关于中国自研原生 r d m a 即将问世的爆料引爆全网,国内某算力巨头将在原生 r d m a 技术上直接对标英伟达 infinite bend。 问题来了,为什么是 i b? rookie 不 行吗?先来看硬指标, rookie 待宽吞吐能力和 i b 存在整整一个带差的距离, 且 rookie 在 网络延迟、拥塞控制方面都差强人意。 rookie 之所以热度高,一方面是成本考量,另一方面, rookie 核心芯片用英伟达,虽然国产化程度低,但交换机厂商能分一杯羹。如果真能把国产 ib 做出来,那时候 rookie 热度恐怕要重估了。

朋友们大家好,我是专注题材梳理的天才哥,今天我们来讲的题材是英伟达 gtc 大 会。英伟达 gtc 大 会是英伟达主办全球 ai 与加速计算领域最顶尖的年度盛会, 被誉为 ai 届的超级晚,从二零零九年九月三十日每年固定三月份举办。这场 ai 届的超级晚 定位是 ai 与加速计算的技术方向标、生态枢纽产品发布主舞台。二零二六年的主题为 ai 基础设施时代,聚焦 ai 工厂代理式 ai 物理、 ai 推理优化。核心看点主要包括新一代 gpu 芯片架构,包括 ai 工厂推理、平台模型、生态路线,并且定义 ai 技术、设施物理、 ai 智能体等新方向。 五大核心内容板块包括 ai 基础设施模型与推理、代理式 ai 智能体、物理、 ai 科学计算以及开发者实战。回归主题,我们来看英伟达 d c c。 大 会的四大核心看点包括 cpu 模块、 p c b 散热以及电池。 cpu 中继续创、 英伟达 cpu 一 公新一胜二公、天福通信、英伟达光引擎供货商 pcb、 盛宏科技、英伟达 pcb 一 公户电股份、山南电路、玖旺电子、方正科技。 pcb 供货商, 龙阳电子、英伟达 pcb 铜锣供货商,生意电子、东财科技、飞利华散热。主要包括叶冷球龟以及球铝。叶冷英维克供货、英伟达叶冷分配系统。飞龙股份, 攻获英伟达夜朗泵解决方案,球龟、连瑞新材、一时通、雅阁科技、球形龟尾粉产量第一到第三,球铝、一加连瑞新材,球铝导热粉试炸率低百分之十一,国内第三。最后是电源解决方案, 包括谦旭电池以及 bbu 电池、谦旭电池、圣阳股份、南都电源、熊涛股份 数据中心、千续电池收入第一到第三。 bilibiu 电池、蔚蓝锂芯、新旺达总结最新整理的英伟达 g c c 大 会,包括 cpu p c b 散热以及电池整理不易,大家别忘了点赞、收藏、关注,一键三连!

三月十日大 a 消息汇总。第一条,脑机接口传出大量消息,这个板块也是很久大家都没有关注了,今天需要做下功课。 第二条,立安龙公司发公告称,化工产品包括抗氧剂、光稳定剂等全面上调价格。欧科 e 公司发布公告称,数控机床、刀具价格上涨。中备通讯公司发布公告称,签订了四个多亿关于算力服务合同的大订单。 第三条,一个新东西, r d m a 概念,简单说就是自主可控的技术创新,对标英伟达的国产替代作用是服务期间高速直连低延迟, ai 训练,核心通道影响算力光模块、光通讯交换芯片这几个板块说白了还是跟液冷服务器类似,影响这个 ai 硬件方向。 第四条,这小龙虾概念继续在炒作,第一天就弱的可怜,全天震荡,核心标地尾盘才拉上涨停板,第二天冲高回落,大量炸板,当然后来又给拖上去了。今天又是不断的传出各种各样的消息,一方面又有些地方出了扶持政策,对龙虾应拥有创新的给奖励。 另一方面又有消息称担心他影响计算机安全,总感觉这个消息特别多,但是表现不硬气。对了,昨天看过视频的,今天有没有低息,有没有吃肉啊?第五条,石油天然气受消息波动影响比较大,上蹿下跳,各种消息都指向战争即将停止,实际上短线高手们看着不好就跑,跌的差不多就进,这才叫游刃有余。 我们昨天的视频就说了,想要缓解油气涨价,必须恢复海峡通行,这个事你觉得能是一两天能做到的吗?最后,今天整个市场出现了缩量的情况,这就说明老特搞点消息,大家就怕怕不敢参与。这就决定了最近这几天上蹿下跳的根本原因,还是因为大家在观望, 如果大家明天继续观望,那就会继续上蹿下跳,实际上有人恐慌了,割肉了,卖出了,就有人买进,那你猜猜是什么人在买?兄弟们,请在评论区说说你的观点,请点赞关注!

你们外媒又炸锅了,这回是真的谁也挡不住国产算力的血脉彻底觉醒了!就在这两天,多个外国媒体都在传同一个重磅消息,国内某国产算力厂商马上就要官宣自研的 i b 网络互联方案。要知道这可是直接对标原生无损 r d m a 的 核心技术, 长久以来一直是英伟达自留地,堪称大规模计算集群系统的超顶配。咱们过去想都别想,以前咱们是没得选,用的都是 roce, 说白了就是靠以太网模拟的无损 r dma。 可这东西和真正 ip 比起来,差的可不是一星半点, 宽带通途能力整整差出了一个代差,网络延迟、拥塞控制更是差强人意。现在国产大模型参数蹭蹭蹭爆涨,万卡集群都成了主流。这种超大规模模型参数蹭蹭蹭暴涨,万卡集群都成了要求。 要知道,大算力真正跑起来,把能效发挥到极致,就必须向高性能原生 r d m a 进阶,打破英伟达的 i b 技术垄断。可现在国产算力明显压不住了,官宣大概率就在这两天。这要是真正能填补国产 i b 网络技术空白,超算、智算这些市场绝对都迎来一波大洗牌。最激动的肯定那些搞 afo 三和大模型训练的用户。 讲讲,之前美国厂商拿着最先进的计算系统训练 ai, 咱们不仅拿不到 n v 的 顶尖训练卡,就连网络互联都处处受制于人,这事能忍吗?今天趁着这波国产 ai 崛起的势头,必须给关键技术环节狠狠加个 buff, 彻底激活咱们的人工智能澎湃动力!
