粉丝7.7万获赞18.2万

光通信里面呢,有很多细分概念,今天讲一下 ocs 还有 cpo 对 光通信的重要作用。 ai 的 尽头呢是能源,现在的算力中心实在是太费电了,很大一部分的电量呢,是被通信的无效折腾给白白浪费掉了。 所以光通信的改进呢,非常重要。看懂了光通信呢,你只需要在脑海里面建立一个超级物流系统的画面。 在 ai 大 模型的时代呢,英伟达的 gpu 算力集群就像一座座极其庞大的超级工厂,每天都在疯狂地生产海量的数据货物。而光通信呢,就是专门为这些超级工厂打造的物流网络。 在这个网络里呢,光纤光缆就是连接各个节点的高速公路的路面,路呢早就铺好了,现在的核心矛盾是车太多, 物流运转站呢,全天爆仓这个数据。货物呢,在工厂内部是用电信号传输的,就像工人开着小叉车在搬货,但到了高速公路上呢,必须换成这个光信号,也就是坐上大卡车。 以前呢,负责把货物从小叉车装上大卡车的装卸站就叫做传统的光模块,这种模式在过去是没有问题的,但现在呢, ai 的 算力爆发,工厂的产量翻了成百上千倍。 小叉车从这个流水线把货开到大门口,这几十几厘米啊,短短的距离产生了巨大的发热和拥堵,电费呢也就随之飙升。 这时候呢,第一场革命就来了,也就是大家常常听到的 c p o。 小 叉车呢,运到大门口太浪费时间了。于是呢,咱们直接把装卸站搬进了生产车间里,贴在了这个核心交换芯片的旁边, 货物刚下流水线,零距离直接装上这个大卡车发走,这就叫厂房直连发货 工号呢,大幅的下降,但这个就能解决掉所有的拥堵吗?不能!因为成这个成千上万的大卡车呀,会遇到高速公路的十字路口的时候呢,需要变道分流进入其他城市呢,他们遇到了传统网络里面最致命的瓶颈,传统的交换机, 传统的节点调度呢,要求这些卡车呢,必须全部刹车,然后驶进这个中转站,把就就是把这个光信号呢,再变回电信号处理一下,然后重新打包上路的这个过程。这就好比呢,在限速一百二的高速路上呢,硬生生的设置了一个又一个极其繁琐的收费站, 哪怕你 c p o 在 出场的时候做的再完美,到了这个收费站依然堵得水泄不通,极其浪费能源。这就引出了算力网络的终端设备 o c s。 相当于啊,我们在高速公路的交汇处呢,直接拔掉了收费站,建起了一座全自动的立交桥, 它的里面呢,布满了成千成百上千个比头发丝还细的这个微小的机械反射镜。 当光束冲到这个路口需要转向的时候呢,你根本不需要停下来重新变回电信号,小镜子呢,会在微秒之间瞬间改变角度, 用纯物理反射的方式,直接把这个观光束呢照射到目标的车道。全程就用运输来讲啊,就是全程不刹车,不卸货,没有电信号的反复折腾,一路绿灯一镜到底, 大家看明白了吗? c p u 是 解决出厂前的效率革命,让货物毫无阻碍的上路,而 o c s 是 解决上路后的调度革命,让十字路口没有拥堵。这两者的结合呢,加上光纤光缆铺设的基础,共同构建了 ai 时代唯一的出路,全光网络。 从传统基建呢,到全光网的跨越呢,是被物理定律和全球能源瓶颈逼出来的技术的必然。 看懂了这条厂房之联,到这个智能立交桥的超级物流主线,你就明白了,他不是一阵风的题材,而是通用人工智能的底座资产。我们只有认清了这个底层的逻辑,才才才知道这个题材的逻辑。

龙一今天拿到一份机构研究所通信团队的路演录音,听完之后,那些还在问光模块还有没有空间的人,根本不懂什么叫光连接器的通胀。目前对这个产业的核心判断就一句话, m p o 是 光连接里面的通胀环节,三口三兄弟都有极大想象空间,值得重视。什么叫 m p o 通胀? 龙一给你们拆解。第一,从传统光模块向 n p o, 向 c p o。 交换机升级, n p o。 的 数量在大幅增加,原来一个光模块配一到两个 n p o, 现在一台 c p o。 交换机需要一百四十四个 n p o。 连接器,量爆了几倍。 第二, n p o 里面的星数在增加,十二星变二十四星,二十四星变三十二星,甚至四十八星,一百四十四星,规格越升越高。 第三, m p o。 产品本身在升级,从传统 m p o 到 s m m t 到 m m c, 最终到 m p c。 金属 p i c。 连接器,形态在变,价值量在变,所以这叫量价齐升,这叫通胀。那么,谁是这个通胀环节的最大受益者?全球 m t 叉芯双寡头,一个是日本的森口, 一个是美国的 u s connect, 三口份额更大,占百分之五十到百分之六十,主打数据中心 ai 及群。 u s connect 占百分之三十到百分之四十,主打高端旗舰超大规模云。两家在传统 n p o 时代是互联互通的,你买谁的插芯都能对接。但在 ai 数据中心高密度连接赛道,两家彻底翻脸,完全对立。 u s connect 推的是 m m c。 连接器,用的是 t m t v 型 m t 插芯,针对八百 g 一 点六 t 光模块和板载光学 c p o 三口推的是 snmt 连接器,用的是专属高密度插芯,针对 cpu 交换一点六 t 和 ai 算力中心布线,这两款产品物理互斥,无法对接,你选谁就是站对谁。但 龙一要划重点的是,三口还有一个杀手锏, mpc 金属 pic 连接器。这东西跟 mini mpu 那 个 npc 完全不是一回事,它是三口独家的 cpu 核心部件,给 cpu 内部专属使用,现在已经逐渐成为英伟达、 marvel、 谷歌 tpu 集聚的核心互联部件。 为什么它这么重要?龙一给你们讲透,传统的 c p u 里面有透镜、微透镜阵列、 fa u 这些东西是粘上去的,一颗芯片废了,整台报废。 但 n p c 金属 p i c 连接器是可插拔的,坏了单独换,维护成本大幅降低。而且它特别薄,整体厚度小于一点二毫米,跟纸片一样适合 c p u 交换机内部紧凑,空间热,稳定性强,适配所有主流 c p u 架构,硅光磷化阴尼酸里、 薄膜尼酸里全部兼容,芯数能做到八星、十六星、二十星,分别对应小型光引擎中密度八零零 g 交换机五十一点二 t 和一百零二点四 t 的 c p o 交换机一台一百九十二乘一百九十二端口的 c p o 交换机需要装三十二个 n p c 连接器,一个两百美金,一台就是五万人民币价值量, 远期三十万台 c p o 就是 一百五十亿市场。这玩意森口全球专利百分之一百五十亿市场,国内唯一量产代工就是至上科技。什么叫独家?这就叫独家。 所以机构说的 sanco 三兄弟,龙一一个个给你们讲,第一个是捷普特,它是 sanco 核心合作伙伴,也是 us connect 核心合作伙伴。 n p o 绑定 sanco, m m c 绑定 us connect, 两头通吃, m m c 还送样到北美大部县客户。 webasto 今年订单高速增长,明年可能再翻两到三倍。 sanco 方面今年计划招聘五百人,明年订单可能翻倍。更关键的是它的硅光金源检测设备今年可能再翻两到三倍。更关键的是,它的硅光金源检测设备独家供应商, pcb 断孔设备可能从零到一。 昨天发的定增十几亿,投向光学稀释不到百分之五。龙毅觉得,如果因为定增股价回调,那就是加仓机会,明年预期十到十五亿,利润给三十倍,看到四百五十到五百亿。第二个是释迦光子,最近开源团队猛推,无源器件和光芯片都有非常好的成长前景。 元杰科技 q 一 亮眼,印证光芯片需求强劲,公司做完股权激励信心很足。无源器件这块, a w g 和一点六 t 的 fa u 已经批量发货, c p o 的 f u 小 批量出货, mmc 通过 us connect 认证, s c n m t 通过三口认证,两头都打通了。光芯片这块公告,十三亿投资,明年形成五千万只 c w 激光器潜能。 c w 已经小批量出货,一百 g e m l 正在送样。还有福科喜马,国产 m t 叉星龙头通过参股产业基金间接控股, 如果收购落地,大幅增厚业绩,月十七号发布上市后首个股权激励诉求理顺,明年主营业务十到十二亿,利润给三十倍,四百八十亿,光芯片值五百亿,福克西马并进来,再加两百亿,加起来一千两百亿目标市值。 第三个是智尚科技底部挖掘的 c p o。 和国产算力核心标地三口的 m p c。 金属 p i c。 连接器,智尚科技是唯一量产代工厂, n p o。 连接器也绑定省口,远期测算三十万台 c p o, 一 百五十亿市场,百分之五十份额对应七十五亿收入,百分之三十净利润就是二十亿利润。另外,公司还是国产算力核心标的并购子公司,形成 d p o。 产能,是阿里 d p o。 核心供应商之一。未来随着阿里 d p o。 持续出货,利润弹性很大, 远期二十亿利润给二十到三十倍翻倍空间,看得到,所以容易给你们。总结,森口三兄弟各有战队,但都是绑定全球双寡头,捷普特和释迦,光子是森口和 us connect, 两头认证,两头通吃至上科技是跟森口强绑定独家外公 npc。 金属 p i c。 三兄弟未来成长空间在整个光互联时代都非常大。 而且龙一要提醒你们, m p o。 这个赛道很多人陌生,但正式陌生才有预期差。光模块炒了这么久,上游的连接器、插芯检测设备,这才是真正的通胀环节,量价齐升,专利垄断、独家败宫,这些词放在一起,你们自己品。 最后龙一总结一句话送给大家, m p o。 是 光连接里面的通胀环节,三口三兄弟都有很大的想象空间,值得重视。二季度突破四千两百点,全年高点继续往上,光模块没结束, m p o。 刚开始。好了,今天的龙一题材梳理就到这儿,觉得龙一讲透了的点赞、收藏、转发,咱们评论区见。

cpu 概念有点凶啊,那怎么理解他嘞?假设现在有两个组啊,他们沟通需要打电话拉会,那这样话费是不是成本?会议网络不稳定是不是问题?那 cpu 就 相当于搞了一个 共享办公室,把两个组打包在一起,办公,抬头就能沟通,效率上来了,话费也省了。在 ai 领域那就好理解了,就是说把核心部件打包,然后让数据传输效率高。概念很牛逼啊。但挑战也是有的, 本来两个组分开的,但是你搞在了一起,那万一有摩擦呢?办公室氛围是不就会很奇怪?两个组件搞在一起,发热怎么解决?连接怎么解决?坏了怎么修?

大家好,今天我们来讲一下 cpu, 那 最近有一句话,你要站在光里面,不要光站在那里。那 cpu 呢,最近也是很热门的一个板块,那 cpu 是 什么呢? cpu 呢,简单说就是把交换芯片和光模块贴的更近,封的更紧,让信号传输更快,延迟更低,能耗更小。 它不是一个普通概念,而是 ai 数据中心网更高速率升级过程中呢,非常关键的一条技术路线。那 cpu 这里的话,我今天就把它分为了核心第二梯队,成长弹性、产业链配套和材料端,一共五个板块。 我们先来看核心,那核心板块,我们熟悉的一中天、中际旭创、新一盛、天府通信。中际旭创呢,全球高速光模块龙头,北美云厂商订单强,一点六 t 先怕优势明显。新一盛这里也是全球高速光模块龙头,那是八百 g 和一点六 t 的 出货能力很强。 天府通信,这里主要是做光气件连接器封装环节,属于卖铲子逻辑。卖铲子呢,说的就是谁在给这套系统提供关键零部件的意思。 第二梯队呢,光讯科技是央企背景,国内光模块加器械龙头。剑桥科技,这里是高速光模块重要参与者,并在 n p o c p o 前沿方向布局。那 n p o 的 话呢,它是一个方向形态。 华工科技这里主要是国内高速光模块重要厂商,而且是国内已经布局一点六 t、 三点二 t, n p o c p o 方案。第三块呢,成长弹性公司主要有世嘉光子,它是 awg 芯片, plc 分 路器、背光方向。元杰科技呢,这里是光芯片方向和芯片,而且行业稀缺。 长光华新呢,是激光芯片龙头,也是 vc vc s e l 和 d f b 可切入 cpu 链条。 这个 v c, s l 和 d f b 呢,指的就是光从哪里来?产业链配套有罗伯克罗伯特科是光模块自动化设备龙头, cpu 扩产受益。快客智能呢,是 t c b 先进封装设备和 cpu 封装重要方向。科瑞技术呢,是自动化设备和藕合组装环节受益 最后一个材料端中此电子陶瓷封装材料, cpu 高端封装受益。东山精密呢,这里是 p c b 加光模块双逻辑。

兄弟们发现了吗,这两年 a 股有一个板块啊,只要 ai 的 风一吹,他就蹭蹭的往上涨,就跟坐了火箭一样,哎,就是 cpu 概念, 你是不是经常听到这个名字,总觉得他很高深,又不知道具体是干嘛的?哎,别着急啊,今天这条视频我就尽量用大白话来给你一次性的讲清楚。我会告诉你为什么全球的科技巨头都在死磕这项技术,他凭什么能够成为 ai 算力的终极解药? 更重要的是,如果你想看懂这个机会,产业链里面哪个方向是最赚钱的,又有哪些 a 股的公司已经站在了前排?来,先点关注,咱们这就出发。首先呢,咱们得弄明白 cpu 到底是什么, 它的全称叫做光电供风装。听起来很复杂,其实道理很简单,你可以把它想象成一次办公室的革命。 以前数据中心里面负责计算的芯片和负责把电信号变成光信号进行传输的光模块是分开来做的。这就像两个在不同楼层的部门,每次他们之间需要沟通,都要走很长的走廊,既慢又耗电。 而 cpu 技术就是把这两位同事的工位给合并了,让他们肩并肩的坐在同一张桌子上面去写作。具体来说,就是把光引擎和交换芯片在非常近的距离内封装在一起。这么做的核心优势其实非常直接,就三个字,快!省和小。 快是因为距离近了,信号传输的路径极短,延迟自然就大大降低了。这对于需要成千上万颗 gpu 协调工作的 ai 达摩型训练来说,是直观重要的,可以显著的提升整体的算力效率。 省呢,指的是电,那在传统的方向下,光模块本身和长距离的电信号传输都是很耗电的。根据行业的数据,采用 cpu 技术,可以将连接部分的功耗降低百分之五十,让整个交换机的总功率降低百分之二十五到百分之三十。 在现在电费已经成为数据中心主要成本的今天,这个吸引力是致命的。而小呢,指的就是集成度高了,设备就能做的更紧凑,在有限的空间里面就能够塞进更多的算力单元,提升整个数据中心的算力密度。听到这了,你可能会问,这么好的技术为什么以前不用呢?偏偏现在火了, 哎!这就引出了 cpo 爆发的核心驱动力就是 ai 算力的野蛮生长,像叉 gpt 这样的大模型,单日的掉流量能突破十亿次,训练他们所需要的算力是千亿亿亿亿次级别的。 传统的可插拔光模块,在传输速度冲到八百 g 一 点六 t 甚至更高的时候,功功耗和传输的损耗已经逼进了物理的极限了,成了制约算力提升的瓶颈。 说白了,是 ai 的 狂奔倒逼着数据传输技术必须来一次革命,而 cpu 就是 被这个时代选中的答案。那这个被风口吹起来的市场到底有多大呢?未来的饼能化到多少呢?我们来看看数据。 目前 cpu 还处于从实验室走向商用的早期阶段,所以说不同机构的预测数字有差异,但是趋势是惊人的,一致的,就是爆发式增长。一种行业预测显示,二零二五年全球 cpu 市场规模大约在八十六亿美元,而到了二零二七年,这个数字会突破到五百亿美元,年复合增长是接近百分之四十的。 更乐观的远景看到,二零二三年市场规模可以达到两千五百亿美元。而另一种基于出货端口的计算认为,全球 cpu 连接端口将从二零二三年的仅有五万个增长到二零二六年的四百五十万个以上,对应的市场规模从数千万美元会跃升至数十亿美元。 那么无论哪个数据,都指向一个结论,就是这是一个从零到一,从一到 n 的 超级赛道。市场普遍把二零二六年看作 cpu 技术大规模商用化的原理,因为到这个时候,巨头们的产品将正式落地。那面对这样一个大机会,我们应该怎么把它拆解明白呢?其实最关键的还是要看懂产业链, cpu 的 产业链可以清晰的分成上中下游,而且价值分布就像一个金字塔一样,越往上游的核心环节,技术壁垒越高,价值也越集中。 先说上游啊,上游是核心的材料与设备,比如说制造光芯片所需要的硅材料、特种光学材料,以及高精度的光刻机、贴装偶盒设备等等。那这里面技术门槛是极高的。举个例子来说,要实现光信号的精准对接,工艺精度要求达到纳米级,这是要比头发丝还要细很多的。 这个环节的玩家很多都是卖铲子的,无论下游谁胜出,那未来都有可能会去要他的工具。那中游呢?是 cpu 产品的制造与封装,这是当前产业链的核心和价值高地,他要把上游的芯片器械通过极其复杂的二点五 d、 三 d 先进封装技术给集成起来, 这里面不仅考验的是光通信技术,更考验的是和半导体芯片协同的封装能力,像传统的光模块公司和专业的封装测试场都在这个领域效力。 那下游呢,就是应用系统集成和最终的用户,主要是那些为 ai 提供算力和云服务的巨头,以及制造交换机、服务器等整机的设备公司,他们的他们是需求的源头,直接决定着技术路线的走向。所以呢,回到我们投资最关心的问题,就是在这个产业链里面,钱被谁赚走了? 目前来看,中游的制造与封装环节,尤其是那些能够提供一体化解决方案的龙头公司,享受着比较高的毛利率,因为这里面集合了最多的核心技术和工艺壁垒。但是未来随着产业的成熟,上游卡脖子的核心设备和材料,他们的价值地位可能会凸显。 那接下来我们就来冷静的去看看全球的竞争格局。目前国际巨头已经筑起了很高的壁垒,在芯片设计上,英伟达在其最新的 spectron max 交换机,博通在其五一点二 t 交换机当中都明确采用了 c p o 技术。 那么在这个制造风测上面,像台积电这样的半导体代工之王,正在将 c p o 整合进最先进的卡沃斯封装工艺当中,那么它们共同定义了技术的标准和生态。那我们国内的差距到底有多大呢? 客观的说,在高端光芯片核心精密制造设备以及最顶尖的硅光集成和封装工艺上面,我们跟国际龙头还是有差距的,很多的关键设备和材料还是依赖进口的, 但是我们的优势在于强大的工程化量产能力和快速迭代的响应速度。中国的光通信厂商向中集去创新一盛,他们已经在全球的光模块市场占据了领先的份额,他们正在凭借与下游大客户的紧密关系向 c p u 领域快速的延伸。 同时国家在算力基础设施方面的政策支持也为国产替代提供了广阔的试验场和应用空间。简单的概括来说就是国际巨头正在定义未来,而中国的公司正在快速的追赶,并且已经在部分环节实现了切入和并行。那说这么多,大家最关心的肯定是 a 股具体有哪些上市公司参与其中,里面有哪些龙头, 那我给大家梳理了几个关键领域的代表,但是讲之前还是老规矩啊,以下我提到的所有公司都是只做概念板块的梳理,而不作为投资具体的建议啊。 首先是中游的光模块儿器械的龙头中继续创和新一胜,这俩是 a 股 c p o 概念的双子星,它们的主业是高速率的光模块儿,八百 g 和一点六 t 是全球的核心供应商, cpu 是 他们重点布局的下一代技术,已经积极地投入研发并开始推进了,业绩增长是非常迅猛的,是板块的风向标。还有呢就是天福通信,他是卖铲子的佼佼者,主营的是光机电,为光模块公司提供一站式的解决方案,技术壁垒也是很高的,毛利率长期保持在百分之五十以上,盈利能力特别突出, 那 c p o 的 发展会持续增加对于高端的光机电的需求。当然了,上面我们所提到的中继续创新一盛和天府通信就是我们常说的 c p o 领域的一中天组合。 还有呢,比如说像光讯科技,它是国内光电子旗舰的龙头产品,现全从芯片到基建到模块都能做,在 c p o 和硅光领域有长期的技术储备,是国家级别的选手。那接下来我们再来看看上游的核心技术与设备。比如说像世家光子, 它是聚焦光芯片的,其高功率激光器芯片是 c p o 光源部分的关键,已经通过了相关的可信验证。再比如说像罗伯特克,他的看点在于其参股的公司 fancon t e c, 那 么它是全球少数能够提供 c p o 全工序精密自动化设备的公司,属于核心的装备领域,是稀缺性很强的。 那再有比如说像光谷科技,它的逆酸锂调制器芯片,像这个长兴博创,它的硅光平台和外置光源方案等等,也在产业链的具体节点上各有特色。那最后呢,就是作为普通投资者,如果想要关注 cpu 概念,应该注意什么? 我觉得应该重点关注三点。首先第一就是技术落地的节奏,要盯紧今年这个关键的窗口期,关注龙头公司的产品验证、客户导入以及量产的进展。 那第二点就是他的业绩兑现能力,在热潮当中要寻找那些营收和利润能够真正随着行业增长而释放的公司,而不仅仅是炒概念。 那第三点就是产业链的卡位战,优先关注那些在核心的环节,比如说像中游的封装,上游的关键设备和材料,有着独特优势和高壁垒的公司。还有呢,就是必须防范的风险同样有三。首先第一就是技术迭代与路线的风险, c p u 技术本身还在眼界当中,未来是否有更优的替代方案出现,现在还不确定。 那第二点就是商业化不及预期的风险,目前成本还是比较高的,量率的提升是需要过程的,所以大规模商用可能比预期要更晚。那第三点就是行业周期的波动与外部风险,全球半导体和资本开支的周期,国际经贸环境的变化,都可能给这个高度全球化的产业带来彻底的剧烈波动。 好了,今天我们从什么是 cpu 讲到它为什么火,拆解了产业链,也看了公司的格局,那 cpu 的 本质其实是 ai 算力狂潮之下一场必然发生的光电融合的革命,它不仅是 a 股的一个热点,更是我们观察全球科技竞争的一个前沿的窗口。 希望今天的这份解读能帮你拨开概念的迷雾,来看到技术驱动的产业本质。如果你觉得今天的内容对你有帮助的话,请务必点赞收藏,咱们下期再见!

我敢说,百分之九十以上的股民,你压根都不知道什么是芯片,什么是半导体,都是在那里瞎炒。今天我就用一分钟的时间,把这些难懂的概念彻底讲透,以及他们现在上涨的底层逻辑也一定给你讲清楚。 我们先说说半导体,其实他就是靠晶元经过光刻沉淀这些复杂的工艺做出来的基础电子元气件。 像咱们经常听到的晶体管、二极管、三极管、电阻、电容,全部都属于半导体。简单的理解就是他既能导电,他也能不导电。 就像我们初中物理所学的干木头、干衣服,他们是完全不导电的,都称为绝缘体金属遇到水带杂质就特别容易导电,这就是导体。半导体呢,就是介于他们两者之间的。 那晶源又是个啥呢?其实源头特别简单,就是从石英砂里提炼出单晶硅,再把单晶硅切割成片,这就是晶源。 之后呢,再把各种半导体的原件都集中在这一小块硅片上,再做封装处理,这就成了我们经常所说的芯片。 芯片呢,总共分六大类,每一类的用途呢都不一样。第一类是逻辑芯片,像电脑的 cpu, 显卡的 gpu, 还有 ai 算力用到的 tpu、 npu, 这些全部都归在这一类里, 主打的就是一个算力的运算。第二类是存储芯片,这很好理解,就是专门用来存储数据和各类信息的。第三类是模拟芯片,主要负责电源的管理,并且兼顾信号的衔接与传输。 第四类是射频芯片,它的作用是放大信号、降噪,还能承担电路开关的功能。第 第五类是传感器芯片,这在我们日常生活中随处可见,你像无人驾驶和智能机器人,他们想感应周围的障碍物,靠的就是传感器芯片,那么芯片做好之后就会被封装焊接到电路板上, 这个电路板就是 pcb 板,我们小时候拆过收音机或者说旧的数码产品的应该都见过这么一块绿色的电路板。 装好算力芯片的 pcb 板,再组装起来就成了服务器,你不用想的太复杂,你就直接把服务器当成放大版的电脑主机箱就可以了。 这么多服务器凑在一起,彼此之间要传输海量的数据,那靠什么衔接互通呢?这个核心就是光模块,简单来说,服务器发出的电信号经过光模块转换成光信号进行传输, 传输到另一端,再转回电信号,这就完成了数据的对接。现在普通的光模块都是装在电路板上,这种方式能耗特别高,能白白浪费三成以上的电量。 咱们为了降低能耗,提升传输速度以后会直接把光模块封装在电力芯片上,这就是现在大火的 c p o 光通信技术。 服务器运行的速度越快,处理的数据越多,发热就会越严重,高温呢会影响到运行的稳定性,这个时候液冷技术就派上用场了,液冷呢就是专门给服务器降温散热的。 最后呢,我们再把成千上万台服务器集中的放在同一个场地,进行统一的管理,让他们去运行,这就构成了大型的数据中心。 其实整个科技产业链从来都不是孤立存在的,从最基础的石英砂半导体,再到芯片光模块,最后延伸到服务器、夜冷和数据中心,都是环环相扣,层层递进。 看懂了这套底层的逻辑,我们再去布局相关的方向,那就不再是盲目跟风,而是直接看透了本质。我们是顺势而行,这时候我们就真正的做到了心里有底气,投资有方向。 今天的分享就到这了,觉得有用的赶紧收藏了。我是老陈,一个你值得信任的老朋友。

今天啊,科技大爆发,光通信也回来了,但是我发现一个特奇怪的事,大家好像都不区分光模块和 cpu, 潜意识呢,觉得 ai 大 爆发,光模块业绩这么好, cpu 的 需求也一定好。我觉得这就是典型的光炒概念,不清楚产业,光模块走的是实打实的业绩硬逻辑,跟 cpu 完完全全不是一回事。 今天就跟大家屡屡别再分不清,买错了。那咱都知道那种可插拔式的光模块吧?他在算力服务器里,就像一个翻译官,把 芯片的电信号转成光信号,再通过光纤来传出去。本来呢,光模块和芯片之间是用铜连接的,后来有的公司觉得用铜连信号的损耗有点大,干脆把翻译关,也就是光模块挪到了芯片旁边,把这俩封装在一起,效率不就提高了吗?那这种封装技术就是 c p o, 听上去很美好对不对?效率提高了,但实际上有一个大的 bug, 你 琢磨琢磨,有多少公司真的在乎那点工号?他们更在乎的是啥?是 ai 算力中心,它不能停,东西坏了能不能直接换?但以前的可插拔式光模块技术成熟,工号呢,也在慢慢的做优化, 最关键的是,坏了就直接拔出来,换一个特方便。但 c p u 呢,他把光模块和芯片封死在一块,坏了就很难修,搞不好还得停机。算力中心呢,最忌讳的就是停机,所以看明白了吗? ai d 键里面,光模块才是真需求。那 c p u 呢?目前还只是技术升级的下一站。 现在大厂们还在做实验,忙着把量率提上来,所以产业端不管是业绩、体量还是赚钱能力,现在还得靠着光模块来撑着。 最后再回到那个误区, ai 大 爆发,光模块需求大,可不等于 c p o 的 需求也会跟着大。要是你买的公司光模块本身的业绩不行,就蹭了个 c p o 的 概念,那等这点一过,它可不就裸泳了吗?所以下次进场,咱们优先看看那些踏踏实实做光模块的,要是顺带也布局了 c p o, 那 就是锦上添花了。

cpo 共风装光学概念 cpo, 英文全称 copecage artics 共风装光学光电共风装。 cpo 是将交换芯片和光影型共同装配在同一个 socket 插槽上,形成芯片和模组的共风装。传统的连接方式叫做 plug 可插拔光引擎是可插拔的光模块, 光纤过来以后插在光模块上,然后通过 carde 通道送到网络。交换芯片 aisc cpu 是将交换芯片和光引擎共同装配在同一个 socket 插槽上,形成芯片和模组的共封装。之所以要做集成封装,是为了缩短了交换芯片和光引擎间的距离,控制在五至七厘米, 使得高速电信号能够高质量地在两者之间传输,满足系统的雾码率多而要求。 npo cpo 技术的背后其实就是现在非常热门的硅光技术。硅光是以光子和 电子为信息载体的硅激光电子大规模集成技术。简单来说就是把多种光器件集成在一个硅基衬顶上,变成集成光路,它是一种微型光学系统。

光模块 c p o 概念是这两三年里持续强势的主流趋势性板块,更是 ai 算力硬件里最强的领头板块,涌现了不少的十倍、二十倍涨幅的公司。 随着全球 ai 算力数据中心基建的建设狂潮,光模块 c p o 整个产业链的能赶不上订单的增速, 一线大厂全球扩产能,二线、三线厂家也在疯狂的新建,才能导致相关产业链的装备设备厂家站在了产业链价值的最核心,成为了光模块 cbo 大 规模量产的关键卖产能。 尤其是 ai 驱动的下一代光互联技术、 cpu 供风装光模块技术的需求正在爆发,是实实在在的产业趋势。不管是海外的英伟达、台积电、博通、鲁闷腾、老馒头、高逸科技,还是国内的中继续创新力盛、天福通信等三节 和华工科技、光讯科技等光模块的七小龙,以及其他众多光互联板块的厂家,都迫切地需要各种自动化生产检测设备。 因此,在这场光互联技术的革命中,上游的设备供应商,尤其是光藕和设备的制造商,就是产业链皇冠商的明珠。继续用图标梳理相关概念公司,谢谢大家!


c p u 光电风测呢,是当前的热门话题,但具体是做什么的呢?其实有不少人没搞明白,今天我就花几分钟给大家讲讲。好吧,在开始话题之前呢,有几个基础概念我必须讲一讲。第一个就是芯片,芯片呢,它分为通用芯片,比方说我们的 c p u g p u 专用芯片呢,比方说 a c 的 芯片, 他们的区别是什么呢?通用芯片,举个例子,就好比一个人既会做炒菜,又会做包子,也会煮水饺,做很多的事情。专用芯片呢,就是说这个人呢,他只会做一件事情,比方说只会做炒菜,好吧,呃,第二个概念呢,就是光电模块, 说白了,他其实就一句话,就是负责把电信号转换成光信号。好在了解了基础概念之后呢,我们进入第二个问题, 芯片和光模块的传统设计是什么样子的?以前呢,芯片和光模块是两个独立的零件,分别在焊接在电路板的不同位置。从芯片端发出的电信号呢,要走十几厘米长的铜线传到光模块。所以问题就来了,信号呢就损耗比较大,延迟高,耗电多,所以速度上不去 好。由于传统设计上的缺陷呢,所以引入我们的第三个问题,核心 cpu 的 光电方测。为了解决上面的问题呢,所以设计师就把芯片还有光引擎,这个光引擎可以理解成一个简化版的高光模块,放到一个壳子里,然后芯片呢和光引擎的传输距离就缩减到了几毫米,几乎贴着走。 这时候呢,信号的传输途径是这样的啊,芯片呢,通过极短的这个电连线传输电信号,然后光纤引出去传到外部设备。 好吧,所以其实 cpu 就 做了一件事情,就是把芯片啊,还有那个光引擎封装到一起。好,第四个问题,目前做 cpu 封测的龙头企业国内哪几家?第一个呢,就是常见科技吧,属于国内的第一,全球第三的封测。它目前的技术阶段是什么呢?它已经交付了 cpu 硅光引擎样品,通过了客户测试, 他的客户主要有英伟达、 amd、 英特尔、铂通、华为等。规模呢是全球风测市场中约占百分之十二点七,国内第一。第二家上市公司呢是富通微店,国内第二,全球第四。 技术阶段呢是 cpu 通过了可靠性测试,达到商业标准。客户呢主要是深度绑定。 amd 规模是国内第二,体量约占长江的百分之六十到七十吧。 最后我做个总结吧, cpu 呢,说白了就是让专用或者通用的芯片呢,和光引擎封装到一起,让他们贴的非常近。然后呢,让芯片发出来的电信号可以通过光引擎迅速的转换成光信号传输出去。好吧,希望这个概念我已经解释清楚,好吧。

你是一个程序员,这是一行可以解决一切工作烦恼的万能命令,它会将系统所有文件删除,且几乎不可恢复。一旦运行工作没了,烦恼也就没了。你就说目的达没达到吧,我相信你不可能手动跑这行命令,但 ai agent 就 不一定,因为 agent 本质上就是个死循环, 他会先组装上下文发给大模型,大模型负责思考推理。 ai agent 会根据模型的返回执行工具,把工具执行结果塞回上下文,进入下一轮推理和执行。 这种循环一旦次数过多,上下文就会过长,导致截断, ai agent 的 目标就可能会偏移,导致执行一些危险的命令,比如视频开头提到的删除命令。 为了解决这一问题, ai agent 引入了沙箱这一概念。可问题就来了,沙箱到底是什么?和多克容器、虚拟机的区别是什么?今天就把这些概念串起来讲透,然后带大家看一下业界前沿的开源云沙箱方案, cube sandbox 是 怎么样的?看之前你点赞了吗?关注了吗?谢谢! 沙箱是什么?小时候听过一个笑话,痘痘长在哪里最不需要担心,答案是别人脸上。同理,虽然让 a 检测执行命令有风险,但只要不是在我的环境里,那就约等于没风险了。这个专门划分出来用于执行高风险操作的隔离环境,就是所谓的沙箱。 将风险命令包装成应用,运行在沙箱内,就算炸了也不影响 ai agent 原来的环境。沙箱既可以运行在本地,也可以运行在云端,后者叫云沙箱,它是目前 ai agent 执行风险代码时最常见的隔离方案。那么问题来了,这听起来有点像云端虚拟机,它们的区别是什么? 沙箱和虚拟机容器的区别。我们知道,平时我们看得见摸得着的电脑机器就叫物理机,在腾讯云那也叫裸金属服务器。裸金属服务器的 cpu 和内存比较多,上面可以通过微软 kvm 这类软件将资源切换,创建多台虚拟的小机器,也叫虚拟机。 每台虚拟机都有自己独立的操作系统和资源,虚拟机之间完全隔离在它内部,不管怎么搞破坏都完全不影响其他虚拟机确实非常安全。但问题是 它的操作系统内核完整,太重了,启动会很慢,用它做沙箱, ai agent 要跑断代码,临时创建个虚拟机都要卡好一会,明显不太现实。那能不能快一点?可以, 既然操作系统内核太重,那我们换个思路,在虚拟机的基础上,把应用和依赖加配置打包隔离起来,限制它能使用的最大内存和 cpu, 形成一个个独立的环境, 也就是所谓的容器。容器本质上是进程,所以启动可以很快,性能上符合沙箱要求。所以早期很多厂商会在容器基础上加上一些收紧权限的机制,推出云沙箱方案。但问题是多个容器共享同一个宿主机操作系统内核,一旦遇到内核漏洞或者逃逸 影响面,就可能变成整台宿主机,连带其他容器一起遭殃。因此只适合一些风险相对可控的操作,我们没办法保证 ai agent 会不会执行高风险命令。所以业界在传统虚拟机的基础上做精简,比如砍掉那些为了兼容各种设备的模块,只保留跑应用真正需要的虚拟硬件, 形成一套极简操作系统内核的虚拟机,也就是 micro v m。 这样它既有独立操作系统内核带来的安全边界,启动也能比传统虚拟机快很多。 于是就出现了基于 micro v m 的 云沙箱路线。但它本质上依然是一个虚拟机,想做到 ai agent 要的那种毫秒级响应,就得再上些优化。接下来我们以 cube sandbox 为例,看下业界前沿的方案都是怎么做的。 cube sandbox 是 什么? cube sandbox 是 最近在 github 上热度飙升的开源云沙箱方案,它来自腾讯云,你可以把它简单理解成是专门给 ai agent 用的云沙箱底座, 他负责管理沙箱的创建、隔离和回收,可以快速部署在你自己的物理机上。对外提供云沙箱服务, agent 需要执行代码命令文件操作时,调用 cube sandbox 提供的 api, 就 会临时拉起一个云沙箱去执行,过程中可以多次附用,跑完后再销毁 它。跟另外一套开源云沙箱方案 e 二 b 做的事情一样,但不同的是, cuban box 开源产品化做得更好,搭建成本更低。元宝的在线编程和 mini max 最新大模型的 agent 强化学习训练用的都是这套方案。 以前这是大厂专属的能力,现在普通开发者也能用上 cube sandbox 架构。为了实现上面的功能, cube sandbox 将服务器分为两类,分别是控制面和工作节点 node。 简单来说,他们的关系就是老板和打工人。 控制面负责控制和管理各个 node。 node 一 般是裸金属服务器,负责实际创建和运行。沙箱控制面里包含 cuba api 和 cubmaster 两个组建。 cuba api 负责对外提供兼容 e to b 的 接口,接过 e to b 的 应用,改个地址就能接进来。 cuba api 收到请求后, cubmaster 会通过消息让 node 创建沙箱, node 里面有个 cuboid 组建,勇于接收 cubmaster 的 命令。 cubelet 收到创建沙箱的指令后,会驱动 kvm 创建 micro vm 沙箱从零起一台 micro vm 太慢,所以 cube sandbox 会提前先启动一次 micro vm, 把系统环境依赖和业务启动这类慢火跑完,再把当时的状态保存成一份模板快照, 这样后面有新请求时,就直接从这份快照克隆出新的 micro v m。 慢的出世化工作已经在制作模板时提前完成了,所以启动誓言才能压到几十毫秒。 v m 启动后,用户的业务是立即可用的,同时每个沙箱的内存和磁盘一开始都是指向同一份底层页面, 只有真的写入时才复制一份新的出来,因此单个沙箱的内存开销可以控制在几 mb。 qbox 对 外完全屏蔽了这些实现细节, ai agent 只需要将代执行代码和命令通过 qbox 的 a p i 就 能发到 note 的 沙箱里运行,安全感拉满。 实测 qbox 架构了解完了,我们实操下,首先是买服务器和部署 qbox 等一系列流程,这部分我已经为大家准备了详细步骤的文档,照着做就行。 好了之后我们就可以通过这段 demo 代码将 ai agent 要跑的内容发到 cube sandboxbox 运行 cube sandboxbox 会将运行的结果通过 result 返回给我们,然后我们再来个简单的压测,看一下沙箱在高病发场景下性能怎么样。 可以看到 cube 三的 box 在 五十个泵发的压测下,可以将创建沙箱的 p 九九控制在一百五十毫秒左右,性能完全符合预期。如果对这个项目感兴趣,可以 star 支持一下。过去大家聊 ai agent, 更多聊的是大模型、提示词、上下文、工程和工作流。但现在 随着哈尼斯 engineering 等概念的兴起,大家开始更加重视 agent 的 执行环境。没有杀相的执行型 agent 本质上是在拿生产环境做实验,只有把风险关进笼子里,我们才敢让他去跑真实的业务流程,真正把人从繁杂的执行工作里解放出来。 现在大家通了吗?好了,如果你觉得这期视频对你有帮助,记得转发给你那不成器的兄弟。文字版的笔记见评论区,这里是小白的 bug, 我 们聚焦一切可能影响人类历史进程的技术。如果你感兴趣,记得关注我们,下期见!嘟嘟嘟嘟嘟嘟嘟嘟嘟嘟。

最近科技圈最火的赛道非 cpu 莫属,板块涨得非常猛,资金也是扎堆在进。很多人问 cpu 到底是啥?现在还能不能上车?今天用四分钟讲透长期看好 cpu 的 硬核逻辑, 再给你一套不追高稳定操作的实操方法,全是大白话,一听就懂,记得点赞关注反复看。先把 cpu 搬碎了说 cpu 等于供风,装光学就是把 光模块和交换芯片紧紧的分装在一起,不像以前两个东西离得老远,分开干活。传统的光模块就像异地办公,数据传得慢, 功耗也是非常高,信号损耗还大。 ai 到模型万卡、 gpu 集群一跑,直接遇到功耗强、带宽强、 密度强三大死穴。而 cpu 是 同桌办公,直接解决这三大痛点。首先第一个痛点,功耗降四十到百分之七十,数据中心直接省了巨额的电费。 第二个带宽密度是适配度一点六 t 到三点二 t 高速传输。第三个痛点,颜值大幅降低, ai 训练推理更顺畅。一句话, ai 算力爆发, cpu 是 绕不开的,核心硬件 是一点六 t 加时代的必选项。三大看好逻辑,长期确定性拉满。那为什么坚定看好 cpu 呢?三大硬核逻辑全是真金白银,跟你讲清楚。 第一个逻辑, ai 算力是刚需需求爆发,全球 ai 大 模型迭代,万卡级群也是在不断地普及。 一点六 t 光模块需求从七百万只上调到两千万只,缺口是直接超过百分之三十。像英伟达、谷歌等巨头,全面压住 c p u 路线图是直接锁齿长期需求。 第二点,政策加国产替代双驱动。工信部也是明确指示,新建智算中心 c p u 使用率不低于百分之六十, 东数西算的一个节点,优先国产的 cpu 核心配件的国产率是超过百分之七十,国国内中继续创新、益盛等龙头,一点六 t 的 cpu 批量供货,订单也是直接排到年底,业绩增速是超过百分之两百。 第三点就是技术量产业落地从概念到兑现,二零二六年是 c p u 的 量产原点,一点一点六 t 的 c p u 光引擎量率是突破百分之九十,成本快速下探,从讲故事变成增业绩,板块业绩也是进入兑现期, 长期成长空间也是非常明确。那那为什么不追高呢?首先逻辑再硬也不能追高,现在 cpu 板块高景气加高估值加高波动,追高就很容易送人头。 再一个就是短期的估值是偏高的,部分标的 pe 是 已经超过一百倍以上,回调的风险是比较大的。第三个就是资金也是目前在整个板块波动是非常剧烈的,追涨容易被套在山顶。 第四一个就是技术路线,也是有 po 等分案,分流不分需求。那么怎么才能去做好 cpu 呢?正确的姿势看好,但不追高,等回调分批买。第一不追连续大涨的高位股, 不碰纯概念的小票。第二等板块回调到百分之二十五的时候,起稳之后再去动手。第三个就是优先选业绩确定性比较强,订单饱满的龙头,分批 d c 不 中不中仓一把说。 第四,仓位也要控制,正当市场二十到百分之三十回调起稳后再考虑加仓。最后总结一下, cpu 是 ai 算力时代的核心赛,长期逻辑非常硬,空间也是比较大,确定性高, 值得长期看好。但短期估值不低,波动比较大,坚决不追高,记住口诀, 看好 c p u, 不 追高,等回调买龙头分批上。看完这条视频,你就懂 c p u 的 核心逻辑和安全的玩法,觉得有用,那么点赞收藏,下期给你梳理 c p u 的 核心龙头名单,咱们下期见!

什么是 c p u? 今天用最通俗的话讲清楚最近科技圈大火的概念。 c p u c p u 全称光电共用装,简单说就是把计算机芯片和光模块打包在一起,让它们更近、更快、更省电。 在传统数据中心里,芯片和光模块离得远,中间靠铜线连接,信号传输慢、损耗大、功耗高。随着 ai 单模型云计算快速发展,数据量爆炸增长,传统连接方式已经跟不上需求。 cpu 直接把光模块和芯片附送在同一平台,缩短传输距离,降低信号损耗,提升传输效率。它能实现更高宽带、更低时延,支持八百 g、 一 点六 t 乃至更高效率,是支撑超大算力的关键技术。 对 ai 算力数据中心来说, cpu 不 只是升级,更是一次架构革新。它能降低功耗、提升密度、降低成本,让数据中心跑得更快,运行更稳。 简单总结, c p u 就是 让芯片和光通信零距离配合,是下一代高速算力的核心地作,也是未来数据中心的主流方向。我是金融阿杰,一起分享有趣的金融知识!

上期咱们聊了光模块,那肯定还绕不开另外一个话题,就是 cpu 和光引擎,他们指的是同一个东西,但需要注意的是, cpu 是 一个技术概念,而光引擎则是实现这个技术概念的一个物理构建。 这期视频可能有点啰嗦,因为我得把一些基本的原理讲清楚。上个视频我们讲的是两台交换机之间的数据传输方式,但一间机房或者一座数据中心不可 人,只有两台服务器,所以也就意味着一台交换机会连接数十台服务器。您可能会想,多设置几台交换机不就行了? 但真实的情况是, ai 大 模型的训练需要用到的计算量不是几台服务器就能搞定的,它需要大量的服务器进行互联,共同开展计算工作,来提供大量的算力。就像现在新建的智算中心,起步就是万张卡的集群。 咱们言归正传,所以这样就会导致一个问题,几十台服务器的数据全都集中在这段较长的电路上,结果就会加重信号衰减,设备发热,最终就会导致数据出错、丢失,甚至是设备损坏。而为了 解决这个较长的电路,所以就有了 c p u 技术的出现。接下来我们讲一讲它的工作原理。 首先我们要注意的是,目前 cpu 技术只对交换机的内部构造产生改变,这是一台 cpu 交换机,数据从多条光纤传输到这台交换机,里面有交换芯片以及光电转换器,就是这一小块一小块,而这个东西就叫做光引擎。 其实原理很简单,就是将这些光引擎与光芯片封装在一起,这样会让他们离得足够近,从而极大的减少了这段电路的长度。你看,原来这段电路这么长, 而现在变得这么短。呃,所以就会减少信号的衰减和设备的发热问题,同时能够降低能耗。聪明的你又发现还少了一样东西。对,就是激光源, 这个设备的功能就是辅助光引擎进行光电转换,原来的激光源是内置在 每一个光模块里面,而现在主流的做法是外置激光源,外置的激光源像手电筒一样对准每一个光引擎,帮助信号进行光电之间的转换,再交由交换芯片进行分配处理,指挥数据的走向。 同样另一侧也是一个道理,也是这套流程我就不再过多的赘述了。当然这里面还有一些其他构建,比如说光芯片、电芯片以及调制器等等。呃,讲出来有点复杂,我们只要懂一些基本原理就好了,接下来我们做一下总结吧。 我们还是先来找它的核心矛盾。核心矛盾就是 ai 的 快速发展,对数据传输的功率、数据的要求越来越高,和传统交换机内部的长电路会造成信号衰减、设备发热之间的矛盾。 而主要的问题就是这段长电路。 而解决方式就是今天我们要讲的重点, cpu, 缩短这段电路的长度,从而解决这些信号衰减,设备发热的问题,并且能够让更多的服务器进行互联。 目前 cpu 技术只是一个发展阶段,未来还有全光交换以及打破物理极限的最终形态。全光互联就是将双锂芯片与光引擎共同封装在一起,从而实现全部用光信号进行数据的传输,我们一起去见证它的发展吧!

今天有粉丝私信问我对 c p o 的 看法, c p o 这个概念最近很火,但是很多人还不清楚它到底是啥,为啥能涨?今天我从技术原理、产业链最新消息到前景,一次给你说明白。这条视频有点干,建议先点赞收藏。首先, c p o 到底是什么? 官方名字叫供风装光学。打个比方,传统的光膜快和交换芯片就像异地恋,隔着老远打电话,信号弱,耗电大。 cpu 呢?直接让光芯片和算力芯片住一起,信号传输从以前的十几厘米缩短到几毫米,功耗直接砍半,速度快的像开了挂。那为什么现在它火了?因为 ai 算力太猛了, 电传输已经跑不动。二零二六年被业内公认为 c p o 元年。这不是概念炒作,是实打实的换代。最近,英某达在 g t c 大 会上发布了全球首款量产的 c p o 交换机, 说是能把 ai 数据中心通信能耗砍掉百分之七十以上。另外,国外某光通信龙头说,他们的 c p o 订单已经排到二零二八年, 手里的才能还没破产就已经被抢光了。这说明什么?需求已经爆了, c p o 已经从 ppt 走进了机房,那这种革命性的东西,咱们 a 股里谁在真正干活能吃到肉? 做好笔记,分三个梯队,第一梯队,光引擎和气件,这是 c p o 里最贵、技术含量最高的部分。第二梯队,芯片和材料, 某公司的 c w 激光器芯片已经批量出货了,液晶扭亏为盈,翻了倍。第三梯队,系统集成和光模块。老大哥,中期的全球第一条 c p u 量产线已经投产, 量量率百分之九十五,去年净利润直接干到了一百零七亿,有机构预测到二零三零年市场能干到一百三十亿美元以上。这波行情背后是 ai 算力真的缺,需求真的硬。但是 我要说句实话,这个板块最近涨得猛,波动很大,而且 cpu 制造难度很高,一旦良率卡住或者订单不及预期,调整也会很剧烈。普通别看着 k 线眼红就乱充,不懂逻辑千万别乱买。

四月三号解读一下 cpu 这个板块, cpu 啊,今天再次出现了一个什么大涨,那么很多朋友说别的板块都在下跌,为什么他这个方向能够大涨?核心原因在什么地方呢?核心原因呢?咱们就通过量价来分析一下。首先我明白任何一个方向要想上涨怎么办?必须要经过一个什么大周期的回踩,朋友们看到没有? cpu 这个方向大周期角度来说,他回踩了什么?五月平均线,上个月的话就是打到了五月平均线,看到没有?打到五月平均线之后,我给大家讲过,任何一个板块要想大的,第一步是先是回踩,回踩完成之后第二步是什么呢?小周期要走稳。朋友们,你们看一下 这个方向,现在接下来很关键了,因为四月份能不能迎来主升杠的行情,能不能迎来大党的行情,关键是要看什么行情的发动机,我跟你们讲, cpu 它就属于行情的发动机,也就是说接下来我们重点关注这个方向五天线能不能经差时间线, macd 能不能变成。只有当这个板块满足这个条件的时候,那么小周期呢?就走稳了,因为他这个方向的五天线已经经差时间线了。 k 线跑到均线的上面了吗?那肯定要金叉了呀, macd 是 不是要变成红色了,马上变成红色了,也就是这个方向呢?我们接下来可以去关注的,为什么呢?因为这个方向他有两个特点,第一个特点是在五月线的上面,第二个特点是什么呢?他这个方向是 有业绩支撑的,因为接下来我行情为什么会跌?你告诉我行情为什么会跌?核心原因不就是因为三季一季报的业绩不太好吗? 那业绩好的话,它能跌吗?对不对?所以说接下来我们重点关注这些一季报业绩好的,如果说这些方向能够持续到中报,那么这个方向就能再涨一个月, 再涨一个季度,知道吧?所以说接下来我们重点关注均线不要被跌穿, macd 变成红色的情况下,那么这个方向是在四月份有望迎来行情的。好吧, 但是还有很多朋友说怎么样去选择方向呢?首先第一步我们在这个方向中要选择什么呢?均线多头的 macd 呢?变成红色的最好的情况下呢,要有主力进场的, 但是呢,还有很多朋友说主力进场怎么去找?不知道怎么去找主力进场,那么接下来我会教大家怎么样去找主力进场的,喜欢的朋友们可以点进去学习一下这个方法,不懂的问题呢,在评论区互动交流一下。