国内 mcu 产业链获悉,现在大量海外的 ai 电源光通信公司正开始大规模采购国产 mcu 芯片,以应对高速扩张的算力和 ai 电源需求。 mcu 则是 ai 电源的核心。控制中指出 ai 赋在的高动态、高功耗供电需求 mcu 芯片产业链如下。
粉丝822获赞7234

你知道吗? ai 电源的需求爆发,正在让一类芯片供不应求。最近全球 ai 电源的出货量在快速增长, 而作为 ai 服务器 gpu 的 核心配套电源里的控制芯片, mcu 需求也跟着大幅提升。现在国内的 mcu 厂商已经开始出现缺货提价的情况,像国民技术、中微半导体这些企业 已经在给全球顶级电源管理公司批量供货了。其中国民技术的电源监控芯片已经稳定量产,单价在一点五到二美元。今年七月还有两款通信类芯片要送样, 有望进一步提升配套份额。你还看好半导体行业的哪个细分赛道?评论区聊聊你的看法吧!

继 cpu 之后,又一个被很多人忽视的 ai 算力核心元气件卖断货了,今年以来价格最高暴涨超百分之五十,整体涨幅直接干到百分之四十。现在连海外的 ai 巨头都在抢着买咱们的国产货,它就是 ai 电源的核心大脑 mcu 芯片。可能很多朋友还会问, mcu 到底是什么? 简单一句话说,它就是 ai 电源的控制中框,是整个 ai 算力系统的大管家。现在 ai 算力芯片的功耗越来越高, gpu 动不动就是顺势大电流、宽动态载,没有稳定靠谱的电源管理,算力再强的芯片也根本跑不起来。 而 mcu 就是 管着整个 ai 电源的核心,缺了它, ai 服务器、高速光模块,全都是一堆没法运转的废铁。 现在这个赛道已经彻底进入了供不应求的疯抢状态。从今年年初开始, m c u 的 缺货潮就已经全面爆发, 国产厂商中微半导体直接宣布对 m c u 产品提价百分之十五到百分之五十,国民技术也在三月发通知,四月起对部分产品涨价百分之十五到百分之二十。尤其是光通信领域的 m c u, 今年以来整体价格累计涨幅已经达到了百分之四十, 部分特殊规格的产品涨价直接超过百分之五十。更关键的是,现在不光国内厂商在抢货,大量海外的 ai 电源、光通信巨头都在大规模采购咱们的国产 mcu 芯片, 就是为了跟上全球算力疯狂扩张的脚步。那为什么 mcu 突然就这么抢手了?核心就是两个超级增量市场,直接把需求彻底拉爆了。第一个就是 ai 服务器的爆发式增长, 给大家算笔最直观的账,就拿英伟达的 gp 系列服务器来说,单台机柜里有十八个计算单元,每个计算单元要十多个电源模块,每个模块里就要内置三颗 mcu。 这么算下来,单单一个机柜的电源板, mcu 的 用量就超过五百克。 就按英伟达十万个机柜的量级来估算,对应的电源 mcu 市场空间就有四点五亿人民币。再叠加上谷歌、亚马逊这些海外大厂的需求,整个市场空间直接超过十个亿。 第二个增量就是高速光模块的需求紧喷,现在 ai 集群越做越大,单颗 gpu 对 应的光模块配比正在疯狂提升,而每个光模块里都需要一到二颗 mcu 来控制激光器管理。信号收发 上的研报都明确,预计二零二六年全球八百 g 光模块出货量直接比二零二五年翻倍。一点六 t 光模块更夸张, 今年出货量直接从百万只级别飙升到两千万只以上。这么恐怖的增量, m c u 的 需求能不炸吗?更值得咱们骄傲的是,这一波风口里,国产厂商直接实现了关键技术突破,彻底打破了海外厂商的垄断。 在 ai 电源和光模块 m c u 赛道,跑出了一批真正的硬核玩家。在光模块 m c u 赛道照样创新布局,最早量产的专用 m c u 早就已经在数据中心、云服务器里大规模应用, 光模块 mcu 业务也是它去年增速最快的吸粉赛道之一。而国民技术更是直接卡位一点六 t 高端光模块赛道,推出了适配四百 g、 八百 g、 一 点六 t 全速率的专用 mcu, 现在已经在国内多家头部厂商推进产品导入,而且还打进了全球顶级电源管理大厂的供应链,实现了稳定批量供货。 中微半导体凭借在工业级 mcu 领域的深厚积累,快速切入 ai 服务器电源和光通信赛道,今年年初就凭借供不应求的订单,率先宣布 mcu 产品提价百分之十五到百分之五十,是这一轮 mcu 涨价周期里最先兑现业绩增量的厂商之一。还有在 ai 服务器电源赛道全链条布局的新联集成, 它直接给 ai 服务器电源提供功率器件加隔离、驱动加 mcu 加磁器件的完整系统代工方案,产品覆盖了 ai 服务器电源从一级到三级的全架构,能覆盖超百分之五十的 ai 服务器电源价值, 目前已经成功导入国内头部 ai 服务器和互联网大厂的供应链,是 ai 电源 mcu 赛道里的核心配套厂商。力源信息也在快速突围,公司自研的 mcu 产品已经有十三个系列、三十七个型号实现量产, 专门针对数据中心服务器光模块领域打造的 m c u 新品,已经成功拿下下游客户订单,在这一轮国产替代的浪潮里快速抢占市场份额。 除了这些已经实现批量出货的厂商,还有复旦威电、士兰威瑞、星威等多家 a 股 m c u 龙头,也都在加速布局 ai 服务器电源和光模块专用 m c u 赛道,不断推出适配产品,推进客户导入,整个国产 m c u 行业正在迎来全面的爆发期。 除了需求爆发,国产 mcu 能崛起还有一个核心逻辑就是国产替代现在海外巨头,比如德州仪器,虽然技术底蕴强,但是国内厂商为了供应链安全,都在主动给核心元气件找国产备份方案,再加上现在成熟制程的金元产量都被高毛利的存储芯片挤压, mcu 的 产量本来就紧张,这也给了咱们国产厂商绝佳的突围机会。其实大家发现,没有 ai 算力的浪潮从来都不是只有 gpu 一个主角, 从上游的芯片制造,到中游的电源光模块,再到下游的应用落地,整个产业链的每一个环节都在诞生新的机会。最后郑重提醒,本视频仅作为行业科普,不构成任何投资建议。

ai 电源需求全面爆发,已经带动一款核心芯片进入供不应求的阶段。最近,全球 ai 电源出货量持续大增,作为 ai 服务器 gpu 的 核心配套部件,电源内部的 mcu 控制芯片市场需求迎来大幅暴涨。目前国内 mcu 厂商已 经普遍出现缺货涨价的行业现状,国民技术、中微半导体等国产头部厂商已经成功进入 全球顶级电源管理企业供应链,并且实现大批量供货。其中国民技术电源监控芯片以稳定量产落地,单克价格达到一点五到二美元。今年七月还将有两款通信类全新芯片送样测试,有望进一步扩大市场配套份额。 另外,在 ai 算力浪潮之下,国产芯片替代机遇越来越明显,你还看好哪些半导体?哪些高潜力细分赛道?欢迎评论区交流!

大家好,今天有关市场的六条重要资讯解读如下,一、有消息指国家大基金正在洽谈领投 deepsea 首轮融资,估值可能达到约四百五十亿美元。二、随着全球 ai 店员需求激增,国内 mcu 芯片厂商面临罕见的缺货提价局面。 国内厂商路中位半导体和国民技术已开始提高芯片价格,并在全球顶级电源管理公司中实现批量供货。三、美股光巨头路曼特曼第三财季业绩表现卓越,营收同比增长百分之九十,创下八点零八亿美元的历史新高。 四、由于口服减肥药销量远超预期,洛赫洛德上调全年业绩百分之八,推荐关注减肥药。 五、 anselpik 又与谷歌签订大单,将持之两千亿美元购买云服务和芯片,继续利好算利基芯片。六、央行公布,今年第一季度全国新发放商业性个人住房贷款加权平均利率为三点零六。


hello, 大家上午好!今天五月二号是第三十一期正式节目。提到 ai, 很多人想到的是 gpu 端测、 ai、 soc 服务器、大模型。但如果我告诉你一颗几块钱或十几块钱的 mcu 也能跑 ai 应用呢? 答案是,能,但前提是你对 ai 的 期待要做调整。我们讲过很多期 mcu 了, mcu 微控制器,俗称单片机、 microcontrol 了。 unit 的 英文缩写是一台被集成在单块芯片上的微型 计算机,它将 cpu、 内存、存储器以及各种输入输出接口分装在一起,实现对嵌式设备的实时控制功能。 mcu 的 优势是集成度高、功耗低、实时性强、便宜短板式、算力、 内存和存储都很有限。 mcu 不是 不能聪明,而是聪明的很克制。在 mcu 上跑的 ai 通常不是生成式 ai, 而是 time ml, 也就是小模型、低参数、定点化、针对特定任务优化的推理。 time ml, 英文 time machine learning 的 缩写。小型机器学习是一项将机器学习模型压缩并部署到 资源极度受限于 mcu 上的技术。要让庞大的 ai 模型注入小小的 mcu 摊内 m l, 需要做以下动作,首先,模型压缩,通过减脂去掉不重要的连接量化,将高精度数字转为低精度整数等手段,大幅减小模型体积。 其次,专用框架,使用专门为嵌固式设备设计的轻量级框架,最著名的是 tesla flo lite for micro controllers。 最后,再力优化,针对特定的芯片架构如 arm cortex m 系列进行指令级优化。 mcu 上跑 ai 有 哪些典型的应用场景呢? 第一,关键词识别,像嗨 siri 或小爱同学的唤醒,就是在本地 mcu 上运行的胎内 m l。 第二,工业预测性维护, 监测电机的振动频率,在电机损坏前通过算法识别出异常征兆。第三,环境监测,智能摄像头在识别到特定物体如人或动物出现时,才激活平时处于积极状态的休眠状态。 目前全球有哪些主要的 ai mcu 厂商及芯片呢?先从国外的说起, st 的 stm 三二 n 六叉七 am cortex m 五五内核,八百兆赫兹主频, 内嵌字眼的 n p u st neutral art accelerator, 计算性能达六百 g ops, 所以 这里单位是 g ops, 不是 top 一 top 等于一千 g ops。 n x p 在 其处理器上横脚就开始部署边缘 ai intel max r t 七百和 m c x n 九四 x 五四 x 两系列 mcu 都有集成自家的 e i q。 纽创 npu。 瑞萨的 r a 八 p e 系列 amm 八五加上 m 三三双核,集成 e salt 一 五五 npu, 算力达两百五十六 dops。 英菲尼的 p salt 二指 e 八 x 系列 npu 是 n n light。 加上 e salt e 五五 ti 的 三个系列 mcu, 如 tms 三二零 f 二八 p 五五 x em 幺三 e 二三零叉和 msp m 零 j 五幺八七,均集成 ti tanning i g npu 两点五六 g ops。 新唐的 m 五五 m 一 系列自带 micro npu, 也是基于 amnesus 一 五五 npu 一 百一十 g ops。 华为海思的 h i 三零六六 m 三十二位 race five 内核 eight 频发 mcu 内置自然端色 eai 引擎 实现变频,加上 e a i 节能二合一控制。赵毅创新的 j g 三 r h 七系列非不带 n p u 单元,可直接部署探内 m l 实现端测 ai。 北京军政的 j 三 r s 幺零叉瑞斯凡五双核 mcu, 高达零点五 top 的 t npu 期待早日面世。 b e v。 的 开 pm 三 r r 八 tx, 集成神经网络计算器 d n u 零边件的 e i i 六八 e i i 八零,内置一个 c n n p u 八十六 g ops。 最后是乐星国内 wifi soc 或 mco 头部厂商,其最新推出的 esp 三二杠 s 三一系列也是针对端测 ai 的 产品布局。 所以 mcu 能跑 ai 吗?能!但更值得关注的是,当 ai 开始跑在最小的主控芯片上时,真正被改变的可能是我们身边的所有设备。好的,本期的分享就到这里,感谢观看,下周六会准时上线,第三十二期再见!

兄弟们,光模块行业今天藏了一个大消息,国民技术官宣和全球头部电源管理芯片厂商达成战略合作, 他们的 mcu 加电源方案已经获得了全球 ai 服务器龙头的认可。大家都在炒光模块本身,但没人注意到里面这个不起眼的小芯片才是真正卡脖子的地方。 现在一点六 t 光模块的功耗已经做到了十一到二十五瓦,比八百 g 翻了一倍还多,数据中心的电费已经占到了运营成本的百分之四十以上。所以现在光模块厂商拼的不是谁的速度快,是谁的能效比高,谁更省电。 而光模块里的 mcu 和电源芯片就是控制功耗的核心。以前这个市场百分之一百被海外巨头垄断,德州仪器、 a、 d、 i、 mps 三家占了全球百分之八十以上的份额,交期最长要二十四周,还在不断涨价。 这次国民技术和全球头部电源厂商联合开发的方案,把 mcu 和电源芯片做了深度集成,直接省掉了电瓶转换,芯片 不仅体积缩小了百分之二十,能效比还提升了百分之三十以上。更关键的是,交期从原来的半年缩短到了八周,价格只有海外方案的百分之七十。现在国内已经有一批企业在这个赛道悄悄突围,核心玩家主要有三个,第一个就是国民技术, 它的 n 三二 h 四九三是目前国产唯一能对标海外适配一六 t 高端光模块的主控 mcu。 这款芯片配备了 emb 大 容量 flash, 支持零中断升级,还能直接对接 dsp 芯片,现在已经开始批量供货, 今年的出货目标是三百万颗以上。第二个是辛鹏威,他已经和光模块头部客户合作开发专用电源产品系列,二零二五年推出了十二款 ai 计算能源芯片, 在中低端光模块电源市场已经占据了一定的份额。第三个是盛邦股份,它的电源管理芯片已经进入了华为、中兴的供应链, 在光模块 tec 控制器领域实现了国产替代,试战率正在快速提升。跟大家说个有意思的历史对比,这一幕和二零一九年五 g 光模块的国产替代几乎一模一样。当年五 g 刚启动的时候,光模块里的 dsp 芯片、激光器全是进口的,国产厂商只能赚点组装费, 但只用了三年时间中继续创新,益盛这些企业就把全球市场份额做到了百分之七十以上, 把海外巨头打得节节败退。现在, ai 光模块的国产替代正在从光器械向芯片领域延伸。根据 global info research 的 数据,二零二五年全球光模块用 mcu 市场规模是一点三五亿美元,预计到二零三二年将达到二点六二亿美元, 年复合率百分之十点一。而中国市场的增速更快,二零二六年将达到八亿元人民币,年复合率超过百分之二十二。我再给大家透一个行业内部的消息, 现在国内某头部光模块厂商已经把二零二七年的国产 mcu 采购比例,从原来的百分之十提高到了百分之五十。 不是因为爱国,是因为海外芯片真的交不上货,而且太贵了。国产芯片不仅便宜,还能提供二十四小时的技术支持,随叫随到,这是海外巨头根本做不到的。 你看科技的发展就是这样,一步一步来,先从最容易的组装开始,然后慢慢往上游突破。现在我们已经拿下了官模块的全球市场,接下来就是芯片、材料这些核心环节,总有一天我们会把所有卡脖子的地方全部突破。

嵌入式开发, ai 全流程接管代码翻译、烧录和测试。这是最近做的一块开发板,主控 mcu 是 stm 三二 f 四零五,板子上带了一块一兆的 norflash。 在 这个板子的嵌入式软件工程里,我添加了四 q, 告诉 ai agent 这块板子的代码结构,编印方法、烧录方法以及查看串口打印输出的方法。编译烧录和查看串口打印都是通过命令行脚本实现的方法,编译烧录和查看串口打印都是通过命令行脚本实现的,非常事情了。 前面说过这块板子上带了一块 norflash, 我 目前并不知道这个 norflash 的 性能,比如它的擦除速度,写入速度、 读取速度。现在就让 ai 在 真实的硬件上自动做一次 norflash 的 性能测试,并生成测试报告,全程由 ai 自己操作,操作内容包括翻译、稍路、发送串口命令、读取串口打印。当然,我需要提前把硬件环境搭建好,连接好指令,可和串口给板子上电。 在 call 派雷的 agent 模式下,选择 gpt 五点三 codex 模型,告诉 ai 目前板子已经上电,指令和串口都已经正常连接,串口号是 com。 十一、让 ai 实测并生成一个 spi no flash 的 性能测试报告, 测试擦除、写入以及读取的速度。 ai 读取了工程里现有的测试命令源码和项目 skyo 之后,决定增加一条测试命令用于性能测试, 使用 r t o s 的 计时接口计算 flash 的 操作速度。通过修改代码增加了测试命令之后 ai 翻译了一次,然后通过 j link 进行了烧录,并使用脚本执行自动发串口命令和抓取串口打印。 这次 ai 发现串口打印数据的结果是零,应该是六十四位整形格式化输出有问题,换成了三十二位整形。重新测试,又进行了一轮代码修改、翻译、烧录、串口打印抓取。这次得到了实测结果,擦除速度一百四十四 k 字节每秒, 读取速度六百八十五 k 字节每秒。擦除最慢,其次是写入读取最快,符合 norflash 的 特性。当然,这个结果只能代表当前的板子的 norflash 性能。测试结果受到主频、总线和软件等多方面的影响,并不代表 norflash 本身的读写性能上线。例如, norflash 的 实际读取速度上线应该比这个结果快得多。 总结一下,目前的 ai agent 是 有能力打通嵌入式开发的软件全流程的,前提是你已经把所有工具都用命令行实现了。如果今后给 ai 连接上视觉和机械臂,是不是可以实现硬件产品研发、测试、生产的全自动化呢?好了,下期再见。

你,你如果做这个就是初学者,你不知道要告诉 ai 什么,所以你必须要能够让这个,你得让 ai 来问,你,知道吧?就要来问你,你问你,等会我给大家演示一下吧,因为我正在背这个课, 正好跟大家一起体验一下这东西很有意思。我们其实从 ai 出来以后,一直都在探索 怎么把 ai 和架构相互结合,现在已经有非常明确的一条路。很多这个同学他一开始上来问 ai, 比如说帮我写一个 free r two s 的 控制 led 的 功能,但是 ai 其实是缺很多信息的, 那比如 led 是 哪个引角控制,有哪些文件可以修改,软件的分层是什么?这些都没有。所以正确做法其实应该还是让 ai 来问问这个学员, 问我们的初学者,否则 ai 就是 自己瞎补,知道吧?自己瞎补。所以我们要讲明白一句话,需求这种对 ai 来说没有意义,你 ai 提示词肯定要 ai 提示词的三要素,角色、任务、上下文 来给大家演示一下,在这个里面,好吧?演示一下,这是我们之前的一个项目工程,我们来演示一下, 我是一个初学者,我现在陷入是初学者,我们来看这个 ai, 他 会怎么样?我现在其实你去公司以后, 你拿到别人的就是你们公司的这个代码,他其实有,一般公司代码都有分层,你看不懂,但是领导不是让你去写一个项目,在这个里面,对于你来说,你肯定要知道 这个系统的分层是怎么样的,有经验的人他都能想到这一步。软件分层是怎么样的,那你肯定在对应的分层里面,但是小白用 ai, 他 肯定不懂这些的,所以你这个时候你要让 ai 来问你怎么问,你看我这个建筑从业者, 现在的工程是我刚开始接手,我想要在应用层,一般基本会应用层实现一个按键 控制 led 的 功能,你作为一个侵入式自身,你看我在这里,你看 这个东西我带了背景,我交代了背景,就我这里说的,你作为小白,你上来就先交代背景,但是接下来写提示词,怎么写?三要素,提示词,三要素这个东西大家一定要记住, 你写任何提示,你用任何 ai, 这三要素必须要有角色任务上下文,你是什么角色?你作为一个介入式资深工程师,我帮我在现有工程 中实现应用层按键控制 led 闪烁的功能。 上下文是什么?上下文就是我们目前这个工程,其实我在这已经说了,目前这个工程是公司现有的工程,好,现在就是比较关键了。你作为小白要这样问,作为一个初学者,你还需要知道哪些信息, 请找我确认,你看你像这样问就不一样,你用 ai, 其实无论你有没有经验还是怎么的,你都要让 ai 首先来问你,你看你把这个角色带入进去,你就不用去想你怎么驾驭 ai 了。 看到没,这这个其实我我我去仔细构思过我们这个课程,我是去构思过我们的这个课程究竟该怎么去设计, 因为我一上来,如果我教你怎么去写提示词,我一上来我教你怎么去写提示词,我觉得太难教了,因为你写架构的有一套提示词,你写驱动还有一套提示词,那你这辈子就离不开我们吗?天天都找我们要各种各样的提示词吗?不可能的, 这个直接没有任何意义。那我就想了一个什么样的方式,我来教你,我让你去让 ai 反问这个思路。太好了,这个思路我那天想,想了以后,我立马连夜做起来,把这个思路给写到我的笔记本上。我我我不教你写提示词,但我要告诉你提示词的三要素, 角色、任务、上下文。剩下让 ai 去问你。好,我们看下这个 ai 现在表现怎么样,你看你看没 看到没 ai, 这个时候他就被你驾驭了,你看没,他开始在思考了对不对?这个才是你用 ai, 不要老想着去靠你自己个人能力去驾驭, ai 的 能力是比你强的,包括甚至比我都强,只不过他沉睡的记忆太多了, 你要怎么样去把别人这个记忆唤醒?是不是你定义完你的这个情况以后, 你让 ai, 你 先给他定义角色,他是个潜入式资深工程师,要实现这个功能。上下文,是这个让 ai 来问你,这个绝对是正确的办法, 没有人可以比这个 ai 的 学习方法更正确,因为我仔细思考以后, ai 它是其实比任何人都强大, 他震慑了世界上所有的信息。而且我用的什么 ai? 我 用的是 mini max, 最垃圾的 ai。 不 不不,就是没有那么强的国产 ai, 我 这下面用的是 mini max 后面的大模型,你看他也开始问我一些关键信息啊,看到没?好,那你就顺着他思路来提示词,你不要想着去写提示词, ai 永远是比任何人都强大的, 你要做的只是让 ai 明白你的处境,给他定一个角色,你是个资深工程师,帮我完成一个什么任务,上下文是什么?你说你自己是个初学者,你有什么信息找我确认?因为他比你强大,你应该让他来问你,而不是你去引导他,包括 ai, 甚至比我都强大, 知道吧?比我强大,所以我当时想到这个办法,因为我那天一直在背这个课,教你怎么去写提示词, 但是我想来想去,其实最妙的招就是说让 ai 反问你妙不可言。我来看看 go 语言,他现在做一些应用开发完全是可以的,他以前是后端开发,切入式开发,在 linux 上有些也是用 go 语言的, 发色也有用的,也有用。哎,我今天就看下,他问我能怎么样,因为这个东西我本来要录个课,必须给兄弟们安排。明白,你看他帮我分析出来,他已经调研了你的工程,对,让 ai 来问你, 是不是这个分层都非常的细节,他分析我架构分析错了,看到没?这个地方也不算错啊,这个中间间对于芯片厂商来说确实是,你看他已经帮你分析出来,有道理,好,他给你列出出来,有这些文件在控制。现在我需要确认硬件问题,需要用万用表来,你看到没? 所以这个这个 ai 时代,你要驾驭 ai。 我 现在总算想明白了,你不要自己变得多强,你要给 ai 定一个角色,你老想着天天驾驭 ai, 驾驭 ai 是 不是? 包括我?贝克,我也天天想着我怎么驾驭 ai, 后来我想明白了, ai 肯定比你强的,但但你必须要给 ai 要讲明白这三个关键点, 然后让 ai 来问你,这才是正确的思路。原先你用 ai 说上来帮我写个什么功能,那未来你老想着给 ai 去补充这些边界对不对?补充这些信息你补不全呢? 就像我们天天告诉同学,我说你不要天天想着准备好再去面试,这个没有意义。什么叫准备好?包括杰克老师也不可能准备好的,因为切入式就不可能赋予你这样的能力,因为切入式实在太大了,没有所谓真正的准备好。 那么正确的做法是什么呢?就是说你无论再怎么补,你总有漏的,而且也很累。正确的做法就是你让 ai 问自己有什么事情还需要确认,像我这样, 你看 ai 不 就用的很好吗?我一个初学者,我照样把 ai, 你 看他能帮我想到的,他想的肯定比我全面,因为这是 ai 的 优势,他能把一件事情想的很全面。你看他又又来找我确认,确认完以后他就可以干活了。 我随便写一个高电频点亮。我我我看一下我的硬件资源手册,好吧,我我确认一下他分析的对不对。我的 led pc 十三,你看他分析对不对? pc 十三是对的,物理按键有两个可用, pb 一 和 pb 零。 我来看一看 pb 一, 他也分析对了,看没,他根据代码直接分析了 k 三 pa 零也对的,对不对?我希望用哪个看见,哎,我看一下这两个都是 u 三 k 对 不对? 然后我肯定想用这个 p b 一 控制,我就用 u 三 k 一。 所以你要用 ai 完全不需要,你不需要去,你很厉害,不要想着去驾驭 ai, ai 肯定比人强大的, 我都驾驭不了 ai, 我 也想着天天驾驭 ai 驾驭,后来还是你要去问 ai, 你 也不要想着能写好一个优秀的提示词,让 ai 来问你,这个路你就走对了。 好吧,千漩室里面上下文是最难的,上下文是最难的,所以你要看你的上下文够不够完整,让 ai 来问你。而且现在可 out, 它会自动压缩上下文,把关键信息给压缩住。我用轮询方式, 你看,你把他定义为高级工程师,别人都会来一步一步引导你,这样他又在教你啊。所以要善用 ai, 但不要想跟一个别人花几百个亿训练出来的大模型去对抗是吧?不要这样对抗,看到没? 非常优秀。你看他添加任务了,看到没?我们这个架构写的是非常优秀的,你要创建哪些任务,就在这面加就可以啊,他会自动循环去加载,你看他都直接自动识别了,看到没?自动识别了。我们的这个表驱动, 你看我们这地方,我们的架构用了一个表驱动来加载所有任务,我们的架构本身也很清晰明了,对于 ai, 它识别起来也很方便,对不对? 我们这个表驱动的一个架构就非常规范,非常的优秀。好,他已经修改完了在这个地方添加的任务,所以没取,添加了这样一个任务, 在这个里面包含了 g p i o part, 你 看他直接调用了这个抽象层, g p i o part, 是 我们这个 platform 抽象层 m c u platform g p i o part 点 h。 在 这个里面我们美取了各种各样的 按键,我们这个平台化做的非常好,我们这个平台化做的非常好,这个代码,所以它用起来也非常的流畅,你看改,都改到对应的层级里面了, 没有去乱改,看到没?它的所有的调用,你看所有的调用都是调用的抽象接口,没有去调用那个 hell gpo 什么,没有圈, 调用的都是抽象接口,看到没?这都是抽象接口,看没 top gpl 抽象接口没,没有写什么 hell gpl 什么的,没有对不对? 没有,他非常规范,他没有,没有跨越层级,这个里面有具体的 g p l 的 实现在这里,所以他成功的调用了抽象接口,也符合架构原则,非常的优秀。按键扫描任务特性,他要创建一个按键扫描任务 kiss 看,让我看一下他还有个 kiss 看,是吧?这一个就是他创建,是他, 那这个任务他应该就是在这里创建,他的任务函数在这里。那按键你看怎么写的? 是不是写的非常优秀?调用的也都是,我们叫什么调用的都是也是抽象接口,看到没?都是抽象接口,这是我们平台化的东西。在平台层你看 m c mcu platform 平台层,就这一层对 g p i o 进行了抽象平台层 g p i o 平台层 g p i o 的 适配层 port 点 c 抽象接口,这个抽象接口里面最终调用了 hell s t m 三二的 g p i o pin, 非常优秀。再再看一下他做的怎么样,我检查他作业任务名占大小,扫描周期十毫秒,依然掉了 osl 平台化的抽奖接口非常优秀, 下降眼检测定义了局部变量 u i n t 八,这个也很优秀。为什么我说这里很优秀?因为对于跨平台来说,类型一定要是能够跨平台的,他在这里你看 做了一个 s t d i n 的, 这里也没问题,可以这样,但是对于优秀的跨平台架构,不应该去包含 s t d i n d h, 不 应该包含它的,应该要包含一个自己的平台的一个 类型,他比不应该包含他,因为你包含他就代表着没有真正做到夸平台,我们一般会定一个这样的数据类型,这我后面再讲。反而可能你这个平台假如说 u n t 八,你会对他进行一个比如,比如指不是这样的前缀,反正你肯定要在这里,他的前面暂时想要这里 include, 就你这个跨平台的一个 t types, 比如我们这个手表的就是这个平台的叫 a plant form, 就 这样的一个头文件,这个 u i n t 八应该取这个里面定义的, 对,他就有这些定义去实现,就是 u i n t 八。具体的定义这里他可能没有考虑到这个细节,不过这个应该是平台的层考虑的,所以他也没有问题。我只提一下, 因为在我们这种编程非常严谨的一个视角来看,所有的地方都值得怀疑,没有付出值其实也是有问题的,这个东西必须要付出值的,所有的局部变量一定要付出值。好,这里也差不多,那剩下的还是比较优秀的,所有的基本上依赖的抽象接口。 这个地方我得看下他的返回值,为什么要做一个强转?他的意义是什么? ok, 那 这个地方他没有做一个说明, 因为我们这个地方用了我们平台化的返回值,对于平台化的返回值,你下载应用的时候应该对他的对他的返回值,如果你就算要强转,你应该要有一个注视的说,你对这个平台的接口的返回值进行了强转。但总体来说 这里还是理解有问题,因为因为你对阅读代码的人,这里他就不好理解了,对吧?因为我不认为这个东西为零的时候就代表按下来,对不对?这个地方我觉得还是需要一点点考虑,其他都还好, 但是大部分人写代码不会像我这么严谨,我这个人非常严谨的,总的来说还是不错的。大家感觉怎么样?感觉还不行,未来变成测试女娃。不会的,你看我刚才分析的这些细节,看到没,他有些东西还是没有做好。看来这个还不够资深。 看来这个 ai 还不够资深。看我的题,我的定义应该要写你是一个啊欠用,是世界套步一百强的 资深工程师。包括这个时候,其实你应该用我们的 skills, 我 们有一个按照立新的代码规范来检查代码的 skills, 把 skills 加上我觉得就没有问题。我们立新有一个非常强大的 skill 库, 就我们写的代码,我们会用这个 skills 去扫一遍,你把我的这个 skills, 我 到时候给它加进去, 你看它里面有没有说我刚才说的问题,已经很多人很多人已经下载了命名归一,你看这肯定没有,我肯定是不可能有 skills 比较全的外部输入民族教育,对你像我刚才那样的审查技能,我觉得要用 skills 其实就很容易达到我的那样的 检查水平,所以你作为一个初学者,你想把 ai 用好,不要强求自己写一个非常完美的提示词,不可能的,你要做的是让 ai 来问你, 然后 ai 问完你以后写出来的东西,用 skills 去补全,去检测,那就能用得很好。 skills 是 提示词,当然说 skills 它的它是附用别人的经验。我们也写了这么多 skills, 那 它的这个本身就是说附用别人的经验。你不能说我今天写个 led, 我 为了检查代码规范,自己再去凑一个代码检查规范的 skills 出来,很费时间。软件工程就是附用。 好,兄弟们,今天我们直播,先到这,好,谢谢大家。不用学 e m c, 先把软件干好就不错了。好,今天先到这,好,谢谢大家。

你看了 general 刚发布的一季度业绩没有?这家公司股价当天就涨了百分之十六,这个涨幅相当夸张啊。而且更关键的是,这家公司是潍柴动力在美国的重要合作伙伴,主要通过泊杜安品牌供应大缸径柴油发动机。 没错,我也注意到了, general 这次的业绩确实有很多亮点,对维柴来说都是积极的信号。最核心的就是在手订单的增长,从二零二五年底的四亿美元,一下子涨到了今年一季度末的约七亿美元,一个季度就涨了百分之七十五,这个势头太猛了。 对,而且这七亿还主要是主机托管客户的订单。管理层明确说了两家超大规模数据中心客户的认可供应商名单资格认证已经接近最终阶段了,现在正在讨论站点级的规范。 这意味着什么?意味着一旦认证通过超大规模客户的大量订单,接下来几个季度就要体现在首订单里。 这里有个细节特别重要,管理层重申,其中一家超大规模客户已经发出了不惧约束力的开工通知,明确了二零二七年预期交付额就超过六亿美元。注意,这只是一家客户啊,六亿美元是什么概念?差不多四十多亿人民币的订单。 而且还有个更劲爆的消息, generic 正在积极寻求把节能扩大到此前指引的十亿美元以上,甚至在探索提升到二十到三十亿美元的可能性。 你想想,从十亿到三十亿,这是三倍的空间啊。而且管理层已经确认和大型柴油发动机供应商签订了美国市场的多年独家协议,对供应商扩产能力很有信心,甚至在讨论在美国协同生产的可能性。 这个供应商是谁?毫无疑问就是潍柴动力的泊都安品牌啊。这意味着潍柴未来几年的数据中心备用电源业务的增长确定性非常高。高盛这份研报说的很清楚,潍柴的投资逻辑已经从重卡转向 ai 数据中心发电了, 说这个逻辑转变才是最关键的。目前数据中心发电业务大概占潍柴二零二五年净利润的百分之十,到二零三零年预计要增长三点三倍,盈利贡献要占到总利润的三分之一左右,驱动未来五年大约一半的每股收益增长。 所以高盛给了买入评级, a 股目标价三十八块, h 股四十一港币。按照二零二六年预期市盈率二十二倍来估值,比它历史周期平均的十一倍翻了一倍。这个估值重估的逻辑就是因为业务结构变了,从周期股变成了 ai 成长股。 当然,风险也得提一下,比如宏观经济不如预期,重卡市场份额波动,还有发电业务进展不及预期这些。但整体来看, generate 的 业绩确实给维柴的数据中心业务发展提供了非常强的验证信号。 总结一下就是,在手订单暴增,超大规模客户认证接近完成,产能可能翻三倍,维柴作为核心供应商,直接受益这个 ai 数据中心备用电源的故事才刚刚开始。

在国内一级型存储龙头赵毅创新,在当下这个四十年一亿的超级存储上行周期中,创新非常值得我们关注。创新到底是做什么呢?简单来说,他有三块业务,一块是存储,另外就是 mcu、 微控制器,还有就是传感器, 其中我们重点要看的就是它的基本盘存储业务。赵一创新是全球 no flash 龙头之一,目前是国内第一,现在更是全力在 duram 的 赛道上狂奔。首先半导体是很具有很强的周期性,我们来看一下它过去三年的业绩, 看看周期股的魅力。如果在二三年关注它,三年是赵一创新的至暗时刻,当时半导体处于下行周期,疯狂清库存,加上价格内卷,二三年赵一创新的规模净利润直接下降到了不到两个亿。 到了二四年则着消费电子的回暖,公司狂揽七十三点五亿的营收,净利润飙涨六倍,突破十一亿。 而过去的二零二五年,他交出了一份较为强劲的年报,总营收达到九十二亿,同比增长百分之二十五,规模净利润逼近十六点五亿,同比增长百分之四十九。今年刚过去的一季度,他的业绩也是爆发式的增长,原因正是因为赵一超新目前处于存储周期的上升阶段, 结合近期机构的预测,造一创新营收和利润在未来两到三年内仍然会保持百分之二十到百分之三十的复合增速,支撑它长期爆发的增量主要有三个,一是汽车电子的爆发,车规及存储和 mcu 渗透力在加速提升。 第二是 ai 的 端测设备的落地, ai pc、 ai 手机以及智能终端对本地存储容量的要求都会成倍的增加。 创新最大的投资看点就是密集型存储迎来量价齐升的好局面。什么是密集型存储呢?可以理解为就是面向中低端和特定应用场景的 dm 芯片。 目前市场格局出现了结构性的变化,就是像三星、海力士、美光这些国际巨头,为了抱紧 ai 算力的大腿,纷纷把产能转去生产利润更高的 hdm 跟 ddr 五,而主动退出了 ddr 三、 ddr 四这些传统的密集型市场。 巨头的撤退留下了庞大的市场,而需求端又有家电换新端侧 ar 的 强力拉动,这就导致了供不应求的局面。在二五二五年的年报中也说了,正是这种 供给侧格局的改善,让公司的利基型 duram 跟嫩等产品实现了量价提升,存储的毛利率在今去年大幅回升至百分之四十三。此外,它的端侧跟云端的定制化存储 也迎来前瞻性布局,这将是他未来利润的一个提款机。总结一下道义,创新已经走出了前两年的泥潭,现在正在充分享受巨头让出低端 产能,加上 ai 拉动端侧需求的双重红利。只要全球存储周期向上, ai 端侧落地的逻辑不变,那么他的基本面就是非常稳固的,那我们重点关注。

好,那这节课我们一定要告诉你, ai 它很强大,但是它的上限是你,而且如果要让 ai 去真正的投入到生产创造价值 也取决于你,否则 ai 写出来的这个代码不可维护,而且会把一个代码写成十三,错也在于你,因为你约束不住它。 好,这节课就是这里的重点。好且大家好,欢迎来到立信签约室这节课我们来把一个最基本的认知讲清楚, ai 他 不是来替你写代码的,这个一定是最最重要的一个认知。我们的 ai 虽然说现在能力已经非常强,我们已经装过的 cloud code, 还有 cloud code 配合这个后端的 mini max 这些大模型,我们已经可以做本地的一些代码修改和分析。但是呢,今天要给大家看的就是说你不可能靠 ai 去做一个可扩展 架构分明的这样一个项目,这很难实现。包括那个 cloud code 的 那个创始人也说过, 现在这个 ai 可以 写百分之九十的代码,但剩下的百分之十还是得人来做,那这百分之十是什么呢?其实主要就是架构决策于边界定义。那首先呢,我们来打开今天这个工作目录,我提前创建了一个这样一个工作目录,这个呢是我们 之前一直讲的这个平台化的一个基本工程。然后我们在这里呢通过这个 vs code 打开,打开以后我们可以看到这个工程是有一个基本的一个框架的。然后呢我打开我们的 code, 现在已经就绪,我问他一个比较一些比较简单的问题,我说先 分析一下当前工程的架构,这个的话就是你平时看代码的时候,你用 cloud 这样去看,比你自己在这点点点分析一遍会快的多。 ok, 他 正在分析,那么我先给大家再来介绍一下我们这个,我们这个工程代码的话,上面是 app, 那 app 里面的公用部分的话是沉淀成 service, 你 比如说 ota 升级这种跨项目都可以使用的,我们一般沉淀为 service, 然后呢还有一些中间件, 那中间件呢?就是我这个项目里面可能会用到一些算法,然后下面就是这个 bsp, 我 的一些 battery 之类的,然后这些所有的这个 bsp, 还有下面 car 和 driver 这个 mcu 相关的芯片库软件,这些最终都会被纳入到这个平台支撑层, 注册到这个平台支撑层的这个框架里面,然后这是调试工具。那首先就是说看一下我们这个简单的工程,在 call 里面这个命点 c 启动以后,对吧? 他会去启动我们的这个 free r to s, 在 这个里面依次启动外设,然后呢在这里启动 o s, 但在这个里面我们看一下有一个这个吧,这个是 free r to s 启动的一些任务, 在这个里面来启动一些任务,然后在我的 app 里面就是找到我们的 app u c 匿名,这个里面呢,我们也会去启动一些我们用户的任务, 这可以看一下,就在这里,然后这个呢 u c 匿名呢?我们可以去在我们的命点 c 里面啊,去调用这个里面,我们可以去调用它。 ok, 那有了这样一个框架以后,就是说原先这个芯片厂商启动的这个代码呢,从这个 s r c 的 命点 c 里面,这个命点 c 里面呢?它进行初步的这个初识化, 然后逐渐的调用这个 mx fr 二 to s inet, 在 这个 inet 里面去启动各种各样的任务,对吧?那也就说真正我用户的代码其实是这个 user inet app inet, 对 吧?那是这个, 所以这里其实是我就是写 app 的 人,真正应该去,假如他要写一个任务,什么他就放到这个里面,对吧?好,那现在呢?我们这节课呢,我们来带大家就是去尝试一下。我现在假如说我想写一个任务 来帮我去输出 hello world, 他 这也帮我分层了,去帮我输出 hello world, 那 么他分析出来这个架构, 我输出一 hello world, 其实应该属于一个应用层的事情。然后呢?我现在让他来写,你比如说按照我们课间里面, 我们就说加一个创口输出的任务,每一秒钟打印一次 hello world, ok, 好, 他这个时候就可以开始工作了,我们稍微等一下,让他正在分析这些文件, ok, 他 现在想的是在这个地方添加一个任务,对吧? ok, 等会我们再讲哪里有问题, 他正在添加,他接着添加,在这里也添加了,你看在这个位置 start hello 也是在 free r to s 点 c, 他 说文件修改完成主要在这里,在 free r to s 点 c 这个文件里面第五十八到六十三行,五十八到六十三,在这里,你看他添加了 hello task, 然后呢?增加函数原型,在六十七行,然后在 mx free h s init 当中还增加了第九十九行,在这个地方增加了一行,我们刚才增加了这一行, 对吧?那所以你觉得他这样做对吗?我告诉你,这样绝对是在一个公司里面,你这样写软件,基本上离开除也只剩下不到一周时间了。所以你看我们给他的这句话, 他甚至已经提前分析过这个工程。当我给他一句话,加一个 free r to s 串口输出任务,每一秒出一次 hello world, 他 其实就像个人, 你让他加一个 free r to s 串口输出任务,他又跑到这个 free r to s 点 c 里面去加了。首先我们这个任务一般来说你要给他去讲明白的,这是个系统的服务还是应用,对吧? 如果是 service 层,他上电就要打这个东西,打日制啊,要打个日制,那你放在 service 没问题,但哪怕你放在 service, 你 是不是应该放在 service 目录下的文件里面,对吧?就是日制系统的, 又或者一些这个记录日制的,那你要么放在 app 层,你是不是也应该写在 app 下面的这个文件目录下?你比如在这里, 你是不是应该把你的任务定义到这个 userinit 这个里面来,然后在这里依次去启动在这里。然后就算你写到 app 里面, 你创建任务是不是不应该去依赖一个 free r two s 自己本身的接口?这个 osrandom 它依赖的是 c m s s c m s s 的 话,它是单片机的,那我假如说以后换一个非二模架构的单片机,那还能有这个吗? 所以你发现没有这个 ai, 他 其实暴露了很多问题,你让他写代码,所以很多同学他总是说 ai 写代码后面基本上给你全部打,把代码改乱了。我觉得不是 ai 的 问题, 是我们没有给他一个,没有给他一个这个约束,那我们就那这些约束的话,就是我们今天这节课的重点。他,你前面写的这句话他没有理解,工程约束破坏了架构边界,他接下来其实就开始写史山了, 他就各种代码,各种给你往里加所有的全部印欧,然后你的公司好好搭建的这样一个价格完全就被他毁了。那么正确的姿势,正确的姿势, 你看你应该要给他一些这些约束。对,你看我们现在把这些约束放进来,不仅要有约束,还要告诉他, 对吧?我这里是用户的启动目录,这些你一定要告诉他。那我们先说一下,你没有按照我们,然后把这句话复制进去,请满足下面的工程约束具体落脚点,好, 再复制一下。 ok, 好, 我们再让他来改一下,把这些工程约束给到他,他这时候才会发现,原来你这个系统 user 是 非常清晰的,写在 app 就是 写在 app 的, 而不是写在 free rqs 里面的。 如果你写到 free r two s 里面,你以后换一个 rt thread, 你 就没法换了。 ai 都没法换,我跟你讲,所以就是边界分层解,偶一定要清楚, 一定要清楚。好,我们现在看他来会做怎么样。那么像这种这些题日词我是怎么想到的呢?其实主要还在于你的工程经验和能力,所以我们说了 ai, 他 从来就不是一个能从零到一干事情的人,你要写出这种团队可协助的工程, 你必然是要有你自己的这个边界意识和能力的,全依靠 ai 不 可能,也不现实, 你要是没有这些知识,你能写出这些约束吗?根本不可能的,那一个大型项目让你去接受,你把 ai 里面的东西直接往里面写,这个项目基本上逐渐就不可维护了, 不可维护了,看,你看他分析完以后,他很明确我们这个架构采用的是这样一个便利,便利启动的方式,便利启动 os, 然后在这里面可以去定义任务, 在这个里面,这里面我们可以住院去添加任务,然后看他, ok, 你 看他能想到的事情都开始想到了,对吧?所以,哎,开始了,从右侧 test, 然后便利, ok, 我 们看一下在这个地方,你看他开始满足我们的分层,在这里去创建了 hello world, 然后去填充这个数值,然后之后的话我们的这个系统就会去便利这个数值,一次去启动他们,一次去启动他们。 好,那这节课呢?就是说我们一定要告诉你 ai 他 很强大,但是他的上限是你,而且如果要让 ai 去真正的投入到生产创造价值 也取决于你,否则 ai 写出来的这个代码不可维护,而且会把一个代码写成十三错,也在于你,因为你约束不住他。好,这节课就是这这里的重点。好,谢谢大家。

今天我们要聊的是这个 ai 硬件的盈利还能撑多久?谁是最大赢家?这个是我们今天要聊的,我们会先来看一下现在这个 ai 硬件市场的需求到底怎么样?包括 gpu、 电源这个基板等等,这些东西的需求到底怎么样?我们再来聊一聊这个投资节奏应该怎么看啊?短期、中期、长期。 最后我们再来看一看中国的供应链到底发生了哪些变化,包括这个墨西哥制造为什么突然变得这么重要? ok, 那 我们就直接开始今天的主题吧。 咱们先来看第一个板块,就是 ai 硬件的市场现状,那我们先来聊一聊这个 ai 服务器设计升级带来的一些新的变化。那最直接的就是我们的这个 nvidia 的 这个新平台 gb 三百和这个 vr 三百,那这两个新平台到底带来哪些变化呢?最大的不同就是它的算力和功耗都有一个巨大的飞跃,那比如说这个 rubin, 它的单芯片功耗直接飙到了一千九百五十瓦,那下一代的这个 rubin 架构甚至可能会冲到二百四十千瓦, 就它的这个真的是把这个天花板一下子拉高了,听起来就感觉好像是整个服务器的基础架构都要跟着大改了。对了,所以说新一代的 ai 服务器它不仅仅是换了芯片,那它为了去应对这么高的功耗和这么大的散热的需求,它必须要全面地引入夜冷,那同时这个供电也升级到了八百伏的 hvdc 网络也全面地升级到了更高的标准,整个这个系统都要重新设计,才能去发挥这些新的 gpu 和 s i c 的 算力的实力,那现在这个 ai 数据中心这么大规模的扩建,它带来的对于冷却和电力的基础设施的市场有哪些新的变化?因为 gpu 它的功率越来越高,所以传统的风冷已经根本扛不住了,那现在这个夜冷 就变成了一个标配,那这个就包括直接接触式的液冷,还有静默式的液冷就开始大行其道。那比如说林伟达的新一代的平台,全部都是用的全液冷的设计,那单机柜的散热能力可以去到九百千瓦,那这么一来节能和成本是不是也有很大的提成?没错, 那液冷它的节能效果是非常明显的,它的 p u e 可以 做到一点零五以下,就比传统的空冷要节省百分之三十以上的能耗, 再加上电价这么高,那这个数据中心的电力的开销已经占到了运营支出的百分之六七十了,那同时全球的数据中心用电量在二零二六年也会突破一千泰瓦时,那其中 ai 就 会占到百分之六十以上。 所以冷却和电源这两个市场现在非常火,而且中国的新建的数据中心的标准是非常高的,所以这也逼着大家技术升级非常的快。最近 a b f 机版紧缺,闹得沸沸扬扬,那这个到底是什么原因导致的? 会产生哪些影响?就是因为 ai 芯片的需求暴涨,那这个 a b f 基板它的用量也水涨船高,那它不光是说尺寸越做越大,它的层数也越来越多。像林伟达的新一代的芯片,它的这个 a b f 基板的面积就比上一代大了百分之七十五,那 谷歌的这个 t p u 甚至翻了两倍多,怪不得这个东西变得这么抢手,而且这个东西是全球的原材料,基本上是被日本的一家公司所垄断,扩产又非常的慢, 那现在日韩的这些大厂已经是满负荷运转了,那中国大陆虽然说在拼命的追,但是这个缺口还是很大,所以这个价格也是不断的在涨,预计是在二零二六到二零二八年这三年,每年都会短缺百分之十到百分之四十, 对,这个也直接影响了这个高端芯片的出货以及整个供应链的格局。我们现在就来聊一聊 ai 硬件的投资节奏。咱们先来说说未来一年这个赛道里面哪些方向会是热点, 哪些公司会是这个最大的受益者。就未来一年其实最火的还是在专利的基础设施这块儿,那比如说这个高速光模块儿,八百 g 和一千六百 g 的 这种光模块儿需求是非常火的, 那这个主要的受益者就包括中际旭创新、易盛那些国内的厂商,因为他们在全球市场的份额是不断地在提升的。光模块儿这么火,那是不是相关的一些配套的产业也会跟着火的?那包括这个 hbm 高代宽内存这块儿也是 s k 海力士、三星美光他们在主导,国内长星存储也在加速追赶,包括玻璃基板这块,因为有新一代的封装的需求,也是有一个商业化的拐点,那包括帝尔激光还有沃格光电,他们也是很有潜力的。包括夜冷散热这块,也是因为市场的渗透率不断的提升, 所以英伟克,包括曙光书创他们也是迎来了新的机会。对,那你觉得未来一到三年这个 ai 硬件领域里面会有哪些新的投资机会?或者说哪些公司会成为主角?我觉得未来国产的算力芯片是一个非常大的亮点,含五 g、 海光信息,他们靠技术的进步,还有市场份额的提升, 会迎来一个非常大的机会。包括华为的升腾,也会在自主的生态和商业化的带动下,出货量快速的增长,国产芯片崛起,那是不是相关的一些产业也会跟着受益?没错没错, a 服务器这块也是会浪潮信息、工业复联,他们这些头部的厂商也是会靠订单的高增长,还有交付的能力会强者恒强, 包括高多层的 p、 c、 b 这块儿也是会因为需求的提升,会有一个结构性的扩张。那这个时候像盛鸿科技,包括互电股份,他们也是会迎来一个新的机会,包括整个的数据中心的建设,温控电力这些环节也会持续地景气, 那这个时候像林维克,包括中科曙光他们也是会持续地受益。对,那你觉得未来三年以上 ai 硬件领域会形成哪些比较稳固的投资主线? 更长期的来看,其实我觉得最核心的还是国产的算力芯片能够真正的在自主的生态上面、技术上面实现一个群体性的突破。就包括现在的华为的升腾、韩五 g, 包括海光信息,他们其实都是在往通用的大模型还有高端的应用去走,包括天树之星,包括摩尔县城这些新的玩家也在不断的进来, 除了芯片端,还有哪些新的机会是值得关注的?边缘端的 ai 芯片,还端测的 s o c 这块儿也是会因为 a i o t 的 这个爆发迎来一个新的机会。包括力迅精密,包括戈尔股份,它们其实都是在智能终端的结构件和整机组装这块儿有非常强的实力的,包括成全科技,包括瑞新微,他们也是在端测的芯片里面 非常有竞争力的,再加上冷却供电和原材料需求也是在不断地升级的,所以这个时候那些摸了核心的温控,掌握了核心的电源技术的公司,包括那些资源的巨头,其实也是会长期的受益的。我们来聊一聊中国的供应链的新位次,想请你讲一讲中国的企业在这个 ai 硬件的产业链里面 到底发生了什么样的角色的变化。中国的企业其实在过去几年里面已经不再是单纯的做一些代工,或者说做一些配套,很多企业已经开始往这个高附加值的环节去走了,比如说有一些公司已经可以自己设计芯片了,还有一些公司可以提供完整的 ai 服务器的解决方案等等的,他们的技术实力有了一个质的飞跃。 看来中国企业已经不只是在这个组装这一块发力了。对,没错,现在中国的企业已经可以主导,比如说像稀土和里的冶炼这些关键的资源的环节,包括一些头部的厂商也在把他们的技术和标准带向全球,比如说像光伏设备、 特高压输电,还有包括智能电网,这都是已经成为了国际上的一个标杆,这中国的企业已经开始从一个追赶者变成了一个规则的参与者,甚至是规则的引领者。你怎么看这个所谓的中国加一的这个战略?中国的企业在应对全球的竞争有什么样的实际的成效? 其实中国的企业现在通过在越南,在墨西哥,在欧洲等地去涉场,去分散生产来规避一些地缘政治的风险和贸易壁垒。比如说像工业复联还有新孟达,他们就是通过这种方式可以把成本降低百分之十五左右,这样是不是就可以更灵活的去应对海外的市场?没错,同时中国的企业依然还是掌握着核心的技术和标准, 所以他们就可以在全球进行布局的同时,还可以保证自己的主导权。所以这种全球布局加中国核心的这种模式,就大大提升了中国企业的这种抗冲击力和弹性。 为什么说墨西哥制造成为了中美科技脱钩的一个缓冲带?因为美国他对中国的高科技的产品加征关税之后,有很多中国的企业就把他们的生产线搬到了墨西哥,那这样就可以利用美墨加协定 来避开官税的壁垒,同时还可以靠近美国的庞大的市场,比如说墨西哥变成了一个新的一个出口的一个跳板。没错没错,中国的这些电子巨头们在墨西哥投资设厂之后,就不光是把产品运到美国更方便了,他们也带动了本地的一些配套的企业的发展。那这个就 让墨西哥在全球的供应链里面的地位大大提升了,也给中国的企业一个绕开贸易障碍的一个新的一个路径。对,今天咱们就从 ai 硬件的市场的格局 聊到了供应链的变更,也聊了很多关于投资的机会。其实不管是算力的基础设施,还是说国产芯片的突破,还是说全球的产业转移, 其实我觉得未来都有很大的空间,大家也可以去关注一下相关的这些龙头企业,看看有没有可能在这个浪潮当中抓住属于自己的机会。那就是这一期播课的内容了,感谢大家的收听,咱们下次再见。

大家好,今天聊聊今年的避撩赛道, ai 硬件大科技方向。从三月底到现在, ai 硬件赛道热度一直很高,先是光模块率先发力,接着 pcb 跟随联动, 近期国产算力也迎来高光表现,气氛轮动十分活跃。不过当下那些已经大幅上涨的细分方向,暂不适合过多讨论。今天重点分享两个被市场暂时忽略、逻辑相对清晰的细分。首先是数据中心电源领域, 当前光模块、 pcb、 叶冷等细分处于相对高位时,电源赛道因财报期间业绩预期分歧暂时被市场遗忘,但核心逻辑并未改变,其核心逻辑是算力爆发带动功率密度飙升,进而推动架构与器械升级,叠加国产替代与资源溢价, 无论国产链还是海外链均有相关需求支撑,其中已通过国际头部厂商认证并实现批量供货,在相关领域具备一定竞争力。 此前因年报预期分歧涨幅落后于其他细分一季报公布后市场情绪有所回暖的后续基本面的相关要点包括相关架构、电源量产时间及份额、国内相关产品招标情况以及海外头部科技企业订单落地情况, 这些既是相关催化因素,也可能带来潜在风险。除了电源,还可了解 q 部、石英纤维电子部 作为 ai 高频高速领域的刚需材料,具备全产业链高壁垒、供需缺口、持续国产替代等特点, 且已通过国际头部厂商认证,并且其在军工、航天、半导体领域基础稳固,是少数实现 q 部全产业链自主可控的企业,具备与海外厂商竞争的能力, 后续可关注相关架构、量产时间及技术路线变化,这是影响其预期的关键。以上仅为个人对 ai 硬件细分赛道的观察与逻辑分享,不构成任何投资建议,不引导任何买卖行为。 风险提示,论文所提及的细分及相关企业仅为个人观察分享,不做任何投资推荐。拒此买卖,风险自负。

很多同学可能对目前的行业方向和对国企业不太了解,今天给大家继续介绍下一个方向, ai 服务器电源。 伴随着 ai 模型越来越复杂,算力需求的爆炸式增长,服务器的功耗也在成倍的提升, 单芯片功耗的飙升呢,对供电系统提出了极高的要求,这也直接导致了 ai 服务器电源的市场需求急速增长, 据预测,这将是下一个千亿级别的市场。所以说这绝对是值得各位同学去重点关注的一个方向。 从技术角度来看,单台 ai 服务器电源的核心拓扑主要有两部分组成,第一部分是前端的 p、 f c 肿瘤,这里对于单向系统来说,常用的是图腾柱三项系统,常用的是三项维也纳。 第二部分是后端的 d c、 d c 部分,常用的拓扑主要有 r、 o, c, d, a, b 等等。所以说这里啊在求值建议方面, 如果你有相关拓扑呃项目或者经验的话,可以去投递这个行业的新闻公司。 目前市场上比较有代表性的一些 ai 服务器电源的企业主要有啊,台大电子、官保科技、曼格米特和深圳的欧陆通等等。总的来讲,这个行业还是很有发展前景的,绝对值得各位同学去重点关注。

哈喽,大家好,这期视频我们来处理一下单片机的相关电源引脚。 首先是这个 v b、 a、 t, 这个引脚作用其实是根外部低速经正关系用作 r、 t、 c 时是时钟用的, 一般情况打比赛、做项目都基本不会用到这个,除非特殊功能需求需要计时,因此执令我们就不做这个功能,尤其还会带一个纽扣电池,面积挺大的,为节约空间就不做这个了, 就是这种电池差不多一样,一般是 p、 c b 上市有个电池底座,然后安装这种类型的电池上去,电压也是三点三伏差不多。 然后探索者这个文档,这里有文字描述可以了解一下,我们这里不做这个功能, 有那个纽扣电池在就能保持。二、 tc 一 直在工作,或者是文档中说的某些寄存器保持工作,但是我学习过程中压根没用过这个。 然后是 v、 r、 e、 f 这个就是参考电压 a、 d、 c 的 那个啥,一直就是这个根据这个来的,这个就是接三点三 v, 然后 v、 d、 d 就是 数字电源的正极,接三点三伏,然后 v s、 s 就是 数字电源的负极,接 g、 n、 d, 大家可以这样理解,哈哈,三点三 v 这种就是电路里的正极, g、 n、 d 就是 电路里的负极,哈哈,简单理解。 然后微 d、 d、 a 之类的电路, c 九和 c 一 零就是两个滤波电容大电容率低频再生,小电容率高频再生磁珠,一般就是拿来做这种树模的单点连接, 然后这个 v、 c、 a、 p 电容取值,我们可以去看手册就可以得到。然后这个接地的话,目的是为了保证内部主调压器的电压稳定, 手册这里就说了,电容取值二点二 f, 然后是个 pdr on, 这个就直接上网搜一下吧。 那么接下来我们就开始画电路了, 我们这里不采用磁珠,直接用一个电阻去连接,其实两者封装是一样的,你如果想用磁珠,那就在那个焊盘上焊磁珠就可以了,封装我们一样是选择零八零五的。 然后是这一串电容是单片机电源引角的滤波,电容数量一般与其引角数量一致,熔值都是固定的一零零 n f 数量,你可以去数数,就是 v、 d、 d 的 引角数量。 然后这个画好的画这期视频就结束了,后续电路我们后续再画。