00:00 / 04:04
连播
清屏
智能
倍速
点赞25
00:00 / 02:39
连播
清屏
智能
倍速
点赞0
00:00 / 02:54
连播
清屏
智能
倍速
点赞35
00:00 / 00:56
连播
清屏
智能
倍速
点赞45
2026年央视春晚中,机器人“小盖”(Galbot,由银河通用公司研发)的表现及其背后的技术亮点。与其他表演型机器人不同,“小盖”的核心特点是“能干活”,其能力体现在春晚舞台上的取饮料、扫玻璃渣、盘核桃、叠衣服等具体服务性任务中。 支撑这些能力的是银河通用开发的通用具身大模型“AstraBrain 银河星脑”。该模型通过一个“四步走”的系统方法让机器人学会技能:1. 少量人类示范:学习基础动作特征;2. 仿真数据合成:在高保真虚拟环境中生成海量复杂场景数据进行“刷题”训练;3. 强化学习自我博弈:在虚拟世界中通过奖惩机制自主优化行动策略;4. 真机微调:利用少量现实数据,借助“神经动力学小脑模型”弥合虚拟与现实的差距,实现精确操控。 “小盖”的应用落地情况。它已作为“银河太空舱”无人店员,在全国超过100家便利店、以及爱博医疗、宣武医院等场景中提供7x24小时服务。此外,银河通用已获得宁德时代、博世等制造业巨头的数千台订单,将机器人用于工厂中的重体力、非标准化任务,旨在解决自动化产线的“最后一公里”问题。其商业模式的核心是通过“场景+数据+模型”的闭环,让机器人在真实工作中持续进化,最终目标是让机器人从“能演示”变为真正“能干活”的实用工具。
00:00 / 10:41
连播
清屏
智能
倍速
点赞16
今天科技圈有个消息特别值得关注——小米突然开源了他们的首代机器人大模型Xiaomi-Robotics-0。雷军亲自发微博官宣,这个拥有47亿参数的具身智能模型,在三大主流测试集上把所有对手都甩在了身后。 但比成绩更重要的是,小米这次解决了一个困扰机器人行业多年的"卡脖子"问题:脑子聪明,但手脚太慢。 你可能看过这样的视频:机器人接到指令后要愣个几秒才能动,动作一顿一顿像卡顿的PPT,环境稍微变化就傻眼。这就是传统VLA模型的通病——虽然懂视觉、会语言,但庞大的计算量让推理延迟高得离谱,真机运行时像个"反应迟钝的木头人"。 小米这次祭出了"大脑+小脑"的混合架构。大脑是视觉语言模型,负责听懂人话、看懂环境;小脑是16层的Diffusion Transformer,专门生成连续的动作块。这种分工就像人类神经系统:大脑思考战略,小脑控制执行,各干各的互不拖累。传统模型必须算完一步才能动一步,小米让模型推理和机器人运行脱钩,各跑各的。哪怕模型还在"思考"下一步,机器人的手也不会停下来。 效果有多夸张?在消费级显卡RTX 4090上,推理延迟压到了80毫秒,控制频率达到每秒30次。这意味着什么?普通人眨一下眼要300毫秒,小米的机器人在你眨眼间已经完成了三轮决策。叠毛巾、拆积木这种需要手眼协调的精细活,现在能做得行云流水。 但小米的野心不止于技术炫技。他们直接选择了开源,把代码、模型权重、技术文档全部公开。这步棋下得很有意思——当行业还在争论要不要闭源筑墙时,小米选择把门槛打下来,让普通开发者用消费级硬件就能玩转具身智能。 这背后有个清晰的商业逻辑:机器人赛道要爆发,不能光靠几家大厂玩,必须让整个生态先活起来。就像安卓开源催生了移动互联网生态,小米这次开源可能加速具身智能从实验室走向工厂、家庭、服务业。 从投资角度看,这释放了两个信号。第一,机器人赛道正在从"拼硬件"转向"拼算法",软件定义机器人的时代来了。第二,开源生态的建立会加速行业洗牌,没有自研大模型能力的硬件厂商,未来可能沦为代工厂。 当然,挑战依然存在。仿真测试的成绩再漂亮,真机部署时还会遇到各种corner case。但小米这次证明了,中国团队不仅能做应用创新,在底层架构上也能提出原创性解决方案。 #小米机器人模型 #小米战略 #xiaomi-robotic #具身智能 #小米
00:00 / 02:49
连播
清屏
智能
倍速
点赞2904
00:00 / 08:07
连播
清屏
智能
倍速
点赞115
00:00 / 03:06
连播
清屏
智能
倍速
点赞111