00:00 / 00:44
连播
清屏
智能
倍速
点赞55
00:00 / 00:34
连播
清屏
智能
倍速
点赞5
00:00 / 00:46
连播
清屏
智能
倍速
点赞72
00:00 / 00:44
连播
清屏
智能
倍速
点赞9
00:00 / 03:31
连播
清屏
智能
倍速
点赞NaN
00:00 / 00:46
连播
清屏
智能
倍速
点赞756
具身智能为什么会带火芯片? 过去机器人不是没有。 工厂机械臂、仓储机器人、扫地机器人都很常见。 但它们大多擅长的是固定场景、固定路线、固定动作。 比如一条产线上,机械臂永远拧同一个螺丝。 只要位置、角度、流程都不变,它可以做得非常好。 但如果你让机器人在一个陌生房间里,找到桌上的杯子,绕开地上的玩具,再把杯子拿到厨房,这就难很多。 因为真实世界不是写死的程序。 杯子位置会变,光线会变,障碍物会变,人的指令也会变。 这就是传统机器人的核心难点:泛化能力不够。 这波具身智能为什么突然变热? 核心原因是,大模型让大家看到一种可能: 机器人也许可以像 AI 一样,通过大量数据和训练,不断学习现实世界,而不是只靠工程师一条条写规则。 那芯片在里面做什么? 我理解主要是三件事。 第一,训练。 机器人要有“大脑”和“小脑”。 大脑理解任务,小脑控制动作。 它们都需要训练。 GPU 的作用,是加速机器人从大量数据里学习:怎么看、怎么判断、怎么抓、怎么走。 第二,仿真。 真实机器人很贵,也不能天天摔。 所以很多训练会先放到虚拟环境里。 在虚拟工厂、虚拟仓库、虚拟家庭里,让机器人反复试错。 仿真跑得越多,越需要算力。 第三,本体部署。 机器人真正上岗后,不能每一步都等云端慢慢算。 它要现场看见障碍物,现场判断路线,现场调整动作。 这时端侧芯片就很关键,要求低延迟、低功耗,还要足够稳定。 所以,具身智能和芯片的关系,不是简单的“机器人身体里装芯片”。 更准确地说: 机器人要变聪明,背后是一整条算力链路。 训练需要算力,仿真需要算力,真正上岗也需要算力。 AI 正在从屏幕走向物理世界。 而芯片,就是这件事发生的底层基础设施。#具身智能 #机器人 #芯片 #AI #AI工具
00:00 / 02:19
连播
清屏
智能
倍速
点赞15
00:00 / 09:52
连播
清屏
智能
倍速
点赞150
00:00 / 02:07
连播
清屏
智能
倍速
点赞99