00:00 / 00:35
连播
清屏
智能
倍速
点赞199
00:00 / 00:30
连播
清屏
智能
倍速
点赞138
你有没有发现,手机越来越“懂你”,但也越来越“傻”了? 想订机票,它刚聊完天就给你推航班。这叫懂你。 问它今天天气怎么样,它愣三秒。想放首歌,喊五遍才反应。这叫傻。 这不是错觉。你的手机,确实在变傻。而且,这是手机厂商故意让它变傻的。 2024年开始,苹果、三星、华为、小米,都在干同一件事:给手机“降智”。不是砍功能,是把AI计算从“云端”往“本地”搬。 以前你问Siri天气,流程是这样的:语音传到云端——几千亿参数的大模型处理——查天气——组织语言——传回来。准确率95%以上,但来回几百毫秒,还费电。 现在呢?语音直接在手机芯片上跑——本地有个“小模型”,参数少、能力弱、但跑得快。它听完问题,自己猜个答案给你。快是快了,但经常听不懂。 为什么这么做?因为大模型太耗电了。跑一次GPT-4o,耗的电够你刷半小时抖音。如果所有请求都走云端,你的手机半天就没电。 这就是“端侧AI”和“云端AI”的产业博弈。 这场博弈,正在重构整个手机产业链。芯片厂商在卷NPU,手机厂商在卷任务分配——怎么把指令分给对的地方?简单的(设闹钟、看天气),本地小模型处理。复杂的(写邮件、做攻略),传云端大模型。再复杂的(策划一次家庭旅行),AI要跨应用订机票酒店——这叫AI Agent,本地搞不定,必须云端。 算力分层部署后,它会先判断:这个问题本地能答吗?能,立刻答。不能,再问云端。云端答完,它记下来,下次类似的本地就能答了。 所以下次骂手机“傻”的时候,想一个画面: 你问它天气,它本可以调动千亿参数的大模型,给你最完美的答案。但它想了想你的电量,决定用小模型凑合答一下。 它傻,是因为它在替你省电。 你愿意用“变傻”换一天不用充电吗?评论区聊聊。 #手机 #AI #端侧AI #芯片 #科技
00:00 / 02:02
连播
清屏
智能
倍速
点赞1
00:00 / 00:24
连播
清屏
智能
倍速
点赞10
00:00 / 00:27
连播
清屏
智能
倍速
点赞10
00:00 / 00:25
连播
清屏
智能
倍速
点赞6
00:00 / 01:09
连播
清屏
智能
倍速
点赞2737
00:00 / 00:19
连播
清屏
智能
倍速
点赞932
00:00 / 00:38
连播
清屏
智能
倍速
点赞140
00:00 / 00:18
连播
清屏
智能
倍速
点赞24
00:00 / 00:59
连播
清屏
智能
倍速
点赞0
00:00 / 00:13
连播
清屏
智能
倍速
点赞6019
00:00 / 01:10
连播
清屏
智能
倍速
点赞19
00:00 / 00:06
连播
清屏
智能
倍速
点赞153
00:00 / 01:14
连播
清屏
智能
倍速
点赞22
00:00 / 03:33
连播
清屏
智能
倍速
点赞29
00:00 / 01:05
连播
清屏
智能
倍速
点赞188
00:00 / 03:30
连播
清屏
智能
倍速
点赞13
00:00 / 00:06
连播
清屏
智能
倍速
点赞246
00:00 / 01:55
连播
清屏
智能
倍速
点赞3064
00:00 / 00:30
连播
清屏
智能
倍速
点赞165
00:00 / 01:48
连播
清屏
智能
倍速
点赞39
00:00 / 02:13
连播
清屏
智能
倍速
点赞0