00:00 / 00:16
连播
清屏
智能
倍速
点赞312
00:00 / 01:13
连播
清屏
智能
倍速
点赞139
00:00 / 04:17
连播
清屏
智能
倍速
点赞4
00:00 / 00:53
连播
清屏
智能
倍速
点赞425
00:00 / 00:30
连播
清屏
智能
倍速
点赞2576
00:00 / 00:39
连播
清屏
智能
倍速
点赞75
00:00 / 00:15
连播
清屏
智能
倍速
点赞80
00:00 / 00:29
连播
清屏
智能
倍速
点赞43
00:00 / 01:48
连播
清屏
智能
倍速
点赞12
00:00 / 00:21
连播
清屏
智能
倍速
点赞930
00:00 / 01:06
连播
清屏
智能
倍速
点赞256
00:00 / 01:35
连播
清屏
智能
倍速
点赞1343
你有没有发现,手机越来越“懂你”,但也越来越“傻”了? 想订机票,它刚聊完天就给你推航班。这叫懂你。 问它今天天气怎么样,它愣三秒。想放首歌,喊五遍才反应。这叫傻。 这不是错觉。你的手机,确实在变傻。而且,这是手机厂商故意让它变傻的。 2024年开始,苹果、三星、华为、小米,都在干同一件事:给手机“降智”。不是砍功能,是把AI计算从“云端”往“本地”搬。 以前你问Siri天气,流程是这样的:语音传到云端——几千亿参数的大模型处理——查天气——组织语言——传回来。准确率95%以上,但来回几百毫秒,还费电。 现在呢?语音直接在手机芯片上跑——本地有个“小模型”,参数少、能力弱、但跑得快。它听完问题,自己猜个答案给你。快是快了,但经常听不懂。 为什么这么做?因为大模型太耗电了。跑一次GPT-4o,耗的电够你刷半小时抖音。如果所有请求都走云端,你的手机半天就没电。 这就是“端侧AI”和“云端AI”的产业博弈。 这场博弈,正在重构整个手机产业链。芯片厂商在卷NPU,手机厂商在卷任务分配——怎么把指令分给对的地方?简单的(设闹钟、看天气),本地小模型处理。复杂的(写邮件、做攻略),传云端大模型。再复杂的(策划一次家庭旅行),AI要跨应用订机票酒店——这叫AI Agent,本地搞不定,必须云端。 算力分层部署后,它会先判断:这个问题本地能答吗?能,立刻答。不能,再问云端。云端答完,它记下来,下次类似的本地就能答了。 所以下次骂手机“傻”的时候,想一个画面: 你问它天气,它本可以调动千亿参数的大模型,给你最完美的答案。但它想了想你的电量,决定用小模型凑合答一下。 它傻,是因为它在替你省电。 你愿意用“变傻”换一天不用充电吗?评论区聊聊。 #手机 #AI #端侧AI #芯片 #科技
00:00 / 02:02
连播
清屏
智能
倍速
点赞1
00:00 / 02:50
连播
清屏
智能
倍速
点赞3
00:00 / 05:05
连播
清屏
智能
倍速
点赞899