00:00 / 01:45
连播
清屏
智能
倍速
点赞8
00:00 / 01:20
连播
清屏
智能
倍速
点赞100
00:00 / 00:45
连播
清屏
智能
倍速
点赞18
00:00 / 00:27
连播
清屏
智能
倍速
点赞NaN
国民级应用“豆包”,正式官宣收费了。三档套餐:68元、200元、500元每个月,明码标价。不少人感叹:免费的午餐,真的吃一顿少一顿了吗?今天我们就来聊聊,豆包这波操作背后,到底藏着什么算盘,又会引爆哪些新机会。 先说根本原因:算力实在扛不住了。 传统互联网逻辑是“用户越多、成本越便宜”,但到了AI时代,剧本完全反过来了。你每一次让豆包生成一个有动画的PPT,或者做一次深度的数据分析,背后都在“烧”显卡、耗电费。 数据最有说服力:截至2026年3月,豆包日均Token使用量已经飙到120万亿,比刚发布时暴涨了1000倍。这个增速,哪个公司的服务器受得了?所以豆包这次推出“基础工具免费+专业场景付费”,不是它贪心,而是——谁消耗,谁买单。这是算力成本分摊的必然选择。 那么问题来了:收费会凉凉吗?恰恰相反,它反而会加速一个重要进程——端侧AI的爆发。 你想想,如果每次跑复杂任务都得去云端排队烧钱,那用户迟早受不了。解决方案是什么?让AI“下沉”到你的手机、电脑甚至车里。这就是端侧AI:不靠云端,靠你手上的芯片自己算。好处一目了然:省了云端算力钱,还保护了隐私,反应还快。 2026年被业界称为“AI智能体元年”,政府工作报告也明确提出要加快推广智能终端和智能体。豆包收费这剂“催化剂”,恰恰会倒逼各大厂商,更快地把大模型塞进你身边的设备里。 那端侧AI产业链,具体有哪些机会?三个方向,值得你重点关注。 第一个,端侧AI芯片。 你的手机要跑得动大模型,就得有更聪明的“大脑”。主攻低功耗、高性能的端侧SoC和NPU模块,正在迎来黄金窗口。比如特斯拉的AI5芯片,部分场景性能提升高达40倍。这不是炒作,是真金白银的技术竞赛。 第二个,终端硬件创新。 AI手机、AI PC、AI眼镜、AI耳机……凡是能塞进AI的硬件,都在重做一遍。权威机构中信建投测算,2026年AI手机和AI PC的渗透率将分别达到45%和62%。整个端侧AI市场规模,预计从2025年的3219亿元,跃升到2029年的1.22万亿元,年复合增长率40%。这不是小风口,这是大浪潮。 第三个,端侧模型和软件生态。 你不用什么都自己造。像谷歌的Gemma4,发布首周下载量就破千万次。硬件厂商可以直接调用成熟的开源端侧模型。 #端侧大模型 #豆包收费 #端侧soc #晶晨股份 #瑞芯微
00:00 / 03:19
连播
清屏
智能
倍速
点赞38
00:00 / 01:26
连播
清屏
智能
倍速
点赞28
00:00 / 02:56
连播
清屏
智能
倍速
点赞18
00:00 / 01:05
连播
清屏
智能
倍速
点赞331
00:00 / 00:31
连播
清屏
智能
倍速
点赞48