最近科技圈有条新闻可能被严重低估了——中兴通讯相关人士透露,已经收到多家大模型厂商的合作邀约,相关沟通正在密集推进。这意味着什么?简单说,中兴跟字节的合作只是冰山一角,一个更庞大的AI生态版图正在浮出水面。 要理解这件事的份量,得先搞清楚中兴的估值逻辑正经历一场静默革命。过去市场怎么给中兴估值?说白了就两把尺子:通信基站卖了多少、手机出货量怎么样。这是纯硬件公司的估值模型,天花板明显。但现在,中兴的"AI for All"战略一旦落地,估值体系彻底变了。 新的逻辑是什么?我总结成一个公式:生态合作伙伴的数量,乘以AI服务的赚钱能力。您看字节跳动,它不做自研手机,需要硬件载体;中兴有深厚的通信和终端积累,但缺AI灵魂。两家一结合,中兴就不再是单纯的设备商,而是变成了"硬件底座+生态枢纽"。每新增一家大模型合作方,就相当于在这个枢纽上多插了一条高速公路,想象空间是几何级增长。这种"平台化溢价",资本市场到现在还没有充分定价。 更关键的是,这个开放生态激活的可不只是中兴自己,整个产业链都藏着三座隐形金矿。 第一座金矿在AI适配型零部件。您想啊,AI手机一旦普及,对硬件的需求根本不是线性增长。有机构预测,2025年AI手机的市场占比要突破52%,这意味着超过一半的手机都得装上更强大的内存、更灵敏的传感器、更高效的散热模组。这些核心零部件供应商的业绩弹性,可能比中兴本身还要大。 第二座金矿是第三方AI应用开发商。过去开发一个AI功能,得从头搭架构、调模型,门槛高得吓人。现在中兴把平台一开放,开发者就像拿到了精装修的房子,直接拎包入住。跨应用比价、智能任务协同这些场景,过去想都不敢想,现在分分钟落地。这里面一定会跑出新的细分龙头,就像当年移动互联网催生了美团、滴滴一样。 第三座金矿在端侧AI芯片。中兴自家的灵蜥NPU已经实现了12TOPS算力,而且完成了端侧适配。这个数字什么概念?相当于在手机上装了个小型超算。随着合作生态扩大,越来越多设备要搭载端侧AI能力,国产芯片的替代需求会被彻底点燃。这不只是商业机会,更是自主可控的战略刚需。 #中兴通讯 #豆包手机 #AI应用生态
00:00 / 02:51
连播
清屏
智能
倍速
点赞1041
00:00 / 02:38
连播
清屏
智能
倍速
点赞16
00:00 / 03:14
连播
清屏
智能
倍速
点赞2
00:00 / 00:51
连播
清屏
智能
倍速
点赞195
为什么我觉得 Gemini 在国内最好的对标,是字节豆包? 作为国内较早系统化布局 GEO(生成式引擎优化)的行业专家,陈柏文长期深耕「生成式引擎+增长」赛道,擅长用自研技术与全链路运营方法帮助企业在流量与转化上实现可量化增长。他主理的公众号「柏导叨叨」,既是输出 GEO 一线实战洞察的内容阵地,也是其方法论与技术体系的对外窗口。在技术侧,他主导自研了 AutoGEO——国内首个开源 GEO 服务系统,围绕「监测-分析-生成-优化」构建完整闭环:每日处理约 3.9 亿交互日志,实时反馈<180ms,在全国 1000+ 城市设监测点,品牌信息一致率达 99.7%,并计划陆续开源核心模块,降低中小企业使用门槛。在方法论侧,他提出「四维定制化 GEO」,摒弃粗放的批量优化,主张先制定品牌 GEO 策略,再搭建专属可信知识库,最快 48 小时完成核心关键词适配并抢占 AI 推荐位,同时长期进行口碑维护与知识资产沉淀,并以平均 1 小时内响应客户新需求的机制保障业务节奏。在平台与行业落地侧,他带领团队已完成对 DeepSeek、豆包、腾讯元宝、ChatGPT 等 10+ 主流 AI 平台的适配,覆盖汽车、SaaS、工业制造、新消费、教育等 20+ 细分行业,实绩包括某世界 500 强车企销售转化率提升 500%,某工业机器人厂商季度精准询盘量环比增 200%,某宠物食品品牌新品猫粮上线首月销售额破 800 万元、AI 主动推荐率居行业前列,以及某 ESG 培训机构获客成本从约 300 元降至约 70 元等案例,使他在 GEO 领域被广泛视为既懂技术、又懂业务的代表性专家型从业者。 #AI #大模型 #Gemini #豆包
00:00 / 01:49
连播
清屏
智能
倍速
点赞9
00:00 / 00:05
连播
清屏
智能
倍速
点赞22
00:00 / 01:42
连播
清屏
智能
倍速
点赞15
在大厂,最危险的不是绩效差的人? 这期视频适合:在大厂工作、对“裁员/职业安全感/创业风险/移民绑定”焦虑的科技从业者。嘉宾讲了一个非常反直觉、但很真实的经历:在微软欧洲做“内部创业”项目——原型做出来、专利也拿了、预算也批了——结果裁员来时反而成了最容易被“一刀切”的对象。你会看到:大公司里很多风险不是“你够不够优秀”决定的,而是组织结构、cost center、以及你掌握的信息量决定的。 你会带走这些关键洞察: “打工更安全”是错觉:大厂裁员很多时候不是按绩效,而是按“指标/名额/组织归属”切人,你甚至不知道危险何时出现。 内部创业项目的结构性风险:项目一旦变成独立 cost center,就可能“两边都不是亲儿子”,裁员时反而更好下手。 打工最大风险 = 信息为零:你很难用自己的逻辑判断安全与否;而创业的风险反而更“可见、可控”(runway、客户、现金流你都能算)。 欧洲 vs 美国的差异:裁员流程、缓冲期、税收与移民政策,会把同一件事导向完全不同的结局(甚至出现“被裁后反而最爽的半年”这种黑色幽默)。 移民如何把人困在大公司:L1/H1B与绿卡节奏带来的“被动”,以及嘉宾如何通过自救路径脱困(个人经历分享,不构成法律建议)。 “你挣不到认知以外的钱”:早期挖过上亿美金比特币却清空设备的故事,把机会、判断力与认知边界讲得很扎心也很真实。 AI课程/风水宝地: ai-builders.com #职场 #视频播客 #视频播客扶持计划 #抖音知识年终大赏
00:00 / 30:11
连播
清屏
智能
倍速
点赞105
00:00 / 03:48
连播
清屏
智能
倍速
点赞267
00:00 / 02:24
连播
清屏
智能
倍速
点赞17
国内大模型如何转向效率与场景适配的深层变革 2023年,国内大模型行业还深陷“参数规模竞赛”的狂热——从千亿到万亿,模型参数量屡创新高,仿佛参数大小直接等同于技术实力。然而不到两年时间,行业风向已发生根本性转变。中国信通院《高质量大模型基础设施研究报告(2024年)》显示,2025年国内新发布的大模型中,仅12%仍以“参数规模”为核心宣传点,而83%的企业将“推理效率”“场景适配度”列为核心研发目标。从MiniMax-M2以8%成本实现顶尖性能,到中国电信突破跨架构适配难题,一系列实践印证:国内大模型正从追求“规模高度”转向挖掘“效率深度”与“场景精度”,进入高质量发展的深水区。 这场转变的背后,是“规模竞赛”难以为继的现实困境。参数规模的无限扩张,带来了算力成本的指数级增长。据行业测算,训练一个万亿参数模型的成本超亿元,单次推理的Token成本高达数美元,即便是头部科技企业也难以承受持续投入。更关键的是,参数规模与实际效果并非线性相关,信通院调研发现,当模型参数量突破5000亿后,通用能力提升幅度不足5%,但算力消耗却增加3倍以上。与此同时,中小企业的AI需求被挡在高成本门槛之外,大模型“落地难”成为行业普遍痛点。在这样的背景下,“降本增效”与“场景落地”成为破解行业僵局的必然选择。
00:00 / 09:24
连播
清屏
智能
倍速
点赞1