00:00 / 06:01
连播
清屏
智能
倍速
点赞19
00:00 / 01:38
连播
清屏
智能
倍速
点赞41
00:00 / 01:35
连播
清屏
智能
倍速
点赞19
00:00 / 06:31
连播
清屏
智能
倍速
点赞4
00:00 / 03:48
连播
清屏
智能
倍速
点赞124
亚马逊造芯会影响英伟达和整个人工智能的市场吗 科技巨头自研AI芯片浪潮下的行业变革与影响分析报告 一、背景:AI算力需求激增催生自主造芯潮 随着生成式AI爆发,全球AI算力需求呈指数级增长。据IDC预测,2027年全球AI芯片市场规模将突破4000亿美元,其中云端训练/推理芯片占比超60%。传统通用芯片厂商(如英伟达)虽主导市场,但高算力需求与定制化场景的矛盾凸显——科技企业需更低成本、更高能效的专用芯片支撑业务。在此背景下,亚马逊、谷歌、微软等科技巨头加速自研AI芯片,试图打破“算力依赖”。 二、亚马逊造芯:从战略防御到生态重构 亚马逊自2013年起布局自研芯片,已形成覆盖训练(Trainium)、推理(Inferentia)、边缘计算(Graviton)的全栈产品矩阵。以Trainium为例,其针对AWS云服务优化,相比英伟达A100芯片,训练成本降低30%、能效比提升40%,已应用于Amazon Bedrock等核心AI服务。此举不仅降低了对英伟达的依赖(2023年AWS采购英伟达芯片占比降至35%),更通过“芯片+云服务”闭环强化生态壁垒——客户使用自研芯片可享更低价格与定制化支持,倒逼第三方云服务商跟进。 三、对英伟达的影响:短期承压,长期博弈加剧 亚马逊等巨头的自研芯片直接冲击英伟达的云端市场主导地位。2024年Q1,英伟达数据中心业务收入增速放缓至18%(2023年同期为279%),部分源于亚马逊等大客户的订单分流。但英伟达凭借CUDA生态(覆盖90%以上AI框架)与持续迭代能力(如H200芯片算力较H100提升2倍),仍占据高端训练市场70%以上份额。未来竞争将聚焦于“通用性能”与“垂直定制”的平衡——英伟达需在保持生态优势的同时,应对细分场景的定制化挑战。 四、行业启示:双轨并行成主流,生态协同是关键 科技巨头自研芯片的本质是“需求驱动创新”:通过垂直整合降低成本、提升效率,同时构建差异化竞争力。这一趋势将推动AI芯片市场形成“通用芯片(英伟达)+专用芯片(科技巨头)”的双轨格局。对行业而言,单纯依赖外部芯片的模式难以为继,企业需根据自身业务场景选择“自研+外购”组合策略;而芯片厂商则需加强与云服务商、软件开发商的生态合作,以应对定制化需求的挑战。
00:00 / 04:26
连播
清屏
智能
倍速
点赞41
00:00 / 03:56
连播
清屏
智能
倍速
点赞4
李召羊6天前
AI对打工人的三个影响 2022年底AI爆火,不过三年时间,说长不长说短不短,大模型就从玩具,上升到助手的地位。 爆火刚满三年,已经"初具人形"。 互联网的企业和民工,不会错过颠覆性的技术变革,门槛高无法直接参与,至少做第一批吃螃蟹的用户,风大了容易焦虑,不跟风其实更焦虑。 最核心的影响,可以从三个角度来掰扯。 1️⃣ 生产和效率 在AI没有登场之前,许多事要手工完成,但AI出现后的三年,能做好的事越来越多,用提示词获取专业技能和知识,导致生产力和效率的变化。 企业的员工多起来,未必能改变业务本身的难度,但一定提高做事的难度,因为最复杂的因素多了,AI的出现,有希望解决这个问题,用更少的人做更多的事。 2️⃣ 执行到决策 以产品的活动为例,没有AI前的流程:需要运营出策划方案,设计师出海报图,开发者制作落地页,各方人马还得多次开会对接,效果如何还需要跟踪分析。 当AI工具接入流程后,这些活在项目经理的手中完成,如果业务规模小,直接就潦草的发布上线,如果业务已经起步,其它角色适当的审核优化即可。 其中最大的变化,以前偏重多方执行的任务,现在只考验项目经理的直接拍板,不过依赖做决策的人,能力足够的宽泛,对产品和业务有准确的洞察力。 3️⃣ 认知的变化 传统的人和人协作,需要清晰的流程和边界,以此设计分工和明确责任,当个人借AI完成不同技能的组装,从而快速实现工作流,这需要完整和复杂的认知提升。 团队协作方式的变化,并非谁来指挥AI的问题,需要重新设计协作的流程,工作流中被替代的节点,不能每天让人工智能自由发挥,也需要专业和标准的提示词,向自动化工作流靠拢。 从2024年开始,工作开始用AI协助。 最初不会明显提升效率,但在实践过程中,会找到合理的方式,实现人工和智能的协作,效率提升就有降本的条件,是技术变革的必然趋势。 这对个人来说:堪称极限挑战。 #人工智能 #打工人 #大模型 #互联网 #AI替代
00:00 / 02:19
连播
清屏
智能
倍速
点赞1