00:00 / 00:53
连播
清屏
智能
倍速
点赞119
谷歌官宣 Gemini 3 Deep Think 的重大升级 1. 定位:不再是“聊天机器人”,而是“科学家” 谷歌这次给 Deep Think 贴的标签极其硬核:专门为科学、研究和工程设计。 解决“脏活儿”:它强调处理那些没有标准答案、数据混乱且不完整的任务。 实战案例:文中提到它识别出了人类同行评审都没发现的数学论文逻辑漏洞,还能帮实验室设计半导体材料的配方。 2. 成绩单:把“刷榜”推向极限 如果你关注 LMSYS Arena 和各种榜单,Deep Think 3 这次给出的数据非常吓人: 编程(Codeforces):Elo 分数达到 3455。这是一个什么概念?这相当于全球顶尖竞技程序员(特级大师级别)的水平。 数学(IMO 2025):达到了国际数学奥林匹克金牌水平。 “人类最后的考试”(Humanity's Last Exam):在不联网、不使用工具的情况下得分 48.4%。这是一个专门为难倒 AI 设计的极端硬核考试,这个分数目前是行业天花板。 ARC-AGI-2:得分 84.6%。这是衡量 AI 是否具备“类人通用智力(AGI)”的最权威榜单,这个进步跨度极大。 3. 实战功能:从“想”到“做”的闭环 这对你关注的 AI 自动化非常重要: 3D 建模能力:官方演示了它能把一张手绘草图直接变成可打印的 3D 模型文件。它不仅是理解图像,而是能通过代码对物理系统进行建模。 开放 API 权限:这是第一次,谷歌不仅在 Gemini 应用里开放 Deep Think,还通过 Gemini API 向开发者和企业开放早期访问权限。 #gemini #谷歌 #ai #nanobanana #google
00:00 / 05:45
连播
清屏
智能
倍速
点赞42
2026年2月16日 AI新闻早班车 🚨 AI圈今天三件大事,每一件都关系到未来十年技术走向! 🔐 头条:谷歌Gemini遭遇大规模蒸馏攻击 黑客用10万次提问“试探”模型内部逻辑 商业动机驱动,目标:克隆模型或强化自身AI系统 谷歌警告:这是“煤矿里的金丝雀”,预示更大危险 企业定制AI工具风险激增,可能泄露敏感商业逻辑 🌍 里程碑:巴黎AI大会签署全球首个治理框架 近50个国家参与,欧盟等主要经济体都在列 核心原则:安全+人权双重保障,禁止致命自主武器 建立全球AI风险预警机制,统一跨国合规标准 与欧盟AI法案形成政策协同,降低企业出海成本 🛰️ 突破:之江实验室完成AI卫星在轨部署 “三体计算星座”实现10个AI模型太空运行 整体算力达5 POPS,支持1400亿参数大模型 为灾害监测、农业估产提供分秒级实时服务 带动商业航天、卫星制造、星载处理器全产业链 💡 今日启示: AI开放服务便利背后,安全防护必须跟上 国际治理从“各管各的”走向“协同共治” 太空算力突破物理限制,开启星地融合智能时代 技术越强大,越需要伦理框架和基础设施支撑 📢 每天早上6点,锁定《AI新闻早班车》 用最直白的语言,带你听懂最硬核的科技趋势! #AI新闻 #人工智能 #AI安全 #全球治理 #太空算力 #之江实验室 #谷歌Gemini #AI早班车 #科技前沿 #技术科普
00:00 / 04:14
连播
清屏
智能
倍速
点赞23
最近芯片圈有个消息传得沸沸扬扬,说谷歌下一代AI芯片TPU v8要彻底抛弃HBM高带宽内存。很多朋友听到这个第一反应是:HBM是不是要凉了?谷歌是不是在搞什么大动作? 今天咱们就掰开揉碎了聊聊这件事。先说结论:这不是简单的"不用HBM了",而是谷歌在酝酿一场架构级的自我革命,时间点指向2027年。 为什么会传出这样的消息?核心触发点就两个。第一个是HBM的全球性产能短缺。美光科技最近发出警告,说AI引发的高端存储芯片短缺"史无前例",而且将持续到2026年以后。HBM产能被AI加速器大量挤占,已经冲击到手机、PC这些传统消费电子领域。 第二个原因是HBM本身存在物理天花板。传统HBM是焊死在主板上的,容量受限于CoWoS封装面积,短期内很难突破。 在这样的背景下,市场传出谷歌正在评估一种全新方案:不再把HBM作为TPU的主要本地内存,而是彻底移除HBM,独立建设DRAM内存机柜,通过池化方式为TPU动态分配内存资源。 这个架构被拆成了三层来实现。第一层是传输层,采用全光互连,通过OCS光路交换与定制化CXL类协议,降低跨机柜访问延迟。第二层是存储层,用大规模DRAM阵列替代本地HBM,这样单张TPU的可用内存可以从现在的192GB或256GB,直接提升到512GB甚至更高。第三层是控制层,增加专门的内存侧CPU服务器负责调度与管理。 这套方案还有一个隐性红利:大幅降低对台积电CoWoS先进封装的依赖。原本HBM芯片占据硅中介层上的大片面积,现在这些面积可以全部腾给TPU的计算核心。 但这里必须强调:这个方案指向2027年及以后的演进路径,而不是当前TPU v8已经落地的设计变更。截至目前,并没有谷歌官方的交叉验证,可信度仍停留在分析师推演层面。 不过,谷歌在光互连领域的布局是实打实的。从TPU v4开始,谷歌就在大规模部署OCS光交换网络,最新的TPU v7 Ironwood机柜已经实现了9216卡的超大规模集群。TrendForce的数据显示,受谷歌高速互连架构带动,2026年800G以上光收发模块的出货占比将从2024年的19.5%上升至60%以上。OCS技术本身还有"省电"优势,单台OCS交换机功耗仅约100瓦,而传统交换机要3000瓦,耗电量减少了约95%。 #hbm内存 #谷歌tpu #ocs光交换 #内存池化 #澜起科技
00:00 / 03:18
连播
清屏
智能
倍速
点赞134