00:00 / 01:03
连播
清屏
智能
倍速
点赞5
00:00 / 02:50
连播
清屏
智能
倍速
点赞1
Qiuming3天前
今夜无显卡!英伟达发布Rubin架构,AI算力迎来新时代 在2026年国际消费电子展(CES)上,英伟达创始人兼首席执行官黄仁勋正式揭晓了下一代AI芯片平台——Vera Rubin架构,标志着公司战略重心全面转向人工智能。此次发布未涉及游戏显卡新品。 核心要点: Vera Rubin架构投产:全新Rubin平台已开始大规模生产,计划于2026年下半年上市。其核心目标是大幅降低AI计算成本,实现算力规模化。 性能飞跃:与上一代Blackwell相比,Rubin平台在AI推理性能上提升高达5倍,训练性能提升3.5倍,并将推理成本降低了10倍。 系统级设计:Rubin不再单纯提升单卡性能,而是将CPU、GPU、网络和存储整合设计,旨在将整个数据中心变为一台统一的AI超算。其关键组件包括Rubin GPU、专为AI智能体设计的Vera CPU、BlueField-4 DPU和NVLink 6互联技术。 应用突破: 自动驾驶:发布了具备显式推理能力的端到端自动驾驶AI模型“AlphaMayo”,并宣布其DRIVE AV软件将搭载于新款梅赛德斯-奔驰CLA。 机器人与物理AI:开源了包含世界模型、推理模型和机器人基础模型在内的“物理AI全家桶”,旨在推动具身智能发展。 行业预言:黄仁勋指出,计算产业正经历向AI的根本性转变,AI将成为所有应用的新基础。未来应用将建立在能自主调用多种模型的智能体(Agentic AI)之上,而下一个前沿是理解物理世界的“物理AI”。 https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer https://blogs.nvidia.com/blog/dgx-superpod-rubin/ https://www.nvidia.com/en-us/events/ces/ https://youtu.be/0NBILspM4c4. https://www.nvidia.com/en-gb/data-center/vera-rubin-nvl72/
00:00 / 01:15
连播
清屏
智能
倍速
点赞0
Tony沈哲4天前
2026年1月5日AI晚报 近日,随着月之暗面完成35亿人民币的 C 轮融资,一款名为 “Kiwi-do” 的神秘新模型在大模型竞技场 LmArena 闪亮登场。这个新模型一经曝光,便引起了广泛的关注与讨论。 一位博主在 LmArena 上偶然发现了 “Kiwi-do”,并在询问其来源时,Kiwi-do 自称来自 “月之暗面”。有趣的是,该模型的训练数据截至2025年1月,表现十分亮眼,特别是在视觉物理推理测试(VPCT)中展现了超强的能力,甚至被猜测可能是 Kimi 公司正在研发的多模态模型 K2-VL。 智谱 开发的 GLM-Image 模型正准备接入 Hugging Face 的 transformers 库。开发者已提交编号为 #43100 的 Pull Request,旨在适配该模型的自回归(AR)实现。 该 PR 包含了对 Vision Transformer(ViT)形状的调整、多图处理支持(参考 Qwen 处理方式)、VQ 草案实现以及新增快速处理器等核心更新,目前该 PR 仍处于 Draft 状态。 针对企业场景中动态、开放的难点,万智2.5采用了“代码先行、模型驱动”的架构。相比传统在画布上按照既定工作流运转的通用型AI Agent,万智平台支持通过MCP协议和安全沙箱环境,确保多智能体执行时切合企业真实生产场景以实现工业级稳定性。 阿里巴巴旗下高德已正式布局“世界模型”(World Model)技术,并计划基于该模型推出一项全新的产品应用。此举标志着高德在空间智能领域的战略进一步深化。据透露,高德研发的世界模型已在由斯坦福大学教授李飞飞团队提出的多模态评测基准WorldScore中取得多项指标第一的成绩。WorldScore是全球首个支持多模态世界生成模型统一评估的开源测试平台,专注于衡量AI系统对物理世界结构、动态及交互的理解能力。高德在此基准上的领先表现,显示出其在构建可感知、可推理、可交互的数字世界模型方面已具备较强技术积累。 #kimi #智谱ai #零一万物#高德 #世界模型
00:00 / 02:34
连播
清屏
智能
倍速
点赞17
00:00 / 02:35
连播
清屏
智能
倍速
点赞8
00:00 / 04:05
连播
清屏
智能
倍速
点赞15
00:00 / 01:33
连播
清屏
智能
倍速
点赞1
00:00 / 01:11
连播
清屏
智能
倍速
点赞15
各位观众好,今天我们来聊聊OpenAI最近那个让科技圈炸锅的硬件项目。没错,就是那个代号"软糖"的Gumdrop项目。根据供应链最新消息,OpenAI跟前苹果设计大神Jony Ive折腾这么久,最后大概率锁定在了一个让人意想不到的形态——一支笔。 听到这儿你可能会问,这年头做硬件,不做眼镜不做耳机,偏偏选支笔,是不是太没想象力了?恰恰相反,这步棋走得极精。 想想看,当所有科技公司都在AR眼镜、智能穿戴这些红海里头破血流的时候,OpenAI偏偏选中笔这个形态,为什么?因为它够轻、够小、够日常。口袋一揣就走,不用考虑屏幕多大、续航多久这些让人头大的参数。更重要的是,书写这事儿,是人类打娘胎里就会的本能,零学习成本。你拿起笔,AI就能通过你的手写、你的语音,把你杂乱的会议笔记瞬间整理成思维导图,把一闪而过的灵感直接转化成行动方案。这种"书写即处理"的体验,让AI从"要我怎么用"的工具,变成了"懂我想什么"的伙伴。 而且这笔生意,市场潜力可不小。根据Deep Market Insights最新数据,全球数码笔市场去年已经摸到28.5亿美元的规模,预计到2030年要冲到50亿美元以上,年增长率超过10%。这说明什么?说明数字书写这个场景,本来就处于爆发前夜。OpenAI这时候进场,不是凭空创造需求,而是给成熟市场注入AI的灵魂。 再说说OpenAI手里的牌。设计端,Jony Ive这个名字就是金字招牌。当年Apple Pencil的极简美学和极致体验,没人比他更懂怎么做一支让人上瘾的笔。制造端,富士康的灯塔工厂能把微米级的精度控制变成流水线标准,正好解决笔形设备"既要小巧又要塞满传感器"的工艺难题。设计加制造,两张王牌凑齐了。 最关键的是,这支笔能打出AI真正的壁垒。现在市面上的数码笔,说白了就是个精细化的输入工具。但OpenAI这支笔,里面跑的是ChatGPT。手写识别、实时总结、语音交互,这些功能别人抄都抄不来。更妙的是,搭载轻量化模型后,它能在本地处理数据,不用事事问云端,既解决了网络延迟的痛点,又守住了隐私安全的红线。这跟端侧AI设备年出货量从3亿台直奔4亿台的大趋势,严丝合缝地对上了。 #openai硬件 #Gumdrop #科大讯飞 #openai智能笔 #富士康
00:00 / 03:25
连播
清屏
智能
倍速
点赞72
梁文锋 DeepSeek 跨年之日 发文炸场 DeepSeek发布mHC技术:用“流形约束”解决大模型训练稳定性难题 DeepSeek团队在2025年末发布重要论文《Manifold-Constrained Hyper-Connections》,提出了一种能显著提升大模型训练稳定性的创新方案。该研究针对当前超连接(HC)技术在扩展过程中出现的训练不稳定、信号失真等核心问题,通过数学约束与工程优化相结合的方式,为大模型架构演进提供了新思路。 传统残差连接的升级困境 传统残差连接的“恒等映射”特性是深度网络稳定的关键,但HC技术在提升表达能力的同时,由于缺乏约束,导致训练中出现信号放大(最高达3000倍)和梯度异常问题。这不仅影响训练稳定性,还显著增加了GPU内存和通信带宽需求。 mHC核心机制:双随机流形约束 DeepSeek提出的mHC方案核心在于将HC中的残差映射矩阵投影到双随机矩阵构成的“流形空间”。通过Sinkhorn-Knopp算法实现投影,使矩阵具备行列和为1的守恒特性,从而恢复恒等映射性质,避免信号放大或衰减。 实测效果显著 在27B参数规模的测试中,mHC展现出卓越的稳定性:损失曲线平稳收敛,梯度范数保持稳定,复合映射增益控制在1.6(HC为3000)。在下游任务上,mHC全面超越HC,尤其在BBH(+2.1%)和DROP(+2.3%)等复杂推理任务中表现突出。 工程可行性得到验证 通过内核融合、重计算与通信重叠等优化措施,mHC在扩展率n=4时仅引入6.7%的额外训练开销,实现了高效训练。这一方案为解决大模型扩展中的稳定性问题提供了切实可行的技术路径,为下一代基础架构演进指明了方向。
00:00 / 10:57
连播
清屏
智能
倍速
点赞11