00:00 / 02:36
连播
清屏
智能
倍速
点赞43
00:00 / 01:05
连播
清屏
智能
倍速
点赞8
00:00 / 03:45
连播
清屏
智能
倍速
点赞20
Qiuming1周前
谷歌深夜发布Gemini 3.1 Flash-Lite 谷歌深夜发布Gemini 3.1 Flash-Lite:速度提升5倍,价格仅为对手1/4 谷歌近日悄然推出Gemini 3.1 Flash-Lite模型,以惊人的速度和极低的成本重新定义了AI性价比标准。 速度与价格的双重革命 新模型输出速度达到每秒363个token——是GPT-5 mini(71 token/秒)的5倍,是Claude 4.5 Haiku(108 token/秒)的3.4倍。而价格仅为Claude的四分之一,输入价格每百万token仅0.25美元,输出价格1.50美元。 跑分全面碾压 尽管定位"轻量级",Flash-Lite在多项测试中表现抢眼: GPQA Diamond(科学推理):86.9%——超越GPT-5 mini(82.3%)、Claude 4.5 Haiku(73.0%)以及价格更高的Gemini 2.5 Flash(82.8%) MMMU-Pro(多模态理解):76.8%,在同级别模型中遥遥领先 SimpleQA Verified(事实准确性):43.3%——对GPT-5 mini(9.5%)和Claude 4.5 Haiku(5.5%)形成断崖式领先 MMMLU(多语言能力):88.9%,登顶该类别 在Chatbot Arena文本竞技场中,Flash-Lite以1432的Elo分数排名第36,与OpenAI旗舰推理模型o3打成平手,证明了高性价比不等于低质量。 "思考深度"可调功能 模型标配"思考层级"功能,开发者可根据任务复杂度灵活配置推理资源——从高频简单任务的"浅思考"模式,到复杂指令的"深度推理"模式,实现效率最大化。 实际应用表现惊艳 实测显示,Flash-Lite在多个场景表现出色:几秒内填充满载电商原型界面、实时生成动态天气数据看板、构建多步骤SaaS智能体、快速处理大批量非结构化内容等。 性价比赛道格局重塑 Flash-Lite的发布标志着AI竞争进入新阶段。谷歌向业界传递明确信号:单纯卷性能已不够,用最低成本交付最高质量才是真正的赢家。对于全球数百万开发者而言,这款模型可能是目前最值得关注的选项——在真实产品场景中,成本和速度有时比跑分更重要。 https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-f
00:00 / 03:23
连播
清屏
智能
倍速
点赞1
00:00 / 01:10
连播
清屏
智能
倍速
点赞0
00:00 / 01:15
连播
清屏
智能
倍速
点赞18
00:00 / 01:02
连播
清屏
智能
倍速
点赞2
00:00 / 01:54
连播
清屏
智能
倍速
点赞1
00:00 / 01:57
连播
清屏
智能
倍速
点赞9