00:00 / 06:12
连播
清屏
智能
倍速
点赞39
2025年8月6日,OpenAI发布了两款开源推理模型,gptoss120b和gptoss20b,这可是自GPT2后该公司首次重新开源模型,在AI圈引起不小轰动。 先看模型基础情况。gptoss120b总参数1170亿,激活参数51亿,性能接近o4mini,单个80GB的H100 GPU就能部署。gptoss20b总参数210亿,激活参数36亿,性能接近o3mini,仅需16GB内存,高端笔记本甚至手机都能轻松运行。 结合小尺寸开源LLM模型评分对比表,能更直观感受它们的实力。在数学竞赛相关的AIME24评测中,gptoss120b得96.6分,gptoss20b获96分,远超阿里云Qwen3系列和智谱AI的GLM4.5Air。AIME25评测里,gptoss20b以98.7分领先,gptoss120b也有97.9分,与Qwen3系列差距明显。GPQA评测中,gptoss120b得80.1分,表现优于Qwen330BA3B。MMLU综合评测里,gptoss120b拿90分,gptoss20b获85.3分,相比GLM4.5Air优势突出。 gptoss系列亮点不少。许可证采用Apache 2.0,个人和企业都能自由构建、定制和商业部署。功能上支持三档推理力度调节,有完整思维链可访问,方便调试,还支持参数微调、Agentic功能等,原生MXFP4量化降低了部署门槛。 技术上,采用Transformer架构和专家混合技术,用多种注意力机制和编码方式,支持长上下文。训练数据以英文为主,分词器应用广,后训练流程专业。 应用场景广泛,适用于智能体工作流、本地推理等,已有不少合作伙伴,也提供了体验平台并上线云服务。发布后海外社区反应热烈,Hugging Face服务器都承压了。 总体而言,这两款模型性能优于Qwen3、GLM4.5Air等,开源特性和强大功能降低了AI应用门槛,能让更多主体参与,推动行业发展,为AI行业注入新活力。 #OpenAI新开源模型 #AI大模型对决 #手机能跑的AI模型 #AI技术突破 #开源AI新动向
00:00 / 02:51
连播
清屏
智能
倍速
点赞147
董俊豪7月前
AI界的“汪峰”阿里开源重磅推理模型 阿里开源 QwQ-32B 模型以 320 亿参数实现 “以小搏大”,性能直逼 6710 亿参数的国际顶级模型 DeepSeek-R1,开创 AI “参数效率革命” 新纪元。其通过两轮强化学习优化,在数学竞赛(AIME24)、编程测试(LiveCodeBench)中表现惊艳,部分指标超越国际竞品,打破 “参数规模决定性能” 的行业定式。 QwQ-32B 支持消费级显卡本地部署,企业无需依赖云端算力即可实现安全可控的 AI 推理,尤其适合金融、医疗等数据敏感场景。模型集成智能体能力,可动态调整推理逻辑,为复杂业务提供灵活解决方案。作为 Apache 2.0 协议开源项目,QwQ-32B 免费商用属性加速 AI 普惠化,结合阿里 10 万 + 开源模型生态,推动国产 AI 技术从 “跟随” 迈向 “引领”。 这不仅是技术突破,更是企业级 AI 应用的降本增效利器 —— 未来,中小企业甚至个人开发者均可通过普通显卡构建高性能 AI 系统,开启 AI 民主化新篇章。 阿里QwQ-32B堪称企业级AI的“智能精兵”——320亿参数的“轻量化配置”,却能在数学、编程等硬核场景与6710亿参数的“巨无霸”掰手腕。这就像用特斯拉Cybertruck的成本,造出了保时捷911的性能。 对于企业家而言,最具颠覆性的是它让RTX 4090显卡就能流畅运行,无需天价算力投入,数据安全敏感型企业终于能自主掌控AI命脉。开源生态+免费商用的“安卓模式”,更让中小企业也能快速搭建专属AI系统。 这场技术革命不是炫技,而是实实在在用算法优化重构AI价值——就像工业4.0用智能设备替代传统产线,QwQ-32B正在重塑企业级AI的成本效益公式。#企业级AI #降本增效 #国产技术突破 #AI
00:00 / 01:12
连播
清屏
智能
倍速
点赞3