MiniMax M2.7 "假开源"翻车 MiniMax于2026年4月12日正式将M2.7模型权重上传Hugging Face(仓库:MiniMaxAI/MiniMax-M2.7),并在X上宣布“officially open source”。 M2.7是一款229B/230B参数的MoE模型(激活参数约10B),它在SWE-Pro基准达到56.22%、Terminal Bench 2达到57.0%,被官方称为开源模型中的SOTA(State-of-the-Art)。此前M2/M2.5系列采用标准MIT许可,完全商用友好(可自由商用、无需额外授权)。 争议核心在于许可证: 仓库的LICENSE文件标题为“NON-COMMERCIAL LICENSE”(部分地方也称modified-MIT),核心条款如下(全文摘录关键部分): 非商业用途(non-commercial purposes)允许MIT风格的自由使用、复制、修改、分发等,仅需保留版权声明。 任何商业用途(Commercial Use)均禁止,除非事先获得MiniMax书面授权。商业用途定义极宽,包括: 提供付费产品/服务(含API托管、云服务); 将模型(或微调/后训练版本)用于任何盈利目的; 部署用于商业运营的任何修改版。 这直接违反开源促进会(OSI)对“开源”的定义(必须允许商业使用、分发和修改)。社区因此集体怒斥其为“假开源”、“open weights but closed license”、“DOA License”(Dead On Arrival,发布即死亡)。此前M2.5等系列完全无此限制,此次突然收紧,被视为中国头部大模型“免费商用开源时代”结束的信号(类似GLM-5系列的转变)。 MiniMax回应: 开发者关系负责人Ryan Lee在X等平台发长文解释,主要理由是: 过去第三方平台(托管服务)常出现“激进量化、错误模板、偷换模型”等情况,导致用户体验远低于官方版,MiniMax却背锅。 目前Hugging Face讨论区、Reddit r/LocalLLaMA、X中文AI圈已炸锅,开发者普遍表示“失望”“转投Qwen”等,OpenRouter等平台也无法直接托管商用。 #ai #大模型 #minimax #openclaw
00:00 / 01:17
连播
清屏
智能
倍速
点赞47
00:00 / 03:07
连播
清屏
智能
倍速
点赞16
00:00 / 01:00
连播
清屏
智能
倍速
点赞144
00:00 / 00:49
连播
清屏
智能
倍速
点赞384
00:00 / 01:25
连播
清屏
智能
倍速
点赞268
00:00 / 02:01
连播
清屏
智能
倍速
点赞11
00:00 / 08:24
连播
清屏
智能
倍速
点赞306
00:00 / 01:21
连播
清屏
智能
倍速
点赞27
00:00 / 01:18
连播
清屏
智能
倍速
点赞2
00:00 / 00:07
连播
清屏
智能
倍速
点赞203
00:00 / 00:36
连播
清屏
智能
倍速
点赞14