MiniMax M2.7正式开源,国产大模型的开源竞赛走到哪一步了
2026-04-13 11:09 MiniMax

MiniMax M2.7正式开源,国产大模型的开源竞赛走到哪一步了23

4月12日晚间,MiniMax宣布M2.7大模型正式开源,这距离其在3月18日首次亮相已经过去将近一个月。

华为昇腾、摩尔线程、沐曦、昆仑芯、NVIDIA等海内外芯片厂商,以及Together AI、Fireworks、Ollama、vLLM、SGLang等推理平台,都在开源首日完成了模型的接入与适配工作。

一天后,港股上市公司MINIMAX-W高开逾3%,资本市场给出了自己的反应。

M2.7是一个总参数量达到2300亿的MoE模型。MoE架构的本质是让模型在推理时只激活一小部分参数,M2.7每次只激活其中的100亿参数,激活率约4.3%。

模型共62层,支持20万token的上下文长度,使用多头因果自注意力配合旋转位置编码(RoPE)和QK RMSNorm归一化来保证训练稳定性,采用Top-k专家路由机制,每token只激活256个专家中的8个。

这种设计在MoE模型中并不罕见,参数规模上的取舍也并非新事,DeepSeek、Qwen等国产模型都在做类似的事。

不过M2.7有一个值得注意的标签,业界第一个AI深度参与迭代自己的模型。MiniMax方面称,研发团队将M2的早期版本引导为研究型Agent Harness,让它参与构建复杂的强化学习流程、更新自身记忆、驱动自我优化。

据称M2.7在部分研发场景中可承担30%到50%的工作量。这种自我进化的路径到底能走多远,目前还很难下判断,至少这是一个不同于常规微调路数的探索方向。

在基准测试上,M2.7在软件工程领域交出的成绩是SWE-Pro得分56.22%,官方称“几乎接近Opus最好的水平”;在VIBE-Pro端到端项目交付测试中得分55.6%,在Terminal Bench 2复杂系统理解测试中得分57.0%。

专业办公领域,GDPval-AA的ELO得分1495,声称是开源模型中的最高分。这些数字的意义需要放到具体的语境里理解,56.22%在SWE-Pro上算是什么水平,和DeepSeek V4、Qwen3.6Plus、GLM-5.1等竞品相比如何,官方没有提供直接的横向对比数据。

M2.7的开源,是继智谱GLM-5.1之后又一款走开源路线的国产头部模型。有市场分析指出,阿里Qwen系列未来的开源策略可能存在变数,Qwen3.6Plus可能不再沿用完全开源的模式。

如果这一传闻成立,那么开源赛道上的国产主力将进一步集中在智谱、稀宇和DeepSeek这几家。

目前最受关注的是DeepSeek V4,外界普遍预期它将在4月下旬发布,届时能否在编程和多模态能力上拿出新的突破,将是影响开源格局的关键变量。

在这个意义上,M2.7的开源或许不只是稀宇科技单方面的技术输出,更是对整个国产开源生态的一次压力测试。

对于开发者而言,开源意味着能够以更低的成本进行二次开发、私有化部署和场景适配。MiniMax方面表示,来自海内外的接入需求持续增长,模型调用量正在快速提升。

但一个开放性的问题也随之而来,当越来越多的国产模型走向开源,开发者生态的建设速度能否跟得上模型迭代的节奏?开源不等于生态繁荣,真正决定一个模型生命力的,始终是开发者愿不愿意用它、能不能用好它。

88.jpg