新浪科技讯 6月19日消息,AI独角兽企业MiniMax发布其自主研发的MiniMax-M1系列模型。据悉,M1模型在处理百万级Token的长文本上实现了重大突破,成为上下文最长的推理模型;其RL(强化训练)成本下降一个量级,成本仅53万美金(约380万元),推理效率则数倍于竞争对手。
目前,MiniMax-M1已宣布开源。在工具使用场景(TAU-bench)中MiniMax-M1-40k同样领跑所有开源权重模型,超过Gemini-2.5 Pro。
MiniMax不仅开源了模型权重,还提供了极具竞争力的API价格服务。针对0-32k Token处理档位:输入0.8元/百万Token,输出8元/百万Token;32k-128k Token档位:输入1.2元/百万Token,输出16元/百万Token;128k-1M Token:输入2.4元/百万Token,输出24元/百万Token。
据悉,前两个档位的定价均低于DeepSeek-R1,而第三个超长文本档位则是DeepSeek模型目前尚未覆盖的领域。此外,MiniMax宣布,在其自有的App和Web端,M1模型将保持不限量免费使用,这无疑将极大地推动其技术的普及和应用。
在性能上,MiniMax在业内公认的17个主流评测集上对M1进行了全面测试,结果显示,M1在软件工程、长文本理解和工具使用等面向生产力的复杂场景中优势尤为突出。
代码能力(SWE-bench):M1-40k和M1-80k版本分别取得了55.6%和56.0%的优异成绩,显著超越其他所有开源模型,稳居第一梯队。
长文本(MRCR):依托百万级上下文窗口,M1系列在此项任务中不仅全面超越了所有开源对手,甚至击败了OpenAI的GPT-4o和Anthropic的Claude 3 Opus,在全球范围内仅以微弱差距落后于谷歌的Gemini 2.5 Pro,位列全球第二。
工具调用(TAU-bench):在模拟真实世界工具调用的复杂场景中,M1-40k模型再次领跑所有开源模型,其实力甚至超越了闭源的Gemini-2.5 Pro,展现了其作为AI智能体基座模型的巨大潜力。(文猛)