近日,上海一家领先的AI创新企业推出了其自主研发的MiniMax-M1系列模型。
该模型被定义为"全球首个开源的大规模混合架构推理模型"。技术资料显示,M1模型具有长达100万Token的上下文窗口,与谷歌最新的Gemini 2.5 Pro持平,并支持最长8万Token的推理输出;其强化学习成本显著降低,仅为53万美元。
在工具使用场景(TAU-bench)测试中,MiniMax-M1-40k的表现超过了Gemini-2.5 Pro。值得注意的是,在进行深度推理时,M1仅需DeepSeek R1约30%的算力;生成10万Token时,其推理算力需求也仅为后者的四分之一。
价格方面,M1采用阶梯式收费模式:0-32k Token区间内,输入费用为每百万Token 0.8元,输出费用为8元/百万Token;32k-128k Token区间输入费用为1.2元/百万Token,输出费用为16元/百万Token;128k-1M Token区间则分别对应2.4元和24元。
前两个档位的定价低于DeepSeek-R1,而第三个超长文本档位更是填补了现有模型的空白领域。公司还表示,在其自有应用和服务端,该模型将不限量免费使用。
在技术层面,MiniMax首次提出的CISPO算法展现出显著优势:收敛速度是字节跳动DAPO算法的两倍,并优于DeepSeek早期使用的GRPO算法。得益于此,M1模型的整个强化学习阶段仅使用了512块英伟达H800 GPU,耗时三周,总成本控制在53.5万美元。
随着年初DeepSeek的成功引发行业广泛关注,其技术创新和成本优势推动了行业"技术平权"进程。这给其他大模型厂商带来了不小压力,尤其是那些依赖风险投资的初创企业。今年以来,多家公司面临联合创始人或高管离职的情况。
面对挑战,部分竞争者正在积极调整战略:零一万物将大部分团队整合到阿里体系;百川智能则缩减B端业务,转而聚焦AI医疗领域。相比之下,Kimi、智谱和阶跃星辰选择坚守通用人工智能领域,并陆续推出自研推理模型。
MiniMax此次发布M1并开源其技术,标志着该公司正式加入大模型领域的竞争序列。值得注意的是,这仅仅是"开源周"的开始:在未来四天里,公司计划每天发布新的技术和产品更新。
当前,整个行业正密切关注DeepSeek R2的发布时间。尽管目前尚无明确消息,但这一时刻的到来将对现有竞争格局产生重大影响,并为所有参与者带来新的考验。

