PPIO上线MiniMax-M1-80k:全球首个开源大规模混合架构推理模型
今天,PPIO 首发上线 MiniMax-M1,这是全球首个开源大规模混合架构的推理模型。 MiniMax-M1 采用混合专家 (MoE) 架构,并结合闪电注意力机制。该模型总共包含 4560 亿个参数,每个令牌激活了 459 亿个参数。M1 模型原生支持 100 万个令牌的上下文长度,是 DeepSeek R1 上下文大小的 8 倍。同时MiniMax-M1 结合 CISPO 算法与混合注意力设计的高效强化学习训练,在长输入推理与真实软件工程场景中实现了业界领先的性能。 因为相对高效的训练和推理算力使用,该模型可以以业内最低的价格提供 API 服务。PPIO 平台的 MiniMax M1-80k 价格为:输入¥4/百万 tokens,输出 ¥16/百万 tokens,上下文窗口为128k。 快速体验入口: