PPIO上线MiniMax-M1-80k:全球首个开源大规模混合架构推理模型

PPIO上线MiniMax-M1-80k:全球首个开源大规模混合架构推理模型

今天,PPIO 首发上线 MiniMax-M1,这是全球首个开源大规模混合架构的推理模型。

MiniMax-M1 采用混合专家 (MoE) 架构,并结合闪电注意力机制。该模型总共包含 4560 亿个参数,每个令牌激活了 459 亿个参数。M1 模型原生支持 100 万个令牌的上下文长度,是 DeepSeek R1 上下文大小的 8 倍。同时MiniMax-M1 结合 CISPO 算法与混合注意力设计的高效强化学习训练,在长输入推理与真实软件工程场景中实现了业界领先的性能。

因为相对高效的训练和推理算力使用,该模型可以以业内最低的价格提供 API 服务。PPIO 平台的 MiniMax M1-80k 价格为:输入¥4/百万 tokens,输出 ¥16/百万 tokens,上下文窗口为128k。

快速体验入口:

https://ppio.cn/llm/minimaxai-minimax-m1-80k

第三方平台集成 API:

https://ppio.cn/docs/third-party/overview

API 开发者文档:

https://ppio.cn/docs/model/llm


# 01

在 PPIO 在线体验 MiniMax M1

M1 在面向生产力的复杂场景中能力是开源模型中的最好一档,超过国内的闭源模型,接近海外的最领先模型,同时又有业内最高的性价比。

在 PPIO 官网,输入提示词:

Create an HTML page with a canvas-based animated particle background. The particles should move smoothly and connect when close. Add a central heading text over the canvas。

生成代码的网页效果如下:

M1 有一个显著的优势是支持目前业内最高的 100 万上下文的输入,跟闭源模型里面的 Google Gemini 2.5 Pro 一样,是 DeepSeek R1 的 8 倍,以及业内最长的 8 万tokens 的推理输出。

于是,我们进行了一番测试,直接让 M1 翻译了一份中文版的 M1 的技术报告,点击查看:

https://ppio-cloud.feishu.cn/wiki/SeBiwQQIWiNMGOkrNz7c8I1Hnzf?from=from_copylink


# 02

在第三方平台接入 PPIO API

目前 PPIO 支持在 20+ 主流平台中调用平台模型,具体包括:

  • 通用对话客户端:CherryStudio、Chatbox、LobeChat、Nextchat、ChatHub、
  • 通用 AI 助手:OpenManus、UI-TARS
  • 代码开发工具:Cursor、CLINE
  • 开发/ API 平台:Dify、OneAPI、RAGFlow、FastGPT
  • 生产力套件集成:Word、WPS Office AI,这些是办公软件集成AI功能。
  • 智能翻译工具:沉浸式翻译、欧路词典、流畅阅读、沉浸式导读。
  • 知识管理工具:思源笔记、Obsidian、AnythingLLM

我们以 Cherry Studio 为例接入PPIO API。

(1)获取并保存【 API key 】、【 Base URL 】和【模型名称】

注册并登录 PPIO,然后打开 API 密钥管理页面,点击【创建】按钮,输入自定义密钥名称,生成 API 密钥。

!!!注意:密钥在服务端是加密存储,请在生成时保存好密钥(比如记录在备忘录里);若遗失密钥,可以在控制台上删除并创建一个新的密钥。

然后到模型广场获取模型名和 Base URL,固定地址为:

https://api.ppinfra.com/v3/openai

(2)在 Cherry Studio 中配置 API 密钥

下载并安装 Cherry Studio,官网地址为:

https://cherry-ai.com/download

打开 Cherry Studio,点击设置,选择【PPIO派欧云】,输入官网生成的 API 密钥。

点击【添加】,填入所需模型名称

minimaxai/minimax-m1-80k。

添加后点击【检测】,选择 MiniMax-M1-80k,会显示检测通过。

回到对话窗口,点击@,选择 MiniMax M1 模型后即可使用。


# 03

API 开发者文档

通过 PPIO 的 API 接口,可以将 LLM API 无缝集成到你的应用程序、工作流或聊天机器人。PPIO 提供多语言 SDK(cURL、Python、JavaScript 等)。

以 Python 为例:

主要特点:

  • OpenAI 兼容接口:使用 /v3/openai 统一接口,兼容 openai.ChatCompletion 调用方式。
  • 无需部署模型:无需管理模型权重或基础设施,后端完全托管。
  • 输出方式:支持流式和一次性返回

API 开发者文档:

https://ppio.cn/docs/model/llm


Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO