PPIO首发上线Qwen3-Next-80B-A3B

PPIO首发上线Qwen3-Next-80B-A3B

今天,阿里通义千问发布了下一代基础模型 Qwen3-Next-80B-A3B,该模型已经首发上线 PPIO

Qwen3-Next 系列采用了“混合注意力机制”——引入业内前沿的“线性注意力机制”,与经典的“全注意力机制”混搭使用,该架构专为极长上下文和超大规模参数性能而优化。

现在,PPIO 上线了 Qwen3-Next-80B-A3B-InstructQwen3-Next-80B-A3B-Thinking,其上下文长度为 64k,价格为每百万 tokens 输入,每百万 tokens 输出。

前往 PPIO 官网或点击文末阅读原文即可体验,新用户填写邀请码【LYYQD1】注册可得 15 元代金券。

# 01 Qwen3-Next 的架构创新

Qwen3-Next 系列代表了 Qwen 系列下一代的基础模型,专为极长上下文和超大规模参数性能而优化。

这一系列引入了一套架构创新,旨在最大化性能的同时最小化计算成本:

  • 混合注意力(Hybrid Attention):用 Gated DeltaNet 与 Gated Attention 组合替代标准注意力,实现高效上下文建模。
  • 高稀疏度 MoE:在 MoE 层中实现 1:50 的极低激活比,大幅减少每个 token 的 FLOPs,同时保留模型容量。
  • 多 Token 预测(MTP):提升预训练模型性能,加快推理速度。
  • 其他优化:包括零中心和带权衰减的 LayerNorm、Gated Attention,以及其他稳定性增强手段。

基于这一架构,Qwen 训练并开源了 Qwen3-Next-80B-A3B——总参数 800 亿,但仅 30 亿处于激活状态,实现了极端稀疏性与高效率。

尽管极度高效,Qwen3-Next 在下游任务上的表现仍优于 Qwen3-32B —— 同时训练成本却不到十分之一。

此外,在处理超过 32K tokens 的长上下文时,它的推理吞吐量比 Qwen3-32B 高出 10 倍以上。

# 02 如何在 PPIO 使用?

我们将 PPIO Qwen3-Next 的模型 API 接入  Cherry Studio 进行体验。

提示词 1:

请用三种不同的身份回答同一个问题:

  • 身份1:物理学博士
  • 身份2:中学老师
  • 身份3:科幻小说作家

问题:量子计算与经典计算的根本差异是什么?

该问题测试 MoE 路由是否能覆盖不同领域的知识,Qwen3-Next-80B-A3B-Instruct 的回答如下:

提示词2:

某工厂有三个机器:A、B、C。

  • A 生产 40 个零件,每个零件有 20% 概率次品。
  • B 生产 60 个零件,每个零件有 10% 概率次品。
  • C 生产 100 个零件,每个零件有 5% 概率次品。

问题:如果我从总产出里随机抽一个零件,结果是次品,那么它来自机器 A 的概率是多少?请详细推理。

该问题测试模型的推理能力是否因为 MoE 的稀疏化受影响,Qwen3-Next-80B-A3B-Thinking 的回答如下:

现在,你可以到 PPIO 官网在线体验 Qwen3-Next ,或者将模型 API 接入 Cherry Studio、ChatBox 或者你自己的 AI项目中。

查看详细接入教程:

https://ppio.com/docs/model/overview

PPIO 致力于为企业及开发者提供高性能的模型 API 服务,目前已上线 DeepSeek R1/V3、Qwen3、Kimi K2 等系列模型,仅需一行代码即可调用。并且,经过长期实践,PPIO 已经实现大模型推理的 10 倍+ 降本,实现推理效率与资源使用的动态平衡。

Read more

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO
为什么说“Spot GPU实例”是AI算力体系的战略级补充?

为什么说“Spot GPU实例”是AI算力体系的战略级补充?

在云计算的成本优化领域,有一种独特的计费模式,它允许用户以极低的折扣获取计算资源,堪比“捡漏”。这就是 Spot 实例。 早期的 Spot 实例是“闲置资源的低价甩卖”,本质是供需调节。但在今天的云原生与 AI 生态中, Spot 实例——尤其是 Spot GPU 实例,变成了 AI 算力编排体系中的战略一环。 对于希望最大化利用云预算的开发者和企业来说,理解并善用 Spot GPU 实例是实现成本效益最大化的关键。 # 01 什么是 Spot 实例? Spot 实例,又被称为竞价实例、抢占式实例,是云服务提供商将数据中心内的闲置计算容量以动态变化的价格进行售卖的一种机制。 Spot 实例在性能上与标准的按需实例(On-Demand Instance)并无二致,但价格却能提供高达 50%~90% 的折扣。 而低价的代价是,当云服务商需要收回这些容量以满足按需或其他更高优先级用户的需求时,

By PPIO
AI正跨越鸿沟,创业者该关注什么?PPIO姚欣提出两大关键指标

AI正跨越鸿沟,创业者该关注什么?PPIO姚欣提出两大关键指标

从 23 岁在宿舍创办PPTV,到率先成立 AI 创业营,再到预见性地布局 AI 云算力基础设施 PPIO ,创业者姚欣的二十一年,是一部穿越了 PC 、移动和 AI 三次技术浪潮的“活历史”。 近日,PPIO 联合创始人兼 CEO 姚欣受邀做客36氪《AI局中人》栏目,直播中分享了他横跨 PC 互联网、移动互联网到 AI 时代的三段创业经历,并与36氪特邀主持人、蚂蚁集团 NEXTA 创新实验室项目负责人何思翀深入探讨了以下内容: · 谈选择:放弃内卷的 AI 应用红海,他为何坚信“送水”是门更好的生意? · 谈数据:日均 2000 亿次 Token 调用的硬核数据里,藏着你没看到的增长密码。 · 谈未来:杀手级应用不是下一个微信,

By PPIO