@开发者们:PPIO上线代码模型Qwen3-Coder,挑战Claude Sonnet4

@开发者们:PPIO上线代码模型Qwen3-Coder,挑战Claude Sonnet4

今天,PPIO 上线两款 Qwen3 系列的最新模型:

  • Qwen3-235B-A22B-FP8 非思考模式(Non-thinking)的更新版本—— Qwen3-235B-A22B-Instruct-2507。这是一个通用模型,放弃了此前  Qwen3 的混合思考模式,只保留了非思考模式。
  • Qwen3-Coder-480B-A35B-Instruct,这是迄今为止 Qwen 最具代理能力的代码模型。

这两款模型在测试基准表现出色,分别超越了 Kimi-K2、DeepSeek-V3,代码能力可以与 Claude Sonnet4 媲美。

目前,两款模型已上线 PPIO,前往 PPIO 官网或点击文末阅读原文即可体验,新用户填写邀请码【LYYQD1】可得 15 元代金券。

快速体验入口:

https://ppio.com/llm/qwen-qwen3-235b-a22b-instruct-2507

https://ppio.com/llm/qwen-qwen3-coder-480b-a35b-instruct


# 01 模型特点

Qwen3-235B-A22B-Instruct-2507 模型的通用能力显著提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面,在GQPA(知识)、AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent能力)等众多测评中表现出色,官方称超过 Kimi-K2、DeepSeek-V3 等顶级开源模型以及 Claude-Opus4-Non-thinking 等领先闭源模型。


此外,本次更新的 Qwen3 模型,还增强了以下关键性能:

(1)在多语言的长尾知识覆盖方面,模型取得显著进步。

(2)在主观及开放性任务中,模型显著增强了对用户偏好的契合能力,能够提供更有用的回复,生成更高质量的文本。

(3)长文本提升到 256K,上下文理解能力进一步增强。


代码模型 Qwen3-Coder 拥有多个尺寸,本次上线的最强大的版本 Qwen3-Coder-480B-A35B-Instruct 是一个 480B 参数激活 35B 参数的 MoE 模型,原生支持 256K token 的上下文并可通过 YaRN 扩展到 1M token,拥有卓越的代码和 Agent 能力。


Qwen3-Coder-480B-A35B-Instruct 在 Agentic Coding、Agentic Browser-Use 和 Agentic Tool-Use 上取得了开源模型的 SOTA 效果,可以与 Claude Sonnet4 媲美。


# 02 模型表现

我们通过几个案例来测试一下 PPIO 上线的两款模型的能力。

首先是 Qwen3-235B-A22B-Instruct-2507-FP8 的通用能力。

文本生成:

提问:你是谁?用王家卫的风格评价一下你自己。

逻辑推理:

提问:未来的某天,李同学在实验室制作超导磁悬浮材料时,意外发现实验室的老鼠在空中飞,分析发现,是因为老鼠不小心吃了磁悬浮材料。第二天,李同学又发现实验室的蛇也在空中飞,分析发现,是因为蛇吃了老鼠。第三天,李同学又发现实验室的老鹰也在空中飞,你认为其原因是?

然后是 Qwen3-Coder-480B-A35B-Instruct 的代码能力。


提问:创建一个红白机风格的贪吃蛇游戏。

最终效果如下:

提问:创建一个3D HTML银河星系,其中包括附近和遥远的星系

最终效果如下:

如果你是开发者,可以前往 PPIO 模型服务用户指南,查看详细接入教程:

https://ppio.com/docs/model/overview

PPIO 致力于为企业及开发者提供高性能的模型 API 服务,目前已上线 DeepSeek R1/V3、Qwen3、baidu/ernie-4.5 等系列模型,仅需一行代码即可调用。并且,经过长期实践,PPIO 已经实现大模型推理的 10 倍 + 降本,实现推理效率与资源使用的动态平衡。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO