PPIO上线Kimi K2高性能版,TPS翻倍至35 tokens/s

PPIO上线Kimi K2高性能版,TPS翻倍至35 tokens/s

两周前,PPIO 率先上线的 Kimi K2 Instruct 模型深受 AI 开发者的好评。

该模型在自主编程、工具调用、数学推理三大能力上表现突出。而且,PPIO 提供了 Anthropic SDK 兼容的 API 服务,开发者可轻松在 Claude Code 中使用 PPIO 提供的 Kimi K2 模型服务来完成任务。

不过,在衡量一款模型性能的时候,不仅要考量生成的质量,还要考量生成的速度。

TPS(Tokens Per Second),每秒生成的 token 数,就是衡量大模型推理速度的核心指标之一。

今天,PPIO Kimi K2 经过深度优化,TPS 从 17 tokens/s 大幅提升至 35 tokens/s,实现100%性能增长!

Kimi K2 在编程场景下已展现强大实力,此次吞吐能力升级,进一步满足高并发需求,让代码生成、分析更高效流畅!

比如,让 Kimi K2 Instruct “做一个月之暗面”风格的PPT模板,并直接生成可视化网页”。

最终得到的效果如下:

作为行业技术先锋,PPIO 率先完成 Kimi K2 的吞吐优化,并持续挑战更高 TPS 极限,为开发者提供更强大的 AI 算力支持。

PPIO 一直致力于为用户提供更加稳定、高效的模型服务,通过持续优化底层架构,确保模型可适用多类型复杂场景需求,同时提供 7×24 小时全天候技术保障,助力企业客户业务创新。

Read more

Qwen3.5重磅发布 PPIO 模型服务平台同步上线

Qwen3.5重磅发布 PPIO 模型服务平台同步上线

近日,阿里巴巴全新一代大模型千问 Qwen3.5 重磅开源发布,凭借突破性性能登顶全球最强开源模型榜单。 PPIO 模型服务平台在第一时间完成 Qwen3.5-Plus 与 Qwen3.5-397B-A17B 双版本的全面适配与上线,让企业与开发者无需等待,即可率先享受新一代多模态大模型的技术红利。 Qwen3.5 系列模型堪称 “性能与效率的完美平衡体”,总参数3970 亿,激活 170 亿参数即可运转,实现了 “以小胜大” 的技术突破 —— 性能全面超越万亿参数的 Qwen3-Max 模型,同时部署显存占用直降 60%,最大推理吞吐量提升至 19 倍。这一飞跃背后,是其融合线性注意力(Gated Delta Networks)与稀疏混合专家(MoE)的创新架构。 作为原生视觉-语言模型,作为原生视觉-语言模型, Qwen3.5-Plus/Qwen3.5-397B-A17B在推理、

By PPIO
PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力

PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力

PPIO 上线了 MiniMax M2.5 模型。 MiniMax M2.5 是 MiniMax 发布的最新旗舰模型。据官方介绍,M2.5 在编程、工具调用、搜索及办公等生产力场景中均达到或刷新了行业的 SOTA(State-of-the-art)水平。该模型优化了对复杂任务的拆解能力,大幅提升了运行速度,并凭借极佳的 Token 效率,让无限运行复杂 Agent 在经济上成为可能。 现在,你可以到 PPIO 官网体验 MiniMax M2.5 或者调用模型 API。 地址: https://ppio.com/llm/minimax-minimax-m2.5 01 模型特征 * 架构师级编程思维,胜任全栈开发 MiniMax

By PPIO