PPIO上线GLM-4-0414系列模型及Qwen2.5-7B-Instruct模型

PPIO上线GLM-4-0414系列模型及Qwen2.5-7B-Instruct模型

早在今年 3 月,智谱就曾预告会在 4 月中旬开源新的 GLM 模型,果然,GLM-4-0414 系列准时登场。

此次开源的新模型覆盖基座、推理、沉思三大类型,根据官方公布数据显示,部分模型可在性能上比肩 OpenAI 的 GPT-4o 和 DeepSeek 的 V3/R1 系列模型。

作为一站式 AIGC 云服务平台,PPIO派欧云随即上线了上述模型及 Qwen2.5-7B-Instruct 限时免费版,并对模型进行了全链路优化,在保持原始模型精度的前提下大幅降低推理延迟,开发者通过 API 接口即可高效调用模型。


模型特点

基座模型 GLM-4-32B/9B-0414

GLM-4-32B-0414 基于 15T 高质量数据预训练,融入推理类合成数据,强化了指令遵循、工程代码生成、函数调用等原子能力。并且,该模型在工程代码、Artifacts 生成、函数调用、搜索问答及报告撰写等任务上均表现出色,部分指标已接近或超越 GPT-4o、DeepSeek-V3 等更大模型水平。

e.g.请分析近三年五一热门出游地,输出包含趋势预测和推荐出游地区的报告文章。


推理模型 GLM-Z1-32B/9B-0414

推理模型 GLM-Z1-0414系列,在基座模型基础上,通过冷启动强化学习,优化数学、代码、逻辑推理能力,显著提升复杂任务解决效率。在部分任务上,GLM-Z1-32B-0414 凭借 32B 参数,性能已能与拥有 671B 参数的 DeepSeek-R1 相媲美。

GLM-Z1-9B-0414 尽管参数更小,但在数学推理及通用任务上依然表现出色,在资源受限的场景下,该模型可以很好地在效率与效果之间取得平衡,为需要轻量化部署的用户提供强有力的选择。

e.g.证明“任一大于 2 的偶数可写成两个素数之和”,并验证当偶数为 100 时的具体素数组合。


沉思模型 GLM-Z1-Rumination-32B-0414

沉思模型 GLM-Z1-Rumination-32B-0414 可通过更多步骤的深度思考来解决高度开放与复杂的问题,并且能在深度思考过程中整合搜索工具处理复杂任务,在研究型写作、复杂检索任务中表现突出。

此外,PPIO派欧云还同步上线 Qwen/Qwen2.5-7B-Instruct,相比 Qwen2,Qwen2.5 知识储备显著提升,并在编程和数学能力上有大幅增强,在指令理解与执行、生成长文本(超过 8K tokens )、理解结构化数据(如表格)、以及生成结构化输出方面表现优秀。

PPIO派欧云致力于为企业及开发者提供高性能的 API 服务,目前已上线 DeepSeek R1/V3 Turbo、Qwen 等系列模型,仅需一行代码即可调用。并且,PPIO 通过 2024 年的实践,已经实现大模型推理的 10 倍 + 降本,实现推理效率与资源使用的动态平衡。

目前,以上模型均已上线 PPIO派欧云官网,thudm/glm-4-9b-0414、thudm/glm-z1-9b-0414、qwen/qwen2.5-7b-instruct 限时免费中,点击以下链接立即体验。

在线体验:https://ppinfra.com/model-api/product/llm-api

API 文档:https://ppinfra.com/docs/model/llm

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO