WAIC 2025 | SHIXP将与PPIO共建分布式智算枢纽平台

WAIC 2025 | SHIXP将与PPIO共建分布式智算枢纽平台

2025 年 7 月 29 日,由上海市工商联数字经济商会主办的“ WAIC CONNECT 数据产业智能化创新场景发布会”暨“上海市工商联数字经济商会数据产业发展专委会揭牌仪式”在上海成功举办。

会上,国家(上海)新型互联网交换中心(以下简称“SHIXP”)与派欧云(以下简称“PPIO”)举行了“共建分布式智算枢纽平台”战略合作签约仪式。

SHIXP 市场部总监蔡欣与 PPIO 智算研发副总裁李星星代表双方进行了战略合作签约,SHIXP 董事长郑荣良与 PPIO 联合创始人兼 CEO 姚欣共同出席见证。

SHIXP 是由工业和信息化部批复成立的国家新型互联网交换中心首批试点单位之一,是实现网络之间流量集中交换的新型信息基础设施;是支撑经济社会数字转型、智能升级、融合创新的重要载体。PPIO 是中国领先的分布式云计算服务商,拥有覆盖全球 1300+ 城市的 4000+ 边缘算力节点和智能调度技术,专注为 AI、音视频、具身智能体等场景提供智算与边缘计算服务。截至 2025 年 6 月,PPIO 日均  tokens 调用量超 2000 亿。

在人工智能技术深刻重塑产业格局的当下,高效、普惠的算力供给已成为国家发展数字经济不可或缺的新型生产力与战略基石。其中,支撑智能应用落地的推理算力需求尤为突出。

为响应这一关键需求,本次双方的核心合作聚焦于 PPIO MaaS(模型即服务)平台入驻 SHIXP 生态,共同建设分布式智算枢纽平台。PPIO MaaS 平台集成了大语言模型 API、图像视频生成模型 API 等能力,能够为企业提供一站式 AI 推理服务,精准满足其高频、灵活的算力需求。

SHIXP 董事长郑荣良表示:算力是数字经济时代的关键推动力,此次 PPIO MaaS 平台入驻,将丰富我们的算力供给类型,吸引更多行业客户参与,更好推动上海数智化转型进程。

PPIO 联合创始人兼 CEO 姚欣表示:PPIO MaaS 平台致力为企业提供快速、高性价比的 AI 推理服务。本次合作,双方将拓展业务覆盖,提升算力利用率,共同建设智能算力产业链生态,让 AI 算力更好地服务中小企业创新。

此次战略合作签约标志着国家级互联网关键基础设施与分布式云计算领军企业的业务协同向纵深迈进,双方将通过技术共建与生态共享,助力“算力浦江”生态圈构建,加速推动上海成为全球算力枢纽,为长三角乃至全国数字经济高质量发展提供新范式。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO