【创始人分享】PPIO边缘云姚欣:越来越多的数据将会在边缘侧和端点侧产生,分布式计算架构或将取代中心化的云计算

摘要:分布式计算架构将成为新的主流,边缘计算将成为满足新兴场景应用下毫秒级低时延需求的最优解决方案。

【创始人分享】PPIO边缘云姚欣:越来越多的数据将会在边缘侧和端点侧产生,分布式计算架构或将取代中心化的云计算

摘要:分布式计算架构将成为新的主流,边缘计算将成为满足新兴场景应用下毫秒级低时延需求的最优解决方案。

近期,PPIO姚欣与蓝驰创投陈维广就边缘云市场的新机遇和未来,展开深入的探讨。蓝驰创投是PPIO的Pre-A轮投资方。

姚欣:我从2004年开始创业,创办了曾拥有4.5亿用户的P2P分布式网络流媒体应用PPTV。基于丰富的流媒体经验,我发现,从现代计算机诞生以来,计算架构每20年就会变化一次。比如在1990年代,个人电脑兴起以后逐渐取代了传统的大型机。

基于同样的逻辑,我认为在10或20年后,数据生成的位置将发生很大变化,分布式计算架构将成为新的主流,甚至会取代今天中心化的云计算。

数据向边缘下沉,边缘计算代表未来趋势

随着IOT物联网的兴起以及智能手机算力的提升,我们可以看到大量数据不是在服务器端生成,而是在边缘侧和端点侧生成。从《Data Age 2025》的报告中我们可以看出,未来5年,将有近73%的数据在边缘侧和端点侧生成。这意味着如果想获得更好的应用性能、更快的响应,边缘计算将会是未来的趋势。

为了理解这一趋势,PPIO进行大量研究得到这张图。x轴是对计算延迟的需求,这些业务对延迟非常敏感。y轴是对计算能力的需求,这些业务对计算的需求非常大。

图片

绿色部分的场景拥有巨大的市场空间,并且容易采用边缘计算。在这些场景中,预计可能有20%至30%的计算能力将从中心云转移到边缘云端。蓝色部分则代表新的应用,新的场景。对于这些新场景,大部分算力都将发生在边缘侧。

根据Gartner报告,5年后这个领域的全球潜在市场总量将达到157亿美元左右。

从秒级到毫秒,边缘计算满足千倍级提升的场景需求

以云游戏为例,每一帧画面都需要在远程云端进行渲染,然后传输到手机上,必须将所有端到端的传输延迟控制在30到50毫秒内。如果是自动驾驶,为了能在高速公路上及时刹车,延迟需要控制在2到5毫秒左右。

这些新的应用意味着时延要从传统的秒级变成毫秒级,这是1000倍的变化。这对算力基础设施提出非常大的挑战。

图片

那么怎么才能降低延迟呢?可以从减少传输距离来实现。如果想将延迟减少到几毫秒,就不能访问1000公里以外的云计算数据中心,而需要访问10到20公里范围内的市区内的云计算服务器。

从上图来看,中国大部分中心云部署在一线大城市。全国数据中心的平均上架率只有53%,大部分二三线城市的上架率更低,只有25%左右。我在想,是否可以将这些分散、闲置的数据中心机架资源整合起来,依靠微型数据中心,充分利用大量现有的计算资源,建立人人可及的边缘云服务?这就是我启动PPIO项目的原因。

PPIO专注于边缘计算的解决方案,集中并连接大量未被充分利用的小型数据中心和闲置服务器,为附近5到10公里的用户提供服务,从而获得更低的延迟、更广的连接带宽,为下一代应用创造基础设施

我们与各类电信运营商的地市区县等分支机构合作,目前,PPIO在全国1000多个城市及地区设有微型数据中心和分布式算力资源,能够在主流运营商的优质节点资源进行部署,可以将时延敏感业务就近接入,极大缩短了传输时延,提升了业务体验。

基于目前最主流的容器引擎K8s,PPIO在边缘云领域进行了创新,提升了对资源的弹性纳管能力,实现了云机效率的极致。K8s在边缘云的应用没有先例,但凭借PPIO技术团队的坚持和能力积累,成功实现了这款主流容器引擎在边缘云上的应用,所以避免了重复造车的效率低下问题。

什么推动了边缘云和边缘计算的快速增长?

主要的驱动因素是来自客户的强烈需求。

中国5G基础设施的强大推动力带来了大量新场景的诞生。各类下一代应用,例如云游戏、VR乃至到投资圈热议的自动驾驶、元宇宙等,都需要越来越高的带宽,以及更低的延迟来实现实时交互和互动,也需要边缘云服务来减少计算和传输延迟。

如果想做出更大的成就,就必须比别人钻研得更深。越基础越伟大。因为基础设施层不仅可以被互联网公司使用,它还可以被全球所使用。

我认为今天中国的数字化和智能化发展得非常快,大量创业者在底层基础软件、网联和智能硬件创新上涌现在未来5到10年内,中国的信息化能力将领先全球。

作为创新者中的意愿,PPIO可以为各类出色的应用提供超低延时的基础设施,借助边缘云的能力帮助信息化世界变得更美好。我的目标不是只成为一家中国公司,而是成为一家世界性公司。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO