【动态】PPIO边缘云王晓飞:云边端算力协同融合,从“大算力”走向“泛在算力”

7月13日,PPIO边缘云首席科学家、天津大学教授王晓飞受邀出席由信通院、算网融合产业及标准推进委员会(TC621)联合超级计算创新联盟在线上召开的“算力互联网技术沙龙”,并分享了《走向泛在智能算力网络新时代》的主题演讲。

【动态】PPIO边缘云王晓飞:云边端算力协同融合,从“大算力”走向“泛在算力”

7月13日,PPIO边缘云首席科学家、天津大学教授王晓飞受邀出席由信通院、算网融合产业及标准推进委员会(TC621)联合超级计算创新联盟在线上召开的“算力互联网技术沙龙”,并分享了《走向泛在智能算力网络新时代》的主题演讲。

面向数字经济时代,算力作为关键生产力要素,是推动数字经济不断前行的核心支撑力和驱动力。为满足行业几何级数增长的算力需求、解决算力基础设施建设中的"算力孤岛"问题、充分发挥算力赋能数字化的"压舱石"作用,以"计算网络化"为目标的IT技术演进得到了业界的广泛关注。

为进一步凝聚产业共识,算网融合产业及标准推进委员会(TC621)联合超级计算创新联盟,于2022年7月13日,线上召开"算力互联网技术沙龙",来自超算算力、智算算力、云算力、边缘算力、电信运营商、高校、研究机构等产业各方代表出席本次沙龙,围绕算力互联网的概念、产业现状、技术结构、行业应用等多个方面,开展深入的交流研讨。

PPIO边缘云首席科学家、天津大学教授王晓飞受邀出席本次线上技术沙龙,并从云算力和边缘算力的角度出发,做了题为“走向泛在智能算力网络新时代”的主题演讲。王晓飞认为,随着人工智能在应用科学中得到普遍应用,以及5G等提供高速低时延泛在网络覆盖,算力大规模部署和应用已经成为必然趋势。

                                                                                                                                                                                                       
 他表示,近年来,随着云-边-端算力的融合深入,对算力调度粒度与算力调度响应时间提出更高的要求,算力需求存在多维度异构挑战。如何高效智能的融合更普适泛在的算力资源,应面向行业用户的需求,提供一体化、差异化、泛在化的算力服务,发展更下沉更高质量的边缘
 边缘计算作为近年来火热的一项技术,通过在网络边缘处理数据,减少了大量数据在服务器、云和设备或边缘位置直接传输的需求,这对于数据科学和AI等现代化应用尤为重要。
但由于边缘云和中心云最大不同在于节点的下沉,离用户更近,在落地的过程中会面临三个固有的挑战:多资源异构、资源竞争和网络系统动态性,且约束的是多层级多粒度多维度。
 PPIO边缘云作为中国领先的独立边缘云服务提供商,基于边缘云原生技术,可实现与传统中心云的兼容协同。针对边缘云多资源异构性,PPIO通过资源定制实现了资源隔离;针对资源竞争,PPIO采取服务编排以避免服务之间的干扰;针对网络化系统动态性,PPIO通过请求指派实现资源的负载均衡。此前PPIO联合天津大学发表在网络领域国际顶级会议IEEE INFOCOM上的云边协同“EdgeMatrix”框架,针对复杂动态的大规模边缘云系统的调度问题,提出基于智能学习的资源整合优化调度与QoS服务质量保障之间的平衡机制,结合 K8S@edge 进行运维部署,可以提高边缘计算场景下的产品交付质量和运维效率,提升边缘节点的资源利用率,极大缩短了求解时间,大幅优化了调度成本,且保障了用户服务质量
 王晓飞表示,算力网络,已经成为国家的一项战略性工程举措。未来算力网络的高速增长使其在架构、带宽、时延等方面提出更高的需求,算力全局性、泛在化部署将带来算间超大容量互联诉求,泛在智能算力网络,机遇与挑战并存!
PPIO边缘云将一如既往秉承"汇聚全球计算资源,并为全世界提供服务"的使命,在云边协同算力网络基础设施的建设上全力以赴,深耕不辍。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO