PPIO派欧云荣获量子位「2024人工智能年度潜力创业公司」

PPIO派欧云荣获量子位「2024人工智能年度潜力创业公司」

近日,在量子位“ MEET 2025 智能未来大会”上,「2024人工智能年度评选」结果正式揭晓。

PPIO派欧云凭借在算法、系统和硬件的协同创新,与无问芯穹、滴滴自动驾驶、思谋、星动纪元等 AI 创新公司共同入选了【2024人工智能年度潜力创业公司】榜单。

士大夫

PPIO派欧云能够获此殊荣,源自其将人工智能前沿技术、创新商业模式与深刻行业洞察有机结合的卓越表现。随着大模型的兴起,智算中心建设迅速发展,但同时也面临着使用率较低的问题。

自 2023 年上半年大模型创业训练热潮逐渐降温以来,算力结构也随之发生了显著变化。当前,AI 应用需求正在经历深刻变迁。大模型正从以风险投资(VC)驱动的泡沫炒作阶段,逐步走向面向企业(To B)的实际落地阶段,未来有望进一步扩展到面向消费者(To C)的广泛应用。

尽管 AI 的推理成本正在快速下降,但仍      未达到足够低廉的水平,无法普遍覆盖所有应用场景。

PPIO派欧云通过 2024 年的实践,实现大模型推理 10 倍+ 降本,并在成本与性能之间找到最佳平衡,具体措施包括:

  1. 硬件降本:通过梯次利用技术,最大化现有硬件资源的使用效率。
  2. 算力调度:根据需求的波峰波谷,灵活配置资源,优化算力分配。
  3. 推理加速:采用全链路 FP8 量化、KVCache 稀疏压缩、投机采样等技术,实现大模型推理加速 10 倍+。

展望未来,PPIO派欧云将继续产研联动、生态协同,基于分布式云打造创新产品与服务,持续降低技术基础设施成本,让更多 AI 企业和开发者能够轻松承担大模型推理的成本,助力企业在 AI 应用创新中抢占市场先机。

与此同时,我们也见证了 AI 行业的快速变化。本次评选于今年9月启动。在过去 3 个月里,共有数百家企业、机构和个人报名参与评选。

最终,以真实数据为基础,结合量子位对数百家 AI 公司的深入调研,以及数十位行业知名专家的意见,榜单结果出炉。本次评选不仅是对 PPIO派欧云过去一年努力的肯定,更是对其未来发展的期待。

在 AI 时代车轮滚滚向前之中,我们相信这份榜单:能够为 AI 及前沿科技创新关注者提供一个第三方视角,为趋势变革中勇往直前的企业组织强化信心,也为人工智能产业新周期、新篇章的开启标刻年度注脚。

让奋斗者获得鼓励,让开拓者听到掌声,让AI信仰者愈加笃定。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO