Latest

首发!PPIO派欧云上线DeepSeek-R1-0528-Qwen3-8B蒸馏模型

首发!PPIO派欧云上线DeepSeek-R1-0528-Qwen3-8B蒸馏模型

DeepSeek R1 系列的模型更新还在继续。 继昨天 PPIO派欧云首发上线 DeepSeek-R1-0528 模型后,今天 PPIO 再次首发 DeepSeek 最新开源的蒸馏模型 DeepSeek-R1-0528-Qwen3-8B。 DeepSeek-R1-0528-Qwen3-8B 是将 DeepSeek-R1-0528 的思维链提取出来,用于对 Qwen3 8B Base 进行后训练而得到的蒸馏模型。 该 8B 模型在数学测试 AIME 2024 中仅次于 DeepSeek-R1-0528,超越 Qwen3-8B (+10.0%),与 Qwen3-235B 相当。 现在,你可以在 PPIO 平台快速体验该系列模型: https://ppio.cn/llm/deepseek-deepseek-r1-0528-qwen3-8b 同时,DeepSeek-R1-0528-Qwen3-8B 的价格也一并发布: DeepSeek-R1-0528-Qwen3-8B 实测

By Saiki
首发!PPIO上线DeepSeek-R1-0528

首发!PPIO上线DeepSeek-R1-0528

今天凌晨,“小版本试升级”的 DeepSeek-R1-0528 在 Hugging Face 正式开源。 经 PPIO 工程师测试,这个所谓的“小版本”更新在代码领域大幅增强,凭借简单朴素的提示词就能生成小游戏、图片、精美的网页,生成效果可媲美 Claude 3.7 甚至 Claude 4。 🔥 作为一站式 AIGC 云服务平台,PPIO 已首发上线了 DeepSeek-R1-0528! - 快速入口:https://ppio.cn/llm/deepseek-deepseek-r1-0528 同时,DeepSeek-R1-0528 的价格也一并发布: # 01 DeepSeek-R1-0528 实测 根据实测体验来看,DeepSeek-R1-0528 最突出的更新主要有两大方面。 第一大更新是相比旧版本的 DeepSeek R1 天马行空的风格,

By Saiki
PPIO获港投公司支持,加速全球算力网络布局

PPIO获港投公司支持,加速全球算力网络布局

近日,由香港投资管理有限公司(以下简称“港投公司”)主办的首届「国际耐心资本论坛」在港圆满落幕。PPIO 作为被投企业出席活动现场。会上, PPIO 联合创始人兼 CEO 姚欣发表了主题为“赋能 AI 时代”的演讲,以及参与了蓝驰主持的「联通世界——发掘创新机遇」主题讨论环节。 港投公司行政总裁陈家齐女士在会上表示:“本次论坛汇聚众多国际顶尖耐心资本机构,反映全球长期资本对科技变革,尤其是人工智能爆发阶段战略布局的殷切需求。香港作为国际枢纽,提供高效平台,让投资者与前沿科企深度对接,掌握技术转化趋势与资本动态。港投公司秉持长期主义,致力构建跨地域『朋友圈』,促进耐心资本与创新企业精准匹配。 姚欣在现场提到:“在 PPIO 发展的过程中,耐心资本的支持起到关键性作用。作为早期的投资方,蓝驰一直帮助 PPIO 的启动和成长,一路鼎力支持。而现在获得港投公司的支持,标志着 PPIO 全球化进程迈入新阶段,将进一步推动我们构建覆盖全球的高效算力网络,为人工智能时代提供可持续的基础设施支持。

By Saiki
PPIO上线私有化部署解决方案:按需定制+专用GPU集群,帮助AI企业降本增效

PPIO上线私有化部署解决方案:按需定制+专用GPU集群,帮助AI企业降本增效

在全球 AI 应用场景爆发式增长、企业级定制需求激增的背景下,PPIO派欧云正式推出针对大语言模型的企业私有化部署解决方案。 作为一款全托管式高性能 AI 私有化部署服务,该解决方案专为需要可靠基础设施、弹性扩展能力及企业级安全保障的团队设计,致力于让企业以更低的成本、更高的效率实现 AI 应用规模化落地。 随着生成式 AI、多模态大模型等技术快速渗透至教育、招聘、车联网、零售、医疗等核心场景,企业对 AI 模型的性能、安全性和可控性提出了更高的要求。 然而,企业如果想要自身进行 AI 部署需要面临多重挑战: 1. 资源成本高:自建 GPU 集群需巨额投入,且资源利用率低下; 2. 运维复杂度高:基础设施维护占用技术团队大量精力,难以聚焦核心业务; 3. 性能波动大:共享资源导致的算力争抢、突发流量引发的响应延迟,直接影响用户体验; 4. 安全合规难:数据与模型的物理隔离需求难以满足,企业敏感信息易暴露风险。 而 PPIO

By Saiki
PPIO彰显AI Infra硬实力,入选【星辰100】中国AI产业逐浪者榜单

PPIO彰显AI Infra硬实力,入选【星辰100】中国AI产业逐浪者榜单

近期,PPIO派欧云凭借在AI Infra领域的持续技术创新和商业落地能力,成功入选由中国科技产业智库甲子光年发布的“【星辰100】2025中国AI产业逐浪者”榜单,成为AI Infra细分赛道的代表性企业。 2025年,人工智能正迈入从技术突破向规模化部署的深水区,AI基础设施成为支撑产业加速发展的关键“地基”。作为AI产业的重要观察与评估标尺,【星辰100】榜单覆盖AI芯片、大模型、AI Infra、AI应用、具身智能五大板块,历时半年深入调研,从产品力、商业力、融资力和品牌力四大维度严格筛选,旨在致敬本轮AI浪潮中最具引领力的企业代表。 作为一家专注于智能算力服务的科技公司,PPIO派欧云始终致力于打造更高效、更弹性、更具普惠性的AI基础设施,为人工智能的广泛应用提供坚实底座。 软硬件协同创新,打造极致AI推理性价比 大模型的商业价值最终体现在推理阶段。相较于训练,AI推理与实际产业应用联系更为紧密,直接决定模型能否高效落地,影响其可用性与应用效果。 然而,当前AI推理面临严峻挑战:模型规模日益庞大,计算资源需求激增,推理成本不断上升;同时,低效的推理性能与复

By Saiki
DeepSeek-V3最新论文重磅发布,PPIO已跑通所有核心推理加速技术

technology

DeepSeek-V3最新论文重磅发布,PPIO已跑通所有核心推理加速技术

梁文锋署名论文最新发布,PPIO全链路推理加速技术率先跑通。 今天,DeepSeek官方发布了一篇重磅论文,由梁文锋亲自署名:《Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures》——《深入了解DeepSeek-V3:AI架构的硬件扩展挑战和思考》。 这篇论文并非DeepSeek-V3的详细架构与算法细节的重复,而是从硬件架构和模型设计的双重角度出发,探讨它们之间在实现大规模训练和推理的成本效益方面的复杂相互作用。 DeepSeek-V3的关键创新包括: * 多头潜在注意力(MLA):通过压缩KV缓存来提高内存效率。 * 专家混合(MoE)架构:优化计算-通信权衡。 * FP8混合精度训练:充分利用硬件能力。 * 多平面网络拓扑:减少集群级网络开销。 这些创新旨在应对扩展LLM的三个核心挑战——内存效率、成本效益和推理速度,而这也是PPIO派欧云的推理加速优化方向。 作为一站式AIGC云服务平台,PPIO派欧云目前已

By Saiki
新增4大GPU Instance集群,PPIO全球算力网络拓展至9个国家

新增4大GPU Instance集群,PPIO全球算力网络拓展至9个国家

图形处理器(GPU, Graphics Processing Unit)最初设计用于加速图形渲染,广泛应用于视频游戏市场的图形、图像、视频内容渲染领域。 过去几年,随着AI训练的爆发,GPU的应用也不再局限于图像领域,在AI推理、训练等领域重要性持续提升,并逐步成为支撑现代人工智能发展的核心算力基础设施。 PPIO派欧云提供的GPU容器实例服务,具备按需付费和开箱即用的特点,可满足 AI推理、AI 训练、云渲染等计算密集型场景的需求。 近日,PPIO在印度、英国、阿联酋、巴西新增GPU Instance 集群,将集群覆盖国家提升至9个,让全球更多国家及地区用户便捷调用GPU 算力。 新增4大集群,累计覆盖全球9个国家及地区 此前,PPIO已在中国、日本、新加坡等5个国家建设GPU Instance 集群,此次新增4大集群,将PPIO所建设的GPU Instance 集群覆盖国家拓展至9个,进一步完善了PPIO的全球化算力网络布局。 多元显卡类型,快速灵活调用 此次建设的GPU Instance 集群,

By Saiki
代理工作流:RAG、Deep Research与代码助手都在用的技术

technology

代理工作流:RAG、Deep Research与代码助手都在用的技术

我们经常看到这些名词:AI 代理(AI agents)、代理 AI(Agentic AI)、代理架构(Agentic architectures)、代理工作流(Agentic workflows)。 代理无处不在,但它们究竟是什么?它们真的能做些什么吗? 新技术带来了混乱的术语、不切实际的期望和自封的网络专家的混合体。在本文中,我们将透过围绕 AI 代理的喧嚣和炒作,解释和说明代理 AI 的一个关键原则:代理工作流。 代理本身几乎什么都做不了。它们需要被赋予角色、目标和结构来实现目标。这就是工作流发挥作用的地方。理解了代理工作流,就理解了 AI 代理的运作方式。 本文将从以下部分展开: 1. AI代理的核心组成部分:推理、工具和记忆 2. 代理工作流的基本概念 3. 代理工作流的三种模式 4. 代理工作流的三种应用场景:RAG、Deep Research

By Saiki
大模型推理成本每年降低10倍的秘密:一文了解vLLM、SGLang等主流推理引擎

大模型推理成本每年降低10倍的秘密:一文了解vLLM、SGLang等主流推理引擎

上个月,“源神” DeepSeek 又在 Github 上宣布开源计划了,这次将开源的是 DeepSeek 自研的推理引擎,也是更早之前 DeepSeek 开源周最后一天发布的“One More Thing”。 DeepSeek 并不会选择直接开源其内部完整且高度定制化的代码库,而是将采取一种更侧重协作、更具可持续性的策略,将其核心优化成果贡献给现有的开源项目,比如 vLLM 与 SGLang——这是两家业内领先的开源推理引擎项目。 推理引擎对于提高推理效率、降低推理成本有着重要意义,是大模型产品化部署的核心基础设施。 著名投资机构 a16z 曾预测,大模型价格的下降速度甚至比个人电脑革命时期的计算成本或互联网泡沫时期的带宽成本下降速度还要快,同等性能的大模型成本每年下降 10 倍。 本文将介绍业内主流的六大推理引擎,以及他们分别解决的核心技术问题。 🔥 点击文末链接,注册即可得获取 15 元算力代金券,畅享 DeepSeek V3/R1 以及最新上线的 Prover2、Qwen3 系列、GLM-4-0414

By Saiki
首发!PPIO 上线 DeepSeek-Prover-V2-671B,无门槛教程来了

首发!PPIO 上线 DeepSeek-Prover-V2-671B,无门槛教程来了

刚刚,“源神” DeepSeek 又开源了! DeepSeek 在 Hugging Face 开源了一个名为 DeepSeek-Prover-V2-671B 的新模型,是一款基于 671B 参数的 MoE 大模型,结合 FP8 量化、高维嵌入、长上下文与专家选择优化,专为数理逻辑与高复杂度任务设计。 🔥 作为一站式 AIGC 云服务平台,PPIO派欧云在第一时间上线了 DeepSeek-Prover-V2-671B! PPIO 平台 DeepSeek-Prover-V2-671B 模型的基本信息: * 价格:输入 - ¥4/百万 tokens,输出 - ¥16/百万 tokens * 上下文窗口:160k,最大输出 token 数:160k 体验入口: https:

By Saiki
PPIO上线Qwen3:百万tokens输入仅0.72元,支持“混合思考”

News

PPIO上线Qwen3:百万tokens输入仅0.72元,支持“混合思考”

今天,Qwen 系列大语言模型的最新成员 Qwen3 发布,与 DeepSeek R1、OpenAI o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等全球顶尖模型相比极具竞争力,成为新晋开源新王。 Qwen3 一口气发布了 8 款新模型,全部开源权重。包括: * 两个 MoE 模型:Qwen3-235B-A22B(总参数 2350 亿,激活参数 220 亿),Qwen3-30B-A3B(总参数 300 亿,激活参数 30 亿) * 六个 Dense 模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和

By Saiki
PPIO上线GLM-4-0414系列模型及Qwen2.5-7B-Instruct模型

News

PPIO上线GLM-4-0414系列模型及Qwen2.5-7B-Instruct模型

早在今年 3 月,智谱就曾预告会在 4 月中旬开源新的 GLM 模型,果然,GLM-4-0414 系列准时登场。 此次开源的新模型覆盖基座、推理、沉思三大类型,根据官方公布数据显示,部分模型可在性能上比肩 OpenAI 的 GPT-4o 和 DeepSeek 的 V3/R1 系列模型。 作为一站式 AIGC 云服务平台,PPIO派欧云随即上线了上述模型及 Qwen2.5-7B-Instruct 限时免费版,并对模型进行了全链路优化,在保持原始模型精度的前提下大幅降低推理延迟,开发者通过 API 接口即可高效调用模型。 模型特点 基座模型 GLM-4-32B/9B-0414 GLM-4-32B-0414 基于 15T 高质量数据预训练,融入推理类合成数据,强化了指令遵循、工程代码生成、函数调用等原子能力。并且,

By Saiki