PPIO私有化部署模板上新!10分钟拥有专属最新DeepSeek模型

PPIO私有化部署模板上新!10分钟拥有专属最新DeepSeek模型

这两天,DeepSeek接连发布了升级版R1模型DeepSeek-R1-0528及蒸馏模型DeepSeek-R1-0528-Qwen3-8B,模型性能相较于此前R1模型大幅升级。DeepSeek-R1-0528性能自是不必多言,值得注意的是,根据升级版R1模型思维链提取出来蒸馏模型性能依旧强大,在数学测试中表现与 Qwen3-235B 相当,可以说是“小参数大性能”。


此前,不少企业和个人尝试将模型进行私有化部署,但是,如果将DeepSeek-R1(671B)进行私有化部署,至少需要1.5TB显存,按官方推荐配置需要将近20张NVIDIA H100 80GB显卡,门槛较高。


而小参数的DeepSeek-R1-0528-Qwen3-8B,则可以完美匹配这一需求。该模型在保持较高推理能力的同时大幅降低了运行资源需求,适合个人及中小企业部署。现在PPIO派欧云上线了该模型私有化部署模板,用户可一键将DeepSeek-R1-0528-Qwen3-8B部署在云服务器上,10分钟就能拥有专属模型。

模型私有化部署教程

选择模板与配置

打开PPIO派欧云算力市场,选择 deepseek-ai/DeepSeek-R1-0528-Qwen3-8B 模版,选择卡型 4090 点击部署。

算力市场地址:https://ppio.cn/gpu-instance/console/explore

确认部署参数

检查部署参数确认页面。确认无误后,点击 下一步。

启动部署

在最终确认页面,点击 部署 按钮启动实例创建。  此过程可能需要几分钟,请耐心等待。

查看部署进度

点击实例管理,进入控制台查看部署进度

点击实例,查看镜像拉取进度

等待实例变为运行中,点击日志 —> 实例日志查看模型拉取进度,等待模型拉取完成

日志出现 “Application startup complete.” 即为部署完成!

获取模型访问地址

点击实例连接,拷贝端口 8000 的 HTTP  映射,即模型访问

访问您的私有模型

注意请将下文中的

“https://c9f957427e53e9ba-8000.cn-northwest-2.gpu-instance.ppinfra.com”

替换为您真正的访问地址,复制以下代码,访问您的私有模型!

将API 地址配置到您的 chatbox 等应用,就可以拥有专属模型及聊天助手!


目前,PPIO算力市场已上线18个私有化部署模板,除了DeepSeek-R1-0528-Qwen3-8B,用户也可以将llama3-8b:v0.5.0  、StableDiffusion:v1.8.0等模型快速进行私有化部署,帮助企业及个人降低模型部署成本,实现高效、安全调用。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO