Latest

PPIO发布AI报告:2025年上半年国产大模型调用量十大趋势

PPIO发布AI报告:2025年上半年国产大模型调用量十大趋势

2025年上半年,各种现象级智能体应用层出不穷,Manus、Flowith、扣子空间、Lovart、MiniMax Agent、Kimi Deep Research 等等。 智能体应用爆发背后,证明了大模型的智能水平已经达到相当可靠、可用的阶段。 其中,开源模型发展迅速,在性能上已经整体逼近甚至追平闭源模型,以 DeepSeek R1、Qwen3-235B-A22B 、Kimi K2 为代表的模型已经跻身全球 top 级模型。同时,开源模型大大降低了模型成本,AI 推理成本正以每年 10 倍的速度降低。 PPIO 提供国内主流开源模型服务,包括 DeepSeek、阿里 Qwen、MiniMax、Kimi、智谱 GLM 等,是国内开源模型服务最全面的 AI 推理云平台之一。根据 PPIO 平台的大模型

By Saiki
为什么主流大模型的上下文窗口都是128k?| 深度

为什么主流大模型的上下文窗口都是128k?| 深度

近期 AI 圈正在流行一个新的概念——Context Engineering(上下文工程),它被 AI 专家安德烈·卡帕西称为“在上下文窗口中填充下一步所需的恰到好处的信息的精细艺术与科学”。 上下文工程的前提是大模型充足的上下文窗口。如果梳理大模型的上下文窗口会发现,今天主流模型基本都把 128k 作为上下文的标准长度。 在闭源模型阵营中,GPT-4-Turbo、GPT-4o 都支持 128k 上下文窗口,Gemini 1.5 Pro 也以 128k 作为标准窗口(企业版可选更高);在开源模型阵营中,Qwen3 系列将 128k 作为上下文标配,DeepSeek V3/R1 的官方最大上下文长度是128k,近期刚刚发布的 Kimi K2 的上下文长度也是 128k 。 当然,很多模型也在尝试把上下文拓展到更大的长度。比如,PPIO 将 DeepSeek

By Saiki
PPIO上线Kimi-K2-instruct,参数达1万亿

PPIO上线Kimi-K2-instruct,参数达1万亿

今天,PPIO 上线 Kimi K2 模型,该模型采用 MoE 架构基础模型,总参数 1T,激活参数 32B。 该模型在代码、Agent、数学推理任务处理上表现突出,在 SWE Bench Verified、Tau2、AceBench 等基准性能测试中,Kimi K2 均取得开源模型中的 SOTA 成绩。 据月之暗面透露,Kimi K2 的预训练阶段使用 MuonClip 优化器,实现万亿参数模型的稳定高效训练。 Kimi K2 模型支持 128k 上下文,价格为输入: ¥4/百万 tokens,输出: ¥16/百万 tokens。 快速体验入口: https:

By Saiki
开启内测|国内首款兼容E2B接口的Agent沙箱

开启内测|国内首款兼容E2B接口的Agent沙箱

今天,PPIO Agent沙箱服务正式开启内测,这是国内首款兼容 E2B 接口的 Agent沙箱。 Agent沙箱是一款专为 AI Agent 场景设计的新一代运行时基础设施,是 Agent 真正可以行动的操作系统底座。该技术为 AI Agent 提供隔离运行环境,允许 Agent 在安全、受限的条件下执行代码。这种沙箱环境可以防止 Agent 访问或篡改系统之外的资源,确保其行为不会对系统造成损害。 Agent沙箱通常可以应用于数据处理、图表生成与可视输出、编程、页面原型即时运行、云端轻量桌面任务以及长任务运行等 Agent 场景。 Agent沙箱支持 Python、JavaScript、C++ 等主流语言,除代码外还支持网页浏览、系统命令、文案管理等行为,并且提供标准化 API / SDK,无缝衔接主流的 AI Agent 框架和工具,支持代码自动生成与执行闭环。 PPIO

By Saiki
为什么Agent Sandbox会成为下一代AI应用的基石?| 深度

为什么Agent Sandbox会成为下一代AI应用的基石?| 深度

2023 年夏天,当 OpenAI 在 ChatGPT 中悄然上线了一个名为“Code Interpreter(代码解释器)”的功能时,很少有人意识到,这标志着一个全新 AI Agent Infra 技术时代的开启。 在基础的聊天、写文章的功能之上,Code Interpreterr 赋予了 ChatGPT 执行代码的能力,让 ChatGPT 能像一个真正的数据分析师那样,运行 Python 代码、分析数据、生成图表。 然而,这就像打开了潘多拉的魔盒——强大的能力伴随着未知的风险。如果 AI 生成的代码是恶意的呢?如果它试图访问系统文件、删除数据、或者向外发送敏感信息呢? 这个古老而永恒的安全问题,催生了一个全新的技术分支:Agent Sandbox——专为 AI Agent 量身定制的安全沙箱技术。 预告一下,

By Saiki
PPIO上线MiniMax-Hailuo-02:全球排名第二的视频模型

News

PPIO上线MiniMax-Hailuo-02:全球排名第二的视频模型

今天,PPIO 首发上线 MiniMax 最新发布的最新视频生成模型 Hailuo 02! Hailuo 02 可生成 6 秒的 768P 或 1080P 分辨率超清视频,以及 10秒的 768P 分辨率视频。该模型拥有顶尖的指令遵循能力,能够处理极端物理场景,比如做特技表演。 在 Artificial Analysis 最新的图生视频排行榜上,Hailuo 02 位列第二。 现在,你可以通过以下方式在 PPIO 平台使用 MiniMax-Hailuo-02 了! PPIO 官网快速体验入口: https://ppio.cn/model-api/playground#minimax-hailuo-02 API 开发者文档: https://ppio.cn/docs/

By Saiki
PPIO上线MiniMax-M1-80k:全球首个开源大规模混合架构推理模型

PPIO上线MiniMax-M1-80k:全球首个开源大规模混合架构推理模型

今天,PPIO 首发上线 MiniMax-M1,这是全球首个开源大规模混合架构的推理模型。 MiniMax-M1 采用混合专家 (MoE) 架构,并结合闪电注意力机制。该模型总共包含 4560 亿个参数,每个令牌激活了 459 亿个参数。M1 模型原生支持 100 万个令牌的上下文长度,是 DeepSeek R1 上下文大小的 8 倍。同时MiniMax-M1 结合 CISPO 算法与混合注意力设计的高效强化学习训练,在长输入推理与真实软件工程场景中实现了业界领先的性能。 因为相对高效的训练和推理算力使用,该模型可以以业内最低的价格提供 API 服务。PPIO 平台的 MiniMax M1-80k 价格为:输入¥4/百万 tokens,输出 ¥16/百万 tokens,上下文窗口为128k。 快速体验入口:

By Saiki
PPIO上线Qwen3-Embedding系列模型

News

PPIO上线Qwen3-Embedding系列模型

今天,PPIO 已上线 Qwen3-Embedding 系列模型! Qwen3-Embedding 系列模型是 Qwen 模型家族的新成员。该系列模型专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练,充分继承了 Qwen3 在多语言文本理解能力方面的优势。 Qwen3-Embedding 系列模型并非 chat 模型,需要通过 API 调用。现在,您可以到 PPIO 官网接入 API 进行体验。 PPIO 登录地址: https://ppio.cn/?utm_source=official_wechat 如果你是新用户,填写邀请码【N7EUVY】注册还可以得 15 元代金券。此外,通过你的专属邀请码每成功邀请一位好友并完成实名认证,还可以额外获得 30 元代金券。

By Saiki
PPIO受邀参展碳博会“民企双碳行动足迹”展台,展示绿色智算创新成果

PPIO受邀参展碳博会“民企双碳行动足迹”展台,展示绿色智算创新成果

6 月,由上海市国际贸易促进委员会主办的 2025 上海国际碳中和技术、产品与成果博览会(以下简称“碳博会”)在沪圆满落幕。受上海市工商业联合会邀请,作为绿色人工智能计算领域民营企业代表,PPIO 亮相碳博会“民企双碳行动足迹”展台,集中展示绿色智算技术创新成果,彰显民营科技企业在推动“双碳”战略中的积极作用。 展会由主题展览、系列论坛、贸易对接三大板块构成,展览规模达 4 万平方米,吸引来自德国、荷兰、日本、瑞典、西班牙、英国等 15 个国家和地区的 300 余家知名企业参展,为全球低碳科技创新企业搭建交流展示平台。 在“民企双碳行动足迹”展台,PPIO 作为受邀参展企业,重点展示了基于分布式计算架构打造的超低 PUE 绿色智算网络,以及碳足迹可视化管理系统。通过整合跨时空闲置算力资源,采用分布式调度系统,PPIO 实现了算力资源利用率提升 50%

By Saiki
从Copilot到Agent,AI Coding是如何进化的?

从Copilot到Agent,AI Coding是如何进化的?

编程原本是一项具有一定门槛的技能,但借助 AI Coding 产品,新手也能写出可运行的代码,非专业人员如业务分析师、产品经理,也能在 AI 帮助下直接生成简单应用。 这一演变对软件产业产生了深远影响。当 AI 逐步参与代码生成、调试乃至项目管理,编程范式正从“AI 辅助”迈向 AI Agent 驱动的“AI 协作”。 今天市场上的 AI Coding 产品是如何发展的?按照发布时间与产品类型,AI Coding 的发展历程大致可以分为四个阶段: * 代码模型基建,比如 Codex、o1、DeepSeek R1 等 * 基于 IDE 的编程增强插件,比如 GitHub Copilot * Web IDE 平台集成 AI,

By Saiki
PPIO私有化部署模板上新!10分钟拥有专属最新DeepSeek模型

News

PPIO私有化部署模板上新!10分钟拥有专属最新DeepSeek模型

这两天,DeepSeek接连发布了升级版R1模型DeepSeek-R1-0528及蒸馏模型DeepSeek-R1-0528-Qwen3-8B,模型性能相较于此前R1模型大幅升级。DeepSeek-R1-0528性能自是不必多言,值得注意的是,根据升级版R1模型思维链提取出来蒸馏模型性能依旧强大,在数学测试中表现与 Qwen3-235B 相当,可以说是“小参数大性能”。 此前,不少企业和个人尝试将模型进行私有化部署,但是,如果将DeepSeek-R1(671B)进行私有化部署,至少需要1.5TB显存,按官方推荐配置需要将近20张NVIDIA H100 80GB显卡,门槛较高。 而小参数的DeepSeek-R1-0528-Qwen3-8B,则可以完美匹配这一需求。该模型在保持较高推理能力的同时大幅降低了运行资源需求,适合个人及中小企业部署。现在PPIO派欧云上线了该模型私有化部署模板,用户可一键将DeepSeek-R1-0528-Qwen3-8B部署在云服务器上,10分钟就能拥有专属模型。 模型私有化部署教程 选择模板与配置 打开PPIO派欧云算力市场,选择 deepse

By Saiki