Saiki

PPIO首发上线DeepSeek-V3.1,Agent 能力大幅提升

PPIO首发上线DeepSeek-V3.1,Agent 能力大幅提升

刚刚,DeepSeek 正式发布 DeepSeek-V3.1,该模型相比此前 DeepSeek 系列模型拥有更高的思考效率和更强的 Agent 能力,在工具使用与智能体任务中的表现大幅提升。 DeepSeek-V3.1 采用混合推理架构,同时支持思考模式与非思考模式,且官方上下文均已扩展为 128K。经 PPIO 优化后,DeepSeek-V3.1 上下文长度可拓展至 160k,处理长文本及复杂问题的能力进一步增强。 快速入口: https://ppio.com/llm/deepseek-deepseek-v3.1 模型特征 * 工具调用/智能体支持增强 据 DeepSeek 官方发布消息,通过 Post-Training 优化,DeepSeek-V3.1 拥有更强工具调用和任务处理能力。 在代码修复测评 SWE 与命令行终端环境下的复杂任务(Terminal-Bench)测试中,DeepSeek-V3.

By Saiki
PPIO上线Baichuan-M2:全球最强开源医疗模型

PPIO上线Baichuan-M2:全球最强开源医疗模型

今日,PPIO 上线百川医疗增强大模型 Baichuan-M2,该模型是目前全球最强开源医疗模型。 在 HealthBench 医疗健康评测中,Baichuan-M2 以 60.1 的高分,反超 OpenAI 最新开源模型 gpt-oss120b(得分 57.6),优于众多前沿闭源模型,是目前最接近 GPT-5 医疗能力的开源模型 。 在 PPIO 平台,Baichuan-M2 的价格为: 输入: ¥0.5/百万 tokens 输出: ¥0.5/百万 tokens 快速入口: https://ppio.com/llm/baichuan-baichuan-m2-32b 模型特点 医疗复杂问题处理能力比肩 GPT-5 相比于医疗考试,真实医疗场景往往更加复杂。

By Saiki
热门显卡折扣来袭!长租单卡低至9.9元/小时

热门显卡折扣来袭!长租单卡低至9.9元/小时

H100 是英伟达(NVIDIA)目前最顶级的显卡之一,专为 AI 训练和高性能计算设计。 在深度学习训练、科学模拟等前沿领域,H100 凭借其卓越的并行计算能力和高效的显存管理能力,为各类复杂计算任务提供了强大的硬件支持。 为降低企业算力使用门槛,PPIO 推出 H100 显卡专项优惠计划,按需租用 H100 单卡低至 12.9 元/时,长期租用更可享单卡 9.9 元/时的超值价格,让高性能计算触手可及。 H100 性能一览 H100 基于 Hopper 架构,采用台积电 4nm 制程,相较前代 A100(Ampere 架构,7nm),在能效比、计算密度上提升巨大,主要特性如下: * 架构:Hopper * CUDA核心数:

By Saiki
我在PPIO WAIC展台,亲历Agentic AI的现在与未来

我在PPIO WAIC展台,亲历Agentic AI的现在与未来

7 月 26 日至 29 日,2025 世界人工智能大会(WAIC)在上海世博展览馆盛大召开。作为中国领先的分布式云计算服务商,PPIO 携 AI 智能体平台全产品矩阵亮相 H2-D125 展位,吸引数十万名开发者、企业客户及行业伙伴驻足参观。 一、三大核心展项 解锁Agentic AI无限潜能 在本届 WAIC 上,PPIO 围绕“开发者友好、企业可落地”构建三大核心展区: Agent沙箱:作为国内首款兼容 E2B 接口的Agent沙箱,该产品是专为 Agent 执行任务设计的云端运行环境,为 Agent 赋予安全可靠、高效敏捷的“手和脚”。展台前,来自国内外的开发者围绕安全性、高频调用等问题,与技术团队展开深入交流,对该展项表现出浓厚兴趣。 模型服务:PPIO

By Saiki
一文看懂Agent的9种“记忆系统” | AI专栏

technology

一文看懂Agent的9种“记忆系统” | AI专栏

对 AI Agent 来说,“记忆”指的是它在多轮交互中保留信息、上下文、用户偏好、任务细节的能力。就像一个助理需要记住老板昨天布置的任务一样,AI Agent 也必须“有记性”,才能真正完成连续性的任务。 但 AI 并不天然拥有记忆,它只有 “上下文窗口” —— 就是我们每次和模型交互时,把前面的对话再“重新发一遍”,它才“看得见过去”。 问题来了:上下文窗口有长度限制,信息多了就塞不下;重复发送也会导致 token 成本高昂。 所以,研究者和开发者们就发明了很多不同的“记忆策略”,来让 Agent 更聪明、更节省资源。 AI 工程师 Fareed Khan 总结了 9 种主流 AI Agent Memory 技术方式,以及这些技术各自的优点和缺点。

By Saiki
WAIC 2025 | SHIXP将与PPIO共建分布式智算枢纽平台

WAIC 2025 | SHIXP将与PPIO共建分布式智算枢纽平台

2025 年 7 月 29 日,由上海市工商联数字经济商会主办的“ WAIC CONNECT 数据产业智能化创新场景发布会”暨“上海市工商联数字经济商会数据产业发展专委会揭牌仪式”在上海成功举办。 会上,国家(上海)新型互联网交换中心(以下简称“SHIXP”)与派欧云(以下简称“PPIO”)举行了“共建分布式智算枢纽平台”战略合作签约仪式。 SHIXP 市场部总监蔡欣与 PPIO 智算研发副总裁李星星代表双方进行了战略合作签约,SHIXP 董事长郑荣良与 PPIO 联合创始人兼 CEO 姚欣共同出席见证。 SHIXP 是由工业和信息化部批复成立的国家新型互联网交换中心首批试点单位之一,是实现网络之间流量集中交换的新型信息基础设施;是支撑经济社会数字转型、智能升级、融合创新的重要载体。PPIO 是中国领先的分布式云计算服务商,拥有覆盖全球 1300+ 城市的 4000+ 边缘算力节点和智能调度技术,专注为 AI、

By Saiki
PPIO亮相WAIC 2025,重磅推出国内首个Agentic AI基础设施服务平台

PPIO亮相WAIC 2025,重磅推出国内首个Agentic AI基础设施服务平台

7 月 26 日至 29 日,中国领先的独立分布式云计算服务商 PPIO 亮相 2025 世界人工智能大会暨人工智能全球治理高级别会议(WAIC)。 PPIO 联合创始人兼 CEO 姚欣在 WAIC 活动上重磅发布了国内首个 Agentic AI 基础设施(Infra)服务平台,加速 Agent 应用的开发和规模化落地。 针对 Agent 特性的开发需求,PPIO 推出了 AI 智能体平台产品,分为通用版和企业版。 通用版:以极具性价比的分布式 GPU 云底座为支撑,发布中国首款兼容 E2B 接口的 Agent沙箱,以及更适用于 Agent 构建的模型服务,为个人开发者与中小企业提供兼具性能、效率、成本优势的 AI 智能体平台。

By Saiki
PPIO上线Kimi K2高性能版,TPS翻倍至35 tokens/s

PPIO上线Kimi K2高性能版,TPS翻倍至35 tokens/s

两周前,PPIO 率先上线的 Kimi K2 Instruct 模型深受 AI 开发者的好评。 该模型在自主编程、工具调用、数学推理三大能力上表现突出。而且,PPIO 提供了 Anthropic SDK 兼容的 API 服务,开发者可轻松在 Claude Code 中使用 PPIO 提供的 Kimi K2 模型服务来完成任务。 不过,在衡量一款模型性能的时候,不仅要考量生成的质量,还要考量生成的速度。 TPS(Tokens Per Second),每秒生成的 token 数,就是衡量大模型推理速度的核心指标之一。 今天,PPIO Kimi K2 经过深度优化,TPS 从 17 tokens/

By Saiki
@开发者们:PPIO上线代码模型Qwen3-Coder,挑战Claude Sonnet4

News

@开发者们:PPIO上线代码模型Qwen3-Coder,挑战Claude Sonnet4

今天,PPIO 上线两款 Qwen3 系列的最新模型: * Qwen3-235B-A22B-FP8 非思考模式(Non-thinking)的更新版本—— Qwen3-235B-A22B-Instruct-2507。这是一个通用模型,放弃了此前  Qwen3 的混合思考模式,只保留了非思考模式。 * Qwen3-Coder-480B-A35B-Instruct,这是迄今为止 Qwen 最具代理能力的代码模型。 这两款模型在测试基准表现出色,分别超越了 Kimi-K2、DeepSeek-V3,代码能力可以与 Claude Sonnet4 媲美。 目前,两款模型已上线 PPIO,前往 PPIO 官网或点击文末阅读原文即可体验,新用户填写邀请码【LYYQD1】可得 15 元代金券。 快速体验入口: https://ppio.com/llm/qwen-qwen3-235b-a22b-instruct-2507 https://ppio.com/llm/qwen-qwen3-coder-480b-a35b-instruct # 01

By Saiki
PPIO发布AI报告:2025年上半年国产大模型调用量十大趋势

PPIO发布AI报告:2025年上半年国产大模型调用量十大趋势

2025年上半年,各种现象级智能体应用层出不穷,Manus、Flowith、扣子空间、Lovart、MiniMax Agent、Kimi Deep Research 等等。 智能体应用爆发背后,证明了大模型的智能水平已经达到相当可靠、可用的阶段。 其中,开源模型发展迅速,在性能上已经整体逼近甚至追平闭源模型,以 DeepSeek R1、Qwen3-235B-A22B 、Kimi K2 为代表的模型已经跻身全球 top 级模型。同时,开源模型大大降低了模型成本,AI 推理成本正以每年 10 倍的速度降低。 PPIO 提供国内主流开源模型服务,包括 DeepSeek、阿里 Qwen、MiniMax、Kimi、智谱 GLM 等,是国内开源模型服务最全面的 AI 推理云平台之一。根据 PPIO 平台的大模型

By Saiki
为什么主流大模型的上下文窗口都是128k?| 深度

technology

为什么主流大模型的上下文窗口都是128k?| 深度

近期 AI 圈正在流行一个新的概念——Context Engineering(上下文工程),它被 AI 专家安德烈·卡帕西称为“在上下文窗口中填充下一步所需的恰到好处的信息的精细艺术与科学”。 上下文工程的前提是大模型充足的上下文窗口。如果梳理大模型的上下文窗口会发现,今天主流模型基本都把 128k 作为上下文的标准长度。 在闭源模型阵营中,GPT-4-Turbo、GPT-4o 都支持 128k 上下文窗口,Gemini 1.5 Pro 也以 128k 作为标准窗口(企业版可选更高);在开源模型阵营中,Qwen3 系列将 128k 作为上下文标配,DeepSeek V3/R1 的官方最大上下文长度是128k,近期刚刚发布的 Kimi K2 的上下文长度也是 128k 。 当然,很多模型也在尝试把上下文拓展到更大的长度。比如,PPIO 将 DeepSeek

By Saiki
PPIO上线Kimi-K2-instruct,参数达1万亿

News

PPIO上线Kimi-K2-instruct,参数达1万亿

今天,PPIO 上线 Kimi K2 模型,该模型采用 MoE 架构基础模型,总参数 1T,激活参数 32B。 该模型在代码、Agent、数学推理任务处理上表现突出,在 SWE Bench Verified、Tau2、AceBench 等基准性能测试中,Kimi K2 均取得开源模型中的 SOTA 成绩。 据月之暗面透露,Kimi K2 的预训练阶段使用 MuonClip 优化器,实现万亿参数模型的稳定高效训练。 Kimi K2 模型支持 128k 上下文,价格为输入: ¥4/百万 tokens,输出: ¥16/百万 tokens。 快速体验入口: https:

By Saiki