Latest

Qwen3.5重磅发布 PPIO 模型服务平台同步上线

Qwen3.5重磅发布 PPIO 模型服务平台同步上线

近日,阿里巴巴全新一代大模型千问 Qwen3.5 重磅开源发布,凭借突破性性能登顶全球最强开源模型榜单。 PPIO 模型服务平台在第一时间完成 Qwen3.5-Plus 与 Qwen3.5-397B-A17B 双版本的全面适配与上线,让企业与开发者无需等待,即可率先享受新一代多模态大模型的技术红利。 Qwen3.5 系列模型堪称 “性能与效率的完美平衡体”,总参数3970 亿,激活 170 亿参数即可运转,实现了 “以小胜大” 的技术突破 —— 性能全面超越万亿参数的 Qwen3-Max 模型,同时部署显存占用直降 60%,最大推理吞吐量提升至 19 倍。这一飞跃背后,是其融合线性注意力(Gated Delta Networks)与稀疏混合专家(MoE)的创新架构。 作为原生视觉-语言模型,作为原生视觉-语言模型, Qwen3.5-Plus/Qwen3.5-397B-A17B在推理、

By PPIO
PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力

PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力

PPIO 上线了 MiniMax M2.5 模型。 MiniMax M2.5 是 MiniMax 发布的最新旗舰模型。据官方介绍,M2.5 在编程、工具调用、搜索及办公等生产力场景中均达到或刷新了行业的 SOTA(State-of-the-art)水平。该模型优化了对复杂任务的拆解能力,大幅提升了运行速度,并凭借极佳的 Token 效率,让无限运行复杂 Agent 在经济上成为可能。 现在,你可以到 PPIO 官网体验 MiniMax M2.5 或者调用模型 API。 地址: https://ppio.com/llm/minimax-minimax-m2.5 01 模型特征 * 架构师级编程思维,胜任全栈开发 MiniMax

By PPIO
全网首发!PPIO 上线智谱 GLM-5 ,解锁 Agentic 长程执行力

全网首发!PPIO 上线智谱 GLM-5 ,解锁 Agentic 长程执行力

PPIO 正式首发上线智谱 GLM-5 ,该模型为智谱新一代的旗舰基座模型,面向 Agentic Engineering 打造,能够在复杂系统工程与长程 Agent 任务中提供可靠生产力。在 Coding 与 Agent 能力上,GLM-5 取得开源 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务,是通用 Agent 助手的理想基座。具体特征如下: 体验地址: https://ppio.com/llm/zai-org-glm-5 GLM-5 模型的核心特性主要体现在以下两个方面: 一、 突破性的 Agentic 长程规划与执行能力 与以往侧重于短文本生成或单次问答的模型不同,GLM-5 是专为多阶段、长步骤的复杂任务环境而设计的。在实际应用中,处理一个系统级需求往往涉及多个环节的协同。

By PPIO
PPIO 上线 PaddleOCR-VL-1.5 :小参数高性能 | 一键部署

PPIO 上线 PaddleOCR-VL-1.5 :小参数高性能 | 一键部署

PPIO 算力市场首发上线了 PaddleOCR-VL-1.5 模型模板。 作为 PaddleOCR-VL 系列的全新迭代版本,PaddleOCR-VL-1.5 在保持 0.9B 轻量级参数的同时,性能实现了显著提升 。在权威评测集 OmniDocBench v1.5 上,该模型取得了 94.5% 的精度,优于当前主流的通用大模型及文档解析专用模型。 该模型创新性地支持了文档元素的异形框定位,在扫描、倾斜、弯折、屏幕拍摄及复杂光照等真实落地场景中表现出色,能够精准返回多边形检测框。此外,模型还新增了印章识别与文本行定位功能,并优化了生僻字、古籍及多语种表格的解析效果。 现在,您可以通过 PPIO 算力市场的 PaddleOCR-VL-1.5 模板,将该模型一键部署在 GPU 云服务器上。只需简单几步,即可快速体验模型高效的文档解析能力。 一键部署地址:https://ppio.

By PPIO
PPIO 上线 DeepSeek-OCR-2 ,支持一键私有化部署

PPIO 上线 DeepSeek-OCR-2 ,支持一键私有化部署

PPIO 算力市场首发上线了 DeepSeek-OCR-2 部署模板,为开发者提供开箱即用的模型服务。 DeepSeek-OCR-2 是 DeepSeek 团队最新发布的开源 OCR 模型。与传统 OCR 方案不同,该模型引入了 DeepEncoder V2 视觉编码器,并采用了“视觉因果流(Visual Causal Flow)”技术。这一架构改变使得模型能够基于语义逻辑理解文档结构,从而在处理多栏排版、复杂表格以及图文混排场景时表现出更高的准确性。 同时,DeepSeek-OCR-2 优化了视觉 Token 的压缩效率,在保持高精度的前提下显著降低了计算开销,非常适合作为多模态大模型的前端输入或用于高精度文档数字化任务。 现在,你可以通过 PPIO 算力市场的 DeepSeek-OCR-2 模板,将模型一键部署在 GPU 云服务器上。无需复杂的环境配置,只需简单几步,即可拥有私有化的 DeepSeek-OCR-2 模型,快速验证业务效果。 项目地址:

By PPIO
姚欣获聘“光谷全球产业合伙人”,PPIO以普惠算力助力武汉AI创新

姚欣获聘“光谷全球产业合伙人”,PPIO以普惠算力助力武汉AI创新

1月25日,由雷递网主办的“2026光谷AI产业发展峰会”在中国光谷举办。PPIO联合创始人兼CEO姚欣受邀出席,并获东湖高新区正式授牌,受聘为“光谷全球产业合伙人”,成为助力光谷链接全球产业资源的重要伙伴之一。峰会上,姚欣还主持了主题为《武汉如何抓住AI浪潮的机会》圆桌论坛,分享了对AI趋势与区域创新发展的深度洞察。 本次峰会由雷递网主办,东湖高新区管委会主任余松出席并致辞。九识智能CEO孔旗、小米集团技术委副主席王扉、金山云高级副总裁刘涛、速腾聚创高级副总裁魏永刚、世纪华通CSO方辉等产业代表,以及硅谷专家团队共聚光谷,围绕人工智能技术演进与产业融合展开交流。目前,光谷人工智能产业规模已突破600亿元,正加速构建开放协作的世界级产业生态。 # 01 获聘“光谷全球产业合伙人”,以算力调度激活中部AI枢纽 作为从武汉走出来的创业者,姚欣获东湖高新区正式授牌,受聘为“光谷全球产业合伙人”,将为光谷链接和引入更多优质产业资源。“湖北作为国家算力网络的中部枢纽,把供给侧能力系统化、规模化,这对中国AI产业非常关键。但算力真正进入产业,还需要把‘建得出来’变成‘用得起来、用得好、用得

By PPIO
PPIO 上线 Kimi K2.5:体验原生多模态与 Agent 集群能力

PPIO 上线 Kimi K2.5:体验原生多模态与 Agent 集群能力

今天,PPIO 正式上线 Kimi K2.5 模型。 Kimi K2.5 是月之暗面(Moonshot AI)发布的最新开源模型。据官方介绍,这是 Kimi 迄今为止在智能程度和全能性上表现突出的版本。该模型采用原生的多模态架构设计,在 Agent、代码编程、图像处理、视频理解以及一系列通用智能任务上,均取得了开源领域的 State-of-the-art(SOTA)表现。 现在,你可以到 PPIO 官网体验 Kimi K2.5 或者调用模型 API。 地址:https://ppio.com/ai-computing/llm-api #01 模型特征 原生多模态架构,降低交互门槛 Kimi K2.5

By PPIO
PPIO × 商汤 LazyLLM: 一站式构建 Multi-Agent |实操指南

PPIO × 商汤 LazyLLM: 一站式构建 Multi-Agent |实操指南

随着大模型技术从单一对话向多智能体(Agent)协作演进,如何低成本、高效率地完成应用开发与落地成为行业焦点。 近日,PPIO 正式与 LazyLLM 达成深度合作,通过 LazyLLM 的统一接口和灵活的编排能力,配合 PPIO 提供的稳定、低延迟、高性价比的 API 支持,开发者可以轻松构建具备长程记忆、能自主调用外部工具的智能体。 LazyLLM 是构建和优化 Multi-Agent 应用的一站式开发工具,为应用开发过程中的全部环节(包括应用搭建、数据准备、模型部署、模型微调、评测等)提供了大量的工具,协助开发者用极低的成本构建 AI 应用,并可以持续地迭代优化效果。以下为完整教程,简单几步即可开启基于 PPIO 高性能模型API的智能体搭建。 # 01  PPIO × LazyLLM 配置教程 PPIO官网:https://ppio.com/  LazyLLM

By PPIO
PPIO 上线 GLM-4.7-Flash 模板 | 极速部署教程

PPIO 上线 GLM-4.7-Flash 模板 | 极速部署教程

今天,PPIO 上线智谱最新款轻量级大语言模型 GLM-4.7-Flash。 GLM-4.7-Flash 作为 GLM-4.7 旗舰系列的“极速版”,总参数量为30B,激活参数量为3B,为用户提供了一个兼顾性能与效率的新选择。 该模型面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得同尺寸开源模型中的领先表现。在执行复杂智能体任务,GLM-4.7-Flash 在工具调用时指令遵循更强,并大幅提升了 Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率。 现在,你可以通过 PPIO 算力市场的 GLM-4.7-Flash 部署模板,简单几步部署该模型。 项目地址:https://ppio.com/gpu-instance/ #01 GPU 实例+模板,一键部署 GLM-4.

By PPIO
PPIO 上线 GLM-Image 部署模板,10分钟拥有私有化模型

PPIO 上线 GLM-Image 部署模板,10分钟拥有私有化模型

今天,PPIO 上线图像生成领域的重磅模型——智谱 GLM-Image。 GLM-Image 利用基于GLM-4的自回归生成器进行精准的语义规划和布局,再通过扩散解码器完成高保真成像,从而具备了卓越的长文本理解力。 其核心突破在于SOTA级的文字渲染能力,在 CVTG-2K 基准中准确率超91%,彻底解决了AI生成海报文字乱码的行业痛点。结合GRPO美学强化学习策略,GLM-Image 在处理复杂空间关系、知识密集型绘图及图文排版任务上,展现出了远超传统纯扩散模型的表现力,是目前开源界“懂逻辑、会写字”的新一代视觉创作工具。 现在,你可以通过 PPIO 算力市场的 GLM-Image 模板,将模型一键部署在 GPU 云服务器上,简单几步就能拥有私有化的 GLM-Image 模型。 在线体验链接: https://ppio.com/gpu-instance/console/explore?selectTemplate=select # 01  GPU 实例+模板,一键部署 GLM-Image

By PPIO