PPIO上线GLM-OCR:0.9B参数SOTA性能,支持一键部署
PPIO 算力市场首发上线了 GLM-OCR 模型模板。GLM-OCR 以 0.9B 的参数规模,在 OmniDocBench V1.5 基准测试中取得了 94.6 分的 SOTA 表现,并在公式识别、复杂表格解析及信息抽取等高难度场景中展现出显著优势。
PPIO 算力市场首发上线了 GLM-OCR 模型模板。GLM-OCR 以 0.9B 的参数规模,在 OmniDocBench V1.5 基准测试中取得了 94.6 分的 SOTA 表现,并在公式识别、复杂表格解析及信息抽取等高难度场景中展现出显著优势。
PPIO首发上线Qwen3-Coder-Next模型。
PPIO 算力市场首发上线了 PaddleOCR-VL-1.5 模型模板。 作为 PaddleOCR-VL 系列的全新迭代版本,PaddleOCR-VL-1.5 在保持 0.9B 轻量级参数的同时,性能实现了显著提升 。在权威评测集 OmniDocBench v1.5 上,该模型取得了 94.5% 的精度,优于当前主流的通用大模型及文档解析专用模型。 该模型创新性地支持了文档元素的异形框定位,在扫描、倾斜、弯折、屏幕拍摄及复杂光照等真实落地场景中表现出色,能够精准返回多边形检测框。此外,模型还新增了印章识别与文本行定位功能,并优化了生僻字、古籍及多语种表格的解析效果。 现在,您可以通过 PPIO 算力市场的 PaddleOCR-VL-1.5 模板,将该模型一键部署在 GPU 云服务器上。只需简单几步,即可快速体验模型高效的文档解析能力。 一键部署地址:https://ppio.
PPIO 算力市场首发上线了 DeepSeek-OCR-2 部署模板,为开发者提供开箱即用的模型服务。 DeepSeek-OCR-2 是 DeepSeek 团队最新发布的开源 OCR 模型。与传统 OCR 方案不同,该模型引入了 DeepEncoder V2 视觉编码器,并采用了“视觉因果流(Visual Causal Flow)”技术。这一架构改变使得模型能够基于语义逻辑理解文档结构,从而在处理多栏排版、复杂表格以及图文混排场景时表现出更高的准确性。 同时,DeepSeek-OCR-2 优化了视觉 Token 的压缩效率,在保持高精度的前提下显著降低了计算开销,非常适合作为多模态大模型的前端输入或用于高精度文档数字化任务。 现在,你可以通过 PPIO 算力市场的 DeepSeek-OCR-2 模板,将模型一键部署在 GPU 云服务器上。无需复杂的环境配置,只需简单几步,即可拥有私有化的 DeepSeek-OCR-2 模型,快速验证业务效果。 项目地址:
1月25日,由雷递网主办的“2026光谷AI产业发展峰会”在中国光谷举办。PPIO联合创始人兼CEO姚欣受邀出席,并获东湖高新区正式授牌,受聘为“光谷全球产业合伙人”,成为助力光谷链接全球产业资源的重要伙伴之一。峰会上,姚欣还主持了主题为《武汉如何抓住AI浪潮的机会》圆桌论坛,分享了对AI趋势与区域创新发展的深度洞察。 本次峰会由雷递网主办,东湖高新区管委会主任余松出席并致辞。九识智能CEO孔旗、小米集团技术委副主席王扉、金山云高级副总裁刘涛、速腾聚创高级副总裁魏永刚、世纪华通CSO方辉等产业代表,以及硅谷专家团队共聚光谷,围绕人工智能技术演进与产业融合展开交流。目前,光谷人工智能产业规模已突破600亿元,正加速构建开放协作的世界级产业生态。 # 01 获聘“光谷全球产业合伙人”,以算力调度激活中部AI枢纽 作为从武汉走出来的创业者,姚欣获东湖高新区正式授牌,受聘为“光谷全球产业合伙人”,将为光谷链接和引入更多优质产业资源。“湖北作为国家算力网络的中部枢纽,把供给侧能力系统化、规模化,这对中国AI产业非常关键。但算力真正进入产业,还需要把‘建得出来’变成‘用得起来、用得好、用得
今天,PPIO 正式上线 Kimi K2.5 模型。 Kimi K2.5 是月之暗面(Moonshot AI)发布的最新开源模型。据官方介绍,这是 Kimi 迄今为止在智能程度和全能性上表现突出的版本。该模型采用原生的多模态架构设计,在 Agent、代码编程、图像处理、视频理解以及一系列通用智能任务上,均取得了开源领域的 State-of-the-art(SOTA)表现。 现在,你可以到 PPIO 官网体验 Kimi K2.5 或者调用模型 API。 地址:https://ppio.com/ai-computing/llm-api #01 模型特征 原生多模态架构,降低交互门槛 Kimi K2.5
随着大模型技术从单一对话向多智能体(Agent)协作演进,如何低成本、高效率地完成应用开发与落地成为行业焦点。 近日,PPIO 正式与 LazyLLM 达成深度合作,通过 LazyLLM 的统一接口和灵活的编排能力,配合 PPIO 提供的稳定、低延迟、高性价比的 API 支持,开发者可以轻松构建具备长程记忆、能自主调用外部工具的智能体。 LazyLLM 是构建和优化 Multi-Agent 应用的一站式开发工具,为应用开发过程中的全部环节(包括应用搭建、数据准备、模型部署、模型微调、评测等)提供了大量的工具,协助开发者用极低的成本构建 AI 应用,并可以持续地迭代优化效果。以下为完整教程,简单几步即可开启基于 PPIO 高性能模型API的智能体搭建。 # 01 PPIO × LazyLLM 配置教程 PPIO官网:https://ppio.com/ LazyLLM
今天,PPIO 上线智谱最新款轻量级大语言模型 GLM-4.7-Flash。 GLM-4.7-Flash 作为 GLM-4.7 旗舰系列的“极速版”,总参数量为30B,激活参数量为3B,为用户提供了一个兼顾性能与效率的新选择。 该模型面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得同尺寸开源模型中的领先表现。在执行复杂智能体任务,GLM-4.7-Flash 在工具调用时指令遵循更强,并大幅提升了 Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率。 现在,你可以通过 PPIO 算力市场的 GLM-4.7-Flash 部署模板,简单几步部署该模型。 项目地址:https://ppio.com/gpu-instance/ #01 GPU 实例+模板,一键部署 GLM-4.
今天,PPIO 上线图像生成领域的重磅模型——智谱 GLM-Image。 GLM-Image 利用基于GLM-4的自回归生成器进行精准的语义规划和布局,再通过扩散解码器完成高保真成像,从而具备了卓越的长文本理解力。 其核心突破在于SOTA级的文字渲染能力,在 CVTG-2K 基准中准确率超91%,彻底解决了AI生成海报文字乱码的行业痛点。结合GRPO美学强化学习策略,GLM-Image 在处理复杂空间关系、知识密集型绘图及图文排版任务上,展现出了远超传统纯扩散模型的表现力,是目前开源界“懂逻辑、会写字”的新一代视觉创作工具。 现在,你可以通过 PPIO 算力市场的 GLM-Image 模板,将模型一键部署在 GPU 云服务器上,简单几步就能拥有私有化的 GLM-Image 模型。 在线体验链接: https://ppio.com/gpu-instance/console/explore?selectTemplate=select # 01 GPU 实例+模板,一键部署 GLM-Image
AI 强大的代码生成能力,让 AI 应用从“对话”真正走向了“行动”。但对于开发者而言,要把这种能力集成到生产环境中,往往会卡在代码执行这一环,主要痛点集中在以下几点: 安全隐患: AI 生成的代码具有不可预测性。直接在本地或服务器上运行,一旦出现恶意指令,后果不堪设想。 环境依赖: 不同的 Python 脚本依赖各种复杂的库。为每个任务动态配置环境不仅耗时,还极易引发冲突。 算力扩展: 本地资源有限,难以应对高并发的 Agent 任务请求,且维护专用服务器成本高昂。 如何给 AI 编码提供一个既安全隔离、又能即开即用的运行环境?PPIO Agent沙箱 与 Claude Agent SDK 集成的新工作流可以解决这一问题。 PPIO Agent沙箱 可以提供一个与 Claude Agent SDK 深度集成的云端执行环境,生成的代码能通过工具调用直接在 PPIO
近日,InfoQ「2025 中国技术力量年度榜单」正式发布,PPIO 模型服务平台凭借在分布式算力调度与模型推理加速领域的深厚技术积淀,与阿里云、腾讯云等行业巨头一并荣获「InfoQ 2025 年度 AI 基础设施卓越奖」。 作为AI行业极具影响力的年度评选,本次榜单旨在 洞察 AI 变革,见证智能未来,系统梳理并呈现过去一年在 AI 全栈创新与产业落地方面具有代表性的产品、平台与解决方案。 「AI 基础设施卓越奖」作为InfoQ年度技术力量榜单的重要评选类别之一,专注于识别在算力、分布式计算、平台架构以及底层系统创新方面具有卓越贡献的技术与企业。该奖项评选标准涵盖技术性能与可靠性、创新能力、生态兼容性、客户与市场影响力,以及可持续性与能效比等多个维度,代表了 AI 基础设施领域最先进的技术水准与行业风向标。 作为中国领先的独立分布式云计算服务商,PPIO 依托分布式算力网络、自研全局调度技术与高性能推理引擎,构建新一代分布式 AI 云架构,致力于打破 AI 算力成本与开发效率的双重瓶颈,为全球 AIGC
今天,PPIO 上线 MiniMax 的最新编程 SOTA 模型 MiniMax M2.1。 MiniMax M2.1 的亮点如下: * 卓越多编程语言能力:M2.1 系统性提升了 Rust / Java / Golang / C++ / Kotlin / Objective-C / TypeScript / JavaScript 等语言的能力,多语言任务整体表现达到业内领先水平,覆盖从底层系统到应用层开发的完整链路。 * WebDev 与 AppDev:针对业界普遍存在的移动端开发短板,M2.1 显著加强了原生 Android / iOS 开发能力。 同时系统性提升了模型在 Web 与 App 场景中的设计理解与美学表达能力,能够出色地构建复杂交互、3D 科学场景模拟与高质量可视化表达,推动 vibe coding