News

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

News

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

News

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO
AI正跨越鸿沟,创业者该关注什么?PPIO姚欣提出两大关键指标

News

AI正跨越鸿沟,创业者该关注什么?PPIO姚欣提出两大关键指标

从 23 岁在宿舍创办PPTV,到率先成立 AI 创业营,再到预见性地布局 AI 云算力基础设施 PPIO ,创业者姚欣的二十一年,是一部穿越了 PC 、移动和 AI 三次技术浪潮的“活历史”。 近日,PPIO 联合创始人兼 CEO 姚欣受邀做客36氪《AI局中人》栏目,直播中分享了他横跨 PC 互联网、移动互联网到 AI 时代的三段创业经历,并与36氪特邀主持人、蚂蚁集团 NEXTA 创新实验室项目负责人何思翀深入探讨了以下内容: · 谈选择:放弃内卷的 AI 应用红海,他为何坚信“送水”是门更好的生意? · 谈数据:日均 2000 亿次 Token 调用的硬核数据里,藏着你没看到的增长密码。 · 谈未来:杀手级应用不是下一个微信,

By PPIO
PPIO上线DeepSeek-OCR模型

News

PPIO上线DeepSeek-OCR模型

刚刚,PPIO 上线 DeepSeeek 最新发布的 DeepSeek-OCR 模型,这是一个专为高效视觉-文本压缩概念验证而设计的视觉文本模型。 现在,你可以到 PPIO 官网在线体验 DeepSeek-OCR,或将模型 API 接入 Cherry Studio 等第三方 AI 应用或你自己的 AI 工作流中。 在线体验地址: https://ppio.com/llm/deepseek-deepseek-ocr 开发者文档: https://ppio.com/docs/model/llm 模型基础信息: 模型创新点 DeepSeek-OCR 模型的创新点是什么? 当前大语言模型(LLM)在处理长文本内容时面临显著的计算挑战——计算量随序列长度呈二次方增长。 DeepSeek 探索了一种潜在解决方案:利用视觉模态作为文本信息的高效压缩媒介。 一张包含文档文本的图像可以用远少于等效数字文本的 token 数表示丰富信息,

By PPIO
PPIO上线Qwen-VL-8B/30B、GLM-4.5-Air等多款中小尺寸模型

News

PPIO上线Qwen-VL-8B/30B、GLM-4.5-Air等多款中小尺寸模型

今天,PPIO 上线多个中小尺寸新模型,包括 Qwen3-VL 系列的 8B/30B,以及智谱的 GLM-4.5-Air。 Qwen3-VL 系列是 Qwen3 家族最新发布的视觉理解模型,每个尺寸都有 Instruct 和 Thinking 两大版本。 其中,Qwen3-VL-8B 是稠密(Dense)视觉理解模型,显存占用更低;Qwen3-VL-30B 是 MoE 模型,激活参数仅 3B,体积更小,性能依旧强劲。 GLM-4.5-Air 是此前 GLM-4.5 系列的小尺寸版本,拥有 106B 总参数和 12B 激活参数。 GLM-4.5-Air 是一个混合推理模型,用于复杂推理和工具使用的思考模式,以及用于即时响应的非思考模式。

By PPIO
PPIO上线智谱GLM-4.6,Coding 能力创国产模型新高

News

PPIO上线智谱GLM-4.6,Coding 能力创国产模型新高

今天,PPIO 上线智谱旗舰模型 GLM-4.6。 GLM-4.6 是智谱最强的代码 Coding 模型,较 GLM-4.5 提升 27%,在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面实现全面提升。 1. 高级编码能力:在公开基准与真实编程任务中,GLM-4.6 的代码能力对齐 Claude Sonnet 4,是国内已知的最好的 Coding 模型。 2. 上下文长度:上下文窗口由 128K 提升至 200K,适应更长的代码和智能体任务。 3. 推理能力:推理能力提升,并支持在推理过程中调用工具。、搜索能力:增强模型的工具调用和搜索智能体,在智能体框架中表现更好。 4. 写作能力:在文风、可读性与角色扮演场景中更符合人类偏好。

By PPIO
DeepSeek-V3.2-Exp发布,有哪些新变化?

News

DeepSeek-V3.2-Exp发布,有哪些新变化?

今天,DeepSeek 突然发布新版本模型 DeepSeek-V3.2-Exp,PPIO 已经首发上线! DeepSeek-V3.2-Exp 是 DeepSeek 新模型的实验版本,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 “DeepSeek 稀疏注意力机制(DeepSeek Sparse Attention)”,旨在探索和验证在长上下文场景下训练和推理效率的优化。 该实验版本代表了 DeepSeek 对更高效的 Transformer 架构的持续研究,特别注重提高处理扩展文本序列时的计算效率。 1. DeepSeek 稀疏注意力首次实现了细粒度稀疏注意力,在保持几乎相同的模型输出质量的同时,显著提高了长上下文训练和推理效率。DeepSeek-V3.2-Exp 支持 160K 上下文。 2. 为了严格评估引入稀疏注意力机制的影响,DeepSeek 特意将 DeepSeek-V3.2-Exp 的训练配置与 V3.1-Terminus 进行了对齐。

By PPIO
PPIO首席科学家王晓飞教授荣登“终身科学影响力排行榜”

News

PPIO首席科学家王晓飞教授荣登“终身科学影响力排行榜”

近日,美国斯坦福大学(Stanford University)与国际权威学术出版社爱思唯尔(Elsevier)共同发布 2025 年全球前 2% 顶尖科学家榜单(World's Top 2% Scientists)。PPIO 首席科学家、天津大学教授、博导王晓飞教授入选榜单,并同时跻身 “终身科学影响力排行榜” 与 “年度科学影响力排行榜”。 此次入选不仅体现了王晓飞教授在人工智能与分布式计算领域的卓越学术贡献,也进一步巩固了 PPIO 作为全球领先的分布式 AI 云计算服务商的行业地位。 全球前 2% 顶尖科学家榜单评选涵盖全球超 800 万名科学家的职业生涯和年度学术表现,通过引用次数、h指数等多维数据计算生成。因其标准化和透明性,该榜单被公认为国际学术界和产业界衡量学者影响力的重要参照。 王晓飞教授现任天津大学计算机学院副院长,研究领域涵盖人工智能计算、分布式云计算和边缘智能等,已发表 SCI 及国际会议论文 220 余篇,总引用量超 12000

By PPIO
PPIO首发上线DeepSeek-V3.1-Terminus

News

PPIO首发上线DeepSeek-V3.1-Terminus

刚刚,PPIO 首发上线 DeepSeek-V3.1 的更新版本 DeepSeek-V3.1-Terminus!该版本的模型输出效果相比前一版本更加稳定。 此次更新在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括: * 语言一致性:缓解了中英文混杂、偶发异常字符等情况; * Agent 能力:进一步优化了 Code Agent 与 Search Agent 的表现。 “Terminus”源自拉丁语,意为“终点、完结”之意,或许代表了 DeepSeek V3 这一大版本的最终更新,后续的更新或将开启新版本。 快速入口: https://ppio.com/llm/deepseek-deepseek-v3.1-terminus 开发者文档: https://ppio.com/docs/model/overview DeepSeek-V3.

By PPIO
PPIO首发上线Qwen3-Next-80B-A3B

News

PPIO首发上线Qwen3-Next-80B-A3B

今天,阿里通义千问发布了下一代基础模型 Qwen3-Next-80B-A3B,该模型已经首发上线 PPIO! Qwen3-Next 系列采用了“混合注意力机制”——引入业内前沿的“线性注意力机制”,与经典的“全注意力机制”混搭使用,该架构专为极长上下文和超大规模参数性能而优化。 现在,PPIO 上线了 Qwen3-Next-80B-A3B-Instruct 和 Qwen3-Next-80B-A3B-Thinking,其上下文长度为 64k,价格为每百万 tokens 输入,每百万 tokens 输出。 前往 PPIO 官网或点击文末阅读原文即可体验,新用户填写邀请码【LYYQD1】注册可得 15 元代金券。 # 01 Qwen3-Next 的架构创新 Qwen3-Next 系列代表了 Qwen 系列下一代的基础模型,专为极长上下文和超大规模参数性能而优化。 这一系列引入了一套架构创新,旨在最大化性能的同时最小化计算成本: * 混合注意力(Hybrid Attention):用

By PPIO
PPIO姚欣出席首届AI国际人才峰会:AI落地需先找对“钉子”再选好“锤子”

News

PPIO姚欣出席首届AI国际人才峰会:AI落地需先找对“钉子”再选好“锤子”

8 月 26 日,由香港投资管理有限公司(下称 “港投公司”)与北京智源人工智能研究院(下称 “智源研究院”)联合主办的首届 “AI 国际人才峰会” 在香港成功举办。香港特别行政区政府财政司司长陈茂波、港投公司行政总裁陈家齐、智源研究院理事长黄铁军等出席并致辞。 峰会还汇聚了加拿大皇家科学院院士张大鹏教授、美国国家工程院院士 David Srolovitz 教授、英国皇家工程院院士 Sethu Vijayakumar 教授等全球人工智能领域顶尖专家、海内外青年学者,以及不同产业的 AI 初创企业,共同围绕 AI 前沿技术发展、产业实践以及生态建设展开交流互动。PPIO 联合创始人兼 CEO 姚欣受邀出席峰会并发表题为《从 PPTV 到 PPIO:赋能全球 AI 创业者》的演讲,从自身创业经历出发,同与会者分享 AI 时代创业者所需的特质。

By PPIO
PPIO出席中国算力大会 首席科学家王晓飞获评“青年先锋人物”

News

PPIO出席中国算力大会 首席科学家王晓飞获评“青年先锋人物”

近日,中国算力大会在山西大同成功举办,PPIO 首席科学家王晓飞教授受邀参加并出席同期活动“算力中国·星耀之夜”,他在活动上分享了分布式算力网络的理论研究以及创新成果,同时荣获“中国青年先锋人物”称号。 在“算力中国·星耀之夜”交流活动上,王晓飞以“面向大模型服务的分布式算力网络——迈向通用人工智能之路”为题进行分享。他提出,算力资源分布存在“马太效应”与长尾供需难题,网络需要实现精准调度和抗熵演进,并通过“核心+边缘”分层协同,探索算力网络的新发展范式。 王晓飞在演讲中指出,围绕分布式算力赋能大模型与智能体应用, PPIO 目前已取得多项突破:构建了覆盖全球 4000+ 节点的分布式算力网络;依托自研 FP8 算法与 KV Cache 优化,大幅提升推理性能并降低显存消耗,同时打造了兼容主流框架的智能体基座,支撑大规模高效运行。 他强调,人工智能正加速迈向 Agentic AI 时代。因此,

By PPIO