PPIO解锁QwQ-32B:小参数大能量,推理性能亮眼!

PPIO解锁QwQ-32B:小参数大能量,推理性能亮眼!

QwQ 系列推理模型在 AI 界久负盛名。

2025 年 3 月 6 日凌晨,阿里巴巴正式发布并开源了其中极具潜力的 QwQ-32B 模型。与传统的指令调优模型相比,QwQ 具备卓越的思考和推理能力,能够在下游任务中实现显著增强的性能,尤其是在解决困难问题方面表现突出。

Ⅰ. 模型简介:中型推理的实力担当

QwQ-32B 是一款 320 亿参数的中型推理模型,在与最先进的推理模型,如 DeepSeek-R1、o1-mini 的对比中,也能展现出极具竞争力的性能。

该模型在一系列评估数学、编码和结构化推理的基准上进行了测试。

在 AIME24 数学测试、LiveCodeBench 编码测试中,QwQ-32B 均紧追 DeepSeek - R1 。在 IFEval 测试、LiveBench、BFCL 通用技能评估方面,QwQ-32B 分别以 83.9 、73.1 、66.4分高于 DeepSeek - R1。

Ⅱ. 模型应用:PPIO打造优质体验

作为深耕 AI infra 领域的行业先锋,PPIO派欧云上线 QwQ-32B 模型,旨在为广大用户提供更高效、更智能的 AI 解决方案。

在价格方面,QwQ-32B 模型具有相当的吸引力,输入仅¥1 / 百万 tokens,输出仅¥3.5 / 百万 tokens同时,其 context 长度可达 32k,能够获取更丰富的上下文信息,从而做出更精准、全面的判断与解答

平台支持针对该模型的 function call 功能,提供了更高的灵活性,能更高效地将模型融入各类应用场景之中 。

模型结果对比:

DeepSeek - R1 分点明确,公式与文字结合紧密,以标准 “解析” 形式呈现;

QwQ - 32B 采用 “自问自答”,穿插大量计算细节,思考过程外显,适合教学场景。

准确性方面,两者均正确解题。

👉在线体验:https://ppinfra.com/llm/qwen-qwq-32b

👉API 文档:https://ppinfra.com/docs/model-api/reference/llm/

Read more

Qwen3.5重磅发布 PPIO 模型服务平台同步上线

Qwen3.5重磅发布 PPIO 模型服务平台同步上线

近日,阿里巴巴全新一代大模型千问 Qwen3.5 重磅开源发布,凭借突破性性能登顶全球最强开源模型榜单。 PPIO 模型服务平台在第一时间完成 Qwen3.5-Plus 与 Qwen3.5-397B-A17B 双版本的全面适配与上线,让企业与开发者无需等待,即可率先享受新一代多模态大模型的技术红利。 Qwen3.5 系列模型堪称 “性能与效率的完美平衡体”,总参数3970 亿,激活 170 亿参数即可运转,实现了 “以小胜大” 的技术突破 —— 性能全面超越万亿参数的 Qwen3-Max 模型,同时部署显存占用直降 60%,最大推理吞吐量提升至 19 倍。这一飞跃背后,是其融合线性注意力(Gated Delta Networks)与稀疏混合专家(MoE)的创新架构。 作为原生视觉-语言模型,作为原生视觉-语言模型, Qwen3.5-Plus/Qwen3.5-397B-A17B在推理、

By PPIO
PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力

PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力

PPIO 上线了 MiniMax M2.5 模型。 MiniMax M2.5 是 MiniMax 发布的最新旗舰模型。据官方介绍,M2.5 在编程、工具调用、搜索及办公等生产力场景中均达到或刷新了行业的 SOTA(State-of-the-art)水平。该模型优化了对复杂任务的拆解能力,大幅提升了运行速度,并凭借极佳的 Token 效率,让无限运行复杂 Agent 在经济上成为可能。 现在,你可以到 PPIO 官网体验 MiniMax M2.5 或者调用模型 API。 地址: https://ppio.com/llm/minimax-minimax-m2.5 01 模型特征 * 架构师级编程思维,胜任全栈开发 MiniMax

By PPIO