PPIO上线Qwen3-Embedding系列模型

PPIO上线Qwen3-Embedding系列模型

今天,PPIO 已上线 Qwen3-Embedding 系列模型!

Qwen3-Embedding 系列模型是 Qwen 模型家族的新成员。该系列模型专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练,充分继承了 Qwen3 在多语言文本理解能力方面的优势。

Qwen3-Embedding 系列模型并非 chat 模型,需要通过 API 调用。现在,您可以到 PPIO 官网接入 API 进行体验。

PPIO 登录地址:

https://ppio.cn/?utm_source=official_wechat

如果你是新用户,填写邀请码【N7EUVY】注册还可以得 15 元代金券。此外,通过你的专属邀请码每成功邀请一位好友并完成实名认证,还可以额外获得 30 元代金券。

你还可以在 Bilibili 网站上搜索【PPIO派欧云】查收关于最新的 Embedding 模型的视频教程。


# 01

什么是 Embedding 模型?

Embedding 模型是一种将离散的符号(如单词、句子、图像等)映射到连续的向量空间中的模型。在自然语言处理(NLP)领域,它通常用于将单词或句子转换为向量形式,以便计算机能够更好地处理和理解语言信息。

训练 Embedding 模型的目标是使相似的符号在向量空间中更接近,不相似的符号更远离。例如“苹果”和“香蕉”两个单词,一个好的文本 Embedding 模型会把它们编码成两个接近的向量。这样,AI 系统就可以通过“向量距离”来判断语义相似性。

Embedding 模型常见的应用场景包括:

语义搜索/RAG:用户提问后,先用向量查找相关文本,再送入大模型回答;

推荐系统:将用户和物品编码成向量,进行向量匹配;

多模态检索:输入一段文字,返回相关图片或视频;

聚类/去重/相似性判断:快速找出文本之间的相似程度。

今天上线的 Qwen3-Embedding 系列模型有两个系列:Qwen3-Reranker(文本重排序) 和 Qwen3-Embedding(文本嵌入)。

Qwen3-Embedding 系列提供从 0.6B 到 8B 参数规模的 3 种模型配置,以满足不同场景下的性能与效率需求。开发者可以灵活组合表征与排序模块,实现功能扩展。

此外,模型支持以下定制化特性:

表征维度自定义:允许用户根据实际需求调整表征维度,有效降低应用成本;

指令适配优化:支持用户自定义指令模板,以提升特定任务、语言或场景下的性能表现。

Qwen3-Embedding 系列在多个下游任务评估中达到行业领先水平。其中,8B 参数规模的 Embedding 模型在 MTEB 多语言 Leaderboard 榜单中位列第一(截至 2025 年 6 月 6 日,得分 70.58),性能超越众多商业 API 服务。此外,该系列的排序模型在各类文本检索场景中表现出色,显著提升了搜索结果的相关性。

Qwen3-Embedding 系列支持超过 100 种语言,涵盖主流自然语言及多种编程语言。该系列模型具备强大的多语言、跨语言及代码检索能力,能够有效应对多语言场景下的数据处理需求。


# 02

在 Cherry Studio 接入PPIO 的 Qwen3-Embedding

由于 Qwen3-Embedding 系列模型并非 chat 模型,需要通过 API 调用。我们以 Cherry Studio 为例进行接入。

(1)获取并保存【 API key 】、【 Base URL 】和【模型名称】

注册并登录 PPIO,然后打开 API 密钥管理页面,点击【创建】按钮,输入自定义密钥名称,生成 API 密钥。

!!!注意:密钥在服务端是加密存储,请在生成时保存好密钥(比如记录在备忘录里);若遗失密钥,可以在控制台上删除并创建一个新的密钥。

PPIO 登录地址为:

https://ppio.cn/?utm_source=official_wechat

然后到模型广场获取模型名和 Base URL,固定地址为:

https://api.ppinfra.com/v3/openai

(2)在 Cherry Studio 中集成 API

下载并安装 Cherry Studio,官网地址为:

https://cherry-ai.com/download

打开 Cherry Studio,点击设置,选择【PPIO派欧云】,输入官网生成的 API 密钥。

点击【添加】,填入所需模型名称。

在导航栏左侧点击知识库并添加,自定义名称后,下拉嵌入模型,会看到刚刚添加的 Qwen3-Embedding-8B 模型,将其添加。

然后上传本地文档,这样一个本地知识库就搭建好了。

回到对话页面,选择刚刚构建的知识库,并点击 @ 添加一个模型。

输入问题,就可以通过本地知识库进行回答了。


热门三方平台集成

PPIO 支持在 20+ 主流平台中调用平台模型。

通用对话客户端:Cherrystudio、LobeChat、Nextchat、ChatHub、Chatbox

代码开发工具:Cursor、CLINE

开发/ API 平台:Dify、OneAPI、RAGFlow、FastGPT

生产力套件集成:Word、WPS Office AI,这些是办公软件集成AI功能。

智能翻译工具:沉浸式翻译、欧路词典、流畅阅读、沉浸式导读。

知识管理工具:思源笔记、Obsidian、AnythingLLM

详细教程:

https://ppio.cn/docs/third-party/overview

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO