PPIO × 商汤 LazyLLM: 一站式构建 Multi-Agent |实操指南

PPIO × 商汤 LazyLLM: 一站式构建 Multi-Agent |实操指南

随着大模型技术从单一对话向多智能体(Agent)协作演进,如何低成本、高效率地完成应用开发与落地成为行业焦点。

近日,PPIO 正式与 LazyLLM 达成深度合作,通过 LazyLLM 的统一接口和灵活的编排能力,配合 PPIO 提供的稳定、低延迟、高性价比的 API 支持,开发者可以轻松构建具备长程记忆、能自主调用外部工具的智能体。

LazyLLM 是构建和优化 Multi-Agent 应用的一站式开发工具,为应用开发过程中的全部环节(包括应用搭建、数据准备、模型部署、模型微调、评测等)提供了大量的工具,协助开发者用极低的成本构建 AI 应用,并可以持续地迭代优化效果。以下为完整教程,简单几步即可开启基于 PPIO 高性能模型API的智能体搭建。

# 01  PPIO × LazyLLM 配置教程

PPIO官网:https://ppio.com/ 

LazyLLM 项目地址(好项目必点Star!):

https://github.com/LazyAGI/LazyLLM

step1:

注册 PPIO 账号并获取 API Key。

(1)获取API密钥

打开 API 密钥管理页面,点击创建按钮,输入自定义密钥名称,生成 API 密钥。

(2)生成并保存API密钥。

!!注意:密钥在服务端是加密存储,创建后无法再次查看,请妥善保存好密钥;若遗失需要在控制台上删除并创建一个新的密钥。

(3)在【模型广场】获取模型ID

推荐使用的模型:

  • GLM-4.7-Flash
  • Qwen3-VL
  • Deepseek V3.2
  • Kimi K2 Thinking

step2:

环境配置,安装 LazyLLM。

详情可参考:https://docs.lazyllm.ai/zh-cn/latest/

下面以从 pip为例,首先确保系统中已经安装好了 Python、 Pip 和 Git。

(1)LazyLLM 支持用 pip 直接安装:

pip3 install lazyllm

上述命令能够安装 LazyLLM 基础功能的最小依赖包。可以支持使用各类线上模型服务。

lazyllm install rag

运行后可以搭建基础的大模型应用,如基础的RAG系统与Agent。

(2)安装不同场景下的依赖:

成功安装LazyLLM 后,您可以在命令行中使用lazyllm install xxx的命令,以针对不同的使用场景安装响应的依赖。

例如: 安装 LazyLLM 的所有功能最小依赖包。不仅支持线上模型的微调和推理,而且支持离线模型的微调(主要依赖 LLaMA-Factory)和推理(主要依赖 vLLM)。

lazyllm install standard

step3:

调用API即可使用。

使用以下命令,输入获取的 API Key,设置对应的环境变量。

export LAZYLLM_PPIO_API_KEY=<申请到的api key>

# 02 案例教程

#三行代码构建聊天机器人

import lazyllm
chat = lazyllm.OnlineModule('deepseek-v3.2')
lazyllm.WebModule(chat, port=23466).start().wait()

#输出示例

#ReactAgent构建流程

# -*- coding: utf-8 -*-
"""
PPIO ReactAgent 构建示例
参考文档: https://docs.lazyllm.ai/zh-cn/stable/Learn/learn/#7-agent

ReactAgent 遵循 ReAct(推理和行动)范式:
Thought -> Action -> Observation -> Thought... -> Finish
"""

import lazyllm
from lazyllm.tools import fc_register, ReactAgent

# 步骤 1: 定义可被 Agent 调用的 Tool
# 每个 Tool 应该保持能力单一、边界清晰
@fc_register("tool")
def multiply_tool(a: int, b: int) -> int:
    """
    乘法工具:计算两个整数的乘积

    Args:
a(int): 被乘数
b(int): 乘数

    Returns:
int: a 和 b 的乘积
    """
return a * b

@fc_register("tool")
def add_tool(a: int, b: int) -> int:
    """
    加法工具:计算两个整数的和

    Args:
a(int): 加数
b(int): 加数

    Returns:
int: a 和 b 的和
    """
return a + b

# 步骤 2: 创建 PPIO LLM 实例
llm = lazyllm.OnlineChatModule(
    source='ppio',
    model='deepseek/deepseek-v3.2'
)

# 步骤 3: 定义工具列表
tools = ["multiply_tool", "add_tool"]

# 步骤 4: 创建 ReactAgent
agent = ReactAgent(
    llm=llm,
    tools=tools,
    max_retries=5,
    return_trace=False,
    stream=False
)

# 步骤 5: 使用 Agent 处理查询
# Agent 会根据问题自动决定是否需要调用工具,以及调用哪个工具
query = "What is 20+(2*4)? Calculate step by step."
result = agent(query)
print(result)

#输出示例

# 03 结语

以上就是本次联合解决方案的完整实操指南。PPIO 的算力底座配合 LazyLLM 的一站式工具链,为 AI 应用开发提供了一条“即开即用”的捷径。我们希望通过这一标准化的流程,帮助大家从繁琐的底层调试中解放出来。

目前,双方的适配已全面上线,欢迎各位开发者即刻接入体验,我们期待看到更多富有创造力的智能体应用在这一生态中诞生。

Read more

Qwen3.5重磅发布 PPIO 模型服务平台同步上线

Qwen3.5重磅发布 PPIO 模型服务平台同步上线

近日,阿里巴巴全新一代大模型千问 Qwen3.5 重磅开源发布,凭借突破性性能登顶全球最强开源模型榜单。 PPIO 模型服务平台在第一时间完成 Qwen3.5-Plus 与 Qwen3.5-397B-A17B 双版本的全面适配与上线,让企业与开发者无需等待,即可率先享受新一代多模态大模型的技术红利。 Qwen3.5 系列模型堪称 “性能与效率的完美平衡体”,总参数3970 亿,激活 170 亿参数即可运转,实现了 “以小胜大” 的技术突破 —— 性能全面超越万亿参数的 Qwen3-Max 模型,同时部署显存占用直降 60%,最大推理吞吐量提升至 19 倍。这一飞跃背后,是其融合线性注意力(Gated Delta Networks)与稀疏混合专家(MoE)的创新架构。 作为原生视觉-语言模型,作为原生视觉-语言模型, Qwen3.5-Plus/Qwen3.5-397B-A17B在推理、

By PPIO
PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力

PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力

PPIO 上线了 MiniMax M2.5 模型。 MiniMax M2.5 是 MiniMax 发布的最新旗舰模型。据官方介绍,M2.5 在编程、工具调用、搜索及办公等生产力场景中均达到或刷新了行业的 SOTA(State-of-the-art)水平。该模型优化了对复杂任务的拆解能力,大幅提升了运行速度,并凭借极佳的 Token 效率,让无限运行复杂 Agent 在经济上成为可能。 现在,你可以到 PPIO 官网体验 MiniMax M2.5 或者调用模型 API。 地址: https://ppio.com/llm/minimax-minimax-m2.5 01 模型特征 * 架构师级编程思维,胜任全栈开发 MiniMax

By PPIO
全网首发!PPIO 上线智谱 GLM-5 ,解锁 Agentic 长程执行力

全网首发!PPIO 上线智谱 GLM-5 ,解锁 Agentic 长程执行力

PPIO 正式首发上线智谱 GLM-5 ,该模型为智谱新一代的旗舰基座模型,面向 Agentic Engineering 打造,能够在复杂系统工程与长程 Agent 任务中提供可靠生产力。在 Coding 与 Agent 能力上,GLM-5 取得开源 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务,是通用 Agent 助手的理想基座。具体特征如下: 体验地址: https://ppio.com/llm/zai-org-glm-5 GLM-5 模型的核心特性主要体现在以下两个方面: 一、 突破性的 Agentic 长程规划与执行能力 与以往侧重于短文本生成或单次问答的模型不同,GLM-5 是专为多阶段、长步骤的复杂任务环境而设计的。在实际应用中,处理一个系统级需求往往涉及多个环节的协同。

By PPIO