投机采样会损失大语言模型的推理精度吗?

投机采样会损失大语言模型的推理精度吗?

Mitchell Stern 等人于 2018 年提出了投机采样的原型概念。这种方法后来被各种工作进一步发展和完善,包括 Lookahead DecodingRESTMedusaEAGLE,投机采样显著加快了大型语言模型 (LLM) 的推理过程。

一个重要的问题是:LLM 中的投机采样会损害原始模型的准确性吗?先说答案:不会。

标准的投机采样算法是无损的,本文将通过数学分析和实验来证明这一点。

数学证明

投机采样公式可以定义如下:

其中:

  • 𝑟 是从均匀分布中采样的实数。

是要预测的下一个token。

  • 𝑝(𝑥) 是草稿模型给出的下一个token分布。
  • 𝑞(𝑥) 是基础模型给出的下一个token分布。

为简单起见,我们省略了概率条件。实际上,𝑝 和 𝑞 是基于前缀token序列

的条件分布。

以下是 DeepMind 论文中关于该公式无损性的证明:

如果你觉得阅读数学方程式太枯燥,接下来我们将通过一些直观的图表来说明证明过程。

这是草稿模型 𝑝 和基础模型 𝑞 的分布示意图:

图1:草案模型p和基础模型q输出分布的概率密度函数

需要说明的是,这只是一个理想化的图表。在实践中,我们计算的是一个离散分布,它看起来像这样:

图2:语言模型预测词汇集中每个token的离散概率分布,蓝色条来自草稿模型,红色条来自基础模型。

然而,为了简单和清晰起见,我们使用它的连续近似来讨论这个问题。

现在的问题是:我们从分布 𝑝 中采样,但我们希望最终结果就像我们从 𝑞 中采样一样。一个关键思想是:将红色区域的概率搬运到黄色区域:

图3:接受和拒绝采样的区域

目标分布 𝑞 可以看作是两部分的总和:

I. 校验接受

该分支中有两个独立事件:

  1. 在草稿分布 𝑝 上采样产生特定token 𝑥。概率为 𝑝(𝑥)
  2. 随机变量 𝑟 接受该token 𝑥。概率为:

将这些概率相乘:

图4

图4:将蓝线和红线相乘,结果是图6中的绿线

II. 校验拒绝

该分支中也有两个独立事件:

  1. 𝑟 拒绝了 𝑝 中的某个token,概率为:

这是一个积分值,数值与特定token x 无关

  1. 在分布 𝑞−𝑝(的正数部分)上采样产生特定token 𝑥,概率为:

其分母作用是对概率分布进行归一化,以保持概率密度积分等于 1。

两项相乘,第二项的分母被约掉:

max(0,𝑞(𝑥)−𝑝(𝑥))

图5

图5. 该图中的红线与绿线对应函数相乘,结果等于图6中的红线

为什么拒绝概率恰好可以归一化max(0,𝑞−𝑝) ?看起来似乎是巧合,这里一个重要的观察是,图 3 中红色区域的面积等于黄色区域的面积,因为所有概率密度函数的积分都等于 1。

将I, II两部分相加:

最后,我们得到了目标分布 𝑞。

图6

图6. 绿色区域与红色区域相加,正好等于黄线以下的面积

而这正是我们的目标。

实验

尽管我们已经从原理上证明了投机采样是无损的,但算法的实现仍然可能存在bug。因此,实验验证也是必要的。

我们对两种情况进行了实验:贪婪解码的确定性方法和多项式采样的随机方法。

贪婪解码

我们要求 LLM 生成两次短篇故事,首先使用普通推理,然后使用投机采样。两次采样温度均设置为 0。我们使用了 Medusa 中的投机采样实现。模型权重为 medusa-1.0-vicuna-7b-v1.5 及其基础模型 vicuna-7b-v1.5

测试运行完成后,我们得到了两个精确相同的结果。生成的文本如下:

User: Please tell a tale about a cyperpunk knight named PPIO keeps a charming llama as his pet.

Assistant: Once upon a time, in a world where technology had advanced beyond our wildest dreams, there lived a cyberpunk knight named PPIO. PPIO was a skilled warrior, with advanced cybernetic enhancements that gave him incredible strength and speed. He was also a man of great honor, always striving to do what was right and just.

One day, while out on a mission, PPIO stumbled upon a beautiful llama. Despite being a cybernetic being, PPIO had a soft spot for animals and he couldn't resist rescuing the llama from whatever danger it may have been in. From that day on, the llama followed PPIO wherever he went, and the two became fast friends.

The llama, whose name was Llama-ella, was a special llama. It had a unique ability to sense when someone was in danger and would let out a loud, distinctive call to alert them to the danger. PPIO was grateful for Llama-ella's ability and the two became an unstoppable team.

Together, PPIO and Llama-ella took on all sorts of challenges, from battling cybernetic villains to rescuing innocent people from harm. They were a force to be reckoned with, and their bravery and honor were an inspiration to all who knew them.

多项式采样

在随机采样的情况下,情况更加复杂。大多数在随机程序中重现结果的方法都使用固定的随机种子来利用伪随机生成器的确定性。但是,这种方法不适合我们的场景。我们的实验依赖于大数定律:如果有足够的样本,则实际分布与理论分布之间的误差将收敛于零。

我们编制了四个提示文本,对LLM在每个提示下生成的首个token进行了 1,000,000 次投机采样迭代。使用的模型权重为 Llama3 8B InstructEAGLE-LLaMA3-Instruct-8B。统计结果如下所示:


  • 蓝色:来自基础模型输出 logits 的 softmax
  • 绿色:来自草稿模型输出 logits 的 softmax
  • 橙色:来自投机采样(1,000,000 次)的首个token计数占比

基础模型输出结果与采样分布之间的标准差为 9.694e-5。符合预期。

结论

投机采样不会损害大型语言模型的推理精度。通过严格的数学分析和实际实验,我们证明了标准投机采样算法的无损性。其中数学证明说明了投机采样公式如何保留基础模型的原始分布。我们的实验,包括确定性贪婪解码和概率多项式采样,进一步验证了这些理论发现。贪婪解码实验在使用和不使用投机采样的情况下产生了相同的结果,而多项式采样实验表明,在大量样本中,token分布的差异可以忽略不计。

这些结果共同证明,投机采样可以显着加快 LLM 推理速度,而不会牺牲准确性,为未来更高效、更易于访问的 AI 系统铺平了道路。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO