百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

显存暴降90%!Unsloth革新GRPO训练:长上下文推理从此触手可及

ztj100 2025-04-26 22:46 71 浏览 0 评论

2025年2月,Unsloth团队发布重磅技术突破——基于GRPO算法的全新优化方案,将大模型训练的显存需求降低至传统方法的10%,并支持10倍长上下文处理能力!无论是1.5B的Qwen2.5还是8B的Llama 3.1,开发者仅需5GB至54GB显存即可高效训练模型,彻底打破资源壁垒。

文章深度揭秘Unsloth三大核心技术:内存高效线性算法、智能梯度检查点与vLLM深度集成,并开源免费Colab笔记本、动态量化模型及完整教程,助力开发者低成本实现长文本推理与复杂任务训练。

原文:
https://unsloth.ai/blog/grpo

作者:Daniel & Michael

翻译:

@北方的郎

翻译的过程中有小优化和调整

现在,您可以使用仅5GB的VRAM来训练自己的推理模型,适用于Qwen2.5(1.5B)——比我们两周前发布的GRPO版本所需的7GB有所减少!

译者:两周前的版本参考:北方的郎:突破AI推理极限:Unsloth引领R1模型的“顿悟时刻”,只需要7G显存即可训练R1

目前,实现更长的上下文长度是GRPO面临的最大挑战之一。我们新推出的Unsloth高效GRPO算法,在使用90%更少VRAM的情况下,能够实现比其他所有GRPO LoRA/QLoRA实现(包括那些使用Flash Attention 2 (FA2)的实现)长10倍的上下文长度。

在使用TRL + FA2的GRPO设置中,Llama 3.1(8B)在20K上下文长度下训练需要510.8GB的VRAM。然而,Unsloth的90% VRAM减少使得相同设置下的需求降至仅54.3GB。

试试我们的免费 GRPO 笔记本,上下文长 10 倍:Colab 上的 Llama 3.1 (8B)

我们强烈建议您阅读我们的指南对于 GRPO + 奖励函数/验证器上的所有内容。

查看我们的 GRPO 笔记本,其中包含 Phi-4 等其他型号这里.

附言如果您喜欢我们的工作,请不要忘记给我们加注:
github.com/unslothai/unsloth

长上下文的 VRAM 减少 90%

当您使用Unsloth进行GRPO时,我们通过多种技巧智能地减少了超过90%的VRAM使用量,与使用Flash Attention 2的标准实现相比!例如,在20K上下文长度下,每个提示生成8次,Unsloth仅使用54.3GB的VRAM用于Llama 3.1 8B,而标准实现需要510.8GB(Unsloth减少90%)。

  • 我们用于 GRPO 的新内存高效线性算法将内存使用量削减了 8 倍或更多。这减少了 68.5GB 的内存同时通过 torch.compile 的帮助,对于 num_generations = 8 和 20K 上下文长度,实际上速度更快。
  • 我们利用我们的智能Unsloth 梯度检查点算法。它巧妙地将中间激活异步卸载到系统 RAM,同时仅慢了 1%。这减少了高达 372GB 的 VRAM,因为我们需要 num_generations = 8。我们可以通过中间梯度累积来进一步减少这种内存使用。
  • 与其他软件包中的实现不同,Unsloth 还使用与底层推理引擎 (vLLM) 相同的 GPU/CUDA 内存空间。这将节省 16GB 的 VRAM。

Unsloth将长上下文GRPO的内存使用量减少了8倍,因此我们仅需要额外的9.8GB VRAM用于20K上下文长度!

我们还需要从16位的KV缓存中获取。Llama 3.1 8B有32层,K和V的大小均为1024。因此,20K上下文长度的内存使用量= 2 * 2字节 * 32层 * 20K上下文长度 * 1024 = 2.5GB每批次。我们将vLLM的批次大小设置为8,但为了节省VRAM,我们将其保留为1。否则,您将需要20GB用于KV缓存。

Unsloth 高效 GRPO 算法

我们从Horace He的线性交叉熵实现中获得了灵感,并成功使其适用于GRPO!我们实际上发现了一些令人惊讶的点:

  • 参考GRPO实现使用反向KL散度,而不是前向KL散度。
  • 在float16混合精度(以及float8)上天真地实现线性交叉熵,如果不正确处理,自动混合精度缩放机制将会失效。
  • 我们在GRPO损失的实现中发现了其他怪癖——主要是在反向KL散度的公式方面。

GRPO的数学和发现的问题

GRPO首次在2024年2月至2024年4月的DeepSeek’s Math paper中引入,随后DeepSeek在创建DeepSeek R1时利用了GRPO算法,如他们的论文所述。

我们在这里利用Hugging Face的TRL GRPO实现。我们看到TRL实现执行:


其中我们利用反向KL散度(而不是前向KL散度)。Beta是一个设置为0.04的缩放因子,A是在考虑所有奖励函数后获得的优势。Q是新训练的模型,P是原始参考模型。

然后我们有趣地注意到,实现计算反向KL散度为:


但这实际上正确吗?我们首先尝试推导它,并收集类似项:


所以这意味着实现可能缺少乘以Q(新分布项)?

但这似乎是正确的,如在首次引入GRPO的DeepSeek数学论文第14页所见。同样,John Schulman的博客也指出,反向KL项的无偏估计实际上不需要额外的Q项。我们在博客中看到:


我们还有趣地发现:

torch.exp(q - q.detach()) * advantages.unsqueeze(1)

应该被评估为1,对吗?

我们实际上发现这是必要的——似乎自动梯度引擎可能没有正确传播梯度。

所以我们进行了4个实验:

  1. 通过参考实现进行正常GRPO(红线)
  2. 移除detach代码(蓝线)
  3. 完整反向KL,带有之前讨论的额外项(黄线)
  4. 前向KL散度代替(绿线)


总的来说,移除detach肯定会破坏所有训练,所以我们必须保留它——这很可能需要更多的调查。似乎所有其他实现都相似?我们可能需要运行模型更长时间才能看到不同的效果。

在所有实现中,我们还使用 logsumexp 技巧:

GRPO 的完整日志记录

我们现在还提供所有奖励函数的完整日志记录细节!之前我们只显示总聚合奖励函数本身。

您也不再需要调用函数来修补GRPO了!即,移除顶部的这个(我们自动完成):

from unsloth import PatchFastRL
PatchFastRL("GRPO", FastLanguageModel)

vLLM 推理选项

我们现在还允许您将 FP8 KV 缓存用于 vLLM,从而在较新的 GPU(RTX 3090、A100 和更新版本)上将 KV 缓存空间使用量减少 2 倍

model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "meta-llama/meta-Llama-3.1-8B-Instruct",
    max_seq_length = max_seq_length,
    load_in_4bit = True, # False for LoRA 16bit
    fast_inference = True, # Enable vLLM fast inference
    max_lora_rank = lora_rank,
    gpu_memory_utilization = 0.6, # Reduce if out of memory
    float8_kv_cache = True, # Enable float8 KV cache
)

其他更新

使用 vLLM 直接运行 Unsloth Dynamic 4 位

现在,您可以直接在 vLLM 中使用我们的动态量化运行和进行推理。这是由于接受的 PR我们对 vLLM 存储库执行了作。通过示例和基准测试,了解我们的动态量化如何比标准 4 位大幅提高精度这里.

GitHub Universe 访谈

在 GitHub 的 2024 Universe 大会上,我们在 10 月对 Andrea 进行了一次精彩的采访,现在视频已经发布!我们谈论了我们在澳大利亚的背景,我们如何建立 Unsloth,你们所有人都是多么了不起等等!在 YouTube 上观看


——完——

@北方的郎 · 专注模型与代码

喜欢的朋友,欢迎赞同、关注、分享三连 ^O^

相关推荐

其实TensorFlow真的很水无非就这30篇熬夜练

好的!以下是TensorFlow需要掌握的核心内容,用列表形式呈现,简洁清晰(含表情符号,<300字):1.基础概念与环境TensorFlow架构(计算图、会话->EagerE...

交叉验证和超参数调整:如何优化你的机器学习模型

准确预测Fitbit的睡眠得分在本文的前两部分中,我获取了Fitbit的睡眠数据并对其进行预处理,将这些数据分为训练集、验证集和测试集,除此之外,我还训练了三种不同的机器学习模型并比较了它们的性能。在...

机器学习交叉验证全指南:原理、类型与实战技巧

机器学习模型常常需要大量数据,但它们如何与实时新数据协同工作也同样关键。交叉验证是一种通过将数据集分成若干部分、在部分数据上训练模型、在其余数据上测试模型的方法,用来检验模型的表现。这有助于发现过拟合...

深度学习中的类别激活热图可视化

作者:ValentinaAlto编译:ronghuaiyang导读使用Keras实现图像分类中的激活热图的可视化,帮助更有针对性...

超强,必会的机器学习评估指标

大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]构建机器学习模型的关键步骤是检查其性能,这是通过使用验证指标来完成的。选择正确的验证指...

机器学习入门教程-第六课:监督学习与非监督学习

1.回顾与引入上节课我们谈到了机器学习的一些实战技巧,比如如何处理数据、选择模型以及调整参数。今天,我们将更深入地探讨机器学习的两大类:监督学习和非监督学习。2.监督学习监督学习就像是有老师的教学...

Python教程(三十八):机器学习基础

...

Python 模型部署不用愁!容器化实战,5 分钟搞定环境配置

你是不是也遇到过这种糟心事:花了好几天训练出的Python模型,在自己电脑上跑得顺顺当当,一放到服务器就各种报错。要么是Python版本不对,要么是依赖库冲突,折腾半天还是用不了。别再喊“我...

超全面讲透一个算法模型,高斯核!!

...

神经网络与传统统计方法的简单对比

传统的统计方法如...

AI 基础知识从0.1到0.2——用“房价预测”入门机器学习全流程

...

自回归滞后模型进行多变量时间序列预测

下图显示了关于不同类型葡萄酒销量的月度多元时间序列。每种葡萄酒类型都是时间序列中的一个变量。假设要预测其中一个变量。比如,sparklingwine。如何建立一个模型来进行预测呢?一种常见的方...

苹果AI策略:慢哲学——科技行业的“长期主义”试金石

苹果AI策略的深度原创分析,结合技术伦理、商业逻辑与行业博弈,揭示其“慢哲学”背后的战略智慧:一、反常之举:AI狂潮中的“逆行者”当科技巨头深陷AI军备竞赛,苹果的克制显得格格不入:功能延期:App...

时间序列预测全攻略,6大模型代码实操

如果你对数据分析感兴趣,希望学习更多的方法论,希望听听经验分享,欢迎移步宝藏公众号...

AI 基础知识从 0.4 到 0.5—— 计算机视觉之光 CNN

...

取消回复欢迎 发表评论: