百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

显存暴降90%!Unsloth革新GRPO训练:长上下文推理从此触手可及

ztj100 2025-04-26 22:46 34 浏览 0 评论

2025年2月,Unsloth团队发布重磅技术突破——基于GRPO算法的全新优化方案,将大模型训练的显存需求降低至传统方法的10%,并支持10倍长上下文处理能力!无论是1.5B的Qwen2.5还是8B的Llama 3.1,开发者仅需5GB至54GB显存即可高效训练模型,彻底打破资源壁垒。

文章深度揭秘Unsloth三大核心技术:内存高效线性算法、智能梯度检查点与vLLM深度集成,并开源免费Colab笔记本、动态量化模型及完整教程,助力开发者低成本实现长文本推理与复杂任务训练。

原文:
https://unsloth.ai/blog/grpo

作者:Daniel & Michael

翻译:

@北方的郎

翻译的过程中有小优化和调整

现在,您可以使用仅5GB的VRAM来训练自己的推理模型,适用于Qwen2.5(1.5B)——比我们两周前发布的GRPO版本所需的7GB有所减少!

译者:两周前的版本参考:北方的郎:突破AI推理极限:Unsloth引领R1模型的“顿悟时刻”,只需要7G显存即可训练R1

目前,实现更长的上下文长度是GRPO面临的最大挑战之一。我们新推出的Unsloth高效GRPO算法,在使用90%更少VRAM的情况下,能够实现比其他所有GRPO LoRA/QLoRA实现(包括那些使用Flash Attention 2 (FA2)的实现)长10倍的上下文长度。

在使用TRL + FA2的GRPO设置中,Llama 3.1(8B)在20K上下文长度下训练需要510.8GB的VRAM。然而,Unsloth的90% VRAM减少使得相同设置下的需求降至仅54.3GB。

试试我们的免费 GRPO 笔记本,上下文长 10 倍:Colab 上的 Llama 3.1 (8B)

我们强烈建议您阅读我们的指南对于 GRPO + 奖励函数/验证器上的所有内容。

查看我们的 GRPO 笔记本,其中包含 Phi-4 等其他型号这里.

附言如果您喜欢我们的工作,请不要忘记给我们加注:
github.com/unslothai/unsloth

长上下文的 VRAM 减少 90%

当您使用Unsloth进行GRPO时,我们通过多种技巧智能地减少了超过90%的VRAM使用量,与使用Flash Attention 2的标准实现相比!例如,在20K上下文长度下,每个提示生成8次,Unsloth仅使用54.3GB的VRAM用于Llama 3.1 8B,而标准实现需要510.8GB(Unsloth减少90%)。

  • 我们用于 GRPO 的新内存高效线性算法将内存使用量削减了 8 倍或更多。这减少了 68.5GB 的内存同时通过 torch.compile 的帮助,对于 num_generations = 8 和 20K 上下文长度,实际上速度更快。
  • 我们利用我们的智能Unsloth 梯度检查点算法。它巧妙地将中间激活异步卸载到系统 RAM,同时仅慢了 1%。这减少了高达 372GB 的 VRAM,因为我们需要 num_generations = 8。我们可以通过中间梯度累积来进一步减少这种内存使用。
  • 与其他软件包中的实现不同,Unsloth 还使用与底层推理引擎 (vLLM) 相同的 GPU/CUDA 内存空间。这将节省 16GB 的 VRAM。

Unsloth将长上下文GRPO的内存使用量减少了8倍,因此我们仅需要额外的9.8GB VRAM用于20K上下文长度!

我们还需要从16位的KV缓存中获取。Llama 3.1 8B有32层,K和V的大小均为1024。因此,20K上下文长度的内存使用量= 2 * 2字节 * 32层 * 20K上下文长度 * 1024 = 2.5GB每批次。我们将vLLM的批次大小设置为8,但为了节省VRAM,我们将其保留为1。否则,您将需要20GB用于KV缓存。

Unsloth 高效 GRPO 算法

我们从Horace He的线性交叉熵实现中获得了灵感,并成功使其适用于GRPO!我们实际上发现了一些令人惊讶的点:

  • 参考GRPO实现使用反向KL散度,而不是前向KL散度。
  • 在float16混合精度(以及float8)上天真地实现线性交叉熵,如果不正确处理,自动混合精度缩放机制将会失效。
  • 我们在GRPO损失的实现中发现了其他怪癖——主要是在反向KL散度的公式方面。

GRPO的数学和发现的问题

GRPO首次在2024年2月至2024年4月的DeepSeek’s Math paper中引入,随后DeepSeek在创建DeepSeek R1时利用了GRPO算法,如他们的论文所述。

我们在这里利用Hugging Face的TRL GRPO实现。我们看到TRL实现执行:


其中我们利用反向KL散度(而不是前向KL散度)。Beta是一个设置为0.04的缩放因子,A是在考虑所有奖励函数后获得的优势。Q是新训练的模型,P是原始参考模型。

然后我们有趣地注意到,实现计算反向KL散度为:


但这实际上正确吗?我们首先尝试推导它,并收集类似项:


所以这意味着实现可能缺少乘以Q(新分布项)?

但这似乎是正确的,如在首次引入GRPO的DeepSeek数学论文第14页所见。同样,John Schulman的博客也指出,反向KL项的无偏估计实际上不需要额外的Q项。我们在博客中看到:


我们还有趣地发现:

torch.exp(q - q.detach()) * advantages.unsqueeze(1)

应该被评估为1,对吗?

我们实际上发现这是必要的——似乎自动梯度引擎可能没有正确传播梯度。

所以我们进行了4个实验:

  1. 通过参考实现进行正常GRPO(红线)
  2. 移除detach代码(蓝线)
  3. 完整反向KL,带有之前讨论的额外项(黄线)
  4. 前向KL散度代替(绿线)


总的来说,移除detach肯定会破坏所有训练,所以我们必须保留它——这很可能需要更多的调查。似乎所有其他实现都相似?我们可能需要运行模型更长时间才能看到不同的效果。

在所有实现中,我们还使用 logsumexp 技巧:

GRPO 的完整日志记录

我们现在还提供所有奖励函数的完整日志记录细节!之前我们只显示总聚合奖励函数本身。

您也不再需要调用函数来修补GRPO了!即,移除顶部的这个(我们自动完成):

from unsloth import PatchFastRL
PatchFastRL("GRPO", FastLanguageModel)

vLLM 推理选项

我们现在还允许您将 FP8 KV 缓存用于 vLLM,从而在较新的 GPU(RTX 3090、A100 和更新版本)上将 KV 缓存空间使用量减少 2 倍

model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "meta-llama/meta-Llama-3.1-8B-Instruct",
    max_seq_length = max_seq_length,
    load_in_4bit = True, # False for LoRA 16bit
    fast_inference = True, # Enable vLLM fast inference
    max_lora_rank = lora_rank,
    gpu_memory_utilization = 0.6, # Reduce if out of memory
    float8_kv_cache = True, # Enable float8 KV cache
)

其他更新

使用 vLLM 直接运行 Unsloth Dynamic 4 位

现在,您可以直接在 vLLM 中使用我们的动态量化运行和进行推理。这是由于接受的 PR我们对 vLLM 存储库执行了作。通过示例和基准测试,了解我们的动态量化如何比标准 4 位大幅提高精度这里.

GitHub Universe 访谈

在 GitHub 的 2024 Universe 大会上,我们在 10 月对 Andrea 进行了一次精彩的采访,现在视频已经发布!我们谈论了我们在澳大利亚的背景,我们如何建立 Unsloth,你们所有人都是多么了不起等等!在 YouTube 上观看


——完——

@北方的郎 · 专注模型与代码

喜欢的朋友,欢迎赞同、关注、分享三连 ^O^

相关推荐

30天学会Python编程:16. Python常用标准库使用教程

16.1collections模块16.1.1高级数据结构16.1.2示例...

强烈推荐!Python 这个宝藏库 re 正则匹配

Python的re模块(RegularExpression正则表达式)提供各种正则表达式的匹配操作。...

Python爬虫中正则表达式的用法,只讲如何应用,不讲原理

Python爬虫:正则的用法(非原理)。大家好,这节课给大家讲正则的实际用法,不讲原理,通俗易懂的讲如何用正则抓取内容。·导入re库,这里是需要从html这段字符串中提取出中间的那几个文字。实例一个对...

Python数据分析实战-正则提取文本的URL网址和邮箱(源码和效果)

实现功能:Python数据分析实战-利用正则表达式提取文本中的URL网址和邮箱...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...

深入理解re模块:Python中的正则表达式神器解析

在Python中,"re"是一个强大的模块,用于处理正则表达式(regularexpressions)。正则表达式是一种强大的文本模式匹配工具,用于在字符串中查找、替换或提取特定模式...

如何使用正则表达式和 Python 匹配不以模式开头的字符串

需要在Python中使用正则表达式来匹配不以给定模式开头的字符串吗?如果是这样,你可以使用下面的语法来查找所有的字符串,除了那些不以https开始的字符串。r"^(?!https).*&...

先Mark后用!8分钟读懂 Python 性能优化

从本文总结了Python开发时,遇到的性能优化问题的定位和解决。概述:性能优化的原则——优化需要优化的部分。性能优化的一般步骤:首先,让你的程序跑起来结果一切正常。然后,运行这个结果正常的代码,看看它...

Python“三步”即可爬取,毋庸置疑

声明:本实例仅供学习,切忌遵守robots协议,请不要使用多线程等方式频繁访问网站。#第一步导入模块importreimportrequests#第二步获取你想爬取的网页地址,发送请求,获取网页内...

简单学Python——re库(正则表达式)2(split、findall、和sub)

1、split():分割字符串,返回列表语法:re.split('分隔符','目标字符串')例如:importrere.split(',','...

Lavazza拉瓦萨再度牵手上海大师赛

阅读此文前,麻烦您点击一下“关注”,方便您进行讨论和分享。Lavazza拉瓦萨再度牵手上海大师赛标题:2024上海大师赛:网球与咖啡的浪漫邂逅在2024年的上海劳力士大师赛上,拉瓦萨咖啡再次成为官...

ArkUI-X构建Android平台AAR及使用

本教程主要讲述如何利用ArkUI-XSDK完成AndroidAAR开发,实现基于ArkTS的声明式开发范式在android平台显示。包括:1.跨平台Library工程开发介绍...

Deepseek写歌详细教程(怎样用deepseek写歌功能)

以下为结合DeepSeek及相关工具实现AI写歌的详细教程,涵盖作词、作曲、演唱全流程:一、核心流程三步法1.AI生成歌词-打开DeepSeek(网页/APP/API),使用结构化提示词生成歌词:...

“AI说唱解说影视”走红,“零基础入行”靠谱吗?本报记者实测

“手里翻找冻鱼,精心的布局;老漠却不言语,脸上带笑意……”《狂飙》剧情被写成歌词,再配上“科目三”背景音乐的演唱,这段1分钟30秒的视频受到了无数网友的点赞。最近一段时间随着AI技术的发展,说唱解说影...

AI音乐制作神器揭秘!3款工具让你秒变高手

在音乐创作的领域里,每个人都有一颗想要成为大师的心。但是面对复杂的乐理知识和繁复的制作过程,许多人的热情被一点点消磨。...

取消回复欢迎 发表评论: