使用 ExLlamaV2 在消费级 GPU 上运行 Llama 2 70B

简介: 使用 ExLlamaV2 在消费级 GPU 上运行 Llama 2 70B

image.png

Llama 2 系列中最大、最好的模型拥有 700亿 个参数。一个 fp16 参数占 2 个字节。加载 Llama 2 70B 需要 140 GB 内存(700 亿 * 2 字节)。

Llama 2 70B 明显小于 Falcon 180B

Llama 2 70B 可以完全适合单个消费级 GPU 吗?

这是个很有挑战性的问题。高端消费类 GPU(例如 NVIDIA RTX 30904090)具有 24 GB 的显存VRAM。如果将 Llama 2 70B 量化到 4-bit 精度,仍然需要 35 GB 显存700 亿 * 0.5 字节)。该模型可以安装到 2 个消费级 GPU 中。

通过 GPTQ 量化,可以进一步将精度降低到 3-bit,而不会损失太多模型的性能。 3-bit 参数在内存中的大小为 0.375 字节。 Llama 2 70B 量化为 3-bit 后仍需显存 26.25 GB,还是不适合一款消费级 GPU。

继续降低精度,将精度降低到 2-bit,需要现场 24 GB,但根据之前关于 2-bit 量化的研究,模型的性能会显着下降。

为了避免模型性能损失太多,可以将模型的重要层或部分量化为更高的精度,将不太重要的部分量化为更低的精度,将模型以混合精度方式进行量化。

ExLlamaV2(MIT 许可证)实现混合精度量化。

在本文中,将展示如何使用 ExLlamaV2 以混合精度方式量化模型。具体地说,将了解如何将 Llama 2 70B 量化到低于 3-bit 的平均精度。

什么是 Llama 2

Meta AI 的 Llama 2 摆脱了前身 Llama 的阴影,在聊天机器人领域树立新基准方面迈出了重大一步。它的前身 Llama 通过根据提示生成文本和代码来激起波澜,就像它的聊天机器人同行一样。

Llama 2 扮演两个不同的角色 Llama 2Llama 2-ChatLlama 2-Chat 特别适合进行双向对话。它们根据其复杂程度进一步分为不同的版本,范围从 7b 个参数到高达 70b 个参数的模型。

image.png

混合精度 Llama 2 的量化

要以混合精度量化模型并运行它们,需要安装  ExLlamaV2

从源码安装:


git clone https://github.com/turboderp/exllamav2
cd exllamav2
pip install -r requirements.txt

目标是在消费级 GPU 上运行模型。

  • Llama 2 70B:目标是 24 GB 显存。 NVIDIA RTX3090/4090 GPU 可以工作。如果使用 Google Colab,则无法在免费的 Google Colab 上运行它。只有 Google Colab PROA100 有足够的显存。
  • Llama 2 13B:目标是 12 GB 显存。许多具有至少 12 GB VRAM 的 GPU 都可用。 RTX3060/3080/4060/4080 就是其中的型号。它可以在带有 T4 GPU 的免费 Google Colab 上运行。

如何使用 ExLlamaV2 以混合精度进行量化

ExLlamaV2 使用的量化算法与 GPTQ 类似。但 ExLlamaV2 没有选择一种精度类型,而是在测量量化误差时为每一层尝试不同的精度类型。所有的尝试和相关的错误率都会被保存。然后,给定用户提供的目标精度,ExLlamaV2 算法将通过为每层模块选择领先的量化精度来量化模型,平均以最低的错误率达到目标精度。

在量化期间,ExLlamaV2 输出所有尝试:

Llama 2 13B 第10层 up_proj 模块的量化尝试:


-- Linear: model.layers.10.mlp.up_proj
 -- 0.05:3b/0.95:2b 32g s4         2.18 bpw    rfn_error: 0.21867
 -- 0.25:3b/0.75:2b 32g s4         2.38 bpw    rfn_error: 0.20617
 -- 0.25:4b/0.75:2b 32g s4         2.63 bpw    rfn_error: 0.20230
 -- 0.1:4b/0.4:3b/0.5:2b 32g s4    2.73 bpw    rfn_error: 0.18449
 -- 0.1:4b/0.9:3b 32g s4           3.23 bpw    rfn_error: 0.10229
 -- 0.2:6b/0.8:3b 32g s4           3.73 bpw    rfn_error: 0.09791
 -- 1.0:3b 128g s4                 3.03 bpw    rfn_error: 0.11354
 -- 1.0:3b 32g s4                  3.13 bpw    rfn_error: 0.10491
 -- 0.05:4b/0.95:3b 32g s4         3.18 bpw    rfn_error: 0.10363
 -- 0.4:4b/0.6:3b 32g s4           3.53 bpw    rfn_error: 0.09272
 -- 0.6:4b/0.4:3b 64g s4           3.66 bpw    rfn_error: 0.08835
 -- 1.0:4b 128g s4                 4.03 bpw    rfn_error: 0.05756
 -- 1.0:4b 32g s4                  4.13 bpw    rfn_error: 0.05007
 -- 0.1:5b/0.9:4b 32g s4           4.23 bpw    rfn_error: 0.04889
 -- 0.1:6b/0.9:4b 32g s4           4.33 bpw    rfn_error: 0.04861
 -- 1.0:5b 128g s4                 5.03 bpw    rfn_error: 0.02879
 -- 0.1:6b/0.9:5b 32g s4           5.23 bpw    rfn_error: 0.02494
 -- 0.05:8b/0.05:6b/0.9:5b 32g s4  5.33 bpw    rfn_error: 0.02486
 -- 0.4:6b/0.6:5b 32g s4           5.53 bpw    rfn_error: 0.02297
 -- 0.1:8b/0.3:6b/0.6:5b 32g s4    5.73 bpw    rfn_error: 0.02280
 -- 1.0:6b 128g s4                 6.03 bpw    rfn_error: 0.01503
 -- 1.0:6b 32g s4                  6.13 bpw    rfn_error: 0.01471
 -- 0.1:8b/0.9:6b 128g s4          6.23 bpw    rfn_error: 0.01463
 -- 1.0:8b 32g s4                  8.13 bpw    rfn_error: 0.00934
 -- Time: 19.57 seconds

可以看到,正如预期的那样,随着量化精度(bpw,即每权重位数)的增加,错误率降低。

使用 ExLlamaV2 进行量化就像运行 convert.py 脚本一样简单,其中 convert.py 位于ExLlamaV2 的根目录下:


python convert.py \
    -i ./Llama-2-13b-hf/ \
    -o ./Llama-2-13b-hf/temp/ \
    -c test.parquet \
    -cf ./Llama-2-13b-hf/3.0bpw/ \
    -b 3.0

ExLlamaV2 不支持 Hugging Face 库,它期望模型和校准数据集存储在本地。

该脚本的主要参数如下:

  • 输入模型 -i:包含 safetensors 格式模型的本地目录。
  • 用于校准的数据集 -c:需要一个用于校准量化的数据集。它必须以 parquet 格式存储在本地。
  • 输出目录 -cf:保存量化模型的本地目录。
  • 量化的目标精度 -b:模型将以混合精度进行量化,该混合精度将平均为目标精度。在这里,选择以 3-bit 精度为目标。

这次量化花了 2小时5分钟。使用具有 T4 GPU 和高 CPU RAM 的 Google Colab PRO。整个过程中没有消耗超过 5 GB 的 VRAM,但 CPU RAM 的峰值消耗达到了 20 GB

T4 相当慢。使用 Google Colab V100RTX GPU 可以缩短量化时间。 注意:不清楚量化期间 GPU 的使用量。 CPU 速度对量化时间的影响可能比 GPU 更大。

要量化 Llama 2 70B,可以执行相同的操作。

应该以什么精度为目标,以便量化的 Llama 2 70B 适合 24 GB VRAM

可以使用以下方法来确定给定硬件的模型的精度。

假设有 24 GB 的 VRAM。还应该始终预期推理会产生一些内存开销。因此,目标是 22 GB 的量化模型大小。

首先,需要将 22 GB 转换为 bits


22 GB = 2.2e+10 bytes = 1.76e+11 bits (since 1 byte = 8 bits)

1.76e+11 bits (b) 可用。 Llama 2 70B7e+10 个要量化的参数 p。目标精度是 bpw


bpw = b/p
bpw = 176 000 000 000 / 70 000 000 000 = 2.51

因此可以承受每个参数 2.51 bits 的平均精度。将其四舍五入为 2.5 bits。 为了将 Llama 2 70B 量化到 2.5 bits 的平均精度,运行:


python convert.py \
    -i ./Llama-2-70b-hf/ \
    -o ./Llama-2-70b-hf/temp/ \
    -c test.parquet \
    -cf ./Llama-2-70b-hf/2.5bpw/ \
    -b 2.5

这种量化在具有 24 GB GPU 的消费类硬件上也是可行的。最多可能需要 15 小时。如果想使用 Google Colab 进行此操作,请注意,必须将原始模型存储在 Google Colab 硬盘之外,因为使用 A100 GPU 时原始模型太小。

使用 ExLlamaV2 在 GPU 上运行 Llama 2 70B

ExLlamaV2 提供运行混合精度量化模型所需的一切。

有一个 chat.py 脚本将模型作为聊天机器人运行以供交互使用。还可以使用 test_inference.py 简单地测试模型。这就是检查模型速度和内存消耗的方法。

为了测试以 2.5 bpw 量化的 Llama 2 70B,运行:


python test_inference.py -m ./Llama-2-70b-2.5bpw/ -p "Once upon a time,"
  • -p 为测试提示符。

这应该需要几分钟(在 A100 GPU 上需要 8 分钟)。 ExLlamaV2 使用torch.compile。根据 PyTorch 文档:

torch.compile 通过将 PyTorch 代码 JIT 编译到优化的内核中,使 PyTorch 代码运行得更快,同时只需要最少的代码更改。

这个编译很耗时但是会被缓存。

如果运行 test_inference.py,同样只需要 30 秒

该模型本身需要显存 22.15 GB。在推理实验中,它正好占用了 24 GB。它几乎不适合消费级 GPU。

为什么它不只消耗 22.15 GB 显存?

显存中的模型实际上占用了 22.15 GB,但推理本身也消耗了额外的显存。例如,必须对提示进行编码并将其存储在显存中。此外,如果设置更高的最大序列长度或进行批量解码,推理将消耗更多显存。

使用 Google Colab 的 A100 进行这个实验。如果使用 24 GB 的 GPU,则在推理过程中可能会出现 CUDA 内存不足错误,特别是如果还使用 GPU 运行操作系统图形用户界面(例如,Ubuntu 桌面消耗大约 1.5 GB 的显存) 。

为了给一些利润,目标是较低的 bpw2.4 甚至 2.3 会留下几 GB 的 VRAM 可用于推理。

ExLlamaV2 模型的速度也非常快。观察到生成速度在 1530令牌/秒之间。为了给一个比较点,当使用 GPTQ(一个小 10 倍的模型)对量化为 4-bitLlama 2 7B 进行基准测试时,使用 Hugging Face 转换器进行生成,可以达到大约 28 个令牌/秒的速度。

总结

混合精度的量化很直观,在影响较小的地方积极降低模型的精度。在单个消费级 GPU 上运行 Llama 2 70B 等大型模型是可能的。

请务必评估使用不同目标精度量化的模型。虽然较大的模型更容易量化而不会造成太大的性能损失,但总有一个精度,在该精度下,量化的模型将变得比未量化但参数较少的模型更差,例如,Llama 2 70B2-bit 可能比 4-bit 差很多,但仍然更大。

翻译:towardsdatascience.com/run-llama-2…


相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
6月前
|
机器学习/深度学习 存储 PyTorch
【AMP实操】解放你的GPU运行内存!在pytorch中使用自动混合精度训练
【AMP实操】解放你的GPU运行内存!在pytorch中使用自动混合精度训练
240 0
|
6月前
|
并行计算 Linux 测试技术
GPU实例使用--单实例上运行Linux桌面多开解决方案
客户前期使用的旧异构实例面临更新换代,新的推荐异构实例性能更强,客户的业务软件运行时,GPU使用率不高,需要探索多开方案,提高GPU使用率,提高实例性价比。
|
人工智能 弹性计算 并行计算
单GPU运行数千环境、800万步模拟只需3秒,斯坦福开发超强游戏引擎
单GPU运行数千环境、800万步模拟只需3秒,斯坦福开发超强游戏引擎
468 2
|
1月前
|
机器学习/深度学习 并行计算 调度
CuPy:将 NumPy 数组调度到 GPU 上运行
CuPy:将 NumPy 数组调度到 GPU 上运行
55 1
|
5月前
|
机器学习/深度学习 并行计算 算法框架/工具
为什么深度学习模型在GPU上运行更快?
为什么深度学习模型在GPU上运行更快?
76 2
|
4月前
|
机器学习/深度学习 TensorFlow API
Keras是一个高层神经网络API,由Python编写,并能够在TensorFlow、Theano或CNTK之上运行。Keras的设计初衷是支持快速实验,能够用最少的代码实现想法,并且能够方便地在CPU和GPU上运行。
Keras是一个高层神经网络API,由Python编写,并能够在TensorFlow、Theano或CNTK之上运行。Keras的设计初衷是支持快速实验,能够用最少的代码实现想法,并且能够方便地在CPU和GPU上运行。
|
5月前
|
运维 Serverless 文件存储
Serverless 应用引擎产品使用合集之函数实例运行期间相关的依赖资源(vcpu、临时磁盘、GPU)是否会随函数运行完毕而释放
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
|
5月前
|
缓存 Serverless API
函数计算产品使用问题之GPU实例留运行但未进行 GPU 计算,是否还会计费
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
|
6月前
|
机器学习/深度学习 存储 算法
【GPU】深入理解GPU硬件架构及运行机制
【GPU】深入理解GPU硬件架构及运行机制
828 0
|
6月前
|
达摩院 并行计算 异构计算
modelscope调用的模型如何指定在特定gpu上运行?排除使用CUDA_VISIBLE_DEVICES环境变量
由于个人需要,家里有多张卡,但是我只想通过输入device号的方式,在单卡上运行模型。如果设置环境变量的话我的其他服务将会受影响。

热门文章

最新文章