Memory Layers:如何在不增加算力成本的情况下扩大模型的参数容量?Meta 开源解决方法

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
简介: Meta 开源的 Memory Layers 技术,通过键值查找机制扩展大模型参数,显著提升模型性能,尤其适用于事实性任务。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 功能扩展:Memory Layers 通过键值查找机制扩展模型参数,不增加计算负担。
  2. 性能提升:显著提升模型在事实性任务中的准确性,超越传统密集模型。
  3. 技术原理:基于稀疏激活和产品量化键,实现高效信息存储与检索。

正文(附运行示例)

Memory Layers 是什么

公众号: 蚝油菜花 - memory

Memory Layers 是 Meta 推出的一种通过可训练的键值查找机制为模型增加额外参数的技术。它不会增加浮点运算次数(FLOPs),而是通过稀疏激活的方式补充计算密集型的前馈层,提供专门的容量来廉价地存储和检索信息。

在大规模语言模型中,Memory Layers 显示出显著的实用性,尤其是在处理事实性任务时,能够显著提高模型的性能。通过替换 Transformer 层中的一个或多个前馈网络(FFN)为记忆层,Memory Layers 在不显著增加计算成本的情况下,显著提升了模型的事实准确性和知识获取能力。

Memory Layers 的主要功能

  • 参数扩展:支持模型在不增加计算负担(即不增加 FLOPs)的情况下增加额外的参数,扩展模型的容量。
  • 信息存储与检索:提供专门的机制存储和检索信息。
  • 补充密集层:与计算密集型的前馈层(feed-forward layers)互补,基于稀疏激活模式提供信息存储和检索的专用容量。
  • 提高事实准确性:在事实性任务中,显著提高语言模型的准确性,让模型更准确地记忆和使用训练数据中的事实。
  • 性能提升:在计算和参数匹配的情况下,让模型性能超过传统的密集模型和混合专家模型。

Memory Layers 的技术原理

  • 键值查找机制:基于简单的键值查找机制工作,其中键和值都编码为嵌入向量。给定查询向量 q,及一组键 K 和值 V,输出是值的一个软组合,权重根据 q 与对应键的相似度确定。
  • 稀疏激活:与传统的注意力机制不同,Memory Layers 中的键和值是可训练的参数,而不是激活值。由于键和值的数量通常很大,Memory Layers 需要进行稀疏查找和更新,只有与查询最相似的 top-k 键和对应的值参与输出计算。
  • 产品键查找:为解决大规模记忆中查询-键检索的瓶颈,Memory Layers 采用产品量化键(product-quantized keys),用两组较小的键有效地执行全键集的 top-k 查找。
  • 并行化实现:由于 Memory Layers 对内存的需求很大,在多个 GPU 上并行化嵌入查找和聚合实现大规模扩展。
  • 共享记忆参数:用共享的记忆参数池,在不增加参数数量的情况下,基于多个记忆层增加性能。

如何运行 Memory Layers

1. 克隆仓库并创建环境

git clone https://github.com/facebookresearch/memory
cd memory

bash setup/create_env.sh
# 或者如果你有 SLURM 集群访问权限
sbatch setup/create_env.sh

2. 激活环境

conda activate lingua_<date>

3. 下载并准备数据

python setup/download_prepare_hf_data.py fineweb_edu <MEMORY> --data_dir ./data --seed 42

4. 下载分词器

python setup/download_tokenizer.py llama3 <SAVE_PATH> --api_key <HUGGINGFACE_TOKEN>

5. 启动调试任务

# stool 代表 SLURM 工具!
python -m lingua.stool script=apps.main.train config=apps/main/configs/pkplus_373m_1024k.yaml nodes=1 partition=<partition>
# 如果你想在本地运行,可以使用 torchrun
torchrun --nproc-per-node 8 -m apps.main.train config=apps/main/configs/pkplus_373m_1024k.yaml
# 或者你也可以在 1 个 GPU 上运行
python -m apps.main.train config=apps/main/configs/pkplus_373m_1024k.yaml

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
8月前
|
机器学习/深度学习 存储 PyTorch
【AMP实操】解放你的GPU运行内存!在pytorch中使用自动混合精度训练
【AMP实操】解放你的GPU运行内存!在pytorch中使用自动混合精度训练
288 0
|
3月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
4月前
|
测试技术 开发工具 Swift
Liger kernel训练加速,一行代码训练吞吐量提高 20%,显存使用量降低 60%
在LLM的训练/微调过程中,开发者通常会遇到一些瓶颈,包括GPU显存不够,经常遇到OOM,GPU使用率100%而且非常慢等。
Liger kernel训练加速,一行代码训练吞吐量提高 20%,显存使用量降低 60%
|
8月前
|
人工智能 自然语言处理 物联网
极大降低大模型训练内存需求,Meta等推出高效方法
【2月更文挑战第27天】极大降低大模型训练内存需求,Meta等推出高效方法
101 2
极大降低大模型训练内存需求,Meta等推出高效方法
|
Cloud Native Go 索引
Go 语言切片扩容规则是扩容2倍?1.25倍?到底几倍
Go 语言切片扩容规则是扩容2倍?1.25倍?到底几倍
|
存储 机器学习/深度学习 自然语言处理
650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了
650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了
483 0
|
机器学习/深度学习 传感器 人工智能
用少于256KB内存实现边缘训练,开销不到PyTorch千分之一
用少于256KB内存实现边缘训练,开销不到PyTorch千分之一
104 0
|
存储 机器学习/深度学习 人工智能
不堆参数、不靠时长,Meta加速ViT训练流程,吞吐量4倍提升
不堆参数、不靠时长,Meta加速ViT训练流程,吞吐量4倍提升
244 0
|
机器学习/深度学习 文件存储 计算机视觉
【最强模型之道】AWS Auto-Aug:通过Weight共享改进自动数据增广,打造最高精度单模型
【最强模型之道】AWS Auto-Aug:通过Weight共享改进自动数据增广,打造最高精度单模型
293 0
|
存储 编译器 程序员
C++内存分区模型分析与实例以及扩展
C++程序在执行时,将内存大方向划分为**5个区域** 运行前: - 代码区:存放**函数体的二进制代码**,由操作系统进行管理的 - 全局区(静态区):存放**全局变量和静态变量以及常量** - 常量区:**常量**存储在这里,不允许修改 运行后: - 栈区:由编译器自动分配释放, 存放**函数的参数值**,**局部变量等** - 堆区:**由程序员分配和释放**,若程序员不释放,程序结束时由操作系统回收
224 0
C++内存分区模型分析与实例以及扩展

热门文章

最新文章