ModernBERT-base:终于等到了 BERT 回归

简介: BERT于 2018 年发布(史前人工智能!),但它至今仍被广泛使用,BERT的纯编码器架构使其成为每天出现的各种场景的理想选择,例如检索、分类和实体提取。

01.引言

BERT于 2018 年发布(史前人工智能!),但它至今仍被广泛使用,BERT的纯编码器架构使其成为每天出现的各种场景的理想选择,例如检索、分类和实体提取。

6 年后,社区终于推出了替代品!今天,Answer.AI和LightOn发布了 ModernBERT。ModernBERT 是一个新的模型系列,在速度和准确性方面都比 BERT 系列实现了改进。该模型采用了近年来在大型语言模型 (LLM) 方面的数十项进展,并将它们应用于 BERT 风格的模型,包括对架构和训练过程的更新。

Decoder-Only 模型生成类似人类内容的能力使 GenAI 能够实现令人惊叹的全新应用领域,例如生成艺术和交互式聊天。但是许多实际应用需要一个精简的模型!而且它不需要是一个生成模型。对于大多数公司来说,大参数量的Decoder-Only模型过于复杂且成本高昂,难以复制。比如Llama的405B模型,或者闭源模型,通常需要等待几秒钟才能获得完整的 API 回复。而实际上更加精简,处理速度更快的小模型,可能更加适合传统的自然语言理解场景。

Encoder-Only模型的输出是数值列表(embedding tensor)。您可能会说,编码器模型不是用文本回答,而是将其“答案”直接编码为这种压缩的数字形式。该向量是模型输入的压缩表示,这就是为什么仅编码器模型有时被称为表征模型。

与参数量较大的Decoder-Only的模型相比,Encoder-Only的 Transformer 模型(例如 BERT)在检索和分类任务中提供了出色的性能和尺寸权衡。ModernBERT,它将现代模型优化引入Encoder-Only的模型,并且与旧编码器相比实现了重大的改进。ModernBERT 模型在 2 万亿个具有原生 8192 序列长度的 token 上进行训练,在大量评估中表现出最佳结果,这些评估涵盖了各种分类任务以及不同域(包括代码)上的单向量和多向量检索。除了强大的下游性能外,ModernBERT 还是速度和内存效率最高的编码器,专为在常见 GPU 上进行推理而设计。

02.模型概述

ModernBERT 是一种现代化的双向编码器 Transformer 模型(BERT 风格),预训练于 2 万亿个英文和代码数据标记,原生上下文长度可达 8,192 个标记。ModernBERT 利用了最近的架构改进,如:

  • Rotary Positional Embeddings 支持最多 8192 个标记的序列。
  • Unpadding 以确保不会在填充标记上浪费计算资源,从而加快混合长度序列批次的处理时间。
  • GeGLU用 GeGLU 层替换原来的 MLP 层,可提高性能。
  • Alternating Attention :大多数注意力层采用 128 个标记的滑动窗口,而全局注意力机制每 3 层才使用一次。
  • Flash Attention 注意加速处理。
  • 按照最近的“与硬件共同设计模型架构的案例”设计的模型,确保跨推理 GPU 的最高效率。
  • 现代训练数据规模(2 trillion tokens)和混合数据(包括代码和数学数据)

模型表现

添加图片注释,不超过 140 字(可选)

ModernBERT 的原生长上下文长度使其非常适合需要处理长文档的任务,例如检索、分类和大型语料库内的语义搜索。该模型在大量的文本和代码语料库上进行了训练,适用于广泛的下游任务,包括代码检索和混合(文本 + 代码)语义搜索。

模型下载

ModernBERT有以下几种大小可供选择:

03.模型推理

在魔搭社区长期免费的CPU资源上,即可流畅的运行ModernBERT模型,ModernBERT-base所需内存仅500M,处理速度ms级。

同时也可以使用GPU机器,更好的结合flash attention对ModernBERT模型加速。

添加图片注释,不超过 140 字(可选)

环境安装

!pip install git+https://github.com/huggingface/transformers.git

使用 AutoModelForMaskedLM模型推理

from transformers import AutoTokenizer, AutoModelForMaskedLM from modelscope import snapshot_download model_id = snapshot_download("answerdotai/ModernBERT-base") tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForMaskedLM.from_pretrained(model_id) text = "The capital of France is [MASK]." inputs = tokenizer(text, return_tensors="pt") outputs = model(**inputs) # To get predictions for the mask: masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id) predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1) predicted_token = tokenizer.decode(predicted_token_id) print("Predicted token:", predicted_token) # Predicted token:  Paris

使用pipeline:

import torch from transformers import pipeline from pprint import pprint pipe = pipeline(     "fill-mask",     model="answerdotai/ModernBERT-base",     torch_dtype=torch.bfloat16, ) input_text = "He walked to the [MASK]." results = pipe(input_text) pprint(results)

04.模型微调

我们使用ms-swift对ModernBERT-base进行分类任务微调。ms-swift是魔搭社区官方提供的大模型与多模态大模型微调部署框架。

ms-swift开源地址:

https://github.com/modelscope/ms-swift

微调数据集:

https://modelscope.cn/datasets/simpleai/HC3

在开始微调之前,请确保您的环境已准备妥当。

git clone https://github.com/modelscope/ms-swift.gitcd ms-swift pip install -e .[llm]

微调脚本如下:

CUDA_VISIBLE_DEVICES=0 \ swift sft \     --model answerdotai/ModernBERT-base \     --dataset simpleai/HC3:finance_cls#20000 \     --task_type seq_cls \     --num_labels 2 \     --train_type lora \     --torch_dtype bfloat16 \     --num_train_epochs 1 \     --per_device_train_batch_size 16 \     --per_device_eval_batch_size 16 \     --learning_rate 1e-4 \     --lora_rank 8 \     --lora_alpha 32 \     --target_modules all-linear \     --freeze_vit true \     --gradient_accumulation_steps 1 \     --eval_steps 100 \     --save_steps 100 \     --save_total_limit 5 \     --logging_steps 5 \     --max_length 2048 \     --output_dir output \     --warmup_ratio 0.05 \     --dataloader_num_workers 4

训练显存资源:

添加图片注释,不超过 140 字(可选)

自定义数据集格式如下,只需要指定`--dataset <dataset_path>`即可:

{"messages": [{"role": "user", "content": "今天天气真好呀"}], "label": 1} {"messages": [{"role": "user", "content": "今天真倒霉"}], "label": 0} {"messages": [{"role": "user", "content": "好开心"}], "label": 1}

训练分类acc:

添加图片注释,不超过 140 字(可选)

训练完成后,使用以下命令对训练时的验证集进行推理:

这里`--adapters`需要替换成训练生成的last checkpoint文件夹. 由于adapters文件夹中包含了训练的参数文件,因此不需要额外指定`--model`。

CUDA_VISIBLE_DEVICES=0 \ swift infer \     --adapters output/vx-xxx/checkpoint-xxx \     --max_batch_size 16 \     --load_data_args true

微调后模型部署:

CUDA_VISIBLE_DEVICES=0 \ swift deploy \     --adapters output/vx-xxx/checkpoint-xxx

部署完成后,使用以下命令进行客户端调用:

curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{ "model": "ModernBERT-base", "messages": [{"role": "user", "content": "<content>"}] }'

05.结论

本文介绍了 ModernBERT 模型,这是一组新型、先进的小型高效编码器模型,最终使 BERT 得到了急需的改造。

ModernBERT 证明,Encoder-Only的模型可以通过现代方法得到改进。它们在某些任务上继续提供非常强大的性能,提供极具吸引力的尺寸/性能比。

注:本文部分内容引用自blog:https://huggingface.co/blog/modernbert

点击链接阅读原文:ModelScope 魔搭社区

目录
相关文章
|
机器学习/深度学习 人工智能 自然语言处理
ModernBERT:英伟达开源的新一代编码器模型,性能超越 SOTA,通过去除填充和序列打包减少计算浪费,提高训练和推理的效率
ModernBERT 是由英伟达和 HuggingFace 等机构联合开源的新一代编码器模型,支持长上下文处理,性能超越 SOTA,适合多种自然语言处理任务。
499 7
ModernBERT:英伟达开源的新一代编码器模型,性能超越 SOTA,通过去除填充和序列打包减少计算浪费,提高训练和推理的效率
|
6月前
|
机器学习/深度学习 数据采集 人工智能
微调之后还能做什么?大模型后训练全链路技术解析
本文探讨了后训练的重要性、方法以及最新进展。文章将包含理论分析与实际操作指南,适合希望深入了解并应用这些技术的开发者。
1462 18
微调之后还能做什么?大模型后训练全链路技术解析
|
机器学习/深度学习 人工智能 自然语言处理
BERT的继任者ModernBERT:融合长序列处理、代码理解与高效计算的新一代双向编码器
ModernBERT 是一个全新的模型系列,在**速度**和**准确性**两个维度上全面超越了 BERT 及其后继模型。
845 9
|
8月前
|
人工智能 自然语言处理 搜索推荐
魔搭社区模型速递(4.27-5.10)
🙋魔搭ModelScope本期社区进展:📟2341个模型,206个数据集,🎨224个创新应用,📄 15篇内容
566 20
|
搜索推荐 物联网 PyTorch
Qwen2.5-7B-Instruct Lora 微调
本教程介绍如何基于Transformers和PEFT框架对Qwen2.5-7B-Instruct模型进行LoRA微调。
12781 34
Qwen2.5-7B-Instruct Lora 微调
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
《深度剖析:BERT与GPT——自然语言处理架构的璀璨双星》
BERT与GPT系列模型是自然语言处理(NLP)领域的里程碑。基于Transformer架构,BERT通过双向编码实现深度语言理解,适用于情感分析、命名实体识别等任务;GPT则以单向生成见长,能够创作连贯文本,广泛应用于对话系统和内容生成。两者虽在架构与目标上各有侧重,但其融合探索正推动更通用的NLP模型发展。随着技术进步,NLP将在效率、可解释性和跨领域应用等方面持续突破,为人工智能带来无限可能。
562 6
|
机器学习/深度学习 自然语言处理
MGTE系列模型
【10月更文挑战第15天】
461 9
|
存储 人工智能 搜索推荐
RAG系统的7个检索指标:信息检索任务准确性评估指南
大型语言模型(LLMs)在生成式AI领域备受关注,但其知识局限性和幻觉问题仍具挑战。检索增强生成(RAG)通过引入外部知识和上下文,有效解决了这些问题,并成为2024年最具影响力的AI技术之一。RAG评估需超越简单的实现方式,建立有效的性能度量标准。本文重点讨论了七个核心检索指标,包括准确率、精确率、召回率、F1分数、平均倒数排名(MRR)、平均精确率均值(MAP)和归一化折损累积增益(nDCG),为评估和优化RAG系统提供了重要依据。这些指标不仅在RAG中发挥作用,还广泛应用于搜索引擎、电子商务、推荐系统等领域。
6861 2
RAG系统的7个检索指标:信息检索任务准确性评估指南

热门文章

最新文章