谷歌Gemma介绍、微调、量化和推理

简介: 谷歌的最新的Gemma模型是第一个使用与Gemini模型相同的研究和技术构建的开源LLM。这个系列的模型目前有两种尺寸,2B和7B,并且提供了聊天的基本版和指令版。

用一句话来总结Gemma就是:学习了Llama 2和Mistral 7B的优点,使用了更多的Token和单词进行了训练了一个更好的7B(8.5B)模型。所以这篇文章我们将介绍Gemma模型,然后展示如何使用Gemma模型,包括使用QLoRA、推理和量化微调。

Gemma 7B 其实是 8.5B

1、模型细节

谷歌的发布这份技术报告中提供了模型的更多细节

可以看到Google总结了每个模型的参数数量,并且区分了嵌入参数和非嵌入参数。对于7B模型,有7.7B个非嵌入参数。如果考虑参数总数,Gemma 7B有8.54B个参数…

相比之下Gemma更接近9B。将Gemma作为“7B”LLM发布可以算是一种误导,但这也很好理解,因为肯定希望将自己的LLM与之前发布的7B进行比较,而更多的参数往往意味着更好的性能,对吧。

为了便于比较,我们总计了其他流行的“7B”模型的参数总数:

  • Llama 2 7B: 6.74B
  • Mistral 7B: 7.24B
  • Qwen-1.5 7B: 7.72B
  • Gemma 7B: 8.54B

可以看到,其实Gemma 7B比Llama 2 7B多1.8B个参数,按照参数越多,性能越好的理论,Gemma 比其他模型好是必然的。

在google的报告中还详细介绍了模型的架构:

可以处理多达8k个令牌的上下文。为了高效扩展,他们使用了multi-query attention和RoPE嵌入,并且兼容FlashAttention-2。

Gemma的嵌入词表是目前开源模型中最大的,有256k个。它比Llama 2的词汇量大8倍,比Qwen-1.5的词汇量大1.7倍,而Qwen-1.5的词汇量已经被认为非常大了。除了词汇表大小之外,Gemma架构非常标准。更大的嵌入词表通常意味着模型被训练成多语言的。但是谷歌却说这些模型主要是为英语任务训练的。

但是根据目前发布的模型来看,谷歌确实在涵盖多种语言的数据上训练了模型,如果针对多语言任务进行微调应该会产生良好的性能。

2、Gemma的训练数据

Gemma 2B和7B分别接受了2万亿个和6万亿个token的训练。这意味着Gemma 7B接受的token比Llama 2多3倍。这里猜测原因如下:

由于词汇表非常大,需要对模型进行更长的训练,以便更好地学习词汇表中所有标记的嵌入。扩大训练的token后损失应该还是降低的,这也与词汇表非常大相对应。我们可以这么理解词汇表越大,可能需要的训练token就越多,当然可能表现就会越好。

对于模型的指令版本,他们对由人类和合成数据组成的指令数据集进行了监督微调,然后进行了基于人类反馈的强化学习(RLHF)。

3、公共测试数据上的表现

谷歌在标准基准上对Gemma进行了评估,并将结果与Llama 2(在论文中拼写为lama -2…)和Mistral 7B进行了比较。

在大多数任务中,Gemma 7B比其他模型获得了更好的分数。但是这里有2个问题:

1、我们还是要对这些基准分数持保留态度。因为谷歌没有告诉我们是如何计算这些分数的。

2、还是模型参数问题,8.5B理论上应该就会比7B要好,所以分数提高是很正常的

本地运行Gemma 2B和7B

Hugging Face的Transformers和vLLM都已经支持Gemma模型,硬件的要求是18gb GPU。

我们先介绍vLLM

 import time
 from vllm import LLM, SamplingParams
 prompts = [
     "The best recipe for pasta is"
 ]
 sampling_params = SamplingParams(temperature=0.7, top_p=0.8, top_k=20, max_tokens=150)
 loading_start = time.time()
 llm = LLM(model="google/gemma-7b")
 print("--- Loading time: %s seconds ---" % (time.time() - loading_start))
 generation_time = time.time()
 outputs = llm.generate(prompts, sampling_params)
 print("--- Generation time: %s seconds ---" % (time.time() - generation_time))
 for output in outputs:
     generated_text = output.outputs[0].text
     print(generated_text)
     print('------')

然后是Transformers

 import torch
 from transformers import AutoTokenizer, AutoModelForCausalLM, set_seed
 set_seed(1234)  # For reproducibility
 prompt = "The best recipe for pasta is"
 checkpoint = "google/gemma-7b"
 tokenizer = AutoTokenizer.from_pretrained(checkpoint)
 model = AutoModelForCausalLM.from_pretrained(checkpoint, torch_dtype=torch.float16, device_map="cuda")
 inputs = tokenizer(prompt, return_tensors="pt").to('cuda')
 outputs = model.generate(**inputs, do_sample=True, max_new_tokens=150)
 result = tokenizer.decode(outputs[0], skip_special_tokens=True)
 print(result)

使用起来都是很简单的,与其他的开源模型基本一样。

Gemma 7B的量化

AutoGPTQ和AutoAWQ是GPTQ和AWQ量化最常用的两个库,但在目前(2.29)它们并不支持Gemma。所有我们只能用bitsandbytes NF4量化Gemma 7B。

GGUF格式的块量化也可以用llama.cpp完成。Google在与原始版本相同的存储库中发布了Gemma的GGUF版本。

经过bitsandbytes量化Gemma 7B仍然需要7.1 GB的GPU RAM。所以还是那句话 这个“7B”的叫法是不是正确的呢?

以下是量化加载和推理的代码

 import torch
 from transformers import AutoTokenizer, AutoModelForCausalLM, set_seed, BitsAndBytesConfig

 set_seed(1234)  # For reproducibility
 prompt = "The best recipe for pasta is"
 checkpoint = "google/gemma-7b"
 compute_dtype = getattr(torch, "float16")
 bnb_config = BitsAndBytesConfig(
         load_in_4bit=True,
         bnb_4bit_quant_type="nf4",
         bnb_4bit_compute_dtype=compute_dtype,
         bnb_4bit_use_double_quant=True,
 )
 tokenizer = AutoTokenizer.from_pretrained(checkpoint)
 model = AutoModelForCausalLM.from_pretrained(checkpoint, quantization_config=bnb_config, device_map="cuda")
 inputs = tokenizer(prompt, return_tensors="pt").to('cuda')
 outputs = model.generate(**inputs, do_sample=True, max_new_tokens=150)
 result = tokenizer.decode(outputs[0], skip_special_tokens=True)
 print(result)

使用QLORA对Gemma 7B进行微调

bitsandbytes量化已经可以正常使用,所以我们可以用QLoRA对Gemma 7B进行微调。当然如果使用很小的训练批大小和较短的max_seq_length,也可以在消费者硬件上使用LoRA(即不进行量化)对Gemma 7B进行微调。

以下是我使用Gemma 7B测试QLoRA微调的代码:

 import torch
 from datasets import load_dataset
 from peft import LoraConfig, PeftModel, prepare_model_for_kbit_training
 from transformers import (
     AutoModelForCausalLM,
     AutoTokenizer,
     BitsAndBytesConfig,
     AutoTokenizer,
     TrainingArguments,
 )
 from trl import SFTTrainer

 model_name = "google/gemma-7b"
 #Tokenizer
 tokenizer = AutoTokenizer.from_pretrained(model_name, add_eos_token=True, use_fast=True)
 tokenizer.pad_token = tokenizer.eos_token
 tokenizer.pad_token_id =  tokenizer.eos_token_id
 tokenizer.padding_side = 'left'
 ds = load_dataset("timdettmers/openassistant-guanaco")
 compute_dtype = getattr(torch, "float16")
 bnb_config = BitsAndBytesConfig(
         load_in_4bit=True,
         bnb_4bit_quant_type="nf4",
         bnb_4bit_compute_dtype=compute_dtype,
         bnb_4bit_use_double_quant=True,
 )
 model = AutoModelForCausalLM.from_pretrained(
           model_name, quantization_config=bnb_config, device_map={"": 0}
 )
 model = prepare_model_for_kbit_training(model)
 #Configure the pad token in the model
 model.config.pad_token_id = tokenizer.pad_token_id
 model.config.use_cache = False # Gradient checkpointing is used by default but not compatible with caching
 peft_config = LoraConfig(
         lora_alpha=16,
         lora_dropout=0.05,
         r=16,
         bias="none",
         task_type="CAUSAL_LM",
         target_modules= ['k_proj', 'q_proj', 'v_proj', 'o_proj', "gate_proj", "down_proj", "up_proj"]
 )
 training_arguments = TrainingArguments(
         output_dir="./results_qlora",
         evaluation_strategy="steps",
         do_eval=True,
         optim="paged_adamw_8bit",
         per_device_train_batch_size=4,
         per_device_eval_batch_size=4,
         log_level="debug",
         save_steps=50,
         logging_steps=50,
         learning_rate=2e-5,
         eval_steps=50,
         max_steps=300,
         warmup_steps=30,
         lr_scheduler_type="linear",
 )
 trainer = SFTTrainer(
         model=model,
         train_dataset=ds['train'],
         eval_dataset=ds['test'],
         peft_config=peft_config,
         dataset_text_field="text",
         max_seq_length=512,
         tokenizer=tokenizer,
         args=training_arguments,
 )
 trainer.train()

300个训练步(训练批大小为4个)需要不到1小时。

总结

许多框架已经很好地支持Gemma模型,GPTQ和AWQ的量化也将很快就会发布的,经过量化后可以在8gb GPU上使用Gemma 7B。

不可否认发布Gemma模型是谷歌前进的一步。Gemma 7B看起来是Mistral 7B的一个很好的竞争对手,但我们不要忘记它也比Mistral 7B多10亿个参数。另外我一直没想明白Gemma 2B的用例是什么,它的性能被其他类似尺寸的模型超越了(这个2B可能就真是2B了),并且可以看到谷歌这俩模型参数少的性能不行,性能好的参数又多很多。这种文字游戏说明谷歌在AI赛道上的确使落后并且着急了,而且目前还没有任何的办法进行超越。

这里是谷歌官方发布的gemma-report,有兴趣的可以查看

https://avoid.overfit.cn/post/6921505d228e4daa81e460e1c231eb49

作者:Benjamin Marie

目录
相关文章
|
2月前
|
存储 弹性计算 搜索推荐
阿里云轻量应用服务器、ECS 云服务器、GPU 服务器收费标准最新整理2026
阿里云轻量应用服务器、ECS 云服务器、GPU 服务器收费价格表哪里看?今天整理了最新的阿里云服务器收费标准。目前阿里云服务器持续推出重磅优惠,涵盖轻量应用服务器、ECS 云服务器、GPU 服务器等多种类型,支持包年包月、按量付费等灵活付费方式,新老用户均可享受超值福利,续费价格保持稳定不涨价。以下是最新整理的完整价格及配置详情,方便不同需求的用户选择。
|
3月前
|
Ubuntu Linux 网络安全
httpd 2.4.1 怎么安装?Linux 下源码编译安装步骤详解(附安装包)
本文介绍Apache HTTP服务器源码安装步骤:下载解压httpd-2.4.1.tar.gz,配置编译环境,执行configure、make、make install完成安装,最后启动服务并访问IP验证。需root权限及基础依赖包,适用于CentOS/Ubuntu系统。(238字)
|
11月前
|
机器学习/深度学习 人工智能 编解码
AIMv2:苹果开源多模态视觉模型,自回归预训练革新图像理解
AIMv2 是苹果公司开源的多模态自回归预训练视觉模型,通过图像和文本的深度融合提升视觉模型的性能,适用于多种视觉和多模态任务。
556 5
AIMv2:苹果开源多模态视觉模型,自回归预训练革新图像理解
|
机器学习/深度学习 数据采集 物联网
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
920 0
|
编解码 JSON 自然语言处理
通义千问重磅开源Qwen2.5,性能超越Llama
击败Meta,阿里Qwen2.5再登全球开源大模型王座
6139 19
|
11月前
|
人工智能 前端开发
鸿蒙开发:实现AI打字机效果
具体的效果,根据业务情况而定,有两种模式,一种主动的流式输出,也就是数据以流式的形式进行返回,前端直接用组件加载即可,第二种就是刻意的流式展示,也就是在拿到数据之后,前端实现流式输出,进行打字机展示。
261 13
|
11月前
|
存储 JSON NoSQL
MongoDB常用命令
本文介绍了将文章评论数据存储到MongoDB中的操作方法,包括数据库和集合的基本操作。主要内容涵盖:选择与创建数据库(如`articledb`)、数据库删除、集合的显式与隐式创建及删除、文档的CRUD操作(插入、查询、更新、删除)。此外,还详细说明了分页查询、排序查询以及统计查询的方法,例如使用`limit()`、`skip()`实现分页,`sort()`进行排序,`count()`统计记录数。通过实例展示了如何高效管理MongoDB中的数据。
|
网络协议 应用服务中间件 网络安全
IP申请SSL证书的条件和方法
为IP地址申请SSL证书与域名证书流程不同,主要因SSL基于域名验证。部分CA允许为公有或私有IP地址申请证书,需满足拥有IP所有权、支持单IP或自签名证书、IP可公开访问及符合CA政策等条件。申请步骤包括访问CA官网、选择证书类型、提交申请、验证所有权并安装证书。替代方案是使用自签名证书,适合内部网络或开发环境。
1237 11
|
人工智能 Linux Docker
一文详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
近年来,大模型在AI领域崭露头角,成为技术创新的重要驱动力。从AlphaGo的胜利到GPT系列的推出,大模型展现出了强大的语言生成、理解和多任务处理能力,预示着智能化转型的新阶段。然而,要将大模型的潜力转化为实际生产力,需要克服理论到实践的鸿沟,实现从实验室到现实世界的落地应用。阿里云去年在云栖大会上发布了一系列基于通义大模型的创新应用,标志着大模型技术开始走向大规模商业化和产业化。这些应用展示了大模型在交通、电力、金融、政务、教育等多个行业的广阔应用前景,并揭示了构建具有行业特色的“行业大模型”这一趋势,大模型知识库概念随之诞生。
157858 30