【LLM】能够运行在移动端的轻量级大语言模型Gemma实践

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
简介: 【4月更文挑战第12天】可以运行在移动端的开源大语言模型Gemma模型介绍

[toc]


轻量级模型是 AI 模型,与传统模型相比,设计得更小、更高效。轻量模型表现为:

  • 更快的处理速度,因为它们需要更少的计算能力来在笔记本电脑甚至智能手机等资源较少的设备上运行和操作。
  • 减少内存使用量,因为它们占用的内存空间更少。
  • 降低运行模型所需的计算成本。

这种模型是通过使用更少的参数、创建优化的架构和量化(使用更少的位表示模型的数据)来实现的。

轻量级模型的示例包括 MobileNet(一种专为移动和嵌入式视觉应用设计的计算机视觉模型)、EfficientDet(一种对象检测模型)和 EfficientNet(一种使用复合缩放以实现更好性能的 CNN)。所有这些都是来自谷歌的轻量级模型。

在本文中,我们将介绍 Gemma,一款最先进的轻量级模型。

简介

Gemma 是由 Google AI 开发的一系列轻量级开源机器学习模型,这些模型易于访问且高效,使 AI 开发更容易为广大用户所接受。Gemma 于 2024 年 2 月 21 日发布,采用与Gemini 模型相同的技术架构。Gemma 是基于文本训练的。它在文本摘要、问答和推理等任务中表现出色。

根据可训练参数数量,Gemma 模型有两种主要版本:2B 和 7B,同时它还提供指令调整模型,如 Gemma 2B-FT 和 7B-FT,这些模型专为使用个人数据集进一步定制而设计。

一、Gemma构建

安装要求:

  • Kaggle账户
  • Colab Notebook

要获得对 Gemma 的访问权限,必须向 Gemma 模型卡发送访问请求并选择“请求访问”。您将需要填写同意书并接受条款和条件。然后,选择 Colab 运行时并配置 API 密钥。可以在 Gemma 设置文档中找到详细的设置。

在本教程中,我们将使用 Colab notebook环境来运行模型。完成 Gemma 设置后,您必须为 Colab 环境设置变量。

import os
from google.colab import userdata


os.environ["KAGGLE_USERNAME"] = userdata.get('KAGGLE_USERNAME')
os.environ["KAGGLE_KEY"] = userdata.get('KAGGLE_KEY')

设置环境变量后,下一步是安装依赖项。要使用 Gemma,KerasNLP 是使用的依赖项。KerasNLP 是在 Keras 中实现的自然语言处理 (NLP) 模型的集合,可在 JAX、PyTorch 和 TensorFlow 上运行。

pip install -q -U keras-nlp
pip install -q -U keras>=3

现在已经安装了 KerasNLP,将选择一个后端来运行 Gemma。在下面的代码块中,使用了 jax。

import os

os.environ["KERAS_BACKEND"] = "jax"  # Or "tensorflow" or "torch".

最后一步是导入已安装的库,并使用 GemmaCausalLM 类上的 from_preset 方法实例化 Gemma 模型。

import keras
import keras_nlp
gemma_lm = keras_nlp.models.GemmaCausalLM.from_preset("gemma_2b_en")

# get more information about the model
gemma_lm.summary()

让我们现在开始生成一些文本!该类具有一个基于提示生成文本的 generate 方法。

gemma_lm.generate("What is Generative AI?", max_length=64)

第一次运行可能需要一些时间,但后续运行将从提供的提示返回近乎即时的结果。

generate 方法还可以将一批提示作为字符串列表。

gemma_lm.generate(
    ["What is the greatest thing ever?",
     "Why is the sky blue?"],
    max_length=256)

二、Gemma微调(LoRA)

微调是采用预训练模型并通过对更具体的数据集进行额外训练来进一步调整它的过程。这种技术利用了模型的通用功能,并允许模型在特定任务中表现出色,而不是停留在通用工具上。实现这种微调的一种技术是 LoRA(低秩适应)。

LoRA 是一种旨在增强预训练模型能力的技术。它通过一组明显更小的可训练参数来有效地优化transformer 网络。这些参数就像一个轻量级的“适配器”,位于预训练的 LLM 之上。

通过微调此适配器,LoRA 可以针对新任务修改模型的行为,而无需对底层结构进行大量更改。这意味着更快的训练时间、更少的内存使用量以及在功能较弱的硬件上运行 LLM 的能力。

在本节中,我们将微调来自 Hugging Face 的心理健康数据集。数据集地址:https://huggingface.co/datasets/Amod/mental_health_counseling_conversations

首先,我们通过运行下面的块来下载数据集。

wget -O mental_health_counseling_conversations https://huggingface.co/datasets/Amod/mental_health_counseling_conversations/raw/main/combined_dataset.json

下载数据后,我们使用 2000 个示例的子集执行简单的预处理。

import json
data = []
template = "Question:\n{Context}\n\nResponse:\n{Response}"
with open("combined_dataset.json") as file:
    for line in file:
        features = json.loads(line)
        # Appending all rows
        data.append(template.format(**features))


data = data[:500]

让我们使用提示词并观察生成的响应。

prompt = template.format(
    Context="What should I do when I feel sad?",
    Response="",
)
print(gemma_lm.generate(prompt, max_length=256))

为了从模型中获得更好的响应,我们现在在数据集上使用 LoRA 进行微调,我们将使用 4 级,为了提高计算效率,建议从小级开始。

gemma_lm.backbone.enable_lora(rank=4)
gemma_lm.summary()

接下俩,我们配置参数并执行一个训练会话

gemma_lm.preprocessor.sequence_length = 512


optimizer = keras.optimizers.AdamW(
    learning_rate=5e-5,
    weight_decay=0.01,
)


optimizer.exclude_from_weight_decay(var_names=["bias", "scale"])


gemma_lm.compile(
    loss=keras.losses.SparseCategoricalCrossentropy(from_logits=True),
    optimizer=optimizer,
    weighted_metrics=[keras.metrics.SparseCategoricalAccuracy()],
)
gemma_lm.fit(data, epochs=1, batch_size=1)

等微调完毕之后,我们再次输入提示词,观察输出的结果与原来有什么不同

prompt = template.format(
    Context="What should I do when I feel sad?",
    Response="",
)

响应存在差异,这是因为微调。为了从微调模型中获得更好的响应,可以执行以下操作:

  • 训练更多步骤(epoch)。
  • 设置更高的 LoRA 等级。
  • 修改超参数值。
  • 增加微调数据集的大小。

小结

我们探索了 Gemma 的创新性和能力。Gemma以文本为中心,可以对文本执行一系列任务。此外,Gemma 支持使用 LoRA 微调,为定制和适应特定任务和数据集提供了可能性。方便用户进一步提高模型的准确性,根据他们的独特要求进行模型定制。

目录
相关文章
|
24天前
|
人工智能 自然语言处理 前端开发
基于RAG和LLM的水利知识大语言模型系统开发有感
在数字化时代,水利行业的智能化管理尤为重要。本文介绍了基于大语言模型(LLM)和检索增强生成(RAG)技术的水利知识问答系统的开发过程。该系统结合了前沿AI技术和水利专业知识,通过构建全面的水利知识库,优化用户体验,确保系统的灵活性和可扩展性。项目展示了AI技术在垂直领域的巨大潜力,为水利行业的智能化发展贡献力量。
|
3月前
|
人工智能 自然语言处理
FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型
【8月更文挑战第22天】《FBI-LLM:通过自回归蒸馏从头开始扩展全二值化大语言模型》由Ma等学者发布于arXiv。该研究呈现了首个完全从头训练的全二值化大语言模型FBI-LLM,在不牺牲性能的前提下大幅降低计算资源需求。通过自回归蒸馏技术,FBI-LLM在多种任务上展现出与高精度模型相当的表现,为二值化模型的发展开辟新路径,并有望推动专用硬件的进步。研究者公开了所有相关资源以促进领域内的进一步探索。
55 10
|
15天前
|
JSON 数据可视化 NoSQL
基于LLM Graph Transformer的知识图谱构建技术研究:LangChain框架下转换机制实践
本文介绍了LangChain的LLM Graph Transformer框架,探讨了文本到图谱转换的双模式实现机制。基于工具的模式利用结构化输出和函数调用,简化了提示工程并支持属性提取;基于提示的模式则为不支持工具调用的模型提供了备选方案。通过精确定义图谱模式(包括节点类型、关系类型及其约束),显著提升了提取结果的一致性和可靠性。LLM Graph Transformer为非结构化数据的结构化表示提供了可靠的技术方案,支持RAG应用和复杂查询处理。
61 2
基于LLM Graph Transformer的知识图谱构建技术研究:LangChain框架下转换机制实践
|
7天前
|
数据采集 人工智能 自然语言处理
万字干货|复杂表格多Agent方案:从LLM洞察、系统性 思考到实践经验总结
笔者结合实践经验以近期在负责的复杂表格智能问答为切入点,结合大模型的哲学三问(“是谁、从哪里来、到哪里去”),穿插阐述自己对大模型的一些理解与判断,以及面向公共云LLM的建设模式思考,并分享软件设计+模型算法结合的一些研发实践经验。
可控细节的长文档摘要,探索开源LLM工具与实践
本文通过将文档分为几部分来解决这个问题,然后分段生成摘要。在对大语言模型进行多次查询后,可以重建完整的摘要。通过控制文本块的数量及其大小,我们最终可以控制输出中的细节级别。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
企业内训|LLM大模型技术在金融领域的应用及实践-某商业银行分行IT团队
本企业培训是TsingtaoAI技术团队专们为某商业银行分行IT团队开发的LLM大模型技术课程。课程深入分析大模型在金融行业中的发展趋势、底层技术及应用场景,重点提升学员在大模型应用中的实际操作能力与业务场景适应力。通过对全球商用 LLM 产品及国内外技术生态的深度对比,学员将了解大模型在不同企业中的发展路径,掌握如 GPT 系列、Claude 系列、文心一言等大模型的前沿技术。针对金融行业的业务需求,学员将学会如何结合多模态技术改进用户体验、数据分析等服务流程,并掌握大模型训练与工具链的实操技术,尤其是模型的微调、迁移学习与压缩技术。
58 2
|
1月前
|
Shell Docker Python
LLM-02 大模型 本地部署运行 ChatGLM3-6B(13GB) 双卡2070Super8GB 环境配置 单机多卡 基于LLM-01章节 继续乘风破浪 为大模型微调做准备
LLM-02 大模型 本地部署运行 ChatGLM3-6B(13GB) 双卡2070Super8GB 环境配置 单机多卡 基于LLM-01章节 继续乘风破浪 为大模型微调做准备
46 1
|
1月前
|
并行计算 算法 Shell
LLM-01 大模型 本地部署运行 ChatGLM2-6B-INT4(6GB) 简单上手 环境配置 单机单卡多卡 2070Super8GBx2 打怪升级!
LLM-01 大模型 本地部署运行 ChatGLM2-6B-INT4(6GB) 简单上手 环境配置 单机单卡多卡 2070Super8GBx2 打怪升级!
60 1
|
3月前
|
人工智能 安全 机器人
LLM对齐数据全自动合成!UW华人博士生提出Magpie方法,Macbook Air即可运行
【8月更文挑战第11天】在AI领域,大型语言模型(LLM)的行为对齐一直是个挑战。华盛顿大学研究人员提出名为Magpie的新方法,能自动高效生成高质量指令数据,减少人工干预,提升LLM的对齐效果。通过输入模板,Magpie利用已对齐LLM生成能力自动生成指令数据,仅需少量GPU资源即可创建大规模数据集。实验显示,使用Magpie数据集微调的模型性能媲美传统监督方法。尽管如此,Magpie仍需进一步优化以生成特定领域指令并确保数据安全性。[论文](https://arxiv.org/abs/2406.08464)
161 60
|
4月前
|
人工智能 监控 数据库
LLM 应用可观测性:从 Trace 视角展开的探索与实践之旅
基于大语言模型的应用在性能、成本、效果等方面存在一系列实际痛点,本文通过分析 LLM 应用模式以及关注点差异来阐明可观测技术挑战,近期阿里云可观测推出了面向 LLM 应用的可观测解决方案以及最佳实践,一起来了解下吧。
18275 26
LLM 应用可观测性:从 Trace 视角展开的探索与实践之旅

热门文章

最新文章