使用 CTransformers 运行 Zephyr-7b、Mistral-7b 模型

简介: 使用 CTransformers 运行 Zephyr-7b、Mistral-7b 模型

image.png

在本文中,将探索一个能够处理所有量化模型的库 CTransformers ,以及使其与任何LLM一起工作的一些技巧,主要运行模型 Mistral-7BZephyr-7B

  • Mistral-7B 是由 Mistral AI 创建的非常流行的大型语言模型 (LLM)。它的性能优于所有其他类似规模的预训练LLM,甚至比 Llama-2-13B 等较大的LLM更好。
  • Zephyr-7B-α是一系列 Zephyr 经过训练的语言模型中的第一个模型,是 Mistral-7B-v0.1 的微调版本,在使用直接偏好优化的混合公开合成数据集上进行训练。

什么是量化以及为什么要量化?

LLM 量化,也称为语言模型量化,是指压缩或减小大型语言模型 (LLM) 的大小以使其在内存使用和计算要求方面更加高效的过程。

大型语言模型,例如 GPT-3Llama2Falcon 等,其模型大小可能很大,通常由数十亿甚至数万亿个参数组成。当在消费类硬件上使用它们时,大模型的使用就带来挑战。

LLM 量化旨在通过减小模型大小,同时最大限度地减少对模型性能的影响来应对这些挑战。这些技术降低了神经网络参数的精度。例如,可以将参数量化为较低精度的定点数,例如 4-bit8-bit16-bit 整数,而不是用浮点数表示,精度的降低可以实现更高效的存储和计算。

如果想在普通消费类硬件上运行 7 Billion(70 亿)个参数的模型,就必须使用量化模型。

量化格式:GGML/GGUF 和 GPTQ

回顾一下,LLM 是具有高精度权重张量的大型神经网络。将整个模型加载到内存中(这就是为什么需要 RAM!),计算机将单词转换为数字,分析神经网络并提供结果。为了克服硬件限制,需要量化(减少)模型权重,牺牲一些准确性,使普通计算机能够运行大型语言模型。量化模型有两种主要格式:GGML(现在称为 GGUF)和 GPTQ

  • GGML/GGUF 是一个用于机器学习 (ML) 的 C 库 —— GG 指的是其创始人 Georgi Gerganov 的首字母缩写。这种格式非常适合没有 GPUGPU 性能较弱的用户,它可以运行在 CPU 上。
  • GPTQ 也是一个使用 GPU 并量化(降低)模型权重精度的库。生成后训练量化文件可以减少原始模型的 4 倍。如果有 GPU,这种格式将是最佳的选择。

如果计算机没有 Nvidia 显卡 (GPU),建议采用 GGML/GGUF 格式,并且仅依赖于 RAM 和 CPU 性能。在拥有 GPU 的情况下,需要特别注意库的安装过程,因为它们根据拥有的具体硬件而有所不同。

为什么需要量化?

CTransformers 库是一个功能强大的界面工具箱,它是使用 C 语言,能够在本机速度使其达到 Python 水平。通过这种方式,可以从 python 访问量化模型,而无需额外的工作。

CTransformers 主要有两种版本:gptq 版本和 cpu 版本。第一个是当想要加载 GPTQ 模型并与之交互时安装;第二个是与 GGUF/GGML 文件一起使用,只能在 CPU 上运行。

因此,第一步始终是安装依赖项:如果没有特殊的 GPU,则安装很简单,但如果有 nVidia,或者在 Mac M1/M2 上运行,则需要指定更多参数。


mkdir CTmodels
cd CTmodels 
python3.10 -m venv venv

激活虚拟环境:


source venv/bin/activate  # for mac
venv\Scripts\activate     # for windows users

激活 venv 后,使用 pip 安装依赖库 CTransformers,不同类型的GPU其安装命令有所不同。


# CPU inference
pip install ctransformers>=0.2.24
# CUDA:使用以下命令安装 CUDA 库:
pip install ctransformers[cuda]
# ROCm:要启用 ROCm 支持,使用以下命令安装 ctransformers 软件包
CT_HIPBLAS=1 pip install ctransformers --no-binary ctransformers
# Mac M1/M2 安装方式
CT_METAL=1 pip install ctransformers --no-binary ctransformers

如果出现有关版本的错误,解决方式是运行 pip install ctransformers (但它必须高于 0.2.23 才能运行 GGUF 文件类型)

基础知识

Hugging Face 上量化模型的主要来源和存储库是 TheBloke:建议熟悉掌握这个存储库,这是一个不错的资源。

对于第一个测试,将运行 Mistral-7b 指令的 GGUF 版本:可以在此处找到 Hugging Face 模型卡

image.png

模型卡页面是使用手册:运行模型的所有主要信息都在那里。

image.png

image.png

image.png

首先是下载模型文件:它是单个文件,通常是 GGUFBIN 扩展名。建议至少进行 Q4 量化,但如果想尝试更大的模型进行测试,那么 Q2 也可以。

image.png

转到 Files and versions 选项卡并获取模型文件的链接,然后使用下面命令:


!wget https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.1-GGUF/resolve/main/mistral-7b-instruct-v0.1.Q4_K_M.gguf

GGML/GGUF

所有这些都已设置完毕,运行模型的代码非常简单:Python 行可以在 Google Colab 和本地电脑上使用。只有一个区别,那就是模型的路径设置:

  • ./mistral-7b-instruct-v0.1.Q4_K_M.gguf:用于本地运行
  • /content/mistral-7b-instruct-v0.1.Q4_K_M.gguf:Google Colab

以下示例适用于 Google Colab 上运行:


from ctransformers import AutoModelForCausalLM, AutoConfig, Config
conf = AutoConfig(Config(temperature=0.7, repetition_penalty=1.1, batch_size=52,max_new_tokens=1024, context_length=2048))
llm = AutoModelForCausalLM.from_pretrained("/content/mistral-7b-instruct-v0.1.Q4_K_M.gguf",model_type="mistral", config = conf)
prompt = "Tell me about LLM?"
template = f'''<<s>[INST] {prompt} [/INST]'''
print(llm(template))

导入模型和配置的类:然后使用喜欢的超参数来润湿配置对象。值得注意的两个设置是 max_new_tokens=1024context_length=2048:第一个设置了生成的新令牌的限制,第二个定义了所有令牌的上下文长度(指令提示+生成的文本)。

llm object 最后加载 GGUF 文件,应用配置并声明模型类型。

注意:上面所有的配置即使没有 GPU,也可以在每台消费计算机上运行此模型。

image.png


LLM stands for "Large Language Model". It is a type of artificial intelligence (AI) that can generate human-like language based on input data. LLMs are trained on massive amounts of text data, and use this training to generate new text. LLMs have been used in a variety of applications, including natural language processing (NLP), language translation, chatbots, and content generation.
There are several different types of LLMs, including transformer-based models like BERT and GPT-2, recurrent neural network (RNN)-based models like LSTM and GRU, and hybrid models that combine these two approaches. LLMs can be further enhanced with techniques such as fine-tuning, which allows the model to adapt to specific tasks or domains, and transfer learning, which enables the model to use knowledge learned on one task to improve performance on another related task.
Overall, LLMs are a powerful tool that has the potential to revolutionize many industries by enabling more natural and intuitive human-machine interactions.

GPTQ

对于 GPTQ 权重,由于手头上没有 GPU 资源,这里将使用 Google Colab 的免费套餐。在这里将展示如何从 Hugging Face Model card  中,获得运行模型所需的所有信息。

  • 打开一个新的 Colab Notebook
  • 将运行时类型更改为 T4 GPU

image.png

转到更改运行时类型,选择 T4 GPU

image.png

不要下载模型权重(在 GPTQ 量化模型中):当第一次实例化带有 CTransformers 的 llm 对象时,它将自动完成。

image.png

正如所看到的,使用 CTransformers 运行 GPTQ 模型非常容易,只需将 model_type 设置为 gptq


llm = AutoModelForCausalLM.from_pretrained("TheBloke/zephyr-7B-alpha-GPTQ",model_type="gptq", config = conf)

其他一切都一样。下面是从 Zephyr7b 得到的回复:

Could you please provide a continuation to the text material "The World Is Yours" by using style transfer to create a new version with a different tone and mood?

注意:如上所见,回复已被中继,这是因为对该模型使用了错误的提示模板!

Prompt templates

Mistral-7b-instruct 经过专门预训练,使用以特定方式格式化的指令。这意味着该模型期望以同样的方式提供提示。在前面使用 Zepyhr-GPTQ 的示例中,尝试使用 Mistral-7b-instruct 的相同提示模板进行推理,但遇到了一些问题,来看看如何修复它们。

来看看官方 Mistral7b-instruct 模型卡的说明:

为了利用指令微调,在提示符应该被 [INST][\INST] 标记包围。

例如:


text = "<s>[INST] What is your favourite condiment? [/INST]"
"Well, I'm quite partial to a good squeeze of fresh lemon juice. 
It adds just the right amount of zesty flavour to whatever 
I'm cooking up in the kitchen!</s> "
"[INST] Do you have mayonnaise recipes? [/INST]"

基本上,Mistral-7b-instruct 想要这样的提示: <s>[INST] {prompt} [/INST] 。可以轻松设置一个 python f 字符串来处理所有这些:


yourprompt = "What is Process Control in Industrial Automation?"
mistral_prompt = f"<s>[INST] {prompt} [/INST]"

现在可以使用修改后的提示和一些其他微调参数调用 llm 对象,将生成的文本保存在变量answer中,然后打印它:


answer = llm(mistral_prompt)
print(answer)

Zephyr-7b 下遵循同样的原则,可以查看模型卡页面以获得一些建议:


<|system|>
</s>
<|user|>
{prompt}</s>
<|assistant|>

再次尝试使用正确的文本生成:


那么,能从模型卡的截图中看出与模板的区别吗?删除了所有新行并将它们替换为\n:这对于 python 意味着新启一行,并且设法将模板放在一个单行字符串中。不过生成的结果和提的问题有点不符

总结

从运行的结果来看,同样的问题 Tell me about LLM?Mistral-7b 的结果比 Zephyr-7b 更佳。


相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
存储 消息中间件 缓存
RocketMQ 5.0 分级存储背后技术优化包含那几个方面
RocketMQ 5.0 分级存储背后的技术优化是一个综合性的系统工程,需要考虑多个方面,包括存储介质的选择、数据读写策略的设计、数据压缩和解压缩技术的引入、自动的数据分级和迁移机制的实现,以及高可用性和容错性的保证等。这些技术优化的目的是为了实现存储成本和性能的最优平衡,提高系统的可靠性和可用性,满足大规模数据处理的需求。
368 1
ThreadLocal实现登录(保存用户登录信息)
ThreadLocal可以将用户信息保存在线程中,当请求结束后我们在把保存的信息清除掉。这样我们才开发的时候就可以直接从全局的ThreadLocal中很方便的获取用户信息。 使用ThreadLocal,可以在同一线程中很方便的获取用户信息,不需要频繁的传递session对象。
3297 1
ThreadLocal实现登录(保存用户登录信息)
|
11月前
|
机器学习/深度学习 人工智能 达摩院
ClearerVoice-Studio:阿里通义开源的语音处理框架,提供语音增强、分离和说话人提取等功能
ClearerVoice-Studio 是阿里巴巴达摩院通义实验室开源的语音处理框架,集成了语音增强、分离和音视频说话人提取等功能。该框架基于复数域深度学习算法,能够有效消除背景噪声,保留语音清晰度,并提供先进的预训练模型和训练脚本,支持研究人员和开发者进行语音处理任务。
2140 3
ClearerVoice-Studio:阿里通义开源的语音处理框架,提供语音增强、分离和说话人提取等功能
|
3月前
【Azure Cloud Service】Azure云服务实例遇见:[0x80070070] Role could not be started
在 Azure 云服务中,某实例因磁盘空间不足(错误代码 0x80070070)无法启动,持续处于 Starting 与 Aborted 状态循环。通过 RDP 登录实例可确认磁盘 C 空间已满。建议使用 WinDirStat 工具分析并清理磁盘,尤其是日志文件夹 C:\Logs\ 及相关诊断路径,以释放空间解决问题。
|
4月前
|
人工智能 调度 项目管理
技术评审排程工具沉浸式解析:让项目协作更精准,技术评审不再成为瓶颈
技术评审是研发过程中把控质量、识别风险的重要环节,但缺乏系统排程常导致节奏混乱、沟通低效、意见落实不到位,进而引发项目延期和风险累积。本文详解技术评审排程管理的必要性、关键角色、流程节点与协作模式,并推荐实用工具与代码嵌入方法,助力团队实现高效评审、质量前置,让评审真正为交付赋能。
|
3月前
|
存储 移动开发 前端开发
HTML 入门与深度解析:从基础到高级特性
HTML(超文本标记语言)是构建网页的基础,通过标签和元素定义页面结构与内容。它支持文本、图片、链接、多媒体等元素,并具备语义化、跨平台、结构清晰等特点。HTML5 引入了新标签(如 `&lt;header&gt;`、`&lt;nav&gt;`、`&lt;article&gt;`)、表单增强、本地存储、地理定位等高级功能,极大提升了网页的交互性与用户体验。结合 CSS 与 JavaScript,HTML 构成了现代 Web 开发的核心。
291 0
|
8月前
|
人工智能 编解码 测试技术
TripoSG:3D生成新纪元!修正流模型秒出高保真网格,碾压传统建模
TripoSG 是 VAST AI 推出的基于大规模修正流模型的高保真 3D 形状合成技术,能够从单张图像生成细节丰富的 3D 网格模型,在工业设计、游戏开发等领域具有广泛应用前景。
361 15
TripoSG:3D生成新纪元!修正流模型秒出高保真网格,碾压传统建模
|
8月前
|
人工智能 边缘计算 自然语言处理
DistilQwen2.5-R1:蒸馏黑科技!32B推理能力塞进3B小模型,推理速度狂飙300%
阿里巴巴最新发布的DistilQwen2.5-R1系列模型通过知识蒸馏技术,在保持高性能的同时大幅降低计算资源需求,7B模型性能甚至可媲美32B大模型。
277 11
DistilQwen2.5-R1:蒸馏黑科技!32B推理能力塞进3B小模型,推理速度狂飙300%
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
Cosmos-Reason1:物理常识觉醒!NVIDIA 56B模型让AI懂重力+时空法则
Cosmos-Reason1是NVIDIA推出的多模态大语言模型系列,具备物理常识理解和具身推理能力,支持视频输入和长链思考,可应用于机器人、自动驾驶等场景。
339 8
Cosmos-Reason1:物理常识觉醒!NVIDIA 56B模型让AI懂重力+时空法则
|
8月前
|
人工智能 vr&ar 图形学
谷歌DeepMind联手牛津推出Bolt3D:AI秒速3D建模革命!单GPU仅需6秒生成3D场景
牛津大学与谷歌联合推出的Bolt3D技术,能在单个GPU上仅用6.25秒从单张或多张图像生成高质量3D场景,基于高斯溅射和几何多视角扩散模型,为游戏、VR/AR等领域带来革命性突破。
340 2
谷歌DeepMind联手牛津推出Bolt3D:AI秒速3D建模革命!单GPU仅需6秒生成3D场景