【ChatGLM2-6B】我在3090显卡上部署了清华大学开源中英双语对话模型

简介: 【ChatGLM2-6B】我在3090显卡上部署了清华大学开源中英双语对话模型

前言

  盼望已久的国内开源项目终于来了,这次可算是对于现在仍然没有ChatGtp人员的福音。在这里我将着重记录如何部署清华大学开源的ChatGLM2-6B项目。

性能简介

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:

  1. 更强大的性能:在同尺寸开源模型中具有较强的竞争力
  2. 更长的上下文:允许更多轮次的对话
  3. 更高效的推理:INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。
  4. 更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。如果您发现我们的开源模型对您的业务有用,我们欢迎您对下一代模型 ChatGLM3 研发的捐赠。

硬件选择

  在README中的性能一栏中我们发现,作者团队是使用的硬件为A100-SXM4-80G 这对于我们个人来说是很难实现的。如采用CPU推理的话,这将不现实,我们无法忍受如此漫长的推理等待时间。那么GPU则是我们必须面对需要解决的问题了。根据清华团队在readme中所述:

使用官方实现,batch size = 1,max length = 2048,bf16 精度,测试硬件为 A100-SXM4-80G,软件环境为 PyTorch 2.0.1

  我们需要满足Pytorch 2.0 在pytorch官网上查阅如下可知我们需要的CUDA为11.7 或 11.8满足算力以及CUDA的版本要求可知常用显卡中3090符合要求。

image.png

量化等级 编码 2048 长度的最小显存 生成 8192 长度的最小显存
FP16 / BF16 13.1 GB 12.8 GB
INT8 8.2 GB 8.1 GB
INT4 5.5 GB 5.1 GB

部署安装

首先需要下载本仓库:

shell

复制代码

git clone https://github.com/THUDM/ChatGLM2-6B
cd ChatGLM2-6B

第二步: 使用 pip 安装依赖:pip install -r requirements.txt,其中 transformers 库版本推荐为 4.30.2torch 推荐使用 2.0 以上的版本,以获得最佳的推理性能。

第三步: 考虑到本地加载模型大多数人找不到相关文件夹带来的种种BUG,因此我在这里将不介绍本地加载。创建本地test_chat.py文件并运行等待系统下载模型文件(模型较大,请耐心等待)

shell

复制代码

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True, device='cuda')
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)

使用尝鲜

等待了半天,激动人心的时刻即将来临!直接运行程序进行提问:

shell

复制代码

python cli_demo.py

image.png


相关文章
|
10月前
【ChatGLM】本地版ChatGPT ?6G显存即可轻松使用 !ChatGLM-6B 清华开源模型本地部署教程
【ChatGLM】本地版ChatGPT ?6G显存即可轻松使用 !ChatGLM-6B 清华开源模型本地部署教程
428 0
|
8月前
|
弹性计算 人工智能 PyTorch
GPU实验室-在云上部署ChatGLM2-6B大模型
ChatGLB2-6B大模型:由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。截至2023年7月,在C-Eval中,排名靠前。Pytorch:一个开源的Python机器学习库,基于Torch,底层由C++实现,应用于人工智能领域,如计算机视觉和自然语言处理。它主要由Meta Platforms的人工智能研究团队开发。著名的用途有:特斯拉自动驾驶,Uber最初发起而现属Linux基金会项目的概率编程软件Pyro,Lightning。
|
9月前
|
机器学习/深度学习 人工智能 运维
阿里云率先支持Llama2全系列训练部署!
阿里云率先支持Llama2全系列训练部署!
443 0
|
5月前
|
人工智能 数据可视化 物联网
Mistral AI发布首个开源MoE模型,魔搭社区推理微调最佳实践来啦!
继Mistral 7B 后,Mistral AI 近日又放出一记大招——发布了引爆开源社区的首个 MoE 开源模型 Mixtral 8x7B,在 Apache 2.0 许可证下可商用。
|
7月前
|
人工智能 自然语言处理 数据可视化
多语言对话模型 openbuddy-mistral-7b,魔搭社区免费算力环境最佳实践
近日,法国人工智能初创公司 Mistral AI 发布了一款新模型 Mistral 7B,其在每个基准测试中,都优于 Llama 2 13B,同时已免费开源可商用!
|
7月前
|
人工智能 弹性计算 物联网
GPU实验室-部署Stable Diffusion玩转AI绘画
在本实验场景中,我们将向大家介绍如何基于 Stable Diffusion 实现文字到图片的生成,包括Stable Diffusion的安装和基本使用方法,以及使用Lora模型调整图片生成的风格。
|
8月前
|
人工智能 Linux API
本地化搭建媲美ChatGPT的中国对话模型ChatGLM2-6B
本地化搭建媲美ChatGPT的中国对话模型ChatGLM2-6B
269 0
|
10月前
|
人工智能 并行计算 PyTorch
【AI 大模型】离线运行ChatGLM2-6B(清华大模型)
【AI 大模型】离线运行ChatGLM2-6B(清华大模型)
1883 0
|
10月前
|
人工智能 Cloud Native API
阿里云推出大模型助手魔搭GPT
据了解,阿里云的灵积模型服务平台,将面向所有业界模型开放。平台建设了一系列自动化的模型上云统一工具链路,支持模型的自主接入,所有接入灵积平台的模型都能自动获取平台的强大服务能力,包括基于阿里云强大算力的跨区域自适应弹性能力,并提供基于云原生的公共部署以及用户自定义独占部署等多种形式,来满足不同模型的需求。灵积平台还积累了模型自适应推理优化和高效微调训练的能力,并提供了基于插件进行模型能力拓展的系统框架。通过灵积,丰富多样化的模型不仅能通过推理API被集成,也能通过训练微调API实现模型定制化。对于AI开发者而言,这些不同模型的能力都能通过统一的SDK方便地获取并集成到自己的AI应用中去。当前灵
|
机器学习/深度学习 人工智能 安全
一文读懂Stable Diffusion教程,搭载高性能PC集群,实现生成式AI应用
PC Farm、生成式AI和Stable Diffusion模型都是非常有用的工具和技术,可以帮助用户快速构建和管理计算机集群,生成高质量的数据和图像,提高模型的泛化能力和鲁棒性。
1163 0