【AI 大模型】离线运行ChatGLM2-6B(清华大模型)

简介: 【AI 大模型】离线运行ChatGLM2-6B(清华大模型)

一、捣腾开始


  1. clone项目
git clone https://github.com/THUDM/ChatGLM2-6B
cd ChatGLM2-6B


  1. 配置python环境
pipenv install
# 安装客户端依赖
pip install streamlit streamlit-chat


如果最后启动时,报cuda的错,请看文末的拓展并看情况执行下面的命令:

# 移除原始的pytorch 依赖 
pip3 uninstall torch torchvision torchaudio
# 下载最新的pytorch 依赖 
pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu121


  1. 下载离线模型
git clone https://huggingface.co/THUDM/chatglm2-6b


image.png


修改代码

将以上代码中的 THUDM/chatglm2-6b 替换为本地的 chatglm2-6b 文件夹的路径,即可从本地加载模型。

# 修改前
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True,revision="v1.0").quantize(8).cuda()
# 修改后
model = AutoModel.from_pretrained("F:\\workspace_ai\\models\\chatglm2-6b", trust_remote_code=True,revision="v1.0").quantize(8).cuda()


执行 streamlit run web_demo2.py 启动清华大模型

报错如下:

image.png


无需理会,这里是因为代码想在线加载模型,但咱们已经把模型下载到本地了,所以不用管它。可以看到界面已经能访问了:

image.png

打个招呼吧(可以看到网络是断开的,但终端显示正在加载模型,目前一切正常):

image.png


AI给了回复:

image.png



  • 可以看到,模型加载没有问题,AI也给了回复。

image.png


咱们离线运行 ChatGLM2-6B 的目标已经完成!



拓展

  1. 执行(nvidia-smi)查看自己电脑的cuda版本


image.png



查看最新的pytorch安装方法

进入链接:PyTorch

image.png


目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
368 121
|
2月前
|
数据采集 人工智能 搜索推荐
智能新纪元:多模态大模型如何重塑人机交互
智能新纪元:多模态大模型如何重塑人机交互
230 113
|
2月前
|
人工智能 人机交互 知识图谱
当AI学会“融会贯通”:多模态大模型如何重塑未来
当AI学会“融会贯通”:多模态大模型如何重塑未来
288 114
|
2月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
289 120
|
2月前
|
人工智能 安全 搜索推荐
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
259 117
|
2月前
|
人工智能 机器人 人机交互
当AI学会“看、听、懂”:多模态技术的现在与未来
当AI学会“看、听、懂”:多模态技术的现在与未来
294 117
|
2月前
|
人工智能 API 开发工具
构建AI智能体:一、初识AI大模型与API调用
本文介绍大模型基础知识及API调用方法,涵盖阿里云百炼平台密钥申请、DashScope SDK使用、Python调用示例(如文本情感分析、图像文字识别),助力开发者快速上手大模型应用开发。
1156 16
构建AI智能体:一、初识AI大模型与API调用
|
2月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
441 29

热门文章

最新文章