引言
GLM-4-9B 及 CodeGeeX4-ALL-9B 现已支持Ollama部署。
GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中, GLM-4-9B 在各项能力上均表现出卓越的能力。
GGUF模型链接:
https://modelscope.cn/models/LLM-Research/glm-4-9b-chat-GGUF
CodeGeeX4-ALL-9B 是最新的 CodeGeeX4 系列模型的开源版本。该模型是在 GLM-4-9B 基础上持续训练的多语言代码生成模型,显著提升了代码生成能力。
GGUF模型链接:
https://www.modelscope.cn/models/LLM-Research/codegeex4-all-9b-GGUF
最佳实践
环境配置与安装
本文主要演示的模型推理代码可在魔搭社区免费实例PAI-DSW的配置下运行(长期免费CPU环境) :
点击模型左侧Notebook快速开发按钮,选择CPU环境
GGUF模型下载:
glm-4-9b-chat-GGUF
modelscope download --model=LLM-Research/glm-4-9b-chat-GGUF --local_dir . glm-4-9b-chat.Q5_K.gguf
codegeex4-all-9b-GGUF:
modelscope download --model=LLM-Research/codegeex4-all-9b-GGUF --local_dir . codegeex4-all-9b-Q5_K_M.gguf
使用Ollama推理
Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。Ollama支持多种操作系统,包括macOS、Windows、Linux以及Docker,适用性广泛。通过Ollama,用户可以方便地部署和运行GLM-4-9B 等开源的大语言模型。此外,Ollama还提供了包括网页、桌面应用和终端界面在内的多种互动方式,方便用户使用和管理这些模型。
本次我们在魔搭社区免费Notebook的CPU环境体验:
Linux环境使用
Liunx用户可使用魔搭镜像环境安装【推荐】
modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux cd ollama-linux sudo chmod 777 ./ollama-modelscope-install.sh ./ollama-modelscope-install.sh
启动Ollama服务
ollama serve
创建ModelFile
复制模型路径,创建名为“ModelFile”的meta文件,内容如下:
FROM /mnt/workspace/glm-4-9b-chat.Q5_K.gguf #FROM /mnt/workspace/codegeex4-all-9b-Q5_K_M.gguf # set parameters PARAMETER stop "<|system|>" PARAMETER stop "<|user|>" PARAMETER stop "<|assistant|>" TEMPLATE """[gMASK]<sop>{{ if .System }}<|system|> {{ .System }}{{ end }}{{ if .Prompt }}<|user|> {{ .Prompt }}{{ end }}<|assistant|> {{ .Response }}"""
创建自定义模型
使用ollama create命令创建自定义模型
ollama create myglm4 --file ModelFile
运行模型:
ollama run myglm4
点击链接👇直达原文
https://modelscope.cn/models/LLM-Research/glm-4-9b-chat-GGUF?from=alizishequ__text