Ollama完成本地模型的运行

本文涉及的产品
可观测可视化 Grafana 版,10个用户账号 1个月
注册配置 MSE Nacos/ZooKeeper,118元/月
性能测试 PTS,5000VUM额度
简介: # Ollama完成本地模型的运行

Ollama完成本地模型的运行

简介

Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地运行和使用各种大型语言模型。Ollama 提供了一个命令行界面,支持多种流行的模型,如 Llama 3、Qwen 1.5、Mixtral、Gemma 等,并且用户可以根据自己的需求定制和创建模型。Ollama能够实现模型的本地运行,降低了模型开发的复杂度,无聊时AI开发的高手还是新人都可以快速使用Ollama完成模型本地运行。同时可以识别Nvidia、AMD的GPU,AVX、AVX2指令集的CPU。同时Ollama也支持MacOS、Windows,Linux主要的操作系统。

安装

进入Ollama官网,下载对应的Ollama客户端后安装即可。

安装完成后,打开powershell,输入ollama有help的内容输出就是安装成功了。

本地运行模型

这里有一个小技巧:Ollama默认大模型的目录在C盘当前用户目录下.ollama
目录下,非常占地方,所以我们要修改环境变量OLLAMA_MODELS为一个想存大模型的地方。

运行ollama命令完成模型下载和运行

ollama run llama3:8b

Ollama都支持什么模型

进入ollama官网的Models目录,可以看到所有的模型,点击任意一个模型(以llama3 为例),点击后可以看到支持的模型的介绍,以及通过Ollama运行的方法。

Ollama 在局域网内部署访问

Ollama的一些配置是通过环境变量控制的,那么无论是什么操作系统,都可以通过配置系统的环境变量或者通过设置临时的环境变量达到想要的结果,一些常用的环境变量如下:

  • OLLAMA_HOST:用来绑定OLLAMA的访问的IP和端口,这个其实很重要,用一些 Langchain、LLamaIndex等调用Ollama部署的模型的时候,都是通过这个配置的内容访问的。默认值“127.0.0.1:11434”,如果我们配置成“0.0.0.0:11434”,就可以让你局域网内的其他主机可以访问,但是要配合下面的环境变量一起使用。
  • OLLAMA_ORIGINS:这个是跨域源列表,说白了就是允许谁来访问,双引号中用英文都好分割。默认进本地可以访问,如果想让局域网内都可以访问,最好设置成“*”。
  • OLLAMA_MODELS:本地模型文件存储的位置,这个就按自己实际的模型位置设置,默认是存在当前用户目录下的.ollama/models或者/usr/share/ollama/.ollama/models
  • OLLAMA_KEEP_ALIVE:模型在现存中保持加载的持续时长,这个默认“5m”,按需加载或者释放显卡显存可以降低显卡的压力,但是会带来磁盘IO的增加。
  • OLLAMA_DEBUG:调试日志,默认是关闭的。如果设置成1,就是开始,会看到很多调试日志。

Windows的设置

Windows的环境变量的设置(windows10为例):
选择我的电脑点击右键,选择属性后点击高级系统设置就可以看到环境变量的按钮了,点击进入后可以看到有上下两部分,上面是用户变量,下面是系统变量。

  • 用户变量:设置的改环境变量仅仅在当前用户登录才生效。
  • 系统变量:任何用户登录该操作系统都生效。

img_v3_02ad_45b9bb99-bca6-4c55-909d-e3836c52bc9g

完成设置后需要重启或者按照如下方法操作才能让环境变量生效。

在任何一个命令窗口(cmd.exe)中输入set PATH=C,然后关闭全部的命令窗口,再打开一个命令窗口重新启动Ollama就好了。

MacOS的设置

在MacOS可以通过launchctl设置环境变量,这个和Linux就很相似。launchctl 是一个在 macOS 系统中用于管理后台进程(也称为守护进程或服务)的命令行工具。它是 launchd 系统的一部分,launchd 是 macOS 的初始化系统和服务管理守护进程。使用 launchctl,用户和系统管理员可以加载、卸载、启动、停止和调试守护进程。launchctl常用命令如下:

加载一个守护进程:launchctl load [plist文件]
卸载一个守护进程:launchctl unload [plist文件]
启动一个守护进程:launchctl start [标签名]
停止一个守护进程:launchctl stop [标签名]
列出所有加载的守护进程:launchctl list
设置环境变量:launchctl setenv [环境变量]

那么,设置Ollama的环境变量如下:

launchctl setenv OLLAMA_HOST="0.0.0.0:11434"
launchctl setenv OLLAMA_ORIGINS="*"
launchctl setenv OLLAMA_MODELS="/models/"

完成如上设置后,需要重启Ollama,才能生效。

Linux的设置

Linux上我们需要讲Ollama配置到 systemd 服务运行,这样方便后续的使用。如果Linux可以链接互联网,那么运行如下命令。

curl -fsSL https://ollama.com/install.sh | sh

否则,我们需要手工下载Ollama,地址:https://ollama.com/download/ollama-linux-amd64,然后将下载的ollama复制到/usr/bin/位置,重命名为ollama,并修改一下全县sudo chmod +x /usr/bin/ollama

然后修改一下service文件,在其中加上环境变量。

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODEL=/home/syadmin/models/"

[Install]
WantedBy=default.target

然后通过systemctl deamon reload重新载入配置,再通过systemctl start ollama启动服务。

Ollama 常用命令

  • serve:启动ollama服务
  • create:从Modelfile中创建一个model(ollama create 模型名字 -f modelfile名字)
  • show:显示Model的信息
  • run:运行一个model,如果本地没有那么回去Ollama的中央仓库下载
  • pull:从中央仓库下载一个model
  • push:讲一个本地model推到中央仓库
  • list:显示本地模型列表,表头包含了模型名字(就是create命令中的模型名字,ID,大小和修改时间)
  • cp:本地复制一个Model
  • rm:删除一个本地Model
  • help:帮助

但是如果我们修改了启动端口,也就是我们设置了OLLAMA_HOST这个参数,那么我们直接运行Ollama的命令并不能生效,而是需要在前面加上OLLAMA_HOST的内容,具体如下:

OLLAMA_HOST=0.0.0.0:9000 olllama list

其他常用命令一样处理。

Ollama的模型导入

我们平时面对的场景中,服务器往往并不能链接互联网,因此我们就不能用上面介绍的Ollama的命令一样,运行命令直接获从Ollama中央仓库下载一个模型,Ollama为我们提供了一个导入模型的办法。最为直接的是导入量化后的模型,也就是GGUF格式。GGUF(GGML Universal File Format)是一种用于量化大语言模型(LLM)的格式,它允许模型在不同的硬件配置上运行,包括CPU和GPU。GGUF量化意味着将模型的权重和激活数据转换成一种更紧凑的表示形式,这样可以减少模型的内存占用和提高运行效率,这也叫量化模型。GGUF支持多种量化级别,包括FP16(16位浮点数)、int4(4位整数)等,通过量化可以减少模型的大小,使其更适合在资源受限的环境中运行。GGUF格式的设计旨在快速加载和保存模型,同时保持模型性能,它允许用户根据硬件条件选择不同的量化级别,以平衡模型的精度和效率。在很多下载模型的网站上可以下载到量化以后的模型,都是以.gguf作为扩展名。一般量化模型都会在名字后面加上一些量化选项的内容,例如我们有时候会看到q3_k.gguf的写法,这意味着权重或激活值将被量化为三位精度,即具有8个可能的取值(2^3 = 8)。

在Ollama中我们只要下载需要的.gguf文件,然后创建一个Modelfile文件,文件写入如下内容:

FROM ./Meta-Llama-3-8B.q4_0.gguf

然后运行如下命令就可以完成模型的导入了。

ollama create llama3:8b -f Modelfile

成功完成后,就可以使用该模型了。那么如果有些模型没有量化的模型的话,就需要自己动手了,这个主要是借助llama.cpp完成的,具体操作就不做详细说明了,需要的时候,在网上学习吧。

目录
相关文章
|
8天前
|
存储 人工智能 弹性计算
阿里云弹性计算_加速计算专场精华概览 | 2024云栖大会回顾
2024年9月19-21日,2024云栖大会在杭州云栖小镇举行,阿里云智能集团资深技术专家、异构计算产品技术负责人王超等多位产品、技术专家,共同带来了题为《AI Infra的前沿技术与应用实践》的专场session。本次专场重点介绍了阿里云AI Infra 产品架构与技术能力,及用户如何使用阿里云灵骏产品进行AI大模型开发、训练和应用。围绕当下大模型训练和推理的技术难点,专家们分享了如何在阿里云上实现稳定、高效、经济的大模型训练,并通过多个客户案例展示了云上大模型训练的显著优势。
|
12天前
|
存储 人工智能 调度
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
3天前
|
并行计算 前端开发 物联网
全网首发!真·从0到1!万字长文带你入门Qwen2.5-Coder——介绍、体验、本地部署及简单微调
2024年11月12日,阿里云通义大模型团队正式开源通义千问代码模型全系列,包括6款Qwen2.5-Coder模型,每个规模包含Base和Instruct两个版本。其中32B尺寸的旗舰代码模型在多项基准评测中取得开源最佳成绩,成为全球最强开源代码模型,多项关键能力超越GPT-4o。Qwen2.5-Coder具备强大、多样和实用等优点,通过持续训练,结合源代码、文本代码混合数据及合成数据,显著提升了代码生成、推理和修复等核心任务的性能。此外,该模型还支持多种编程语言,并在人类偏好对齐方面表现出色。本文为周周的奇妙编程原创,阿里云社区首发,未经同意不得转载。
|
9天前
|
人工智能 运维 双11
2024阿里云双十一云资源购买指南(纯客观,无广)
2024年双十一,阿里云推出多项重磅优惠,特别针对新迁入云的企业和初创公司提供丰厚补贴。其中,36元一年的轻量应用服务器、1.95元/小时的16核60GB A10卡以及1元购域名等产品尤为值得关注。这些产品不仅价格亲民,还提供了丰富的功能和服务,非常适合个人开发者、学生及中小企业快速上手和部署应用。
|
19天前
|
自然语言处理 数据可视化 前端开发
从数据提取到管理:合合信息的智能文档处理全方位解析【合合信息智能文档处理百宝箱】
合合信息的智能文档处理“百宝箱”涵盖文档解析、向量化模型、测评工具等,解决了复杂文档解析、大模型问答幻觉、文档解析效果评估、知识库搭建、多语言文档翻译等问题。通过可视化解析工具 TextIn ParseX、向量化模型 acge-embedding 和文档解析测评工具 markdown_tester,百宝箱提升了文档处理的效率和精确度,适用于多种文档格式和语言环境,助力企业实现高效的信息管理和业务支持。
3940 3
从数据提取到管理:合合信息的智能文档处理全方位解析【合合信息智能文档处理百宝箱】
|
8天前
|
算法 安全 网络安全
阿里云SSL证书双11精选,WoSign SSL国产证书优惠
2024阿里云11.11金秋云创季活动火热进行中,活动月期间(2024年11月01日至11月30日)通过折扣、叠加优惠券等多种方式,阿里云WoSign SSL证书实现优惠价格新低,DV SSL证书220元/年起,助力中小企业轻松实现HTTPS加密,保障数据传输安全。
522 3
阿里云SSL证书双11精选,WoSign SSL国产证书优惠
|
15天前
|
安全 数据建模 网络安全
2024阿里云双11,WoSign SSL证书优惠券使用攻略
2024阿里云“11.11金秋云创季”活动主会场,阿里云用户通过完成个人或企业实名认证,可以领取不同额度的满减优惠券,叠加折扣优惠。用户购买WoSign SSL证书,如何叠加才能更加优惠呢?
992 3
|
7天前
|
数据采集 人工智能 API
Qwen2.5-Coder深夜开源炸场,Prompt编程的时代来了!
通义千问团队开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列,致力于持续推动 Open Code LLMs 的发展。
|
12天前
|
机器学习/深度学习 存储 人工智能
白话文讲解大模型| Attention is all you need
本文档旨在详细阐述当前主流的大模型技术架构如Transformer架构。我们将从技术概述、架构介绍到具体模型实现等多个角度进行讲解。通过本文档,我们期望为读者提供一个全面的理解,帮助大家掌握大模型的工作原理,增强与客户沟通的技术基础。本文档适合对大模型感兴趣的人员阅读。
445 18
白话文讲解大模型| Attention is all you need
|
13天前
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
663 10
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎