ollama 大模型部署 工具 | AIGC

简介: Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。【10月更文挑战第1天】

ollama 大模型部署

Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。

yyq-2024-08-10-00-38-00.png

一、安装

Ollama的安装方式因操作系统而异,以下是主要操作系统的安装步骤:

macOS

  1. 安装Homebrew(如果尚未安装):

    • 打开终端,输入以下命令安装Homebrew:/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  2. 安装Ollama

    • 在终端中输入brew install ollama命令进行安装。
  3. 验证安装

    • 安装完成后,可以通过输入ollama --version来验证Ollama是否安装成功。

Windows

  1. 下载安装包

    • 访问Ollama的官方网站,下载适用于Windows的安装包。
  2. 运行安装包

    • 双击下载的安装包,按照提示完成安装。默认安装路径通常为C:\Users\{你的电脑账户名}\AppData\Local\Programs\Ollama
  3. 配置环境变量(如遇到ollama命令无法使用的情况):

    • 控制面板 → 系统 → 高级系统设置 → 环境变量 → 在系统变量中找到Path → 编辑 → 新建,添加Ollama的安装路径。
  4. 验证安装

    • 打开命令提示符,输入ollama --version来验证安装是否成功。

Linux

  1. 更新包列表(以Debian/Ubuntu为例):

    • 打开终端,输入sudo apt-get update命令。
  2. 安装Ollama

    • 输入curl -fsSL https://ollama.com/install.sh | sh命令进行安装
  3. 验证安装
    • 输入ollama --version来验证安装是否成功。

二、启动

Ollama的启动可以通过命令行完成,使用ollama serve或其别名servestart命令即可启动Ollama服务。Ollama将自动处理模型的加载和配置,无需用户手动干预。

也可以通过sudo systemctl start ollama, 具体的启动service

# /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

三、常用命令

Ollama提供了丰富的命令行工具,以下是一些常用命令:

  1. 启动Ollama服务ollama serve
  2. 从模型文件创建模型ollama create [模型名称] -f [模型文件路径]
  3. 显示模型信息ollama show [模型名称]
  4. 运行模型ollama run [模型名称] [输入文本]
  5. 从注册表中拉取模型ollama pull [模型名称]
  6. 将模型推送到注册表ollama push [模型名称]
  7. 列出所有模型ollama list
  8. 复制模型ollama cp [源模型名称] [目标模型名称]
  9. 删除模型ollama rm [模型名称]
  10. 获取帮助信息ollama help

特别的,可以通过ollama ps查看模型运行负载情况

ollama ps
NAME          ID              SIZE     PROCESSOR    UNTIL
llama3:70b    bcfb190ca3a7    42 GB    100% GPU     4 minutes from now

可以通过ollama run qwen2:70b 来下载模型和启动CLI

模型默认在

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\%username%.ollama\models

四、接口API使用

ollama run模型后会启动一个http服务: localhost:11434,可以通过prompt和chat方式和大模型进行交互


curl http://localhost:11434/api/generate -d '{
  "model": "qwen2:70b",
  "prompt":"Why is the sky blue?"
}'

curl http://localhost:11434/api/chat -d '{
  "model": "llama3.1",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}

ollama也提供了openai式的接口

from openai import OpenAI

client = OpenAI(
    base_url='http://localhost:11434/v1/',

    # required but ignored
    api_key='ollama',
)

chat_completion = client.chat.completions.create(
    messages=[
        {
   
            'role': 'user',
            'content': 'Say this is a test',
        }
    ],
    model='llama3',
)

response = client.chat.completions.create(
    model="llava",
    messages=[
        {
   
            "role": "user",
            "content": [
                {
   "type": "text", "text": "What's in this image?"},
                {
   
                    "type": "image_url",
                    "image_url": "",
                },
            ],
        }
    ],
    max_tokens=300,
)

completion = client.completions.create(
    model="llama3",
    prompt="Say this is a test",
)

list_completion = client.models.list()

model = client.models.retrieve("llama3")

embeddings = client.embeddings.create(
    model="all-minilm",
    input=["why is the sky blue?", "why is the grass green?"],
)

五、支持模型

ollama支持绝大多数开源大模型和一些多模态模型

yyq-2024-08-10-01-05-35.png

更全的参考

目录
相关文章
|
25天前
|
弹性计算 人工智能 架构师
阿里云携手Altair共拓云上工业仿真新机遇
2024年9月12日,「2024 Altair 技术大会杭州站」成功召开,阿里云弹性计算产品运营与生态负责人何川,与Altair中国技术总监赵阳在会上联合发布了最新的“云上CAE一体机”。
阿里云携手Altair共拓云上工业仿真新机遇
|
17天前
|
存储 关系型数据库 分布式数据库
GraphRAG:基于PolarDB+通义千问+LangChain的知识图谱+大模型最佳实践
本文介绍了如何使用PolarDB、通义千问和LangChain搭建GraphRAG系统,结合知识图谱和向量检索提升问答质量。通过实例展示了单独使用向量检索和图检索的局限性,并通过图+向量联合搜索增强了问答准确性。PolarDB支持AGE图引擎和pgvector插件,实现图数据和向量数据的统一存储与检索,提升了RAG系统的性能和效果。
|
5天前
|
JSON 自然语言处理 数据管理
阿里云百炼产品月刊【2024年9月】
阿里云百炼产品月刊【2024年9月】,涵盖本月产品和功能发布、活动,应用实践等内容,帮助您快速了解阿里云百炼产品的最新动态。
阿里云百炼产品月刊【2024年9月】
|
1天前
|
人工智能 Rust Java
10月更文挑战赛火热启动,坚持热爱坚持创作!
开发者社区10月更文挑战,寻找热爱技术内容创作的你,欢迎来创作!
269 12
|
19天前
|
人工智能 IDE 程序员
期盼已久!通义灵码 AI 程序员开启邀测,全流程开发仅用几分钟
在云栖大会上,阿里云云原生应用平台负责人丁宇宣布,「通义灵码」完成全面升级,并正式发布 AI 程序员。
|
22天前
|
机器学习/深度学习 算法 大数据
【BetterBench博士】2024 “华为杯”第二十一届中国研究生数学建模竞赛 选题分析
2024“华为杯”数学建模竞赛,对ABCDEF每个题进行详细的分析,涵盖风电场功率优化、WLAN网络吞吐量、磁性元件损耗建模、地理环境问题、高速公路应急车道启用和X射线脉冲星建模等多领域问题,解析了问题类型、专业和技能的需要。
2582 22
【BetterBench博士】2024 “华为杯”第二十一届中国研究生数学建模竞赛 选题分析
|
3天前
|
存储 人工智能 搜索推荐
数据治理,是时候打破刻板印象了
瓴羊智能数据建设与治理产品Datapin全面升级,可演进扩展的数据架构体系为企业数据治理预留发展空间,推出敏捷版用以解决企业数据量不大但需构建数据的场景问题,基于大模型打造的DataAgent更是为企业用好数据资产提供了便利。
173 2
|
2天前
|
编译器 C#
C#多态概述:通过继承实现的不同对象调用相同的方法,表现出不同的行为
C#多态概述:通过继承实现的不同对象调用相同的方法,表现出不同的行为
101 65
|
21天前
|
机器学习/深度学习 算法 数据可视化
【BetterBench博士】2024年中国研究生数学建模竞赛 C题:数据驱动下磁性元件的磁芯损耗建模 问题分析、数学模型、python 代码
2024年中国研究生数学建模竞赛C题聚焦磁性元件磁芯损耗建模。题目背景介绍了电能变换技术的发展与应用,强调磁性元件在功率变换器中的重要性。磁芯损耗受多种因素影响,现有模型难以精确预测。题目要求通过数据分析建立高精度磁芯损耗模型。具体任务包括励磁波形分类、修正斯坦麦茨方程、分析影响因素、构建预测模型及优化设计条件。涉及数据预处理、特征提取、机器学习及优化算法等技术。适合电气、材料、计算机等多个专业学生参与。
1579 16
【BetterBench博士】2024年中国研究生数学建模竞赛 C题:数据驱动下磁性元件的磁芯损耗建模 问题分析、数学模型、python 代码
|
5天前
|
Linux 虚拟化 开发者
一键将CentOs的yum源更换为国内阿里yum源
一键将CentOs的yum源更换为国内阿里yum源
266 2