【开源推荐】本地运行自己的大模型--ollama

简介: 【5月更文挑战第10天】

66k star,开源免费,快速在本地构建你自己的大模型

这个项目应该是目前最火的项目之一了,如果你对大模型感兴趣,那么这个项目一定不能错过。

ollama简介

ollama是一款开源的、轻量级的框架,它可以快速在本地构建及运行大模型,尤其是一些目前最新开源的模型,如 Llama 3, Mistral, Gemma等。

官网上有大量已经开源的模型,部分针对性微调过的模型也可以选择到,如llama2-chinese。

关键现在部署很简单,跨平台支持。

image.png

ollama特点

  • 跨平台支持,windows、linux、mac都可以使用

  • 支持大部分模型,包括我们熟悉的千问、llama3、phi3等

image.png

  • 用户可以通过简单的命令快速启动和与 Llama 3 等模型进行交互。
  • Ollama 允许用户通过 Modelfile 自定义模型,例如设置创造性参数或系统消息。
  • Ollama 支持运行高达数十亿参数的模型,确保了处理大型模型的能力。

ollama如何快速开始

  1. 下载:用户可以根据自己的操作系统选择下载 macOS、Windows 预览版或使用 Linux 的安装脚本。
  2. 运行模型:通过简单的命令 ollama run <model_name> 来启动模型。
  3. 自定义模型:用户可以创建一个名为 Modelfile 的文件,并使用 FROM 指令导入模型,然后通过 ollama createollama run 命令来创建和运行自定义模型。

例如,要运行 Llama 3 模型,用户可以使用以下命令:

ollama run llama3

展示你的所有模型:

ollama list

拉取模型

ollama pull llama3

通过命令行去体验:

curl http://localhost:11434/api/chat -d '{
  "model": "llama3",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

当然现在也有一些web页面可以直接使用,如open-webui,后面的文章会有具体的介绍。

结论

Ollama 提供了一个强大且易于使用的平台,让开发者能够在本地环境中轻松地运行和管理大型语言模型。

无论是快速开始还是深度定制,Ollama 都能满足用户的需求。

image.png

传送门:https://ollama.com/

相关文章
|
27天前
|
人工智能 Linux 测试技术
NexaAI, 一行命令运行魔搭社区模型,首次在设备上运行 Qwen2-Audio
Qwen2-Audio是一个 70亿参数量 SOTA 多模态模型,可处理音频和文本输入。
|
2月前
|
开发者 异构计算
现在,一行命令使用Ollama运行任意魔搭GGUF模型
为了让开发者更方便地把这些模型用起来,社区最近支持了Ollama框架和ModelScope平台的链接,通过简单的 ollama run命令,就能直接加载运行ModelScope模型库上的GGUF模型。
|
3月前
|
人工智能 并行计算 搜索推荐
ollama本地部署llama3(window系统)
这篇文章详细介绍了如何在Windows系统上本地部署Ollama框架来运行Llama 3大模型,并提供了具体的安装步骤和注意事项,以便实现离线使用高级AI模型进行对话。
406 0
ollama本地部署llama3(window系统)
|
2月前
|
Linux iOS开发 异构计算
Ollama完成本地模型的运行
# Ollama完成本地模型的运行
346 5
Ollama完成本地模型的运行
|
2月前
|
存储 安全 API
使用Ollama和Open WebUI管理本地开源大模型
Open WebUI 是一个功能丰富且用户友好的自托管 Web 用户界面(WebUI),它被设计用于与大型语言模型(LLMs)进行交互,特别是那些由 Ollama 或与 OpenAI API 兼容的服务所支持的模型。Open WebUI 提供了完全离线运行的能力,这意味着用户可以在没有互联网连接的情况下与模型进行对话,这对于数据隐私和安全敏感的应用场景尤为重要。
|
2月前
|
人工智能 并行计算 监控
深入剖析 Qwen2.5 - 32B 模型在 VLLM 上的单机三卡部署与运行
本文深入探讨了Qwen2.5 - 32B模型在VLLM框架上的部署过程,从模型下载、启动命令、资源占用分析到GPU资源分配及CUDA图应用,详述了大模型运行的挑战与优化策略,强调了硬件资源规划与技术调优的重要性。
635 2
|
6月前
|
JSON 数据格式 Python
LangChain与智能Agent构建问题之运行生成的软件如何解决
LangChain与智能Agent构建问题之运行生成的软件如何解决
53 0
|
3月前
|
Linux Shell API
ollama 大模型部署 工具 | AIGC
Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。【10月更文挑战第1天】
313 0
|
6月前
|
自然语言处理
Ollama部署本地模型
Ollama 是一个用于本地部署大型语言模型的平台。首先关闭 ollama 服务,在环境变量中设置 `OLLAMA_MODELS` 为目标模型路径,`OLLAMA_ORIGINS` 为 `&quot;*&quot;`,重启服务和 VSCode。启动服务 `ollama serve`,运行 `ollama run codegeex4`。配置插件接口地址为 `http://localhost:11434/v1/chat/completions`,并在模型名称处填入 `codegeex4` 启用高级模式。可能需优化下载速度并解决其他问题。
460 4
|
6月前
|
存储 自然语言处理 测试技术
使用 LlamaIndex 和 Llama 2-Chat 构建知识驱动的应用程序
使用 LlamaIndex 和 Llama 2-Chat 构建知识驱动的对话应用程序
116 0
使用 LlamaIndex 和 Llama 2-Chat 构建知识驱动的应用程序