5分钟Deepseek R1本地化部署

简介: DeepSeek R1 是一款基于Transformer架构的先进大语言模型,以其强大的自然语言处理能力和高效的推理速度著称。本文介绍如何通过开源框架Ollama在本地快速部署DeepSeek R1。Ollama简化了大型语言模型的部署过程,支持多种操作系统和模型格式,提供便捷的安装、启动及API接口,使得研究人员和开发者能轻松运行和定制模型。通过简单的命令行操作和HTTP API,用户可以在本地环境中高效利用DeepSeek R1的强大功能。

5分钟Deepseek R1本地化部署

在人工智能领域,DeepSeek的崛起犹如一颗璀璨的新星,迅速吸引了全球科技界的目光。作为一款基于Transformer架构的先进大语言模型,DeepSeek凭借其强大的自然语言处理能力和高效的推理速度,在文本生成、问答系统、翻译、摘要等多个任务中展现出了卓越的性能。其独特的训练数据多样性和模型架构优化,使得DeepSeek能够更好地理解上下文语义,生成更加连贯和准确的文本。近年来,DeepSeek从发布第二代模型DeepSeek-V2,到推出总参数高达6710亿的DeepSeek-V3,再到性能与OpenAI的GPT-4正式版相当的DeepSeek-R1,每一次迭代都带来了技术的重大突破。其高性价比的开源策略,不仅显著降低了企业采用AI技术的门槛,还推动了AI技术的普惠化。如今,DeepSeek已经成为全球AI领域的有力竞争者,其本地化部署更是成为了众多开发者和研究人员关注的焦点。本文将详细介绍DeepSeek本地化部署的全过程,带您深入了解这款备受瞩目的大语言模型。

deepseek本地化部署的快速方式就是通过ollama。Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架。它简化了大型语言模型的部署过程,提供了轻量级与可扩展的架构,并支持多种操作系统和模型格式,使得研究人员、开发人员和爱好者能够更加方便地在本地环境中运行和定制这些模型。Ollama的出现极大地拓宽了大型语言模型的应用范围,并在多个领域展现出广泛的应用前景。

Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。

yyq-2024-08-10-00-38-00.png

目前Ollama官方支持deepseek r1模型

yyq-2025-02-11-20-44-29.png

一、安装

Ollama的安装方式因操作系统而异,以下是主要操作系统的安装步骤:

macOS

  1. 安装Homebrew(如果尚未安装):

    • 打开终端,输入以下命令安装Homebrew:/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  2. 安装Ollama

    • 在终端中输入brew install ollama命令进行安装。
  3. 验证安装

    • 安装完成后,可以通过输入ollama --version来验证Ollama是否安装成功。

Windows

  1. 下载安装包

    • 访问Ollama的官方网站,下载适用于Windows的安装包。
  2. 运行安装包

    • 双击下载的安装包,按照提示完成安装。默认安装路径通常为C:\Users\{你的电脑账户名}\AppData\Local\Programs\Ollama
  3. 配置环境变量(如遇到ollama命令无法使用的情况):

    • 控制面板 → 系统 → 高级系统设置 → 环境变量 → 在系统变量中找到Path → 编辑 → 新建,添加Ollama的安装路径。
  4. 验证安装

    • 打开命令提示符,输入ollama --version来验证安装是否成功。

Linux

  1. 更新包列表(以Debian/Ubuntu为例):

    • 打开终端,输入sudo apt-get update命令。
  2. 安装Ollama

    • 输入curl -fsSL https://ollama.com/install.sh | sh命令进行安装
  3. 验证安装
    • 输入ollama --version来验证安装是否成功。

二、启动

Ollama的启动可以通过命令行完成,使用ollama serve或其别名servestart命令即可启动Ollama服务。Ollama将自动处理模型的加载和配置,无需用户手动干预。

也可以通过sudo systemctl start ollama, 具体的启动service

# /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

三、常用命令

Ollama提供了丰富的命令行工具,以下是一些常用命令:

  1. 启动Ollama服务ollama serve
  2. 从模型文件创建模型ollama create [模型名称] -f [模型文件路径]
  3. 显示模型信息ollama show [模型名称]
  4. 运行模型ollama run [模型名称] [输入文本]
  5. 从注册表中拉取模型ollama pull [模型名称]
  6. 将模型推送到注册表ollama push [模型名称]
  7. 列出所有模型ollama list
  8. 复制模型ollama cp [源模型名称] [目标模型名称]
  9. 删除模型ollama rm [模型名称]
  10. 获取帮助信息ollama help

特别的,可以通过ollama ps查看模型运行负载情况

ollama ps
NAME          ID              SIZE     PROCESSOR    UNTIL
llama3:70b    bcfb190ca3a7    42 GB    100% GPU     4 minutes from now

可以通过ollama run deepseek-r1:70b 来下载模型和启动CLI

模型默认在

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\%username%.ollama\models

四、接口API使用

ollama run模型后会启动一个http服务: localhost:11434,可以通过prompt和chat方式和大模型进行交互


curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:70b",
  "prompt":"Why is the sky blue?"
}'

curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:70b",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}

ollama也提供了openai式的接口

from openai import OpenAI

client = OpenAI(
    base_url='http://localhost:11434/v1/',

    # required but ignored
    api_key='ollama',
)

chat_completion = client.chat.completions.create(
    messages=[
        {
   
            'role': 'user',
            'content': 'Say this is a test',
        }
    ],
    model='deepseek-r1:70b',
)


completion = client.completions.create(
    model="deepseek-r1:70b",
    prompt="Say this is a test",
)

list_completion = client.models.list()

model = client.models.retrieve("deepseek-r1:70b")

embeddings = client.embeddings.create(
    model="all-minilm",
    input=["why is the sky blue?", "why is the grass green?"],
)

五、ollama还支持的模型

ollama支持绝大多数开源大模型和一些多模态模型

yyq-2024-08-10-01-05-35.png

更全的参考

目录
相关文章
|
8月前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
4607 13
|
8月前
|
存储 人工智能 API
DeepSeek——DeepSeek模型部署实战
本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。
|
8月前
|
人工智能 数据可视化 Linux
【保姆级教程】3步搞定DeepSeek本地部署
DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。
5294 8
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
基于星海智算云平台部署 DeepSeek-R1系列 70b 模型全攻略(附平台福利)
本文介绍了如何在星海智算云平台上部署DeepSeek-R1系列70B模型,解决官网访问不畅的问题。通过云端部署,用户可以按需付费,避免本地部署高昂成本(高达两百多万)。文章详细讲解了从实例创建到开始使用DeepSeek的八个步骤,并提供了成本优化技巧和新手注意事项。推荐使用双A100显卡,每小时费用仅13.32元。新用户还可领取福利,享受高性价比服务。立即注册体验:[星海智算云平台](https://gpu.spacehpc.com/user/register?inviteCode=52872508)。
643 1
基于星海智算云平台部署 DeepSeek-R1系列 70b 模型全攻略(附平台福利)
|
8月前
|
人工智能 Windows
【Deepseek本地部署】新手教程,2025最新版 仅供参考!
由于 DeepSeek 开源版对硬件配置要求较高,普通用户的计算机往往难以满足,因此本地部署通常只能选择最低版本的模型。该版本算力大致相当于早期版本的 GPT-3.0,与当前最先进的模型相比存在较大差距。在这种情况下,本地部署 DeepSeek 的主要意义可能在于满足用户的好奇心和体验需求,其实用性相对有限。
761 16
|
8月前
|
并行计算 前端开发 异构计算
告别服务器繁忙,云上部署DeepSeek
本文以 DeepSeek-R1-Distill-Qwen-32B-FP8 为例,向您介绍如何在GPU实例上使用容器来部署量化的 DeepSeek-R1 蒸馏模型。
|
8月前
|
机器学习/深度学习 人工智能 开发者
阿里云支持DeepSeek-V3和DeepSeek-R1全自动安装部署,小白也能轻松上手!
阿里云PAI平台支持DeepSeek-V3和DeepSeek-R1大模型的全自动安装部署,零代码一键完成从训练到推理的全流程。用户只需开通PAI服务,在Model Gallery中选择所需模型并点击部署,即可快速生成PAI-EAS服务,获取调用信息。整个过程简单快捷,适合各水平开发者轻松上手。
3105 80
|
9月前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
14389 86
|
7月前
|
人工智能 5G Windows
十分钟私有化部署DeepSeek R1
DeepSeek本地化部署支持下载1.5b、7b、8b、14b、32b等不同参数规模的大模型,适合逻辑推理和计算类问题。普通电脑建议选择1.5b模型以避免AI幻觉。部署需使用Ollama工具下载模型,并通过Chatbox AI等客户端进行配置,确保Ollama运行状态。显卡内存为主要资源占用,各模型占用情况不同,请确保硬盘空间充足。
926 11