5分钟Deepseek R1本地化部署

简介: DeepSeek R1 是一款基于Transformer架构的先进大语言模型,以其强大的自然语言处理能力和高效的推理速度著称。本文介绍如何通过开源框架Ollama在本地快速部署DeepSeek R1。Ollama简化了大型语言模型的部署过程,支持多种操作系统和模型格式,提供便捷的安装、启动及API接口,使得研究人员和开发者能轻松运行和定制模型。通过简单的命令行操作和HTTP API,用户可以在本地环境中高效利用DeepSeek R1的强大功能。

5分钟Deepseek R1本地化部署

在人工智能领域,DeepSeek的崛起犹如一颗璀璨的新星,迅速吸引了全球科技界的目光。作为一款基于Transformer架构的先进大语言模型,DeepSeek凭借其强大的自然语言处理能力和高效的推理速度,在文本生成、问答系统、翻译、摘要等多个任务中展现出了卓越的性能。其独特的训练数据多样性和模型架构优化,使得DeepSeek能够更好地理解上下文语义,生成更加连贯和准确的文本。近年来,DeepSeek从发布第二代模型DeepSeek-V2,到推出总参数高达6710亿的DeepSeek-V3,再到性能与OpenAI的GPT-4正式版相当的DeepSeek-R1,每一次迭代都带来了技术的重大突破。其高性价比的开源策略,不仅显著降低了企业采用AI技术的门槛,还推动了AI技术的普惠化。如今,DeepSeek已经成为全球AI领域的有力竞争者,其本地化部署更是成为了众多开发者和研究人员关注的焦点。本文将详细介绍DeepSeek本地化部署的全过程,带您深入了解这款备受瞩目的大语言模型。

deepseek本地化部署的快速方式就是通过ollama。Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架。它简化了大型语言模型的部署过程,提供了轻量级与可扩展的架构,并支持多种操作系统和模型格式,使得研究人员、开发人员和爱好者能够更加方便地在本地环境中运行和定制这些模型。Ollama的出现极大地拓宽了大型语言模型的应用范围,并在多个领域展现出广泛的应用前景。

Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。

yyq-2024-08-10-00-38-00.png

目前Ollama官方支持deepseek r1模型

yyq-2025-02-11-20-44-29.png

一、安装

Ollama的安装方式因操作系统而异,以下是主要操作系统的安装步骤:

macOS

  1. 安装Homebrew(如果尚未安装):

    • 打开终端,输入以下命令安装Homebrew:/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  2. 安装Ollama

    • 在终端中输入brew install ollama命令进行安装。
  3. 验证安装

    • 安装完成后,可以通过输入ollama --version来验证Ollama是否安装成功。

Windows

  1. 下载安装包

    • 访问Ollama的官方网站,下载适用于Windows的安装包。
  2. 运行安装包

    • 双击下载的安装包,按照提示完成安装。默认安装路径通常为C:\Users\{你的电脑账户名}\AppData\Local\Programs\Ollama
  3. 配置环境变量(如遇到ollama命令无法使用的情况):

    • 控制面板 → 系统 → 高级系统设置 → 环境变量 → 在系统变量中找到Path → 编辑 → 新建,添加Ollama的安装路径。
  4. 验证安装

    • 打开命令提示符,输入ollama --version来验证安装是否成功。

Linux

  1. 更新包列表(以Debian/Ubuntu为例):

    • 打开终端,输入sudo apt-get update命令。
  2. 安装Ollama

    • 输入curl -fsSL https://ollama.com/install.sh | sh命令进行安装
  3. 验证安装
    • 输入ollama --version来验证安装是否成功。

二、启动

Ollama的启动可以通过命令行完成,使用ollama serve或其别名servestart命令即可启动Ollama服务。Ollama将自动处理模型的加载和配置,无需用户手动干预。

也可以通过sudo systemctl start ollama, 具体的启动service

# /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

三、常用命令

Ollama提供了丰富的命令行工具,以下是一些常用命令:

  1. 启动Ollama服务ollama serve
  2. 从模型文件创建模型ollama create [模型名称] -f [模型文件路径]
  3. 显示模型信息ollama show [模型名称]
  4. 运行模型ollama run [模型名称] [输入文本]
  5. 从注册表中拉取模型ollama pull [模型名称]
  6. 将模型推送到注册表ollama push [模型名称]
  7. 列出所有模型ollama list
  8. 复制模型ollama cp [源模型名称] [目标模型名称]
  9. 删除模型ollama rm [模型名称]
  10. 获取帮助信息ollama help

特别的,可以通过ollama ps查看模型运行负载情况

ollama ps
NAME          ID              SIZE     PROCESSOR    UNTIL
llama3:70b    bcfb190ca3a7    42 GB    100% GPU     4 minutes from now

可以通过ollama run deepseek-r1:70b 来下载模型和启动CLI

模型默认在

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\%username%.ollama\models

四、接口API使用

ollama run模型后会启动一个http服务: localhost:11434,可以通过prompt和chat方式和大模型进行交互


curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:70b",
  "prompt":"Why is the sky blue?"
}'

curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:70b",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}

ollama也提供了openai式的接口

from openai import OpenAI

client = OpenAI(
    base_url='http://localhost:11434/v1/',

    # required but ignored
    api_key='ollama',
)

chat_completion = client.chat.completions.create(
    messages=[
        {
   
            'role': 'user',
            'content': 'Say this is a test',
        }
    ],
    model='deepseek-r1:70b',
)


completion = client.completions.create(
    model="deepseek-r1:70b",
    prompt="Say this is a test",
)

list_completion = client.models.list()

model = client.models.retrieve("deepseek-r1:70b")

embeddings = client.embeddings.create(
    model="all-minilm",
    input=["why is the sky blue?", "why is the grass green?"],
)

五、ollama还支持的模型

ollama支持绝大多数开源大模型和一些多模态模型

yyq-2024-08-10-01-05-35.png

更全的参考

目录
相关文章
|
1月前
|
自然语言处理 Serverless 测试技术
DeepSeek 模型快速体验,魔搭+函数计算一键部署模型上云
DeepSeek模型近期备受关注,其开源版本DeepSeek-V3和DeepSeek-R1在多个基准测试中表现出色,性能比肩OpenAI顶尖模型。为降低本地部署门槛,Modelscope社区推出DeepSeek-R1-Distill-Qwen模型的一键部署服务,支持函数计算FC平台的闲置GPU实例,大幅降低成本。用户可选择不同参数量的小模型进行快速部署和推理,体验DeepSeek的强大性能。
DeepSeek 模型快速体验,魔搭+函数计算一键部署模型上云
|
16天前
|
API
阿里云百炼:零门槛一键搭建 DeepSeek-R1 满血版
本文介绍如何使用阿里云百炼平台和chatbox客户端,一键搭建DeepSeek R1满血版
96 18
|
26天前
|
机器学习/深度学习 人工智能 自然语言处理
基于星海智算云平台部署 DeepSeek-R1系列 70b 模型全攻略(附平台福利)
本文介绍了如何在星海智算云平台上部署DeepSeek-R1系列70B模型,解决官网访问不畅的问题。通过云端部署,用户可以按需付费,避免本地部署高昂成本(高达两百多万)。文章详细讲解了从实例创建到开始使用DeepSeek的八个步骤,并提供了成本优化技巧和新手注意事项。推荐使用双A100显卡,每小时费用仅13.32元。新用户还可领取福利,享受高性价比服务。立即注册体验:[星海智算云平台](https://gpu.spacehpc.com/user/register?inviteCode=52872508)。
195 1
基于星海智算云平台部署 DeepSeek-R1系列 70b 模型全攻略(附平台福利)
|
20天前
|
人工智能 5G Windows
十分钟私有化部署DeepSeek R1
DeepSeek本地化部署支持下载1.5b、7b、8b、14b、32b等不同参数规模的大模型,适合逻辑推理和计算类问题。普通电脑建议选择1.5b模型以避免AI幻觉。部署需使用Ollama工具下载模型,并通过Chatbox AI等客户端进行配置,确保Ollama运行状态。显卡内存为主要资源占用,各模型占用情况不同,请确保硬盘空间充足。
322 11
|
17天前
|
并行计算 Ubuntu Docker
kTransformers DeepSeek R1 部署全流程指南
kTransformers DeepSeek R1 部署全流程指南
|
1月前
|
Ubuntu Linux 程序员
无需编码5分钟免费部署云上调用满血版DeepSeek
大家好,我是V哥。本文介绍如何部署DeepSeek满血版,包括本地和云上两种方式。本地部署需准备Ubuntu/CentOS环境、硬件要求及Docker等工具,适合开发者;云上部署则推荐使用阿里云方案,最快5分钟、0元即可完成,提供100万免费token,无需编码,操作简便。选择适合自己的方式,体验高性能的DeepSeek模型吧!关注V哥,做个高效程序员。
404 8
无需编码5分钟免费部署云上调用满血版DeepSeek
|
1月前
|
人工智能 自然语言处理 数据可视化
零门槛,轻松体验阿里云 DeepSeek-R1 满血版:快速部署,立享超强推理能力
DeepSeek-R1 是阿里云推出的先进推理模型,专为解决复杂任务设计,尤其在数学推理、代码生成与修复、自然语言处理等领域表现出色。通过阿里云的“零门槛”解决方案,用户无需编写代码即可快速部署 DeepSeek-R1,大幅简化了部署流程并提升了使用效率。该方案提供了详尽的文档和可视化界面,使开发者能轻松上手。DeepSeek-R1 支持多种模型尺寸,适用于不同场景,如智能客服、代码自动化生成、数学问题求解和跨领域知识推理。尽管存在对高自定义需求支持有限、云端依赖性等不足,但对于希望快速验证模型效果的用户而言,阿里云的这一解决方案仍然是高效且经济的选择。
2019 31
|
1月前
|
弹性计算 Serverless API
What?废柴, 还在本地部署DeepSeek吗?Are you kidding?
拥有DeepSeek-R1满血版实践教程及评测报告
3055 11
|
1月前
|
人工智能 运维 Serverless
DeepSeek模型部署全过程实践,轻松上手就在阿里云
随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。阿里云推出的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种便捷的部署方式,包括**基于百炼 API 调用满血版、基于人工智能平台 PAl 部署、基于函数计算部署以及基于 GPU 云服务器部署**。本文将从多个维度对这些部署方式进行详细评测,并分享个人的实际体验和观点。
920 26
|
25天前
|
机器学习/深度学习 自然语言处理 API
阿里云零门槛、轻松部署您的专属 DeepSeek模型体验测试
DeepSeek R1是基于Transformer架构的先进大规模深度学习模型,2025年1月20日发布并开源,遵循MIT License。它在自然语言处理等任务上表现出色,高效提取特征,缩短训练时间。阿里云推出的满血版方案解决了服务器压力问题,提供100万免费token,云端部署降低成本,用户可快速启动体验。虽然回答速度有待提升,但整体表现优异,备受关注。
127 8