使用 Websoft9 面板,搭建 DeepSeek 等私有化模型只需三步

简介: 使用 Websoft9 面板,搭建 DeepSeek 等私有化模型只需三步

本文将结合 Websoft9 面板的便捷性和 DeepSeek 模型的特性,提供一套三步极简部署方案,同时融入安全防护、性能调优等进阶技巧。

部署前准备

1. 硬件与系统要求

服务器配置
测试用途:1核CPU / 4GB内存 / 50GB SSD(支持1.5B/7B模型)
生产用途:2核CPU / 8GB内存 / 100GB SSD(推荐7B/14B模型,需预留显存空间)
操作系统:Ubuntu 22.04 LTS(Websoft9 兼容性最佳)

2. Websoft9 面板安装

搭建前需安装WebSoft9面板——详见Linux 下安装 | Websoft9

安装完成后,通过 http://服务器IP:9000 访问如下面板,使用 Linux 系统账号登录。

三步部署流程

步骤一:安装 Open WebUI(可视化交互界面)

  1. 应用市场搜索:在 Websoft9 面板的「应用商店」搜索 "Open WebUI",点击安装

屏幕截图 2025-03-12 155806.png

  1. 参数配置核心项
    应用名称:自定义标识(如 MyAIChat
    HTTP 端口:避免冲突建议选择可用端口
    域名绑定(可选):若需对外访问,提前完成域名解析至服务器 IP

屏幕截图 2025-03-12 160120.png

步骤二:部署 DeepSeek 模型

通过容器终端安装 Ollama
在 Websoft9 的「容器管理」中找到 Ollama 容器,进入终端执行:

ollama run deepseek-r1:7b  # 根据硬件选择模型(1.5B/7B/14B)

屏幕截图 2025-03-12 171639.png

屏幕截图 2025-03-12 171707.png

屏幕截图 2025-03-12 171755.png

步骤三:配置 Open WebUI 连接

  1. 访问 Open WebUI:通过 http://服务器IP:9090 进入界面

屏幕截图 2025-03-12 163111.png

目录
相关文章
|
1月前
|
人工智能 API 网络安全
用DeepSeek,就在阿里云!四种方式助您快速使用 DeepSeek-R1 满血版!更有内部实战指导!
DeepSeek自发布以来,凭借卓越的技术性能和开源策略迅速吸引了全球关注。DeepSeek-R1作为系列中的佼佼者,在多个基准测试中超越现有顶尖模型,展现了强大的推理能力。然而,由于其爆火及受到黑客攻击,官网使用受限,影响用户体验。为解决这一问题,阿里云提供了多种解决方案。
37706 45
|
1月前
|
机器学习/深度学习 人工智能 开发者
阿里云支持DeepSeek-V3和DeepSeek-R1全自动安装部署,小白也能轻松上手!
阿里云PAI平台支持DeepSeek-V3和DeepSeek-R1大模型的全自动安装部署,零代码一键完成从训练到推理的全流程。用户只需开通PAI服务,在Model Gallery中选择所需模型并点击部署,即可快速生成PAI-EAS服务,获取调用信息。整个过程简单快捷,适合各水平开发者轻松上手。
2547 80
|
9天前
|
人工智能 自然语言处理 数据可视化
autoMate:无需视觉模型!用DeepSeek-V3/R1就能实现自动化操作电脑,支持任何可视化界面
autoMate是一款基于AI和RPA的本地自动化工具,通过自然语言实现复杂任务的自动化操作,支持本地部署,确保数据安全和隐私,适合需要高效处理重复性工作的用户。
145 1
autoMate:无需视觉模型!用DeepSeek-V3/R1就能实现自动化操作电脑,支持任何可视化界面
|
1月前
|
Ubuntu Linux 程序员
无需编码5分钟免费部署云上调用满血版DeepSeek
大家好,我是V哥。本文介绍如何部署DeepSeek满血版,包括本地和云上两种方式。本地部署需准备Ubuntu/CentOS环境、硬件要求及Docker等工具,适合开发者;云上部署则推荐使用阿里云方案,最快5分钟、0元即可完成,提供100万免费token,无需编码,操作简便。选择适合自己的方式,体验高性能的DeepSeek模型吧!关注V哥,做个高效程序员。
375 8
无需编码5分钟免费部署云上调用满血版DeepSeek
|
15天前
|
人工智能 5G Windows
十分钟私有化部署DeepSeek R1
DeepSeek本地化部署支持下载1.5b、7b、8b、14b、32b等不同参数规模的大模型,适合逻辑推理和计算类问题。普通电脑建议选择1.5b模型以避免AI幻觉。部署需使用Ollama工具下载模型,并通过Chatbox AI等客户端进行配置,确保Ollama运行状态。显卡内存为主要资源占用,各模型占用情况不同,请确保硬盘空间充足。
306 11
|
1月前
|
弹性计算 人工智能 应用服务中间件
一键部署开源DeepSeek并集成到企业微信
DeepSeek近期发布了两款先进AI模型V3和R1,分别适用于通用应用和推理任务。由于官方API流量过大,建议通过阿里云的计算巢进行私有化部署,以确保稳定使用。用户无需编写代码即可完成部署,并可通过AppFlow轻松集成到钉钉、企业微信等渠道。具体步骤包括选择适合的机器资源、配置安全组、创建企业微信应用及连接流,最后完成API接收消息配置和测试应用。整个过程简单快捷,帮助用户快速搭建专属AI服务。
一键部署开源DeepSeek并集成到企业微信
|
1月前
|
人工智能 运维 Serverless
DeepSeek模型部署全过程实践,轻松上手就在阿里云
随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。阿里云推出的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种便捷的部署方式,包括**基于百炼 API 调用满血版、基于人工智能平台 PAl 部署、基于函数计算部署以及基于 GPU 云服务器部署**。本文将从多个维度对这些部署方式进行详细评测,并分享个人的实际体验和观点。
886 26
|
20天前
|
机器学习/深度学习 自然语言处理 API
阿里云零门槛、轻松部署您的专属 DeepSeek模型体验测试
DeepSeek R1是基于Transformer架构的先进大规模深度学习模型,2025年1月20日发布并开源,遵循MIT License。它在自然语言处理等任务上表现出色,高效提取特征,缩短训练时间。阿里云推出的满血版方案解决了服务器压力问题,提供100万免费token,云端部署降低成本,用户可快速启动体验。虽然回答速度有待提升,但整体表现优异,备受关注。
102 8
|
1月前
|
架构师 Linux Docker
三分钟让Dify接入Ollama部署的本地大模型!
本文介绍了如何运行 Ollama 并在 Dify 中接入 Ollama 模型。通过命令 `ollama run qwen2:0.5b` 启动 Ollama 服务,访问 `http://localhost:11434`。在 Dify 中添加模型时,需填写正确的基础 URL 和模型信息。针对 Docker 部署的报错问题,提供了 Mac、Linux 和 Windows 上的解决方案,确保容器能正确访问 Ollama 服务。
1898 2
三分钟让Dify接入Ollama部署的本地大模型!
|
21天前
|
自然语言处理 Prometheus 监控
基于DeepSeek的智能客服系统实战:从开发到部署
本文详细介绍如何将基于DeepSeek的智能客服系统从开发到部署,涵盖服务器选择、环境配置、代码部署及Web服务器设置。通过具体案例和代码示例,讲解系统上线步骤,并介绍使用Prometheus、Grafana等工具进行性能监控的方法。此外,针对高并发、API调用失败等常见问题提供解决方案,确保系统的稳定运行。最后强调数据安全与隐私保护的重要性,帮助读者全面掌握智能客服系统的部署与维护。