Ollama部署本地大模型并通过Infortress APP远程访问保姆级教程

简介: 本文介绍如何快速上手本地大模型部署工具Ollama及AI远程访问工具Infortress。通过Ollama,开发者可轻松部署如Llama、Deepseek等主流开源模型,仅需几行命令即可完成安装与运行。结合Infortress,用户能实现对本地大模型的远程访问,支持多设备无缝对接,同时提供便捷的模型切换与知识库管理功能。Infortress更兼具NAS软件特性,成为个人AI数据中心的理想选择。

一、本地部署大模型:Ollama的极速上手

Ollama是近年来备受开发者青睐的本地LLM部署工具,支持Llama、Mixtral、Phi-3、Deepseek等主流开源模型,几行命令即可完成搭建:

1、下载安装Ollama:访问Ollama官网,https://ollama.com ,点击download按钮进行下载,根据系统选择对应版本进行下载,下载完成后点击安装。
image.png

安装完成后,你的电脑右下角会有ollama的图标,如下图这样。
image.png

验证安装是否成功,打开命令行,输入ollama --version,如果命令执行成功,并输出了版本信息,说明安装成功了。
image.png

2、模型拉取:打开终端,输入ollama run {模型名称}(如ollama run deepseek-r1:1.5b),即可自动下载,
image.png

下载完成后,ollama会为我们运行刚下载的大模型。下面是运行成功的截图:
image.png

3、验证服务:运行成功以后,我们可以直接在命令行和deepseek对话。
image.png

安装完成后我们看到的是一个命令行窗口,使用起来并不方便。而且只能在本地使用,为了解决这些问题,可以接着安装Infortress。

二、Infortress安装

Infortress是一款专为普通用户打造的AI远程访问工具,其APP端(iOS/Android/电脑客户端)可无缝对接本地服务:

1、下载服务端,登录Infortress官网,根据自己的电脑系统下载对应的电脑服务端
image.png

之后根据提示一键安装,过程中只需要设置一下安装目录即可,之后等待自动安装完成!
image.png

2、下载APP/客户端:在手机应用商店搜索“Infortress”,或访问官网扫码获取安装包。电脑客户端的用户,直接到官网下载安装包,之后根据提示一键安装即可!
image.png

3、连接服务端:使用邮箱进行用户注册账号,登录后下拉页面即可自动查找服务端,确认后,点击注册&连接按钮,就安装完成了。
image.png

电脑客户端也是同样的操作步骤,安装好后会自动发现服务端,点击注册服务器及连接按钮,即安装完成
image.png

三、服务端配置:打通Ollama与Infortress

进入电脑服务端的设置页面:点击左侧菜单“设置”,找到“本地大模型”。
image.png

默认是“内置大模型”,这里配置了多种主流大语言模型,用户可以根据自己的需求,选择适合的大模型系列,之后点击后面的下载按钮,即可自动进行安装部署,之后点击对话按钮,就能使用(如下图)!
image.png

如果本地已经部署了Ollama,可以在顶部这里进行切换,
image.png

切换之后,填写本地模型地址,默认为:http://127.0.0.1:11434
(若端口被占用,需在Ollama设置中修改并同步更新)。
image.png

测试连接:配置完成后,点击对话,输入问题,程序做出响应则表示链路打通。

在手机端或者电脑客户端上,也可以远程访问本地部署的大模型,找到“AI大模型”,点击进入,
image.png
image.png

这里可以和你本地部署的大模型进行对话,顶部可以切换不同的大模型,如果部署了本地知识库,也可以切换大模型和知识库
image.png
image.png

四、Infortress:不止于远程访问,更是你的私人AI数据中心

Infortress不仅能在手机/平板上随时调用本地大模型,它还是一个专业的NAS软件,NAS核心功能全覆盖,感兴趣的小伙伴,可以自行体验!

相关文章
|
4月前
|
移动开发 前端开发 Android开发
【02】建立各项目录和页面标准化产品-vue+vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
【02】建立各项目录和页面标准化产品-vue+vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
566 12
【02】建立各项目录和页面标准化产品-vue+vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
|
4月前
|
Java 应用服务中间件 API
【App Service】部署War包到Azure云上遇404错误
Java应用部署至Azure App Service for Windows后报404,本地运行正常。经排查,日志提示类文件版本不兼容:应用由Java 17(class file version 61.0)编译,但环境仅支持到Java 11(55.0)。错误根源为Java版本不匹配。调整App Service的Java版本至17后问题解决,成功访问接口。
225 1
|
4月前
|
移动开发 JavaScript 应用服务中间件
【06】优化完善落地页样式内容-精度优化-vue加vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
【06】优化完善落地页样式内容-精度优化-vue加vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
502 5
【06】优化完善落地页样式内容-精度优化-vue加vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
|
4月前
|
移动开发 Rust JavaScript
【01】首页建立-vue+vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
【01】首页建立-vue+vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
895 4
【01】首页建立-vue+vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
|
4月前
|
移动开发 Android开发
【03】建立隐私关于等相关页面和内容-vue+vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
【03】建立隐私关于等相关页面和内容-vue+vite开发实战-做一个非常漂亮的APP下载落地页-支持PC和H5自适应提供安卓苹果鸿蒙下载和网页端访问-优雅草卓伊凡
258 0
|
7月前
|
人工智能 数据可视化 数据挖掘
Gemini-2.5-pro大模型专业画常用图表保姆级教程:圆角环形图+柱状图排序图+系列按行和按列排布图,国内直接使用
虚竹哥推出AI数据可视化工具《xuzhu-huatu-plus》,支持多种图表类型,如柱状图、饼图、热力图等,输入指令即可生成图表代码,大幅简化绘图流程。用户仅需访问指定平台,选择智能体并输入需求,AI即自动完成图表设计,助力高效数据分析与展示。提供免费授权码体验,国内可直接使用。
374 9
|
8月前
|
域名解析 监控 NoSQL
即时通讯APP应用开发的部署策略
随着移动互联网发展,即时通讯APP成为生活和工作的必备工具。本文探讨其开发部署的关键环节,包括用户界面设计、通讯协议选择、数据库设计与服务器搭建等方面,以及部署过程中的环境准备、应用打包、服务器部署、域名解析和监控维护等步骤。通过优化每个环节,确保APP稳定高效运行,提升用户体验,在市场中保持竞争力。
|
7月前
|
人工智能 搜索推荐 Linux
ollama部署本地DeepSeek大模型
本地部署大模型具有省钱省心、数据安全、使用自由、无需联网、量身定制及响应高效等优势。DeepSeek 提供满血版与多种蒸馏版模型,适配不同硬件条件。通过 Ollama 可便捷部署,并结合客户端工具如 AnythingLLM 提升交互体验,打造个性化本地 AI 助手。
792 0
|
5月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
505 2

热门文章

最新文章