本地部署大模型DeepSeek并通过Infortress App远程访问

简介: 本地部署DeepSeek大模型后,如何在外网用手机随时随地访问?无需复杂设置,通过Infortress App即可轻松实现!只需三步:安装Infortress服务端、一键部署DeepSeek大模型、安装手机/电脑客户端。Infortress支持纯图形化操作,适合新手,还自带内网穿透功能,跨网络访问无忧。让本地AI随身携带,数据掌控在手,随时随地使用!

本地部署完DeepSeek大模型,怎么在外网用手机访问?尤其是出差、休假时想调取本地数据怎么办?怎么才能跨网络随时随地使用?
今天分享个实用小技巧,不用折腾复杂设置,用Infortress App就能搞定远程访问。手机、平板、公司电脑都能像在本机一样,直接访问本地部署的DeepSeek。整个过程不需要命令行,不用碰代码,纯图形化界面,新手小白也能上手!

只需以下3步:

一、安装Infortress服务端

打开浏览器访问Infortress官网,
image.png

找到【服务端下载】入口。根据你电脑的操作系统(Windows/macOS/Linux)选对应版本,之后一键下载。
image.png

下载完成后,双击安装包,按向导进行安装操作即可。
image.png

二、一键本地部署Deepseek大模型

打开Infortress服务端,进入设置页面。找到“本地大模型”配置项,
image.png

里面是Deepseek的所有版本,可以选择一个适合自己的,一键点击后面的【下载】按钮,之后等待自动安装部署完成即可;
未标题-12222.png

之后点击“对话”按钮。就可以和本地大模型进行对话了。
image.png

三、安装Infortress手机APP,及电脑客户端

在手机应用市场搜索“Infortress”,或访问官网扫码下载。电脑客户端也在官网扫码下载,安装完成后,用邮箱注册并登录账号。
image.png

打开App,下拉页面自动搜索局域网内的Infortress服务端(如下图)。找到设备后,点击“注册服务器”并确认连接。
image.png

电脑客户端也是同样的操作步骤,安装好后会自动发现服务端,点击注册服务器及连接按钮,即安装完成
image.png

四、使用本地大模型

手机端使用本地大模型非常简单,进入App首页,找到“AI大模型”功能入口(如下图)。你可以直接在手机上与本地部署的大模型进行对话。
image.png

Infortress不仅支持一键部署本地大模型,还支持本地知识库,如果部署了本地大模型与知识库,可以在顶部切换AI大模型及知识库,也可以在不同的Deepseek大模型之间进行切换。
image.png

电脑客户端使用也是如此,在左侧菜单找到AI大模型,点击进入,即可与本地大模型进行对话
image.png

顶部同样可以切换AI大模型与本地知识库,以及切换大模型不同的Deepseek版本。
image.png

由于Infortress自带内网穿透功能,所以跨网络访问本地知识库也不需要任何配置!

image.png

五、结语:把本地AI装进口袋

通过Infortress,本地部署的DeepSeek大模型彻底打破了“本地部署=固定工位”的魔咒。它不是简单的远程控制,而是让私有化AI大模型真正“活”起来,数据始终存放在你的地盘,但使用权限可以延伸到任何角落。无论你是技术极客还是普通用户,都能用最低成本实现“我的数据我做主,随时随地用起来”的自由。
知识库远程访问参考文章,点击查看

相关文章
|
26天前
|
人工智能 文件存储 数据中心
Ollama部署本地大模型并通过Infortress APP远程访问保姆级教程
本文介绍如何快速上手本地大模型部署工具Ollama及AI远程访问工具Infortress。通过Ollama,开发者可轻松部署如Llama、Deepseek等主流开源模型,仅需几行命令即可完成安装与运行。结合Infortress,用户能实现对本地大模型的远程访问,支持多设备无缝对接,同时提供便捷的模型切换与知识库管理功能。Infortress更兼具NAS软件特性,成为个人AI数据中心的理想选择。
|
1月前
|
人工智能 Linux iOS开发
本地部署AnythingLLM知识库并通过Infortress App远程访问
本地部署AnythingLLM后,如何在手机上跨网络访问?本文分享一个简单实用的方法——通过Infortress App实现远程访问。无需复杂设置,纯图形化界面,新手也能轻松上手!只需三步:安装AnythingLLM、配置Infortress服务端、安装Infortress客户端(手机/电脑)。借助Infortress的内网穿透功能,随时随地访问本地知识库,实现“一次部署,随处使用”。无论是学习还是工作,都能兼顾安全与便捷。
|
22天前
|
人工智能 智能硬件
Claude 4来了 ,与DeepSeek/Qwen/Hunyuan 谁更强?
Claude 4发布,号称多项突破与超越。本文通过国内首款办公提效AI牛马智能体AiPy,在端午旅游规划场景下测评Claude 4、DeepSeek v3、Qwen-Plus和HunYuan-Turbos的表现。测评任务为制定1500元内端午旅行计划,并生成HTML报告。结果显示,Claude 4表现卓越但价格昂贵,是国产大模型的十倍以上;DeepSeek性价比高,值得称赞。国产大模型虽有亮点,但仍需努力追赶国际水平。测评结果附有各模型生成的报告截图对比。
|
19天前
|
机器学习/深度学习 自然语言处理 算法框架/工具
实战 | Qwen2.5-VL模型目标检测(Grounding)任务领域微调教程
在目标检测领域,众多神经网络模型早已凭借其卓越的性能,实现了精准的目标检测与目标分割效果。然而,随着多模态模型的崛起,其在图像分析方面展现出的非凡能力,为该领域带来了新的机遇。多模态模型不仅能够深入理解图像内容,还能将这种理解转化为文本形式输出,极大地拓展了其应用场景。
1351 74
|
30天前
|
人工智能 负载均衡 数据可视化
10分钟上手全球开源模型冠军 Qwen3
阿里通义千问Qwen3在最新全球AI基准测试中智能水平位列全球前五,开源第一,且成本优势显著,推理成本仅为DeepSeek-R1的1/3、Claude 3.7的1/20。Qwen3支持119种语言,具备强大的代码和数学能力,同时提供思考与非思考两种模式无缝切换,适合复杂与简单任务。通过阿里云百炼平台,用户可在10分钟内快速搭建Qwen3模型服务,结合Cherry Studio客户端实现便捷交互。本文详细介绍了Qwen3的部署、体验及工具调用能力,帮助用户轻松上手。
636 78
|
1月前
|
数据可视化 API Swift
全模态图像模型Nexus-Gen对齐GPT-4o!同时搞定,数据、训练框架、模型全面开源
OpenAI GPT-4o发布强大图片生成能力后,业界对大模型生图能力的探索向全模态方向倾斜,训练全模态模型成研发重点。
158 17
|
19天前
|
人工智能 数据挖掘 API
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
140 21
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
|
19天前
|
Java 数据库 Docker
基于neo4j数据库和dify大模型框架的rag模型搭建
基于neo4j数据库和dify大模型框架的rag模型搭建
235 35
|
22天前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
99 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析