本地部署阿里通义千问Qwen3:一键远程访问,还能解决Ollama安全隐患

简介: 阿里开源模型通义千问Qwen3本地部署教程来啦!借助Ollama与Open WebUI,轻松实现图形化操作。通过贝锐花生壳内网穿透,不仅可安全远程访问,还有效防止未授权访问,保障AI资源私密性。从安装Ollama、配置参数到使用Open WebUI及花生壳设置,手把手教你完成全部流程!

这两天,阿里发布了新的开源模型通义千问Qwen3。本篇内容将手把手带你使用Ollama+Open WebUI本地部署开源模型通义千问Qwen3,并借助贝锐花生壳内网穿透,轻松实现安全远程访问!

相较于直接将服务部署在云端或使用端口映射进行远程访问,贝锐花生壳内网穿透不仅让远程连接更便捷,还能有效防止未经授权的用户擅自访问本地部署的Ollama,全面保障AI资源的私密性与安全性!

一键开启本地部署Qwen3

首先,访问Ollama官网,下载并一键安装Ollama客户端。

安装好 Ollama 后,打开命令提示符,参考命令“ollama run qwen3:8b”,下载Qwen3模型。

大家可以根据自己电脑的显存大小来挑选合适的参数,4G 显存选 1.5B、8G 选 7B、16G 选 14B,这样能保证模型运行更顺畅。

Ollama默认仅开启本机访问(无法外部或远程访问)完成上述步骤后,即可在本机通过命令行,或通过http请求实现访问,返回以下结果说明已经正常运行。

安装Open WebUI,实现图形界面交互

除了通过命令行与 Qwen3交互,我们还可以用 Open WebUI 实现更友好的图形化界面操作。不过在此之前,得先确认电脑上安装并运行了 Docker,要是还没安装,需要去 Docker 官网一键下载安装。

接下来,通过Docker部署Open WebUI,执行以下命令即可快速搭建 :

输入命令:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always

如果希望通过其他方式部署,大家也可以自行查看OpenWebUl github主页的教程。

完成部署后,浏览器访问127.0.0.1:3000,设置本地管理员账号,即可通过网页交互使用Qwen3!

利用贝锐花生壳内网穿透,实现安全远程访问

如果想随时随地远程访问本地部署的Qwen3,可以利用贝锐花生壳内网穿透,简单三步即可部署,轻松实现远程访问。

第一步,先注册一个贝锐账号,然后下载并登录花生壳客户端。

第二步,进入花生壳云管理平台,填写 Open WebUI 局域网 IP 和默认端口 “3000”,并设置安全访问规则。

另外,不同于其他内网穿透,花生壳支持一键使用HTTPS加密传输、额外设置网页访问密码实现双重防护,并有访问权限控制、爆破防护等高级防护功能,充分保障AI服务器安全!

第三步,完成设置后,点击保存,就会自动生成一个外网访问地址,随时随地安全访问!


相关实践学习
如何快速创建插件agent
阿里云百炼应用基于Assistant API技术架构,结合大语言模型(LLM)的推理、知识检索增强、插件调度等能力,构建应对各类复杂场景任务的场景应用。通过集成化、直观易用的产品界面,为开发者提供了丰富的应用配置选项,包括大型语言模型(LLM)选择、Pro
贝锐
+关注
目录
打赏
0
4
1
0
35
分享
相关文章
NVIDIA 实现通义千问 Qwen3 的生产级应用集成和部署
阿里巴巴近期开源了通义千问Qwen3大语言模型(LLM),包含两款混合专家模型(MoE)235B-A22B与30B-A3B,以及六款稠密模型(Dense)从0.6B到32B不等。开发者可基于NVIDIA GPU使用TensorRT-LLM、Ollama、SGLang、vLLM等框架高效部署Qwen3系列模型,实现快速词元生成和生产级应用开发。
通义灵码正式上线 Qwen3,编程智能体马上来了!
Qwen3正式发布并开源8款「混合推理模型」,包括两款MoE模型(Qwen3-235B-A22B、Qwen3-30B-A3B)和六个Dense模型。旗舰模型Qwen3-235B-A22B在多项测试中表现出色,竞争力强。Qwen3支持两种思考模式(思考与非思考),涵盖119种语言,增强Agent能力,在BFCL评测中创纪录。通义灵码已上线相关插件,助力开发者体验AI编码能力。
273 11
本地部署大模型DeepSeek并通过Infortress App远程访问
本地部署DeepSeek大模型后,如何在外网用手机随时随地访问?无需复杂设置,通过Infortress App即可轻松实现!只需三步:安装Infortress服务端、一键部署DeepSeek大模型、安装手机/电脑客户端。Infortress支持纯图形化操作,适合新手,还自带内网穿透功能,跨网络访问无忧。让本地AI随身携带,数据掌控在手,随时随地使用!
本地部署大模型DeepSeek并通过Infortress App远程访问
阿里通义开源新一代混合推理模型 Qwen3:创新双模式推理,支持"思考模式"和"非思考模式"
Qwen3是阿里巴巴推出的新一代大型语言模型,支持119种语言和两种推理模式,采用四阶段训练流程和Apache 2.0协议开源,提供从0.6B到235B的多种模型配置。
247 19
阿里通义开源新一代混合推理模型 Qwen3:创新双模式推理,支持"思考模式"和"非思考模式"
全新开源通义千问Qwen3,它来了!
Qwen3是通义千问系列的最新模型,融合推理与非推理模式,兼具QwQ和Instruct模型能力。提供多种尺寸,包括235B-A22B、30B-A3B及六个Dense模型,大幅提升数学、代码、逻辑推理和对话能力,达到业界领先水平。旗舰模型Qwen3-235B-A22B在多场景测试中表现优异,小型模型如Qwen3-4B性能媲美大模型。用户可在阿里云百炼平台免费体验各100万Token。
全新开源通义千问Qwen3,它来了!
Infortress远程访问本地大模型和知识库之深度体验
Infortress是一款革新性的AI工具,解决本地AI部署缺乏远程访问能力的痛点。通过简单配置,用户可轻松搭建本地大模型和知识库,并通过PC客户端与手机APP实现远程访问。其内网穿透技术确保稳定高效的数据交互,所有计算在本地完成,保障数据安全。此外,Infortress还支持家庭数据中心搭建,具备AI分类、异地双活等功能。
全新开源通义千问Qwen3上架阿里云百炼
Qwen3是Qwen系列大型语言模型的最新成员,作为混合推理模型,其旗舰版本Qwen3-235B-A22B在代码、数学和通用能力测试中表现出色,与顶级模型DeepSeek-R1、o1、o3-mini等相比具有竞争力。小型MoE模型Qwen3-30B-A3B激活参数仅为QwQ-32B的10%,性能更优,甚至小规模模型Qwen3-4B也能匹敌Qwen2.5-72B-Instruct。Qwen3支持思考与非思考两种模式,可根据任务需求灵活调整推理深度,并支持119种语言,Qwen3在推理、工具调用及多语言处理等方面显著提升,目前已开源并在阿里云百炼平台上线,提供便捷体验。
Ollama部署本地大模型并通过Infortress APP远程访问保姆级教程
本文介绍如何快速上手本地大模型部署工具Ollama及AI远程访问工具Infortress。通过Ollama,开发者可轻松部署如Llama、Deepseek等主流开源模型,仅需几行命令即可完成安装与运行。结合Infortress,用户能实现对本地大模型的远程访问,支持多设备无缝对接,同时提供便捷的模型切换与知识库管理功能。Infortress更兼具NAS软件特性,成为个人AI数据中心的理想选择。
全模态图像模型Nexus-Gen对齐GPT-4o!同时搞定,数据、训练框架、模型全面开源
OpenAI GPT-4o发布强大图片生成能力后,业界对大模型生图能力的探索向全模态方向倾斜,训练全模态模型成研发重点。
93 17
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等