本地部署阿里通义千问Qwen3:一键远程访问,还能解决Ollama安全隐患

简介: 阿里开源模型通义千问Qwen3本地部署教程来啦!借助Ollama与Open WebUI,轻松实现图形化操作。通过贝锐花生壳内网穿透,不仅可安全远程访问,还有效防止未授权访问,保障AI资源私密性。从安装Ollama、配置参数到使用Open WebUI及花生壳设置,手把手教你完成全部流程!

这两天,阿里发布了新的开源模型通义千问Qwen3。本篇内容将手把手带你使用Ollama+Open WebUI本地部署开源模型通义千问Qwen3,并借助贝锐花生壳内网穿透,轻松实现安全远程访问!

相较于直接将服务部署在云端或使用端口映射进行远程访问,贝锐花生壳内网穿透不仅让远程连接更便捷,还能有效防止未经授权的用户擅自访问本地部署的Ollama,全面保障AI资源的私密性与安全性!

一键开启本地部署Qwen3

首先,访问Ollama官网,下载并一键安装Ollama客户端。

安装好 Ollama 后,打开命令提示符,参考命令“ollama run qwen3:8b”,下载Qwen3模型。

大家可以根据自己电脑的显存大小来挑选合适的参数,4G 显存选 1.5B、8G 选 7B、16G 选 14B,这样能保证模型运行更顺畅。

Ollama默认仅开启本机访问(无法外部或远程访问)完成上述步骤后,即可在本机通过命令行,或通过http请求实现访问,返回以下结果说明已经正常运行。

安装Open WebUI,实现图形界面交互

除了通过命令行与 Qwen3交互,我们还可以用 Open WebUI 实现更友好的图形化界面操作。不过在此之前,得先确认电脑上安装并运行了 Docker,要是还没安装,需要去 Docker 官网一键下载安装。

接下来,通过Docker部署Open WebUI,执行以下命令即可快速搭建 :

输入命令:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always

如果希望通过其他方式部署,大家也可以自行查看OpenWebUl github主页的教程。

完成部署后,浏览器访问127.0.0.1:3000,设置本地管理员账号,即可通过网页交互使用Qwen3!

利用贝锐花生壳内网穿透,实现安全远程访问

如果想随时随地远程访问本地部署的Qwen3,可以利用贝锐花生壳内网穿透,简单三步即可部署,轻松实现远程访问。

第一步,先注册一个贝锐账号,然后下载并登录花生壳客户端。

第二步,进入花生壳云管理平台,填写 Open WebUI 局域网 IP 和默认端口 “3000”,并设置安全访问规则。

另外,不同于其他内网穿透,花生壳支持一键使用HTTPS加密传输、额外设置网页访问密码实现双重防护,并有访问权限控制、爆破防护等高级防护功能,充分保障AI服务器安全!

第三步,完成设置后,点击保存,就会自动生成一个外网访问地址,随时随地安全访问!


相关实践学习
如何快速创建插件agent
阿里云百炼应用基于Assistant API技术架构,结合大语言模型(LLM)的推理、知识检索增强、插件调度等能力,构建应对各类复杂场景任务的场景应用。通过集成化、直观易用的产品界面,为开发者提供了丰富的应用配置选项,包括大型语言模型(LLM)选择、Pro
目录
相关文章
|
3天前
|
人工智能 文件存储 数据中心
Ollama部署本地大模型并通过Infortress APP远程访问保姆级教程
本文介绍如何快速上手本地大模型部署工具Ollama及AI远程访问工具Infortress。通过Ollama,开发者可轻松部署如Llama、Deepseek等主流开源模型,仅需几行命令即可完成安装与运行。结合Infortress,用户能实现对本地大模型的远程访问,支持多设备无缝对接,同时提供便捷的模型切换与知识库管理功能。Infortress更兼具NAS软件特性,成为个人AI数据中心的理想选择。
|
1天前
|
人工智能 自然语言处理 语音技术
全模态通义千问Qwen2.5-Omni大模型开源,7B尺寸实现全球最强性能
Qwen2.5-Omni采用“Thinker-Talker”双核架构,Thinker负责多模态输入处理,Talker实现流式语音合成,二者无缝协作。该模型在多模态任务OmniBench中达到SOTA表现,并在多个单模态领域超越同类模型。作为通义系列首个端到端全模态大模型,Qwen2.5-Omni支持文本、图像、音频和视频等多种输入输出形式,具备情绪识别与自然反馈能力。现已开源,开发者可通过多个平台免费体验和下载。
|
4天前
#我用Qwen3做了英语老师玛丽# 、#阿里云百炼#,@通义大模型
通过Qwen3创建了名为“玛丽”的英语老师智能体,具备解决学生英语问题的多种功能。她能用英语描述天气、翻译古诗词、撰写英语作文,还帮助了解外国文化、饮食与风俗习惯。相比以往版本更易使用,体验更佳。已完成功能设计与发布流程,感兴趣者可尝试使用。
47 12
|
4天前
|
定位技术 UED
#我用Qwen3做了旅游专家# 、#阿里云百炼#、@通义大模型
本教程介绍如何在百炼控制台配置智能体应用以提升旅游专家功能。首先登录百炼控制台,依次点击“应用”、“应用管理”和“智能体应用”,然后进入“设置”填写提示词。通过集成MCP高德地图与Qwen3模型,使旅游专家的回答更具体、专业,涵盖目的地导航、当地饮食、风俗习惯及天气预报等信息,显著提高用户体验与出行便利性,同时加深对智能体配置的理解。
45 10
|
1天前
|
开发者
qwen3大模型目前的不足与功能建议
这段内容反映了用户在过去半个多月与Qwen3大模型在线服务互动后,发现的功能不足及对未来功能的建议。用户已将所有意见汇总至一个会话,并通过www.tongyi.com页面分享对话链接。希望Qwen开发团队重视这些建议,同时也会发布到阿里云开发者社区讨论。待官方回复后,用户将根据回复决定是否分享给其他云服务厂商和开源社区。
|
2天前
|
机器学习/深度学习 存储 安全
4G手机内存玩转Qwen2.5-Omni?MNN全面支持Qwen2.5-Omni与Qwen3!
随着移动端算力、存储能力的提升,在端侧部署大模型已成为趋势。本地化运行可消除网络延迟实现毫秒响应,降低云端算力成本,同时避免数据上传保障隐私安全。
58 0
|
8天前
|
人工智能 负载均衡 数据可视化
10分钟上手全球开源模型冠军 Qwen3
阿里通义千问Qwen3在最新全球AI基准测试中智能水平位列全球前五,开源第一,且成本优势显著,推理成本仅为DeepSeek-R1的1/3、Claude 3.7的1/20。Qwen3支持119种语言,具备强大的代码和数学能力,同时提供思考与非思考两种模式无缝切换,适合复杂与简单任务。通过阿里云百炼平台,用户可在10分钟内快速搭建Qwen3模型服务,结合Cherry Studio客户端实现便捷交互。本文详细介绍了Qwen3的部署、体验及工具调用能力,帮助用户轻松上手。
273 68
|
9天前
|
数据可视化 API Swift
全模态图像模型Nexus-Gen对齐GPT-4o!同时搞定,数据、训练框架、模型全面开源
OpenAI GPT-4o发布强大图片生成能力后,业界对大模型生图能力的探索向全模态方向倾斜,训练全模态模型成研发重点。
101 17
|
23天前
|
弹性计算 机器人 应用服务中间件
一键部署开源Qwen3并集成到钉钉、企业微信
Qwen3系列模型现已正式发布并开源,包含8款“混合推理模型”,其中涵盖两款MoE模型(Qwen3-235B-A22B与Qwen3-30B-A3B)及六个Dense模型。阿里云计算巢已支持Qwen3-235B-A22B和Qwen3-32B的私有化部署,用户可通过计算巢轻松完成部署,并借助AppFlow集成至钉钉机器人或企业微信。文档详细介绍了从模型部署、创建应用到配置机器人的全流程,帮助用户快速实现智能助手的接入与使用。
一键部署开源Qwen3并集成到钉钉、企业微信
|
7天前
|
人工智能 监控 API
狂揽22.6k星!这个开源工具让你一键调用100+大模型,开发效率直接起飞!
LiteLLM是由BerriAI团队开发的开源项目,通过标准化OpenAI格式API接口,支持调用100+主流大语言模型(如OpenAI、Azure、Anthropic等)。其核心功能包括统一调用方式、企业级智能路由、异步流式响应及环境变量管理。项目适用于企业AI中台搭建、多模型对比测试、教育科研实验等场景。技术架构涵盖接口层、路由层、管理层与监控层,提供高效稳定的服务。相比LangChain、LlamaIndex等项目,LiteLLM在多平台混合开发方面优势显著。项目地址:https://github.com/BerriAI/litellm。