免费高效!3步实现Llama3模型远程访问与协作

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: Meta发布了全新的开源大语言模型Llama 3,LM Studio是一款免费的桌面端工具,支持一键安装和运行Llama 3模型,实现本地使用。LM Studio还提供了Local Server功能,便于集成AI功能。通过贝锐花生壳,可轻松实现LM Studio接口的远程访问,无需公网IP或端口映射。

前段时间,Meta全新的开源大语言模型Llama 3发布了!


如果想要快速使用Llama 3,使用免费的桌面端工具LM Studio是个不错的选择,支持一键安装,运行Llama 3模型,实现本地使用。



同时,LM Studio还提供了Local Server功能,可以提供接口调用服务,便于App、应用软件、前端网页集成AI功能。



然而,Local Server功能默认提供的是本地访问地址,为了快速远程调用,开发者们需要解决开发环境的远程访问难题。

在无需公网IP、不用端口映射、不设置路由/网关的情况下,搭配贝锐花生壳花生壳,就可以3步实现LM Studio接口的远程访问。



LM Studio启用Local Server功能后,通过贝锐花生壳实现远程访问的步骤如下:

第一步:在贝锐官网下载花生壳客户端,并注册贝锐帐号,并内网主机上安装登录客户端:



第二步:进入花生壳云端管理平台→点击内网穿透→添加映射→选择“网站应用”开始创建即可;



对于常见的网站应用,目前花生壳提供HTTP和HTTPS两种类型可用。

HTTP:可用于搭建HTTP协议的站点映射,属于非加密访问,建议搭配访问控制提升网站安全性:

HTTPS:用于创建访问安全加密的站点映射,同时花生壳可自动云端部署证书,本地无需额外申请、设置,非常方便。


第三步: 根据提示进行设置,如下图正确填写相关信息后,点击保存,就会自动生成一个外网访问地址。



生成完成后,复制生成的访问地址+接口路径,就可以实现LM Studio的接口远程调用。


目录
相关文章
|
7月前
|
测试技术 Linux Shell
ChatGPT访问难?ChatGLM+花生壳打造可远程访问的平替方案
ChatGPT虽强大,但访问受限。清华大学开源的ChatGLM提供了一种解决方案:用户可根据需求部署私有化的对话服务,支持中英文交互。与ChatGPT不同,ChatGLM便于定制与训练,并能获取已训练模型。结合贝锐花生壳等内网穿透工具,可轻松实现ChatGLM-webui远程访问,无需固定公网IP或路由配置,适用于测试及实际项目,有效规避了访问难题。
100 3
|
10月前
|
监控 负载均衡 测试技术
大模型开发:描述一个你之前工作中的模型部署过程。
完成大型语言模型训练后,经过验证集评估和泛化能力检查,进行模型剪枝与量化以减小规模。接着导出模型,封装成API,准备服务器环境。部署模型,集成后端服务,确保安全,配置负载均衡和扩容策略。设置监控和日志系统,进行A/B测试和灰度发布。最后,持续优化与维护,根据线上反馈调整模型。整个流程需团队协作,保证模型在实际应用中的稳定性和效率。
220 3
|
7月前
|
Linux 测试技术 API
Ollama+Qwen2,轻松搭建支持函数调用的聊天系统
本文介绍如何通过Ollama结合Qwen2,搭建OpenAI格式的聊天API,并与外部函数结合来拓展模型的更多功能。
|
8月前
|
存储 人工智能 自然语言处理
社区供稿 | 源大模型的快速部署与高效推理——GGUF格式模型介绍与使用教程
在人工智能领域,大型语言模型的发展日新月异,它们在自然语言处理、机器翻译、智能助手等多个领域展现出了前所未有的能力。
社区供稿 | 源大模型的快速部署与高效推理——GGUF格式模型介绍与使用教程
|
前端开发 JavaScript 关系型数据库
部署小型论文系统体验
本次体验我部署了一个小型的论坛系统,主要功能有发表文章、评论文章、上传头像、查看用户主页。管理员页面需要管理员功能才可以进入。感谢阿里云提供的体验机会,感受了服务器的魅力。
部署小型论文系统体验
|
2月前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
12635 86
|
人工智能
免费,无需魔法,媲美ChatGPT4
免费,无需魔法,媲美ChatGPT4
260 0
|
数据采集 机器学习/深度学习 人工智能
用ChatGPT训练羊驼:「白泽」开源,轻松构建专属模型,可在线试玩
用ChatGPT训练羊驼:「白泽」开源,轻松构建专属模型,可在线试玩
503 0
|
5月前
|
Linux Shell API
ollama 大模型部署 工具 | AIGC
Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。【10月更文挑战第1天】
931 1
|
12天前
|
人工智能 算法 数据格式
DeepSeek 开源周第二弹!DeepEP:专为 MoE 训练和推理设计的并行通信库
DeepEP 是 DeepSeek 开源的首个专为混合专家模型(MoE)训练和推理设计的通信库,支持高吞吐量、低延迟通信,优化 NVLink 和 RDMA 网络性能。
75 3