免费高效!3步实现Llama3模型远程访问与协作

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: Meta发布了全新的开源大语言模型Llama 3,LM Studio是一款免费的桌面端工具,支持一键安装和运行Llama 3模型,实现本地使用。LM Studio还提供了Local Server功能,便于集成AI功能。通过贝锐花生壳,可轻松实现LM Studio接口的远程访问,无需公网IP或端口映射。

前段时间,Meta全新的开源大语言模型Llama 3发布了!


如果想要快速使用Llama 3,使用免费的桌面端工具LM Studio是个不错的选择,支持一键安装,运行Llama 3模型,实现本地使用。



同时,LM Studio还提供了Local Server功能,可以提供接口调用服务,便于App、应用软件、前端网页集成AI功能。



然而,Local Server功能默认提供的是本地访问地址,为了快速远程调用,开发者们需要解决开发环境的远程访问难题。

在无需公网IP、不用端口映射、不设置路由/网关的情况下,搭配贝锐花生壳花生壳,就可以3步实现LM Studio接口的远程访问。



LM Studio启用Local Server功能后,通过贝锐花生壳实现远程访问的步骤如下:

第一步:在贝锐官网下载花生壳客户端,并注册贝锐帐号,并内网主机上安装登录客户端:



第二步:进入花生壳云端管理平台→点击内网穿透→添加映射→选择“网站应用”开始创建即可;



对于常见的网站应用,目前花生壳提供HTTP和HTTPS两种类型可用。

HTTP:可用于搭建HTTP协议的站点映射,属于非加密访问,建议搭配访问控制提升网站安全性:

HTTPS:用于创建访问安全加密的站点映射,同时花生壳可自动云端部署证书,本地无需额外申请、设置,非常方便。


第三步: 根据提示进行设置,如下图正确填写相关信息后,点击保存,就会自动生成一个外网访问地址。



生成完成后,复制生成的访问地址+接口路径,就可以实现LM Studio的接口远程调用。


目录
相关文章
|
监控 安全 网络安全
两层楼的公司如何开始搭建网络的步骤详解?
两层楼的公司如何开始搭建网络的步骤详解?
|
6天前
|
存储 人工智能 前端开发
搭建企业内部的大语言模型系统
该内容主要介绍了开源大语言模型及其管理方法。首先对比了商业大模型(如ChatGPT)与支持私有部署的开源大模型(如Mistral、Meta Llama),强调了开源模型在安全和隐私方面的优势。接着详细列出了多种大语言模型管理工具,如HuggingFace、Ollama等,并展示了Ollama的快速部署和使用方法。此外,还介绍了大语言模型的应用前端,包括开源平台Ollama-chatbot、PrivateGPT等,以及它们的具体部署步骤和配置示例。最后提供了非私有OpenAI-powered部署方案及其API调用示例。
25 6
|
20天前
|
测试技术 Linux Shell
ChatGPT访问难?ChatGLM+花生壳打造可远程访问的平替方案
ChatGPT虽强大,但访问受限。清华大学开源的ChatGLM提供了一种解决方案:用户可根据需求部署私有化的对话服务,支持中英文交互。与ChatGPT不同,ChatGLM便于定制与训练,并能获取已训练模型。结合贝锐花生壳等内网穿透工具,可轻松实现ChatGLM-webui远程访问,无需固定公网IP或路由配置,适用于测试及实际项目,有效规避了访问难题。
44 3
|
3月前
|
人工智能 Linux Docker
一文详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
近年来,大模型在AI领域崭露头角,成为技术创新的重要驱动力。从AlphaGo的胜利到GPT系列的推出,大模型展现出了强大的语言生成、理解和多任务处理能力,预示着智能化转型的新阶段。然而,要将大模型的潜力转化为实际生产力,需要克服理论到实践的鸿沟,实现从实验室到现实世界的落地应用。阿里云去年在云栖大会上发布了一系列基于通义大模型的创新应用,标志着大模型技术开始走向大规模商业化和产业化。这些应用展示了大模型在交通、电力、金融、政务、教育等多个行业的广阔应用前景,并揭示了构建具有行业特色的“行业大模型”这一趋势,大模型知识库概念随之诞生。
135388 29
|
2月前
|
存储 人工智能 自然语言处理
社区供稿 | 源大模型的快速部署与高效推理——GGUF格式模型介绍与使用教程
在人工智能领域,大型语言模型的发展日新月异,它们在自然语言处理、机器翻译、智能助手等多个领域展现出了前所未有的能力。
社区供稿 | 源大模型的快速部署与高效推理——GGUF格式模型介绍与使用教程
|
4月前
|
存储 机器学习/深度学习 人工智能
社区供稿 | Yuan2.0千亿大模型在通用服务器上的高效推理实现:以NF8260G7服务器为例
浪潮信息联合Intel在IPF大会上发布了可运行千亿参数大模型的AI通用服务器,首次实现了单机通用服务器,即可运行千亿参数大模型。并在发布现场演示了基于NF8260G7服务器进行yuan2.0-102B模型在代码编写、逻辑推理等高难度问题上的实时推理效果,引起了业界广泛的关注。本文将详细解读yuan2.0-102B模型在NF8260G7服务器上进行高效实时推理的原理和技术路径。
|
4月前
|
人工智能
本地离线部署大模型知识库OLLAMA+Anything(保姆级)
本地离线部署大模型知识库OLLAMA+Anything(保姆级)
2430 2
|
4月前
|
人工智能 自然语言处理 机器人
论文介绍:大型语言模型作为通用模式机器
【2月更文挑战第29天】大型语言模型(LLMs)展现出处理复杂序列模式的能力,超越自然语言任务,进入机器人学领域。研究显示,LLMs能理解概率上下文无关文法生成的序列,处理抽象模式,甚至在标记随机替换后仍能完成模式。在机器人学中,未经额外训练的LLMs能推断数字序列,执行控制策略,如在CartPole任务中保持平衡。尽管面临延迟、计算成本等挑战,LLMs作为通用模式机器在序列处理和机器人学上的潜力预示着AI的新方向。论文链接:[arXiv:2307.04721](https://arxiv.org/abs/2307.04721)
42 1
论文介绍:大型语言模型作为通用模式机器
|
4月前
|
监控 负载均衡 测试技术
大模型开发:描述一个你之前工作中的模型部署过程。
完成大型语言模型训练后,经过验证集评估和泛化能力检查,进行模型剪枝与量化以减小规模。接着导出模型,封装成API,准备服务器环境。部署模型,集成后端服务,确保安全,配置负载均衡和扩容策略。设置监控和日志系统,进行A/B测试和灰度发布。最后,持续优化与维护,根据线上反馈调整模型。整个流程需团队协作,保证模型在实际应用中的稳定性和效率。
90 3
|
4月前
|
人工智能 自然语言处理 搜索推荐
阿里云推出企业级大模型RAG系统,几次点击即可连接PB级知识库
阿里云推出企业级大模型RAG系统,几次点击即可连接PB级知识库
1282 1