一键本地部署类GPT大模型,免费!

简介: 一键本地部署类GPT大模型,免费!

ChatGPT作为一种基于大型语言模型的生成式人工智能,不仅仅能够回答传统问题,涵盖了人文、科学、情感等各个领域,它还能够帮助写代码、改bug等。然而,要体验ChatGPT还是比较麻烦的,因为它没有开源。虽然也有其他的开源AI大语言模型,但是部署到本地流程太多,容易给人整不会了。没关系,今天介绍一个开源项目,帮你一键本地免费、无限用AI大模型聊天


Text generation web UI简介

AI绘画界的Stable Diffuison Web UI,相信大家不会陌生,它做到了把非常复杂的AI绘画做成了可视化的网页,极大的提升了AI绘画的体验。而今天介绍的这款叫做Text generation web UI的开源项目,它的目标是成为文本生成领域的Stable Diffuison Web UI,即为类ChatGPT的大语言模型制作一款容易快速上手的网页。

2ddbe5c779184595f0ce3d5cd0627fe9.png

Text generation web UI可以用于运行 LLaMA、llama.cpp、GPT-J、Pythia、OPT 和 GALACTICA 等开源的大型语言模型。


一键安装,免费!

通过以下链接,可以快速访问Text generation web UI:

https://github.com/oobabooga/text-generation-webui

找到“一键安装程序”区域,根据自己操作系统的类型,下载zip文件,将其解压。

f06d5feb3569e0b58a6989965817730e.png

然后双击“start-windows”即可。Web UI 及其所有依赖项将安装在同一文件夹中。

0ed6bc18a08184635704877eaa3fec99.png

自动开始下载依赖环境。

ea5fabcb430f386217456c02ff424376.png

中间会让你选择自己电脑的显卡是什么牌子的,大家按需选择即可。

7f3537969a36a3cf46fc39a9d38a2130.png

等待片刻,下载完成后,还需要下载至少一个开源的大语言模型。进入以下目录中oobabooga_windows\text-generation-webui,在上方地址中输入“cmd”。

8cde02916a0ccf207336f2ae83e8b3a0.png

在打开的命令指示窗口,输入需要下载的模型,比如:

python download-model.py facebook/opt-350m

等待下载完成后,再回到项目目录,点击“start-windows”,即可启动。然后将下方弹窗中的地址,输入到浏览器。

f4379cf881ec04740b4a50acfb56bc14.png

可以愉快地跟你专属的AI大语言模型聊天了~感兴趣的朋友,快去试试吧,咱们下期再见~

b8d04e52f7df19dbd17c78ac5deca3e1.png



目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
107 2
|
1月前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
59 4
|
2月前
|
API 云栖大会
通义千问升级旗舰模型Qwen-Max,性能接近GPT-4o
通义旗舰模型Qwen-Max全方位升级,性能接近GPT-4o
948 11
|
3月前
|
知识图谱
ARTIST的中文文图生成模型问题之通过GPT生成图像序列的问题如何解决
ARTIST的中文文图生成模型问题之通过GPT生成图像序列的问题如何解决
|
1月前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
145 60
|
22天前
|
机器学习/深度学习 弹性计算 人工智能
大模型进阶微调篇(三):微调GPT2大模型实战
本文详细介绍了如何在普通个人电脑上微调GPT2大模型,包括环境配置、代码实现和技术要点。通过合理设置训练参数和优化代码,即使在无独显的设备上也能完成微调,耗时约14小时。文章还涵盖了GPT-2的简介、数据集处理、自定义进度条回调等内容,适合初学者参考。
148 6
|
1月前
|
机器学习/深度学习 测试技术
ACL杰出论文奖:GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集,全面提升大模型心智能力
【10月更文挑战第6天】约翰斯·霍普金斯大学等机构提出了一项荣获ACL杰出论文奖的研究,旨在解决大模型在心智理论(ToM)上的不足。他们发布了首个MMToM-QA多模态ToM测试集,并提出BIP-ALM方法,从多模态数据中提取统一表示,结合语言模型进行贝叶斯逆规划,显著提升了模型的ToM能力。这一成果为机器与人类自然交互提供了新思路,尽管仍面临一些局限性和技术挑战。论文详情见:https://arxiv.org/abs/2401.08743。
47 6
|
2月前
|
数据采集 自然语言处理 监控
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
正是通过微调大模型使得GPT3成为了可以聊天发布指令的ChatGPT。聊天大模型在通用大模型的基础上加一层微调就实现人人能用的大模型,使得通用大模型的能力被更多人使用和了解。
54 4
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
|
1月前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
41 0
|
1月前
|
开发工具 git
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
57 0

热门文章

最新文章