如何训练个人的Gpt4ALL

简介: 如何训练个人的Gpt4ALL

如何在自己的计算机上安装类似 ChatGPT 的个人 AI 并在没有互联网的情况下运行它

本文旨在为任何人安装此软件。最初它有一个视频,伴随着操作方法,但是事情变化很快,我的三次尝试只是推迟了我发表这篇文章。我以后可能会包括它。我努力创建一个简单的分步说明,为极端新手安装个人 AI。可能从未去过GitHub并且从未使用过终端的人。如果你是有的人,那么这篇文章很可能不适合你。您可能会发现我们已经构建的一些本地模型,并将很快发布,以使其更有趣。如果您是安装软件的专家,请将精力集中在帮助他人和社区上,而不是“谁不知道”或“我知道,他只是在写......”有点评论。用你的力量和技能把我们都提升得更高。

个人 AI 的“第一台 PC”时刻

这是个人AI的“第一台PC”时刻,随之而来的是限制,就像在车库里生产第一台Apple 1一样。你是先驱。今天,任何人都可以使用私人和个人AI。您可以在自己的计算机上运行类似 ChatGPT 的功能版本,并且在安装后不需要将其连接到互联网。

所有人类知识都是已知和未知的综合。人工智能用作正力多路复用器和您的智力放大器,您的个人人工智能很好地帮助您和我们所有人克服这一差距。有了你的个人人工智能和正确的超级提示,人类将以前所未有的方式蓬勃发展。此刻你唯一需要的就是知道这一点的力量,并把它拿在手中去处理它,因为你想为你和你爱的每个人看到这个世界。它不是AI,而是IA(智能放大)。

一个属于个人人工智能的一个例子

我们今天将介绍的系统(我将写更多)可以在最新且典型的但不是高性能 CPU 上运行,具有 8GB RAM 和仅 4GB 磁盘空间。是的,整个模型,在仅4GB的磁盘空间中包含了大量的人类知识语料库。有限制吗?答案是肯定的。它不是 ChatGPT 4,它不会正确处理某些事情。然而,它是有史以来最强大的个人人工智能系统之一。它被称为GPT4All。

GPT4All是一个免费的开源类ChatGPT大型语言模型(LLM)项目,由Nomic AI(Nomic.ai)的程序员团队完成。这是许多志愿者的工作,但领导这项工作的是令人惊叹的Andriy Mulyar Twitter:@andriy_mulyar。如果您发现该软件有用,我敦促您通过与他们联系来支持该项目。GPT4All 基于 LLaMA 7B 模型构建。LLaMA代表大型语言模型元(Facebook)AI。它包括从 7 亿 (7B) 到 65 亿个参数的一系列模型大小。Meta AI 研究人员专注于通过增加训练数据量而不是参数数量来扩展模型的性能。他们声称 13 亿个参数模型的性能优于 GPT-175 模型的 3 亿个参数。它使用转换器架构,并通过网络抓取维基百科,GitHub,Stack Exchange,古腾堡项目的书籍,ArXiv上的科学论文提取了1.4万亿个代币。

Nomic AI团队对LLaMA 7B和最终模型的模型进行了微调,并在437,605个后处理助手式提示上对其进行了训练。他们从另一个名为Alpaca的类似ChatGPT的项目中获得灵感,但使用OpenAI API的GPT-3.5-Turbo收集了大约800,000个提示响应对,以创建437,605个助手式提示和世代的训练对,包括代码,对话和叙述。然而,800K对大约是羊驼的16倍。该模型最好的部分是它可以在CPU上运行,不需要GPU。像羊驼一样,它也是一个开源,可以帮助个人进行进一步的研究,而无需花费商业解决方案。

详细的模型超参数和训练代码可以在 GitHub 存储库中找到,https://github.com/nomic-ai/gpt4all。开发 GPT4All 大约需要四天时间,并产生了 800 美元的 GPU 费用和 500 美元的 OpenAI API 费用。此外,最终的gpt4all-lora模型可以在大约100小时内在Lambda Labs DGX A8 80x 8GB上进行训练,总成本为100美元。

GPT4All 将其困惑度与最知名的羊驼-lora 模型进行了比较,并表明与 Alpaca 相比,微调的 GPT4All 模型在自指导评估中表现出较低的困惑度。但是,由于鼓励用户在本地CPU上运行模型以获得对其功能的定性见解,因此此评估并不详尽。

Nomic AI团队在几天内完成了所有这些工作,并且仅在4GB的磁盘空间中完成。它是免费和开源的。重要的是要知道所有本地化的个人人工智能模型和软件都是非常新的,通常不是为普通人设计的。它是开源的,没有“客户服务和支持”。安装通常是“转到 Git Hub 并克隆它”。因此,这是早期的先驱者时代,因此您需要耐心等待。回报是你自己的个人AI。我觉得个人人工智能是一场革命,相当于汽车的发明。直到亨利·福特(Henry Ford)让汽车触手可及,人类才打破了阻碍我们的界限。这就是我写这篇操作方法文章的精神,我希望它可以帮助即使是技术上最具挑战性的人也能获得这个新工具。

但为什么要有个人人工智能呢?会有无穷无尽的原因,但有些是

  1. 数据隐私:许多公司都希望控制数据。这对他们来说很重要,因为他们不希望任何第三方访问他们的数据。
  2. 定制:它允许开发人员使用自己的数据训练大型语言模型,如果他们想应用某些主题,可以对某些主题进行一些过滤
  3. 经济实惠:开源 GPT 模型可让您训练复杂的大型语言模型,而无需担心昂贵的硬件。
  4. 人工智能民主化:它为进一步的研究开辟了空间,可用于解决现实世界的问题。
  5. 自由:人工智能正迅速成为审查、监管和更糟的目标。这可能是拥有自己的AI的最后机会。意大利已经禁止了ChatGPT,所以请注意。
  6. 个性化训练:下载基本模型后,您可以训练模型以保留您的个人数据,以便对其进行分析和构建神经元。

还有许多其他原因,几乎没有一个是出于“不良目的”。如果一个坏人想问“坏”的事情,有比本地人工智能更容易的方法。但是,使用下面模型的SECRET版本,您可能会对某些结果感到冒犯。它旨在提供没有过滤器的原始结果。您可以在模型之间切换以衡量其编辑方式。因此,如果您很敏感并且通常很容易被冒犯,这是一个警告,请不要下载SECRET版本。如果你想看看LLM AI是如何“理解”你和我实际生活的世界,我建议使用SECRET版本,而它仍然可用。

您将拥有自己的AI,您不必对任何人负责,但要回答自己

这个帖子有点像一个实验。当然,你可以去很多地方获得GPR4All。我只为会员发布内容有一些原因。一个原因是责任。出于某些原因,我有点犹豫要不要在这里发布这个。当你将人工智能用于任何目的时,要理智,要有荣誉和尊严。这既是石蕊测试,也是罗夏测试,测试你是谁,你在生活和成熟中的位置。如果你觉得有必要做“人工智能说了一件坏事”之类的事情,那就去做吧,但要知道你只是为了确保人工智能在未来你和你的孩子的某个时候不会是免费的和本地的。这是责任,它完全在你的肩膀上。我认为您可以在私人计算机上做任何您喜欢的事情。我认为在社交媒体上分享任何有意义的、有意义的、有真正目的的东西都是可以的。然而,另一方面,我们大多数人可能会认为任何让人工智能“危险”的人都是为了一个目的而支撑起来的,这个目的很可能是为了“安全”而创造“监管人工智能”的条件,我们中的一些人会评判你并记住你。我们的人工智能也是如此。如果你觉得自己没有能力变得理智,没有荣誉和尊严,为了你的家族血统让你来到这里,要么长大,要么继续前进,玩别的东西。欢迎所有其他人探索。不知道还能怎么说,但不得不说。

您将拥有自己的AI。

在任何100 +笔记本电脑的硬盘驱动器中对新的更小的3%本地运行的ChatGPT 5.2015涡轮增压型LLM AI进行最终测试。

我将有预先配置的下载,它比我拥有的大多数型号都要小得多,只有 4GB。

快出来了!pic.twitter.com/KnZkICmGPV

— 布赖恩·罗梅尔 (@BrianRoemmele) 5 年 2023 月 <> 日

最终,这是为您构建本地AI模型。最低系统类似ChatGPT的系统会变得更好,但这是PC与大型机时代。不要陷入历史的错误一面。支持独立的个人 AI。它会支持你。

安装 GPT4All

拉取GPT4All

git clone https://github.com/nomic-ai/gpt4all.git

现在,您需要下载运行软件所需的量化模型文件。为此,请转到以下链接:

迅雷云盘:

https://pan.xunlei.com/s/VNSv11jQzbx1ICZSuB9a1f2cA1?pwd=vknm

下载完成以后将数据放置gpt4all的chat目录下面

然后打开控制台,并且进入到这个目录,执行exe文件

gpt4all-lora-quantized-win64.exe

效果图:

并且提问 c#

等待回应,我们发现它回复了,并且我并没有跟OpenAi相关联,它是完全本地离线的。

对于GPT4All的回答也可以自己训练和探索,本文只是体验一下效果,如果想体验请按照文章顺序进入,

对于企业可以训练文档助手,对比搜索引擎,它的回答会更好

来自token的分享

推荐一款ChatGpt桌面端它是跨平台的支持android mac win ios web多平台的客户端

https://github.com/239573049/ChatGpt.Desktop

技术交流群:737776595

目录
相关文章
|
存储 人工智能 调度
GPT-4 Turbo 发布 | 大模型训练的新时代:超算互联网的调度与调优
算力对训练模型的重要性日益凸显。随着大模型训练的流行,全球显卡和算力正在快速增长。算力后周期市场也在迅速崛起。其中“后”更多是指后服务市场,涵盖从显卡服务器到货IDC之后,形成稳定算力到输出稳定商业推理结果全过程。该过程主要涉及云化、调优、调度、部署、落地和数据管理等环节。
|
1月前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
142 60
|
14天前
|
人工智能 语音技术 UED
仅用4块GPU、不到3天训练出开源版GPT-4o,这是国内团队最新研究
【10月更文挑战第19天】中国科学院计算技术研究所提出了一种名为LLaMA-Omni的新型模型架构,实现与大型语言模型(LLMs)的低延迟、高质量语音交互。该模型集成了预训练的语音编码器、语音适配器、LLM和流式语音解码器,能够在不进行语音转录的情况下直接生成文本和语音响应,显著提升了用户体验。实验结果显示,LLaMA-Omni的响应延迟低至226ms,具有创新性和实用性。
32 1
|
4月前
|
机器学习/深度学习 自然语言处理 Swift
从头构建和训练 GPT-2 |实战
从头构建和训练 GPT-2 |实战
52 4
|
4月前
|
数据采集 人工智能 自然语言处理
GPT被封锁了怎么办?轻松获取高质量的数据,训练自己的人工智能和大语言模型。
2023年标志着AI大模型时代的到来,GPT-4等模型在多个领域展现巨大潜力。然而,OpenAI对中国区服务的限制提出了挑战。本文探讨如何使用亮数据代理获取训练大模型所需的数据,包括确定目标、选择代理、数据抓取、清洗,并以西方历史为例,展示如何使用亮数据的静态住宅代理稳定获取DE区域数据,最终在国产AI平台上训练模型,提升知识库的丰富度和准确性。尽管面临外部障碍,但自主获取和训练数据能增强本土AI能力。
|
5月前
|
人工智能
拯救被掰弯的GPT-4!西交微软北大联合提出IN2训练治疗LLM中间迷失
【6月更文挑战第1天】研究人员为解决大型语言模型(LLM)的“中间迷失”问题,提出了IN2训练方法。此方法通过显式监督增强模型对长文本上下文的理解,改善了信息检索能力。应用IN2训练的FILM-7B模型在长文本任务上表现出色,尤其在NarrativeQA数据集上的F1分数提升了3.4。尽管面临数据合成和计算成本的挑战,IN2训练为LLM的进步开辟了新途径,预示着未来在长文本处理领域的潜力。论文链接:https://arxiv.org/pdf/2404.16811
71 5
|
6月前
|
自然语言处理
Meta首发变色龙挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA
【5月更文挑战第27天】Meta推出34B参数的多模态模型Chameleon,通过早期融合技术处理图像和文本,实现全面的多模态建模。在10万亿token的训练数据下,Chameleon在图像字幕生成和文本推理任务中刷新SOTA,展现出在混合模态生成和推理的潜力。然而,模型可能无法完全捕捉图像语义信息,且在某些特定任务上有优化空间。[论文链接](https://arxiv.org/pdf/2405.09818)
98 1
|
6月前
|
人工智能 安全 测试技术
Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
【2月更文挑战第18天】Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
74 3
Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
|
6月前
|
人工智能 PyTorch iOS开发
苹果AppleMacOs最新Sonoma系统本地训练和推理GPT-SoVITS模型实践
GPT-SoVITS是少有的可以在MacOs系统下训练和推理的TTS项目,虽然在效率上没有办法和N卡设备相提并论,但终归是开发者在MacOs系统构建基于M系列芯片AI生态的第一步。
苹果AppleMacOs最新Sonoma系统本地训练和推理GPT-SoVITS模型实践
|
6月前
|
自然语言处理 C++
GPT4 vs Llama,大模型训练的坑
训练大模型,总觉得效果哪里不对,查了三天,终于发现了原因
130 0

热门文章

最新文章