不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

简介: 不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

前言

ChatGPT 问世已经过去半年多啦,大家一定有些审美疲劳了,不满足于 ChatGPT 提供的对话服务,而是想真正训练出自己的语言模型。

而作为非 LLM 专业研究人员,训练一个语言模型的难度是很大的。

今天我要给大家介绍的,是一个可视化模型训练平台,这意味着你不需要任何专业知识,只需要会简单的操作,即可快速搭建出基于自己内容的语言模型!

听到这里,大家是不是有些激动。废话少说,咱们快速进入正题吧!

Fine-tuning 介绍

在介绍这个可视化模型训练平台之前,我需要给大家补充点儿 Fine-tuning 的基础知识。

Fine-tuning 意思是 “微调”,即在预训练模型的基础上,进行进一步的微调,从而使得模型达到更好的效果,输出更理想的结果。在这个过程中,通常会使用更小的学习率,从而防止出现 过拟合 的情况。

我们今天要做的事情,其实就是在基于 GPT-3.5GPT-4 这样强大的模型上,做 Fine-tuning,训练微调出我们想要的语言模型。

Dify 介绍

Dify 是今天文章的主角,我们正是依靠于该平台强大的能力,搭建出属于我们的语言模型!

Dify 是一个可视化、可运营、可改进的 LLM 训练平台,它提供了强大的 LLMOps 能力。此外,它还提供了搭建 Web App 的能力。这些意味着你可以用它快速开发一个专属于你的 ChatGPT 应用,你可以基于此进行训练、微调,直到它变成你喜欢的模样!

LLMOps(Large Language Model Operations)是一种基于机器学习模型的运维(Operations)实践,是一个涵盖了大型语言模型(如GPT系列)开发、部署、维护和优化  的一整套实践和流程。

LLMOps 的目标是确保高效、可扩展和安全地使用这些强大的 AI 模型来构建和运行实际应用程序。它涉及到模型训练、部署、监控、更新、安全性和合规性等方面。

Dify 快速开始

今天,咱们就借助于 Dify 强大的能力,动手训练一个模型!

我们的目的就是想让训练出来的语言模型所输出的内容,均符合我们的预期,并且它不会胡编乱造,捏造事实。

注册 Dify & 创建应用

进入 Dify 官方页面,注册并填写 API Key 后,点击创建应用。

image.png

接着,我们为即将诞生的模型,起一个炫酷的名字 真IKun,给它设置一个贴切的头像,并选择应用类型为 对话型应用

  • 之前我们做的 IKun 上下文信息太少,数据量不够,导致其只能回答有限的问题,远远达不到 的程度。

image.png

点击创建后,我们便可以得到如下界面:

image.png

如果我们要求不高的话,其实现在就已经得到了一个普通的 ChatGPT 应用啦,我们可以与它进行基本的 GPT 对话。但我们又怎么满足于此呢?速速进入下一步 - Fine-tuning

提示词编排

大家进入界面后,可以看到左边侧边栏有 提示词编排 按钮,我们在这里可以输入对话前的提示词,从而一定程度上调整模型的输出内容。如下图所示:

image.png

在这里,我将 IKun 的基本素养作为提示词传输给语言模型,并依次点击 确认发布 按钮。接下来,让我们测试一下,它能否达到我们预期的效果!

image.png

它确实理解了我们输入给它的上下文,并且能够根据问题,输出相对理想的内容。但如果 Dify 真的只是这样,那么它并没有多么强大,因为在 OpenAI 提供的接口中,我们通过设置上下文参数,也可以实现这样的效果(详情请参考 GPT Terminal 专栏)。接下来,让我们看看 Dify 真正强大的地方。

构建并填充数据集

我们点击导航栏的 数据集 按钮,并点击 创建数据集 按钮,开始创建。

image.png

我们可以看到,需要通过导入已有的文本内容,创建我们自己的数据集。

image.png

这些数据其实还是比较容易获取啦,我们可以准备两个文件:关于🐔哥的个人资料(从 某基百科某度百科 中获取)、🐔哥的梗(从 某乎某音 中获取)

image.png

接着,我们进入下一步 - 文本分段与清洗

image.png

保留默认选项,直接点击 保存并处理 进入下一步即可。

image.png

大功告成!接下来咱们去填充数据集!

返回到之前构建应用的界面,点击上下文的 添加 按钮,将我们的数据集导入,并点击 发布 按钮,生成新的模型。

image.png

效果展示

image.png

最后生成的 IKun 似乎能够回答一些问题,但是感觉没有那么活灵活现,没有达到资深 小黑子 的程度。可能是我们的数据集还是太少,也可能是咱们的 梗文化 太深奥啦,语言模型难以理解。不过当我们 Feed 的数据量越来越大、越来越精确时,相信它一定可以达到我们想要的效果!

总结

今天通过借助于 Dify 平台,我们体验了一把自己训练模型是什么感觉!虽然它还没有达到真正能够理解语言文化的程度,但是随着 LLM 的发展,这一功能一定可以在不远的将来实现。

大家有兴趣的可以自己去玩一玩,制作一个自己的语言模型!


相关文章
|
1月前
|
机器学习/深度学习 人工智能 并行计算
DeepSpeed Chat: 一键式RLHF训练,让你的类ChatGPT千亿大模型提速省钱15倍
DeepSpeed Chat 是一款革命性的平台,专为简化和加速类ChatGPT模型的训练而设计。通过一键式脚本,用户可以轻松完成从预训练模型到生成自定义ChatGPT模型的全过程。该系统复刻了InstructGPT的RLHF训练方法,并集成了一系列优化技术,如DeepSpeed Hybrid Engine,大幅提升了训练效率和经济性。使用DeepSpeed Chat,即使是拥有数千亿参数的大模型,也能在短时间内完成训练,且成本显著降低。无论是单GPU还是多GPU集群环境,DeepSpeed Chat都能提供卓越的性能和易用性,让RLHF训练变得更加普及。
DeepSpeed Chat: 一键式RLHF训练,让你的类ChatGPT千亿大模型提速省钱15倍
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】ChatGPT模型原理介绍(下)
【AI大模型】ChatGPT模型原理介绍(下)
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】ChatGPT模型原理介绍(上)
【AI大模型】ChatGPT模型原理介绍(上)
|
2月前
|
JavaScript 前端开发 测试技术
ChatGPT与接口测试
ChatGPT与接口测试,测试通过
49 5
|
2月前
|
存储 Linux API
物理地址模型 【ChatGPT】
物理地址模型 【ChatGPT】
|
2月前
|
Linux API 调度
设备的能量模型【ChatGPT】
设备的能量模型【ChatGPT】
|
2月前
|
Linux
消费者设备驱动程序的调节器接口【ChatGPT】
消费者设备驱动程序的调节器接口【ChatGPT】
|
2月前
|
网络性能优化 API
PM QoS 接口 【ChatGPT】
PM QoS 接口 【ChatGPT】
|
2月前
|
安全 Linux 芯片
传统的GPIO接口 【ChatGPT】
传统的GPIO接口 【ChatGPT】
|
2月前
|
存储 安全 测试技术
GPIO描述符消费者接口 【ChatGPT】
GPIO描述符消费者接口 【ChatGPT】
下一篇
无影云桌面