试下微调GPT-3做一个心理问答机器人

简介: 试下微调GPT-3做一个心理问答机器人前言最近,笔者做的一个小程序还差最后一个心理问答的功能,主要功能基本就完成了。我想偷个懒,那就调用别人的API吧,正好GPT-3非常火,那就试试?

试下微调GPT-3做一个心理问答机器人

前言


最近,笔者做的一个小程序还差最后一个心理问答的功能,主要功能基本就完成了。我想偷个懒,那就调用别人的API吧,正好GPT-3非常火,那就试试?

准备


Colab

这是一个谷歌的线上jupyter-notebook网站,可以直接在上面运行Python代码,非常方便:

网址传送门

最好就用这个吧,环境啥的都配好了,笔者之前的电脑有许多python的环境,但换电脑之后就好久没写过python了,所以也偷个懒,不安装环境了...

顺便提一下,单纯windows好像不能使用openai的命令行工具,而一台linux服务器可以使用,但如果是国内的服务器就会被墙,需要在对应服务器上去想一些办法。

所以,推荐用这个...

openai命令行工具

jupyter的单元格里输入以下命令安装一个命令行工具,就和你npm i -g nest一样:

! pip install --upgrade openai


image.png

Successfully installed🎉🎉🎉

一个API_KEY

这里创建并复制保存就可以了

然后继续在刚才的jupyter下面将这个API_KEY导出为环境变量:

import os
os.environ['OPENAI_API_KEY'] = '<your api key>'

image.png

顺便提一下:新用户都有18美元的免费额度可以试用

数据集格式要求


首先,openai官方文档上明确要求了传过去的数据集格式为jsonl格式的文件,就三点要求:

  1. utf-8编码
  2. 每行为一个正确的JSON格式
  3. 换行符为\n

没啥说的,如下是一个笔者的数据集截图:

然后,你可以使用这行命令来校验你的数据集格式是否正确:

openai tools fine_tunes.prepare_data -f "./2.jsonl"


数据处理


如下是笔者的两个数据源(中文心理问答数据集,都是公开的(^_^)):

我们需要将这些数据处理里为问答对的模式,并遵循上面的jsonl格式:

{"prompt": "<prompt text>", "completion": "<ideal generated text>"}
{"prompt": "<prompt text>", "completion": "<ideal generated text>"}
{"prompt": "<prompt text>", "completion": "<ideal generated text>"}
...


由于数据标注得非常给力,笔者的数据集处理就非常简单了,基本没做什么复杂的转换...

处理第一个数据源

import json
from tqdm import tqdm
with open("./dataset/src/ques_ans1.json") as f:
  file_contents = f.read()
# print(file_contents)
parsed_json = json.loads(file_contents)
print(len(parsed_json))
for item in tqdm(parsed_json):
  question = item["ques_info"]["title"] + item['ques_info']['content']
  for ans in item["answers_info"]:
    if ans["recommend_flag"] == "推荐":
      goodAns = ans["content"]
      result = { "prompt": question, "completion": goodAns }
      with open("./dataset/target/1.jsonl", "a") as f:
        f.write(json.dumps(result) + "\n")


非常简单的逻辑,就不过多介绍了,就是问题保留,答案只要是推荐,就与问题组成一个问答对,问题可是重复使用,直到答案用完;当然这段代码还有优化空间,但数据量不多,就算了。笔者懒😴

处理第二个数据源

import json
from tqdm import tqdm
with open("./dataset/src/EFA_Dataset_v20200314_latest.txt") as f:
  lines = f.readlines()
for line in tqdm(lines):
  parsed_line = json.loads(line)
  question = parsed_line["title"]
  for chat in parsed_line["chats"]:
    label = chat["label"]
    if "knowledge" in label and label["knowledge"] == True and label["negative"] == False:
      goodAns = chat["value"]
      result = { "prompt": question, "completion": goodAns }
      with open("./dataset/target/2.jsonl", "a") as f:
        f.write(json.dumps(result) + "\n")


这里的逻辑也不难,只要答案是知识性的并且不是消极的,笔者就将其作为了一条问答对。

上传数据

然后我们将我们处理后的数据上传至Google drive进行持久化存储,你直接上传到colab也可以,不过断开连接后文件就消失了,你又要重新上传。

然后点击装载就会出现对应的文件夹,没有出来的可以点击附件的文件刷新按钮,然后就可以使用对应的文件了

开始微调


开始

然后,输入如下代码就可以开始微调了:

! openai api fine_tunes.create -t "/content/drive/MyDrive/2.jsonl" -m ada


注意,笔者这里只上传了一个8MB的文件,就花了免费额度的4美元;如果你也是免费用户,使用时不能超过15美元,即数据集不能太大(笔者最开始就上传了全部数据集254MB,就会报错)

-m 是你开始的基本模型的名称(ada、babbage、curie 或 davinci)。您可以使用后缀参数自定义微调模型的名称,ada最便宜,最快,笔者这里尝试一下就是使用的这个参数。

相关命令

微调过程中只要任务已经创建,就不会随这里colab的关闭而关闭,如下是恢复事件流的代码:


! openai api fine_tunes.follow -i <YOUR_FINE_TUNE_JOB_ID>


image.png

如上笔者等待了一段时间重新查看,它已经训练完成了,然后我们就可以输入最后一行给出的命令来演示结果

结果演示


这里还可以使用python进行调用,其他语言的使用方法见这

import openai
result = openai.Completion.create(
    model="<your model>", # 上面截图最后一行我打码的那部分
    prompt="我真的好累,压力超级超级大,周围人都在认真学习,我感觉我就是一个废物",
    max_tokens=1000)
completion = result["choices"][0]["text"]
print(completion.encode("raw_unicode_escape").decode("unicode_escape"))


这里最后是做了一个unicode编码转中文显示的操作;

如下是演示结果:

效果有点拉,不过也能接受,毕竟数据才8MB,模型也是用的那个最快最便宜的。

最后


我等着阿里通义千问的API出来...等不及了🤔

再次编写python代码,彷佛回到了大一暑假刚学python的日子,那时候还在为python爬虫的BUG而烦恼。



目录
相关文章
|
3月前
|
机器学习/深度学习 人工智能 分布式计算
使用PAI+LLaMA Factory 微调 Qwen2-VL 模型,搭建文旅领域知识问答机器人
本次教程介绍了如何使用 PAI ×LLaMA Factory 框架,基于全参方法微调 Qwen2-VL 模型,使其能够进行文旅领域知识问答,同时通过人工测试验证了微调的效果。
使用PAI+LLaMA Factory 微调 Qwen2-VL 模型,搭建文旅领域知识问答机器人
|
2月前
|
SQL 数据采集 自然语言处理
NL2SQL之DB-GPT-Hub<详解篇>:text2sql任务的微调框架和基准对比
NL2SQL之DB-GPT-Hub<详解篇>:text2sql任务的微调框架和基准对比
|
6天前
|
机器学习/深度学习 人工智能 PyTorch
使用PyTorch实现GPT-2直接偏好优化训练:DPO方法改进及其与监督微调的效果对比
本文将系统阐述DPO的工作原理、实现机制,以及其与传统RLHF和SFT方法的本质区别。
54 22
使用PyTorch实现GPT-2直接偏好优化训练:DPO方法改进及其与监督微调的效果对比
|
16天前
|
编解码 机器人 测试技术
技术实践 | 使用 PAI+LLaMA Factory 微调 Qwen2-VL 模型快速搭建专业领域知识问答机器人
Qwen2-VL是一款具备高级图像和视频理解能力的多模态模型,支持多种语言,适用于多模态应用开发。通过PAI和LLaMA Factory框架,用户可以轻松微调Qwen2-VL模型,快速构建文旅领域的知识问答机器人。本教程详细介绍了从模型部署、微调到对话测试的全过程,帮助开发者高效实现定制化多模态应用。
|
5月前
|
人工智能 自然语言处理 测试技术
RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架
【7月更文挑战第21天】英伟达与GaTech华人团队提出RankRAG框架,通过在Llama 3模型上微调,实现检索和生成的统一,超越GPT-4在知识密集型任务的表现。RankRAG利用指令微调让模型同时学习上下文排名和生成,减少了对独立检索模型的依赖。在多基准测试中胜过GPT-4,展示出提升LLMs性能的新潜力。尽管面临数据需求大和计算成本高的挑战,RankRAG为RAG任务优化提供了新途径。[[1](https://arxiv.org/abs/2407.02485)]
94 3
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
大模型进阶微调篇(三):微调GPT2大模型实战
本文详细介绍了如何在普通个人电脑上微调GPT2大模型,包括环境配置、代码实现和技术要点。通过合理设置训练参数和优化代码,即使在无独显的设备上也能完成微调,耗时约14小时。文章还涵盖了GPT-2的简介、数据集处理、自定义进度条回调等内容,适合初学者参考。
478 6
|
3月前
|
人工智能 自然语言处理 算法
魔搭上新啦! 智源千万级指令微调数据集Infinity-Instruct,Llama3.1仅微调即可接近GPT-4
智源研究院在今年6月推出了千万级指令微调数据集Infinity Instruct。Infinity Instruct在 Huggingface等平台发布后,快速到达了Huggingface Dataset的Trending第一
魔搭上新啦! 智源千万级指令微调数据集Infinity-Instruct,Llama3.1仅微调即可接近GPT-4
|
3月前
|
数据可视化 Swift
小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!
旗舰端侧模型面壁「小钢炮」系列进化为全新 MiniCPM 3.0 基座模型,再次以小博大,以 4B 参数,带来超越 GPT-3.5 的性能。并且,量化后仅 2GB 内存,端侧友好。
小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!
|
3月前
|
数据采集 自然语言处理 监控
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
正是通过微调大模型使得GPT3成为了可以聊天发布指令的ChatGPT。聊天大模型在通用大模型的基础上加一层微调就实现人人能用的大模型,使得通用大模型的能力被更多人使用和了解。
65 4
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
|
2月前
|
开发工具 git
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
80 0

热门文章

最新文章