错字修改 | 布署1个中文文文本拼蟹纠错模型

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 错字修改 | 布署1个中文文文本拼蟹纠错模型

image.png

内容一览:中文文本错误的种类之一为拼写错误,本篇文章为利用 BART 预训练方法实现中文文本纠错功能的模型部署教程。关键词:BART 中文拼写纠错 NLP本文首发自微信公众号:HyperAI超神经

中文文本错误3大障碍:拼写、语法、语义

中文文本纠错是当前自然语言处理领域的一个重要分支,旨在针对中文文本错误等进行检测与纠正。常见的中文文本错误包括拼写错误、语法错误以及语义错误。

1. 拼写错误:

指由于输入法、语音转文字软件等原因导致的用字或用词错误,主要表现为错误使用了同音字、形近字、混消音等,如「天气晴郎--天气晴朗」「时侯--时候」。

image.png

2. 语法错误:

指由于输入法、手写疏忽、OCR 识别乱序等导致的字词缺失、冗余、乱序或搭配不当等,如「虚心使使人进步--虚心使人进步」。

3. 语义错误:

由于对某些知识不了解,或语言组织能力欠缺导致的知识及逻辑错误,如「一年有 3 个季度--一年有 4 个季度」。

本文中,我们将以最常见的拼写错误为例,演示如何借助 BART 模型,进行中文文本纠错模型部署。

直接运行教程请访问:

https://openbayes.com/console/open-tutorials/containers/YvkMjHySdef

BART:「采众长」的 SOTA 模型

BART 全称 Bidirectional and Auto-Regressive Transformers,是一个为预训练 seq2seq 模型而设计的去噪自编码器, 适用于自然语言生成、翻译及理解任务,由 Meta(原 Facebook)在 2019 年提出。

论文详见:

https://arxiv.org/pdf/1910.13...

BART 模型吸纳借鉴了 BERT 和 GPT 的优点,使用标准的 Transformer 结构作为基础:

  • 解码器模块参考 GPT: 将 ReLU 激活函数替换为 GeLU 激活函数
  • 编码器模块区别于 BERT: 舍弃了前馈神经网络模块,精简了模型参数
  • 编解码器衔接部分参考了 Transformer: 解码器的每一层都要对编码器最后一层的输出信息进行交叉注意力计算(也就是编解码注意力机制)

image.png

本教程中,我们借助 nlp_bart_text-error-correction_chinese 模型进行模型部署。

更多信息可访问:

https://modelscope.cn/models/damo/nlp_bart_text-error-correction_chinese/summary

教程详解:创建一个在线文本纠错Demo

环境准备

在 jupyter 终端中执行以下命令安装依赖:

pip install "modelscope[nlp]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
pip install fairseq

模型下载

在终端中执行以下命令下载模型:

git clone http://www.modelscope.cn/damo/nlp_bart_text-error-correction_chinese.git

模型下载需要较长时间,此容器中已有下载好的模型,可直接使用,位于 nlp_bart_text-error-correction_chinese 目录下。

快速使用

image.png

模型部署

Serving 服务编写

编写predictor.py文件:

  • 导入依赖库:除了业务中用到的库之外,需要额外依赖 openbayes-serving。
import openbayes_serving as serv
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
  • Predictor 类:无需继承其他类,至少提供 init 和 predict 两个接口。
  • __init__ 中指定模型路径,加载模型
  • predict 中进行推理,返回结果
class Predictor:
  def __init__(self):
      self.model_path = './nlp_bart_text-error-correction_chinese'
      self.corrector = pipeline(Tasks.text_error_correction, model=self.model_path)
def predict(self, json):
  text = json["input"].lower()
  result = self.corrector(text)
  return result

运行:启动服务

if __name__ == '__main__':
    serv.run(Predictor)

测试

在终端中执行 python predictor.py,成功开启服务后,在此 Notebook 中执行下列代码进行测试。

注意:在容器中进行测试时,flask 版本大于 2.1 可能出现重复注册报错,降低版本即可运行。

import requests
text = {"input": "这洋的话,下一年的福气来到自己身上。"}
result = requests.post('http://localhost:8080', json=text)
result.json()
{'output': '这样的话,下一年的福气就会来到自己身上。'}

除了通过本地访问地址 http://localhost:8080还可以通过终端中提示的外部可访问的 URL 进行测试。

image.png

注意:对于不同的 OpenBayes 算力容器,外部可访问的 URL 各不相同,直接使用本教程中的链接是无效的,需用终端中提示的链接进行替换

result = requests.post('https://openbayes.com/jobs-auxiliary/open-tutorials/t23g93jjm95d', json=text)
result.json()

部署

测试成功后,停止此算力容器,等待同步数据完成。

在「算力容器--模型部署」中点击「创建新部署」,选择与开发时相同的镜像,绑定此算力容器,点击「部署」,即可进行在线测试。

image.png

更多模型部署相关信息可参考:

https://openbayes.com/docs/serving/

至此,一个支持在线测试的中文文本纠错模型就训练+部署完成啦!

查看并运行完整教程,访问以下链接:

https://openbayes.com/console/open-tutorials/containers/YvkMjHySdef

快来试试你的中文纠错模型吧!

—— 完 ——

相关文章
|
开发工具
【杂七杂八】gvim中大量重复微调文本的几键生成
【杂七杂八】gvim中大量重复微调文本的几键生成
|
2月前
|
小程序 Linux Python
查找首字母与Python相关的的英文词汇小程序的续篇---进一步功能完善
查找首字母与Python相关的的英文词汇小程序的续篇---进一步功能完善
25 1
|
7月前
|
数据采集 机器学习/深度学习 自然语言处理
【相关问题解答2】bert中文文本摘要代码:结果输出为一些重复的标点符号和数字
【相关问题解答2】bert中文文本摘要代码:结果输出为一些重复的标点符号和数字
59 0
|
7月前
EndNote论文参考文献中文文章与英文文章前后顺序修改排列方法
EndNote论文参考文献中文文章与英文文章前后顺序修改排列方法
238 1
|
人工智能 JSON API
Prompt learning 教学技巧篇:通过增加示例、引导词、特殊符号指令等方式让chatgpt输出更好的答案
Prompt learning 教学技巧篇:通过增加示例、引导词、特殊符号指令等方式让chatgpt输出更好的答案
|
人工智能 自然语言处理 搜索推荐
ChatGPT 中文指令指南,教会你如何使用chatgpt实现中文你想要的答案
ChatGPT 中文指令指南,教会你如何使用chatgpt实现中文你想要的答案
体验中文文本纠错模型
采用中文文本纠错模型体验该工具对常规词汇、非常规词汇、古文的错别字检测。
527 0
体验中文文本纠错模型
|
自然语言处理
中文文本纠错模型体验
中文文本纠错模型体验
中文文本纠错模型体验
|
机器学习/深度学习 Web App开发 人工智能
Transformer自动纠语法、改论文,我们试了试这个免费英文写作新神器
网易有道词典新增 AI 作文批改,词汇、语法、结构面面俱到,我觉得我的英文论文有救了。
384 0
Transformer自动纠语法、改论文,我们试了试这个免费英文写作新神器

热门文章

最新文章