斯坦福NLP课程 | 第12讲 - NLP子词模型

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
文档翻译,文档翻译 1千页
简介: NLP课程第12讲介绍了语法学 (linguistics) 基础知识、基于字符粒度的模型、子词模型 (Subword-models)、混合字符与词粒度的模型、fastText模型等。

ShowMeAI研究中心

作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI
教程地址http://www.showmeai.tech/tutorials/36
本文地址http://www.showmeai.tech/article-detail/249
声明:版权所有,转载请联系平台与作者并注明出处
收藏ShowMeAI查看更多精彩内容


子词模型
ShowMeAI斯坦福CS224n《自然语言处理与深度学习(Natural Language Processing with Deep Learning)》课程的全部课件,做了中文翻译和注释,并制作成了GIF动图!视频和课件等资料的获取方式见文末


引言

子词模型subword models

授课计划

授课计划

  • A tiny bit of linguistics / 语法学基础知识
  • Purely character-level models / 基于字符粒度的模型
  • Subword-models: Byte Pair Encoding and friends / 子词模型
  • Hybrid character and word level models / 混合字符与词粒度的模型
  • fastText / fastText模型

1.语法学基础知识

1.1 人类语言的声音:语音学和语音体系

人类语言的声音:语音学和语音体系

  • 语音学 (honetics) 是音流无争议的 物理学
  • 语音体系 (Phonology) 假定了一组或多组独特的、分类的单元:音素 (phoneme) 或者是独特的特征

    • 这也许是一种普遍的类型学,但却是一种特殊的语言实现
    • 分类感知的最佳例子就是语音体系

      • 音位差异缩小
      • 音素之间的放大

1.2 词法:词类

词法:词类

  • 传统上,词素 (morphemes) 是最小的语义单位

公式

  • 深度学习:形态学研究较少;递归神经网络的一种尝试是 (Luong, Socher, & Manning 2013)

    • 处理更大词汇量的一种可能方法:大多数看不见的单词是新的形态(或数字)
  • 声音本身在语言中没有意义
  • parts of words 是音素的下一级的形态学,是具有意义的最低级别

词法

  • 一个简单的替代方法是使用字符 n-grams

    • Wickelphones (Rumelhart & McClelland 1986)
    • Microsoft’s DSSM (Huang, He, Gao, Deng, Acero, & Hect2013)
  • 使用卷积层的相关想法
  • 能更容易地发挥词素的许多优点吗?

1.3 书写系统中的单词

书写系统中的单词

  • 书写系统在表达单词的方式上差异有大有小
  • 没有分词 (没有在单词间放置空格)

    • 例如中文
  • 大部分的单词都是分开的:由单词组成了句子

    • 附着词

      • 分开的
      • 连续的
    • 复合名词

      • 分开的
      • 连续的

1.4 比单词粒度更细的模型

比单词粒度更细的模型

  • 需要处理数量很大的开放词汇:巨大的、无限的单词空间

    • 丰富的形态
    • 音译 (特别是名字,在翻译中基本上是音译)
    • 非正式的拼写

1.5 字符级模型

字符级模型

  • 词嵌入可以由字符嵌入组成

    • 为未知单词生成嵌入
    • 相似的拼写共享相似的嵌入
    • 解决OOV问题
  • 连续语言可以作为字符处理:即所有的语言处理均建立在字符序列上,不考虑 word-level
  • 这两种方法都被证明是非常成功的!

    • 有点令人惊讶的是:一般意义上,音素/字母不是一个语义单元:但深度学习模型构成了group
    • 深度学习模型可以存储和构建来自多个字母组的含义表示,以模拟语素和更大单位的意义,汇总形成语义

1.6 单词之下:书写系统

单词之下:书写系统

  • 大多数深度学习NLP的工作,都是从语言的书面形式开始的:这是一种容易处理的、现成的数据
  • 但是人类语言书写系统不是一回事!各种语言的字符是不同的!

2.基于字符粒度的模型

2.1 纯字符级模型

纯字符级模型

  • 上节课,我们看到了一个很好的用于句子分类的纯字符级模型的例子

    • 非常深的卷积网络用于文本分类
    • Conneau, Schwenk, Lecun, Barrault.EACL 2017
  • 强大的结果通过深度卷积堆叠

2.2 字符级别输入输出的机器翻译系统

字符级别输入输出的机器翻译系统

  • 最初,效果令人不满意

    • (Vilaret al., 2007; Neubiget al., 2013)
  • 只有decoder (初步成功)

    • (JunyoungChung, KyunghyunCho, YoshuaBengio. arXiv 2016).
  • 然后,出现了还不错的结果

    • (Wang Ling, Isabel Trancoso, Chris Dyer, Alan Black, arXiv 2015)
    • (Thang Luong, Christopher Manning, ACL 2016)
    • (Marta R. Costa-Jussà, José A. R. Fonollosa, ACL 2016)

2.3 English-Czech WMT 2015 Results

English-Czech WMT 2015 Results

English-Czech WMT 2015 Results

  • Luong 和 Manning 测试了一个纯字符级 seq2seq (LSTM) NMT 系统作为基线
  • 它在单词级基线上运行得很好

    • 对于 UNK,是用 single word translation 或者 copy stuff from the source
  • 字符级的 model 效果更好了,但是太慢了

    • 但是运行需要3周的时间来训练,运行时没那么快
    • 如果放进了 LSTM 中,序列长度变为以前的数倍 (大约七倍)

2.4 无显式分割的完全字符级神经机器翻译

无显式分割的完全字符级神经机器翻译

  • Jason Lee, KyunghyunCho, Thomas Hoffmann. 2017.
  • 编码器如下
  • 解码器是一个字符级的 GRU

2.5 #论文解读# Stronger character results with depth in LSTM seq2seq model

#论文解读#

  • Revisiting Character-Based Neural Machine Translation with Capacity and Compression. 2018. Cherry, Foster, Bapna, Firat, Macherey, Google AI
  • 在 LSTM-seq2seq 模型中,随着深度的增加,特征越强
  • 捷克语这样的复杂语言中,字符级模型的效果提升较为明显,但是在英语和法语等语言中则收效甚微

    • 模型较小时,word-level 更佳
    • 模型较大时,character-level 更佳

3.子词模型

3.1 子词模式:两种趋势

子词模式:两种趋势

  • 与 word 级模型相同的架构

    • 但是使用更小的单元: word pieces
    • [Sennrich, Haddow, Birch, ACL’16a], [Chung, Cho, Bengio, ACL’16].
  • 混合架构

    • 主模型使用单词,其他使用字符级
    • [Costa-Jussà& Fonollosa, ACL’16], [Luong & Manning, ACL’16].

3.2 字节对编码/BPE

字节对编码/BPE

  • 最初的压缩算法

    • 最频繁的字节 → 一个新的字节。
  • 用字符 ngram 替换字节(实际上,有些人已经用字节做了一些有趣的事情)

字节对编码

字节对编码

  • 分词 (word segmentation) 算法

    • 虽然做得很简单,有点像是自下而上的短序列聚类
  • 将数据中的所有的 Unicode 字符组成一个 unigram 的词典
  • 最常见的 ngram pairs 视为 一个新的 ngram
  • BPE 并未深度学习的有关算法,但已成为标准且成功表示 pieces of words 的方法,可以获得一个有限的词典与无限且有效的词汇表。

字节对编码

  • 有一个目标词汇量,当你达到它的时候就停止
  • 做确定性的最长分词分割
  • 分割只在某些先前标记器 (通常MT使用的 Moses tokenizer) 标识的单词中进行
  • 自动为系统添加词汇

    • 不再是基于传统方式的 strongly word

3.3 Wordpiece / Sentencepiece模型

Wordpiece / Sentencepiece模型

  • 谷歌 NMT (GNMT) 使用了它的一个变体

    • V1: wordpiece model
    • V2: sentencepiece model
  • 不使用字符的 n-gram count,而是使用贪心近似来最大化语言模型的对数似然函数值,选择对应的 pieces

    • 添加最大限度地减少困惑的 n-gram

Wordpiece / Sentencepiece模型

  • Wordpiece模型标记内部单词
  • Sentencepiece模型使用原始文本

    • 空格被保留为特殊标记(_),并正常分组
    • 可以通过将片段连接起来并将它们重新编码到空格中,从而在末尾将内容反转

Wordpiece / Sentencepiece模型

  • BERT 使用了 wordpiece 模型的一个变体

    • (相对) 在词汇表中的常用词

      • at, fairfax, 1910s
    • 其他单词由wordpieces组成

      • hypatia = h ##yp ##ati ##a
  • 如果你在一个基于单词的模型中使用 BERT,你必须处理这个

3.4 字符级构建单词级

字符级构建单词级

  • Learning Character-level Representations for Part-ofSpeech Tagging (Dos Santos and Zadrozny 2014)
  • 对字符进行卷积以生成单词嵌入
  • 为 PoS 标签使用固定窗口的词嵌入

3.5 基于字符的LSTM构建单词表示

基于字符的LSTM构建单词表示

  • Bi-LSTM构建单词表示

3.6 #论文解读# Character-Aware Neural Language Models

#论文解读#

  • 一个更复杂/精密的方法
  • 动机

    • 派生一个强大的、健壮的语言模型,该模型在多种语言中都有效
    • 编码子单词关联性:eventful, eventfully, uneventful…
    • 解决现有模型的罕见字问题
    • 用更少的参数获得可比较的表达性

#论文解读# Technical Approach

  • 字符级别嵌入输入
  • CNN+高速网络+LSTM

#论文解读# Convolutional Layer

  • 字符级别输入 + 卷积处理
  • Max-over-time池化

#论文解读# Highway Network (Srivastava et al. 2015)

  • N-gram 语法交互模型
  • 在传递原始信息的同时应用转换
  • 功能类似于 LSTM 内存单元

#论文解读# Long Short-Term Memory Network

  • 使用层次化 Softmax 处理大的输出词汇表
  • 使用 truncated backprop through time 进行训练

#论文解读# Quantitative Results 定量结果

#论文解读# Qualitative Insights 定量洞察

#论文解读# Qualitative Insights 定量洞察

#论文解读#

  • 本文对使用词嵌入作为神经语言建模输入的必要性提出了质疑
  • 字符级的 CNNs + Highway Network 可以提取丰富的语义和结构信息
  • 关键思想:您可以构建 building blocks 来获得细致入微且功能强大的模型!

4.混合字符与词粒度的模型

4.1 混合NMT

混合NMT

  • 混合高效结构

    • 翻译大部分是单词级别的
    • 只在需要的时候进入字符级别
  • 使用一个复制机制,试图填充罕见的单词,产生了超过 2个点的 BLEU 的改进

混合NMT

  • 单词级别 (4层)
  • End-to-end training 8-stacking LSTM layers:端到端训练 8 层 LSTM

4.2 二级解码

二级解码

  • 单词级别的集束搜索
  • 字符级别的集束搜索 (遇到 ) 时

补充讲解

  • 混合模型与字符级模型相比

    • 纯粹的字符级模型能够非常有效地使用字符序列作为条件上下文
    • 混合模型虽然提供了字符级的隐层表示,但并没有获得比单词级别更低的表示

4.3 English - Czech Results

English - Czech Results

  • 使用WMT’15数据进行训练 (12M句子对)

    • 新闻测试2015
  • 30倍数据
  • 3个系统
  • 大型词汇+复制机制
  • 达到先进的效果!

4.4 Sample English-czech translations

Sample English-czech translations

  • 翻译效果很好!
  • 基于字符:错误的名称翻译
  • 基于单词:对齐不正确
  • 基于字符的混合:diagnóze的正确翻译
  • 基于单词:特征复制失败
  • 混合:正确,11-year-old-jedenactileta
  • 错误:Shani Bartova

4.5 单词嵌入中的字符应用

单词嵌入中的字符应用

  • 一种用于单词嵌入和单词形态学的联合模型(Cao and Rei 2016)

    • 与 w2v 目标相同,但使用字符
    • 双向 LSTM 计算单词表示
    • 模型试图捕获形态学
    • 模型可以推断单词的词根

5.fastText模型

FastText embedding

  • 用子单词信息丰富单词向量

Bojanowski, Grave, Joulinand Mikolov. FAIR. 2016.

  • 目标:下一代高效的类似于 word2vecd 的单词表示库,但更适合于具有大量形态学的罕见单词和语言
  • 带有字符 n-grams 的 w2v 的 skip-gram 模型的扩展

FastText embedding

  • 将单词表示为用边界符号和整词扩充的字符 n-grams

公式

  • 注意 公式公式是不同于 公式

    • 前缀、后缀和整个单词都是特殊的
  • 将 word 表示为这些表示的和。上下文单词得分为

公式

  • 细节:与其共享所有 n-grams 的表示,不如使用 hashing trick 来拥有固定数量的向量

FastText embedding

  • 低频罕见单词的差异收益

FastText embedding

Suggested Readings

6.视频教程

可以点击 B站 查看视频的【双语字幕】版本

7.参考资料

ShowMeAI 系列教程推荐

NLP系列教程文章

斯坦福 CS224n 课程带学详解

ShowMeAI用知识加速每一次技术成长

目录
相关文章
|
23天前
|
机器学习/深度学习 自然语言处理 PyTorch
从零开始构建nlp情感分析模型!
本教程介绍了如何使用PyTorch和Hugging Face的Transformers库构建一个情感分析模型。主要内容包括导入所需库、读取训练数据集、加载预训练的BERT模型和分词器、定义情感数据集类、划分训练集和验证集、创建数据加载器、设置训练参数、训练模型、评估模型性能以及定义和测试预测函数。通过这些步骤,可以实现一个简单而有效的情感分析模型。
66 2
|
2月前
|
自然语言处理 PyTorch 算法框架/工具
掌握从零到一的进阶攻略:让你轻松成为BERT微调高手——详解模型微调全流程,含实战代码与最佳实践秘籍,助你应对各类NLP挑战!
【10月更文挑战第1天】随着深度学习技术的进步,预训练模型已成为自然语言处理(NLP)领域的常见实践。这些模型通过大规模数据集训练获得通用语言表示,但需进一步微调以适应特定任务。本文通过简化流程和示例代码,介绍了如何选择预训练模型(如BERT),并利用Python库(如Transformers和PyTorch)进行微调。文章详细说明了数据准备、模型初始化、损失函数定义及训练循环等关键步骤,并提供了评估模型性能的方法。希望本文能帮助读者更好地理解和实现模型微调。
76 2
掌握从零到一的进阶攻略:让你轻松成为BERT微调高手——详解模型微调全流程,含实战代码与最佳实践秘籍,助你应对各类NLP挑战!
|
2月前
|
机器学习/深度学习 自然语言处理 并行计算
探索深度学习中的Transformer模型及其在自然语言处理中的应用
【10月更文挑战第6天】探索深度学习中的Transformer模型及其在自然语言处理中的应用
113 0
|
2月前
|
机器学习/深度学习 自然语言处理 异构计算
【NLP自然语言处理】初识深度学习模型Transformer
【NLP自然语言处理】初识深度学习模型Transformer
|
2月前
|
机器学习/深度学习 自然语言处理 算法
【NPL自然语言处理】带你迅速了解传统RNN模型
【NPL自然语言处理】带你迅速了解传统RNN模型
|
4月前
|
机器学习/深度学习 自然语言处理 PyTorch
PyTorch与Hugging Face Transformers:快速构建先进的NLP模型
【8月更文第27天】随着自然语言处理(NLP)技术的快速发展,深度学习模型已经成为了构建高质量NLP应用程序的关键。PyTorch 作为一种强大的深度学习框架,提供了灵活的 API 和高效的性能,非常适合于构建复杂的 NLP 模型。Hugging Face Transformers 库则是目前最流行的预训练模型库之一,它为 PyTorch 提供了大量的预训练模型和工具,极大地简化了模型训练和部署的过程。
202 2
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
【深度学习】探讨最新的深度学习算法、模型创新以及在图像识别、自然语言处理等领域的应用进展
深度学习作为人工智能领域的重要分支,近年来在算法、模型以及应用领域都取得了显著的进展。以下将探讨最新的深度学习算法与模型创新,以及它们在图像识别、自然语言处理(NLP)等领域的应用进展。
128 6
|
4月前
|
机器学习/深度学习 自然语言处理 数据处理
|
4月前
|
自然语言处理
【NLP】如何实现快速加载gensim word2vec的预训练的词向量模型
本文探讨了如何提高使用gensim库加载word2vec预训练词向量模型的效率,提出了三种解决方案:保存模型以便快速重新加载、仅保存和加载所需词向量、以及使用Embedding工具库代替word2vec原训练权重。
231 2
|
4月前
|
机器学习/深度学习 自然语言处理 并行计算