[Character Embedding]论文实现:Text Understanding from Scratch

简介: [Character Embedding]论文实现:Text Understanding from Scratch

论文:Text Understanding from Scratch

作者:Xiang Zhang,Yann LeCun

时间:2016

In this article we show that text understanding can be handled by a deep learning system without artificially embedding knowledge about words, phrases, sentences or any other syntactic or semantic structures associated with a language.

这篇论文展示了文本理解可以通过深度学习系统来处理,而不需要人工嵌入关于单词、短语、句子或任何其他与一种语言相关的句法或语义结构的知识。

一、完整代码

为了方便直接使用,这里直接展示完整代码:

import tensorflow as tf
import numpy as np
import pandas as pd
s = 'abcdefghijklmnopqrstuvwxyz0123456789,;.!?:’"/\|_@#$%ˆ&*˜‘+-=<>()[]{}'
vocabulary = list(s)
text_vectorizer = tf.keras.layers.TextVectorization(output_mode="int", vocabulary=vocabulary, split='character', output_sequence_length=500)
x_train = [
    'i do"t think you will win',
    'you are so bad',
    'you are unbelievable',
    'its taste is not good',
    'good',
    'so funny',
    'i"m so glad to hear that'
]
x_train = text_vectorizer(x_train).numpy()
y_train = np.array([0,0,0,0,1,1,1])
model = tf.keras.models.Sequential([
    tf.keras.layers.Input(shape=500),
    tf.keras.layers.Embedding(text_vectorizer.vocabulary_size(), 500),
    tf.keras.layers.Conv1D(filters=256, kernel_size=7, padding='same', activation='relu'),
    tf.keras.layers.MaxPool1D(pool_size=3,data_format='channels_first'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=7, padding='same', activation='relu'),
    tf.keras.layers.MaxPool1D(pool_size=3,data_format='channels_first'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=3, padding='same', activation='relu'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=3, padding='same', activation='relu'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=3, padding='same', activation='relu'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=3, padding='same', activation='relu'),
    tf.keras.layers.MaxPool1D(pool_size=3,data_format='channels_first'),
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(1024, activation='relu'),
    tf.keras.layers.Dropout(0.5),
    tf.keras.layers.Dense(1024, activation='relu'),
    tf.keras.layers.Dropout(0.5),
    tf.keras.layers.Dense(1, activation='sigmoid'),
])
model.compile(
    loss=tf.keras.losses.BinaryCrossentropy(),
    metrics=['accuracy'],
    optimizer=tf.keras.optimizers.Adam(learning_rate=0.001)
)
history = model.fit(x=x_train, y=y_train, epochs=100, verbose=2)
pd.DataFrame(history.history).plot()

二、论文解读

在本节中,我们将介绍对文本理解的convnet的设计。该设计是模块化的,其中梯度是通过反向传播获得的来执行优化。

2.1 关键模块

两个模型非常经典,自行了解不多介绍,只贴一下论文解释:

Convolution 1-D (一维卷积)

Max pooling 1-D (一维最大池化)

2.2 字符量化

    文本其实就是一串字符,我们理解文本就是依据不同的字符组成的词来进行理解,从论文标题text understanding from scratch可以看出处理方法与我们一般方法不同,论文是直接根据字符串序列来理解文本的;

    论文的模型接受一系列编码的字符作为输入。编码是通过为输入语言指定一个大小为 m m m的字典完成的,然后使用独热编码来量化每个字符。然后,将该字符序列转换为一个固定长度为 l l l的 m m m个大小的向量序列。字符串中任何长度超过 l l l的字符都将被忽略,而任何不在字母表中的字符,包括空白字符,都将被量化为全零向量。字符量化顺序是向后的,因此对字符的最新读取总是放置在输出的开始点附近,这使得完全连接的层很容易将权重与最新读取关联起来;

    论文中的字典大小为70,其中包括26个英语字母、10位数字、新行和33个其他字符;如下所示:

这里量化后我们得到类似于下图的结果:

字符串量化之后我们得到一个大小为 l ∗ m l*m lm的矩阵,多个字符串的话就是 B ∗ l ∗ m B*l*m Blm,接下来进行模型结构;

2.3 模型结构

    论文中展示的模型结构如下所示,但是这里并不直观;

    模型流程大概是这样:先把Some Text进行量化,得到一个one-hot矩阵,矩阵大小为 B ∗ l ∗ m B*l*m Blm,然后把one-hot矩阵使用Embedding进行嵌入,相当于乘一个 m ∗ d m*d md矩阵,得到矩阵大小为 B ∗ l ∗ d B*l*d Bld,紧接着跟6个1维卷积1维最大池化,然后平铺后进行三次全连接,在每两层全连接中掺插dropout层;最后的一次全连接取决于需要做的任务;

    论文中设置了一个大模型和一个小模型,模型参数设置如下:

1维卷积1维最大池化

全连接

这里模型的构造就完毕了;

2.4 数据增强

许多研究者发现,适当的数据增强技术对于控制深度学习模型的泛化误差是有用的。当我们能够找到模型应该具有的适当的不变性属性时,这些技术通常工作得很好。就文本而言,像在图像或语音识别中那样使用信号转换来增加数据是不合理的,因为字符的确切顺序可能会形成严格的句法和语义意义。因此做数据增强的最好方法是使用人类重组句子,但这是不现实的和昂贵的,因为在我们的数据集中有大量的样本。因此,对我们来说,数据扩充中最自然的选择是用它们的同义词替换单词或短语。即使用同义词典增强数据

三、过程实现

3.1 导包

这里用到的包有tensorflow,numpy,pandas;

import tensorflow as tf
import numpy as np
import pandas as pd

3.2 数据准备和字符量化

这里可以直接使用tensorflow中的TextVectorization函数进行处理:

s = 'abcdefghijklmnopqrstuvwxyz0123456789,;.!?:’"/\|_@#$%ˆ&*˜‘+-=<>()[]{}'
vocabulary = list(s)
# 这里的500表示的是最大长度即上文分析的l
text_vectorizer = tf.keras.layers.TextVectorization(output_mode="int", vocabulary=vocabulary, split='character', output_sequence_length=500) 
# 得到vocabulary的大小
text_vectorizer.vocabulary_size()
x_train = [
    'i do"t think you will win',
    'you are so bad',
    'you are unbelievable',
    'its taste is not good',
    'good',
    'so funny',
    'i"m so glad to hear that'
]
x_train = text_vectorizer(x_train).numpy()
# 得到 x_train 为
# array([[10,  1,  5, ...,  0,  0,  0],
#        [26, 16, 22, ...,  0,  0,  0],
#        [26, 16, 22, ...,  0,  0,  0],
#        ...,
#        [ 8, 16, 16, ...,  0,  0,  0],
#        [20, 16,  1, ...,  0,  0,  0],
#        [10, 14,  1, ...,  0,  0,  0]], dtype=int64)
# 准备一下y_train
y_train = np.array([0,0,0,0,1,1,1])

3.3 模型建立

这里我们根据上文的参数建立一个小模型,代码如下:

model = tf.keras.models.Sequential([
    tf.keras.layers.Input(shape=500),
    tf.keras.layers.Embedding(text_vectorizer.vocabulary_size(), 500),
    tf.keras.layers.Conv1D(filters=256, kernel_size=7, padding='same', activation='relu'),
    tf.keras.layers.MaxPool1D(pool_size=3,data_format='channels_first'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=7, padding='same', activation='relu'),
    tf.keras.layers.MaxPool1D(pool_size=3,data_format='channels_first'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=3, padding='same', activation='relu'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=3, padding='same', activation='relu'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=3, padding='same', activation='relu'),
    tf.keras.layers.Conv1D(filters=256, kernel_size=3, padding='same', activation='relu'),
    tf.keras.layers.MaxPool1D(pool_size=3,data_format='channels_first'),
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(1024, activation='relu'),
    tf.keras.layers.Dropout(0.5),
    tf.keras.layers.Dense(1024, activation='relu'),
    tf.keras.layers.Dropout(0.5),
    tf.keras.layers.Dense(1, activation='sigmoid'),
])
model.compile(
    loss=tf.keras.losses.BinaryCrossentropy(),
    metrics=['accuracy'],
    optimizer=tf.keras.optimizers.Adam(learning_rate=0.001)
)
# 开始训练
history = model.fit(x=x_train, y=y_train, epochs=100, verbose=2)

3.4 训练结果

训练结果如下图所示:

pd.DataFrame(history.history).plot()

四、整体总结

没什么好总结的;


目录
相关文章
|
Linux
百度搜索:蓝易云【Linux重启网卡报错Determining if ip address怎么解决?】
请注意,在执行涉及网络配置的操作时要小心,确保避免重要网络设置的错误。建议在修改网络配置之前备份相关文件,以便出现问题时可以还原配置。如果不确定如何操作,最好寻求网络专家的帮助。
458 0
STM32Cubemx FreeRTOS Event
STM32Cubemx FreeRTOS Event
435 11
|
安全 数据安全/隐私保护 C++
RSA密钥的秘密花园:Python带你漫步加密解密的知识殿堂
【8月更文挑战第2天】RSA密钥的秘密花园以非对称加密守护信息安全。对称加密如乡间小屋, 发送方与接收方共享钥匙; 而RSA像宏伟城堡, 拥有公钥和私钥。公钥加密信息, 私钥解密, 解决了密钥安全传递难题。借助Python和pycryptodome库, 我们可体验RSA加密解密过程, 生成密钥对, 加密消息, 并成功解密, 展现其强大能力和在信息安全中的独特作用。
342 2
|
SQL Oracle 关系型数据库
SQL 快速参考
SQL 快速参考
101 1
|
数据可视化 Python
matplotlib可视化必知必会富文本绘制方法
matplotlib可视化必知必会富文本绘制方法
140 0
|
编译器 C++
预处理器指令:编程利器
预处理器指令:编程利器
|
开发工具 git
Idea中Terminal中git基本操作
Idea中Terminal中git基本操作
350 0
|
消息中间件 存储 缓存
精华推荐 | 【深入浅出RocketMQ原理及实战】「性能原理挖掘系列」透彻剖析贯穿RocketMQ的系统服务底层原理以及高性能存储设计挖掘深入
精华推荐 | 【深入浅出RocketMQ原理及实战】「性能原理挖掘系列」透彻剖析贯穿RocketMQ的系统服务底层原理以及高性能存储设计挖掘深入
606 0
精华推荐 | 【深入浅出RocketMQ原理及实战】「性能原理挖掘系列」透彻剖析贯穿RocketMQ的系统服务底层原理以及高性能存储设计挖掘深入
|
存储 自然语言处理 监控
开放下载!《阿里云实时数仓Hologres技术揭秘2.0》
《阿里云实时数仓Hologres技术揭秘2.0》电子书重磅来临,介绍实时数仓Hologres核心技术原理与优势,融合实时数仓最热门场景的最佳实践。
45323 1
开放下载!《阿里云实时数仓Hologres技术揭秘2.0》