传统的序列模型CRF与HMM区别

简介: 传统的序列模型CRF与HMM区别

1. 理论解说

1.1 HMM(Hidden Markov Model)

HMM是一种统计模型,用于描述一个含有隐含未知参数的马尔可夫过程。在HMM中,状态不可见,而状态的输出可见。具体来说,HMM包括一个隐藏的马尔科夫链,其状态无法直接观察到,以及一个生成观察序列的输出模型。

HMM的基本假设包括状态转移矩阵描述状态间的转移概率,发射矩阵描述每个状态生成观察值的概率分布,和初始状态概率描述初始时刻各个状态的概率分布。

1.2 CRF(Conditional Random Field)

CRF是一种判别模型,用于标注或分割序列数据。与HMM不同,CRF没有对隐藏状态进行建模,而是直接对输入序列和输出序列之间的关系进行建模,因此CRF不受HMM中的独立性假设约束。

CRF的基本假设包括给定输入序列条件下,输出序列的联合概率分布由特征函数的加权组合决定。特征函数是关于输入序列和输出标签序列的函数,学习得到的参数可以通过对数线性模型来表示。

2. 区别

2.1 建模方式

HMM是一种生成模型,它通过对隐藏状态和观察序列之间的联合概率分布进行建模。CRF是一种判别模型,它直接对输入序列和输出序列之间的联合概率分布建模。

2.2 对隐含状态的处理

HMM中包含一个隐含的马尔科夫链来描述隐藏状态,而CRF不对隐藏状态进行建模,只对输入输出序列之间的关系进行建模。

2.3 对特征函数的处理

HMM中没有特征函数的概念,它是基于概率分布进行建模的。而CRF是基于特征函数的加权组合来描述输入输出序列之间的关系,学习得到的模型参数可以通过对数线性模型来表示。

3. 参数介绍和完整代码案例

下面是一个使用CRF进行命名实体识别(NER)的Python代码案例:

导入所需的库

import nltk

import sklearn_crfsuite

from sklearn_crfsuite import metrics

加载NER数据集

nltk.download('conll2002')

train_sents = list(nltk.corpus.conll2002.iob_sents('esp.train'))

test_sents = list(nltk.corpus.conll2002.iob_sents('esp.testb'))

特征提取函数

def word2features(sent, i):

word = sent[i][0]

features = {

'bias'1.0,

'word.lower()': word.lower(),

'word[-3:]': word[-3:],

'word[-2:]': word[-2:],

'word.isupper()': word.isupper(),

'word.istitle()': word.istitle(),

'word.isdigit()': word.isdigit()

}

if i > 0:

word1 = sent[i-1][0]

features.update({

'-1:word.lower()': word1.lower(),

'-1:word.istitle()': word1.istitle(),

'-1:word.isupper()': word1.isupper()

})

else:

features['BOS'] = True

if i < len(sent)-1:

word1 = sent[i+1][0]

features.update({

'+1:word.lower()': word1.lower(),

'+1:word.istitle()': word1.istitle(),

'+1:word.isupper()': word1.isupper()

})

else:

features['EOS'] = True

return features

def sent2features(sent):

return [word2features(sent, i) for i in range(len(sent))]

def sent2labels(sent):

return [label for token, postag, label in sent]

def sent2tokens(sent):

return [token for token, postag, label in sent]

特征提取

X_train = [sent2features(s) for s in train_sents]

y_train = [sent2labels(s) for s in train_sents]

X_test = [sent2features(s) for s in test_sents]

y_test = [sent2labels(s) for s in test_sents]

训练CRF模型

crf = sklearn_crfsuite.CRF(

algorithm='lbfgs',

c1=0.1,

c2=0.1,

max_iterations=100,

all_possible_transitions=True

)

crf.fit(X_train, y_train)

在测试集上进行预测

y_pred = crf.predict(X_test)

输出模型评估结果

print(metrics.flat_classification_report(y_test, y_pred, labels=crf.classes_))

以上代码中,首先使用NLTK库加载了一个NER数据集,然后定义了特征提取函数和特征提取过程,接着使用sklearn_crfsuite库构建了一个CRF模型,并在训练集上进行了训练。最后对测试集进行了预测,并输出了模型的评估结果。

4. 总结

传统的序列模型CRF与HMM的区别主要体现在建模方式、对隐含状态的处理和对特征函数的处理上。CRF是一种判别模型,直接对输入输出序列之间的关系进行建模,不对隐藏状态进行建模,而HMM是一种生成模型,通过对隐藏状态和观察序列的联合概率分布进行建模。在实际应用中,可以根据具体任务的特点选择合适的模型进行建模和训练。

相关文章
|
存储 Linux Go
基于MinIO搭建高性能文件服务器
基于MinIO搭建高性能文件服务器
1530 0
基于MinIO搭建高性能文件服务器
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】31. 卷积神经网络之残差网络(ResNet)介绍及其Pytorch实现
【从零开始学习深度学习】31. 卷积神经网络之残差网络(ResNet)介绍及其Pytorch实现
|
机器学习/深度学习 并行计算 PyTorch
从零开始下载torch+cu(无痛版)
这篇文章提供了一个详细的无痛版教程,指导如何从零开始下载并配置支持CUDA的PyTorch GPU版本,包括查看Cuda版本、在官网检索下载包名、下载指定的torch、torchvision、torchaudio库,并在深度学习环境中安装和测试是否成功。
从零开始下载torch+cu(无痛版)
|
机器学习/深度学习 人工智能 自然语言处理
多模态大模型技术原理与实战(3)
ChatGPT引爆了以AIGC(人工智能生成内容)为代表的第四范式 AI的市场,并成为 AI市场的热点
505 3
多模态大模型技术原理与实战(3)
|
机器学习/深度学习 决策智能
深度学习中的对抗性训练
在这篇技术性文章中,我们将深入探讨深度学习中的对抗性训练。这种训练方法通过引入对抗性样本来提高模型的鲁棒性和泛化能力。文章将从对抗性训练的基本概念、原理以及实现方法等方面进行详细介绍,并结合实际案例分析其在实际应用中的效果和挑战。通过对这一主题的探讨,希望能够为读者提供有益的技术参考和启示。
649 1
|
机器学习/深度学习 PyTorch 算法框架/工具
VQ-VAE:矢量量化变分自编码器,离散化特征学习模型
VQ-VAE 是变分自编码器(VAE)的一种改进。这些模型可以用来学习有效的表示。本文将深入研究 VQ-VAE 之前,不过,在这之前我们先讨论一些概率基础和 VAE 架构。
915 10
|
数据处理
软件工程——需求分析(生存周期),需求规格说明书,数据流图
在前面我们进行了项目的软件计划,完成了可行性研究报告,知道了要做什么的问题,而下一步,我们就需要进一步的了解项目具体要怎么做,回答必须要做什么的问题了。
|
监控 Java
JAVA性能优化- IntelliJ插件:java内存分析工具(JProfiler)
JAVA性能优化- IntelliJ插件:java内存分析工具(JProfiler)
422 0
|
机器学习/深度学习 自然语言处理
[Big Bird]论文解读:Big Bird: Transformers for Longer Sequences
[Big Bird]论文解读:Big Bird: Transformers for Longer Sequences
273 1
|
机器学习/深度学习 自然语言处理 算法
论文解读系列| 05:【NER】SoftLexicon模型详解
SoftLexicon是一种简单而有效的将词汇信息纳入字符表示的方法。这种方法避免设计复杂的序列建模结构,并且对于任何NER模型,它只需要细微地调整字符表示层来引入词典信息。在4个中文NER基准数据集上的实验结果表明,该方法的推理速度比现有SOTA方法快6.15倍,性能更好。