HanLP — HMM隐马尔可夫模型 -- 训练--归一化,计算概率

简介: HanLP — HMM隐马尔可夫模型 -- 训练--归一化,计算概率

前篇得出初始矩阵、转移矩阵、发射矩阵

通过归一化得出每个状态的概率。

然后通过 pickle 将三个数组序列化到文件中,用的时候反序列化

# 训练数据
[
  '今天 天气 真 不错 。',
  '麻辣肥牛 好吃 !',
  '我 喜欢 吃 好吃 的 !'
]
# 标注
[
  'BE BE S BE S',
  'BMME BE S',
  'S BE S BE S S '
]
# 初始矩阵
[2, 0, 1, 0]
# 转移矩阵
[
  [0, 1, 0, 6],
  [0, 1, 0, 1],
  [3, 0, 1, 0],
  [2, 0, 5, 0]
]
# 发射矩阵
{
  'B': {'total': 7, '今': 1, '天': 1, '不': 1, '麻': 1, '好': 2, '喜': 1},
  'M': {'total': 2, '辣': 1, '肥': 1},
  'S': {'total': 7, '真': 1, '。': 1, '!': 2, '我': 1, '吃': 1, '的': 1},
  'E': {'total': 7, '天': 1, '气': 1, '错': 1, '牛': 1, '吃': 2, '欢': 1}
}
import pickle
from tqdm import tqdm
import numpy as np
import os
# 定义 HMM类, 其实最关键的就是三大矩阵
class HMM:
    def __init__(self, file_text, file_state):
        # 初始矩阵 : 1 * 4 , 对应的是 BMSE,
        self.init_matrix = [2, 0, 1, 0, ]
        # 转移状态矩阵:  4 * 4 ,
        self.transfer_matrix = [[0, 1, 0, 6],
                                [0, 1, 0, 1],
                                [3, 0, 1, 0],
                                [2, 0, 5, 0]]
        # 发射矩阵
        self.emit_matrix = {
            'B': {'total': 7, '今': 1, '天': 1, '不': 1, '麻': 1, '好': 2, '喜': 1},
            'M': {'total': 2, '辣': 1, '肥': 1},
            'S': {'total': 7, '真': 1, '。': 1, '!': 2, '我': 1, '吃': 1, '的': 1},
            'E': {'total': 7, '天': 1, '气': 1, '错': 1, '牛': 1, '吃': 2, '欢': 1}
            }
    # 将矩阵归一化,得出概率
    def normalize(self):
        self.init_matrix = self.init_matrix / np.sum(self.init_matrix)
        self.transfer_matrix = self.transfer_matrix / np.sum(self.transfer_matrix, axis=1, keepdims=True)
        self.emit_matrix = {state: {word: t / word_times["total"] * 1000 for word, t in word_times.items() if word != "total"} for state, word_times in
                            self.emit_matrix.items()}
    # 训练开始, 其实就是3个矩阵的求解过程
    def train(self):
        self.normalize()  # 矩阵求完之后进行归一化
        pickle.dump([self.init_matrix, self.transfer_matrix, self.emit_matrix], open("data/three_matrix.pkl", "wb"))  # 保存参数
if __name__ == "__main__":
    train_file = "data/train_data.txt"
    state_file = "data/train_state.txt"
    hmm = HMM(train_file, state_file)
    hmm.train()
# 初始矩阵 -- 概率
[0.66666667, 0,0.33333333,0]
# 转移矩阵 -- 概率
[[0.        , 0.14285714, 0.        , 0.85714286]
 [0.        , 0.5       , 0.        , 0.5       ]
 [0.75      , 0.        , 0.25      , 0.        ]
 [0.28571429, 0.        , 0.71428571, 0.        ]]
# 转移矩阵 -- 概率
{
  'B': {'今': 142.85714285714286, '天': 142.85714285714286, '不': 142.85714285714286, '麻': 142.85714285714286, '好': 285.7142857142857, '喜': 142.85714285714286}, 
  'M': {'辣': 500.0, '肥': 500.0}, 
  'S': {'真': 142.85714285714286, '。': 142.85714285714286, '!': 285.7142857142857, '我': 142.85714285714286, '吃': 142.85714285714286, '的': 142.85714285714286}, 
  'E': {'天': 142.85714285714286, '气': 142.85714285714286, '错': 142.85714285714286, '牛': 142.85714285714286, '吃': 285.7142857142857, '欢': 142.85714285714286}
}
目录
相关文章
|
3月前
|
算法
HanLP — HMM隐马尔可夫模型 -- 训练
HanLP — HMM隐马尔可夫模型 -- 训练
35 0
HanLP — HMM隐马尔可夫模型 -- 训练
|
3月前
|
自然语言处理
HanLP — HMM隐马尔可夫模型 -- 语料库
HanLP — HMM隐马尔可夫模型 -- 语料库
43 0
|
4月前
|
自然语言处理 算法 语音技术
隐马尔可夫模型(HMM)
隐马尔可夫模型(HMM)
|
6月前
|
自然语言处理 算法 数据挖掘
R语言中的隐马尔可夫HMM模型实例
R语言中的隐马尔可夫HMM模型实例
|
6月前
|
机器学习/深度学习 算法
使用R语言进行机制检测的隐马尔可夫模型HMM
使用R语言进行机制检测的隐马尔可夫模型HMM
|
6月前
|
人工智能 搜索推荐 物联网
DoRA(权重分解低秩适应):一种新颖的模型微调方法_dora模型
DoRA(权重分解低秩适应):一种新颖的模型微调方法_dora模型
347 0
|
机器学习/深度学习 算法 语音技术
隐马尔科夫模型HMM
本文介绍常见的机器学习模型隐马尔科夫模型HMM。 HMM也是generative model。 我是因为看到一篇论文需要用HMM来优化,所以速成。日后如有新的理解将会持续更新,可以收藏关注本文以待。
隐马尔科夫模型HMM
隐马尔科夫模型
隐马模型还是看李航的《统计学习方法》,写的很明了。 以下内容来自邹博的ppt: ...
843 0
|
机器学习/深度学习 算法 自然语言处理
隐马尔科夫模型HMM(一)HMM模型
隐马尔科夫模型(Hidden Markov Model,以下简称HMM)是比较经典的机器学习模型了,它在语言识别,自然语言处理,模式识别等领域得到广泛的应用。当然,随着目前深度学习的崛起,尤其是RNN,LSTM等神经网络序列模型的火热,HMM的地位有所下降。
3886 0