HanLP — HMM隐马尔可夫模型 -- 训练--归一化,计算概率

简介: HanLP — HMM隐马尔可夫模型 -- 训练--归一化,计算概率

前篇得出初始矩阵、转移矩阵、发射矩阵

通过归一化得出每个状态的概率。

然后通过 pickle 将三个数组序列化到文件中,用的时候反序列化

# 训练数据
[
  '今天 天气 真 不错 。',
  '麻辣肥牛 好吃 !',
  '我 喜欢 吃 好吃 的 !'
]
# 标注
[
  'BE BE S BE S',
  'BMME BE S',
  'S BE S BE S S '
]
# 初始矩阵
[2, 0, 1, 0]
# 转移矩阵
[
  [0, 1, 0, 6],
  [0, 1, 0, 1],
  [3, 0, 1, 0],
  [2, 0, 5, 0]
]
# 发射矩阵
{
  'B': {'total': 7, '今': 1, '天': 1, '不': 1, '麻': 1, '好': 2, '喜': 1},
  'M': {'total': 2, '辣': 1, '肥': 1},
  'S': {'total': 7, '真': 1, '。': 1, '!': 2, '我': 1, '吃': 1, '的': 1},
  'E': {'total': 7, '天': 1, '气': 1, '错': 1, '牛': 1, '吃': 2, '欢': 1}
}
import pickle
from tqdm import tqdm
import numpy as np
import os
# 定义 HMM类, 其实最关键的就是三大矩阵
class HMM:
    def __init__(self, file_text, file_state):
        # 初始矩阵 : 1 * 4 , 对应的是 BMSE,
        self.init_matrix = [2, 0, 1, 0, ]
        # 转移状态矩阵:  4 * 4 ,
        self.transfer_matrix = [[0, 1, 0, 6],
                                [0, 1, 0, 1],
                                [3, 0, 1, 0],
                                [2, 0, 5, 0]]
        # 发射矩阵
        self.emit_matrix = {
            'B': {'total': 7, '今': 1, '天': 1, '不': 1, '麻': 1, '好': 2, '喜': 1},
            'M': {'total': 2, '辣': 1, '肥': 1},
            'S': {'total': 7, '真': 1, '。': 1, '!': 2, '我': 1, '吃': 1, '的': 1},
            'E': {'total': 7, '天': 1, '气': 1, '错': 1, '牛': 1, '吃': 2, '欢': 1}
            }
    # 将矩阵归一化,得出概率
    def normalize(self):
        self.init_matrix = self.init_matrix / np.sum(self.init_matrix)
        self.transfer_matrix = self.transfer_matrix / np.sum(self.transfer_matrix, axis=1, keepdims=True)
        self.emit_matrix = {state: {word: t / word_times["total"] * 1000 for word, t in word_times.items() if word != "total"} for state, word_times in
                            self.emit_matrix.items()}
    # 训练开始, 其实就是3个矩阵的求解过程
    def train(self):
        self.normalize()  # 矩阵求完之后进行归一化
        pickle.dump([self.init_matrix, self.transfer_matrix, self.emit_matrix], open("data/three_matrix.pkl", "wb"))  # 保存参数
if __name__ == "__main__":
    train_file = "data/train_data.txt"
    state_file = "data/train_state.txt"
    hmm = HMM(train_file, state_file)
    hmm.train()
# 初始矩阵 -- 概率
[0.66666667, 0,0.33333333,0]
# 转移矩阵 -- 概率
[[0.        , 0.14285714, 0.        , 0.85714286]
 [0.        , 0.5       , 0.        , 0.5       ]
 [0.75      , 0.        , 0.25      , 0.        ]
 [0.28571429, 0.        , 0.71428571, 0.        ]]
# 转移矩阵 -- 概率
{
  'B': {'今': 142.85714285714286, '天': 142.85714285714286, '不': 142.85714285714286, '麻': 142.85714285714286, '好': 285.7142857142857, '喜': 142.85714285714286}, 
  'M': {'辣': 500.0, '肥': 500.0}, 
  'S': {'真': 142.85714285714286, '。': 142.85714285714286, '!': 285.7142857142857, '我': 142.85714285714286, '吃': 142.85714285714286, '的': 142.85714285714286}, 
  'E': {'天': 142.85714285714286, '气': 142.85714285714286, '错': 142.85714285714286, '牛': 142.85714285714286, '吃': 285.7142857142857, '欢': 142.85714285714286}
}
目录
打赏
0
0
0
0
54
分享
相关文章
|
7月前
|
HanLP — HMM隐马尔可夫模型 -- 训练
HanLP — HMM隐马尔可夫模型 -- 训练
56 0
HanLP — HMM隐马尔可夫模型 -- 训练
HanLP — HMM隐马尔可夫模型 -- 语料库
HanLP — HMM隐马尔可夫模型 -- 语料库
69 0
PiSSA :将模型原始权重进行奇异值分解的一种新的微调方法
我们开始看4月的新论文了,这是来自北京大学人工智能研究所、北京大学智能科学与技术学院的研究人员发布的Principal Singular Values and Singular Vectors Adaptation(PiSSA)方法。
151 3
隐马尔科夫模型HMM
本文介绍常见的机器学习模型隐马尔科夫模型HMM。 HMM也是generative model。 我是因为看到一篇论文需要用HMM来优化,所以速成。日后如有新的理解将会持续更新,可以收藏关注本文以待。
隐马尔科夫模型HMM
隐马尔科夫模型
隐马模型还是看李航的《统计学习方法》,写的很明了。 以下内容来自邹博的ppt: ...
861 0
基于GRU和am-softmax的句子相似度模型 | 附代码实现
在我搜索到的资料中,深度学习做句子相似度模型,就只有两种做法:一是输入一对句子,然后输出一个 0/1 标签代表相似程度,也就是视为一个二分类问题。
3374 0
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等