中文文本处理分词的二元模型

简介: 中文文本处理分词的二元模型

从1到N的多个词拼接成一句话的概率等于N个概率的乘积:

20190402123323104.png


这样的话,每一个后面的参数的概率要计算前面事件发生时的条件概率,会变为一个计算量很大的工作。于是我们使用马尔可夫模型,认为当前变量概率仅仅与前面N个变量概率有关,当N=1,考虑2个变量时,为二元模型,或称为二元文法模型。英文读音是比个来姆['bɪɡræm],没有使用[baɪ]的读音。


   N-gram的基本思想是将文本内容按字进行长度N的滑动窗口操作,形成长度为N的字节片段序列,每个字节片段是一个gram,对全部gram的出现频度进行统计,并按照设定的阈值进行过滤,形成keygram列表,即为该文本的特征向量空间,每一种gram则为特征向量维度。


   中文文本处理大多采用bi-gram进行分解,因为双字词出现概率比较大,即以大小为2的滑动窗口进行操作,切成长度为2的字节片段;注意Google使用3元分析进行判断。


   bigram切分方法在处理20%左右的中文多字词时,往往产生语义和语序方面的偏差。


而多字词常常是文本的核心特征,处理错误会导致较大的负面影响。


   自动产生多字特征词:基于n-gram改进的文本特征提取算法,在进行bigram切分时,不仅统计gram的出现频度,而且还统计某个gram与其前邻gram的情况,并将其记录在gram关联矩阵中,对于连续出现频率大于事先设定阈值的,就将其合并为多字特征词,可以较好弥补n-gram算法在处理多字词方面的缺陷。



目录
相关文章
|
3月前
|
机器学习/深度学习 自然语言处理 算法
文本分析-使用jieba库进行中文分词和去除停用词(附案例实战)
文本分析-使用jieba库进行中文分词和去除停用词(附案例实战)
2460 0
|
3月前
|
存储 自然语言处理 Python
Python中文词汇与英文词频统计
本文介绍了如何使用Python进行英文和中文词频统计。对于英文,借助内置库按空格分隔单词并处理特殊字符;对于中文,需安装jieba分词库。代码实现中,通过读取文件、分词、统计词频并输出到文件。运行时,通过命令行提供文本和结果文件路径。此技能在学术研究、语言分析和文本挖掘领域颇有价值。
164 4
Python中文词汇与英文词频统计
|
11月前
|
数据采集 监控 数据处理
九、正则表达式详解:掌握强大的文本处理工具(一)
九、正则表达式详解:掌握强大的文本处理工具(一)
|
11月前
|
数据采集
十、正则表达式详解:掌握强大的文本处理工具(二)
十、正则表达式详解:掌握强大的文本处理工具(二)
|
自然语言处理 BI
|
自然语言处理 搜索推荐
jieba分词有哪些模式,分别详细介绍
jieba分词有哪些模式,分别详细介绍
951 0
|
canal 搜索推荐 关系型数据库
拼音分词器
安装方式参考IK分词器
237 0
|
自然语言处理 BI
分词
中文分词介绍
分词
|
机器学习/深度学习 人工智能 自然语言处理
分词的那些事
使用阿里云学习分词,分词就是指将连续的自然语言文本切分成具有语义合理性和完整性的词汇序列的过程。
分词的那些事
|
自然语言处理
关于分词
假期重新把之前在新浪博客里面的文字梳理了下,搬到这里。本文围绕分词作一些入门资源信息介绍,偏分词应用。内容10年前的,不代表最新的内容啊。
131 0