机器学习|TF-IDF算法(原理及代码实现)

简介: TFIDF算法的原理及其代码实现。

TF-IDF的概念

TF-IDF是Term Frequency -  Inverse Document Frequency的缩写,即“词频-逆文本频率”。它由两部分组成,TF和IDF。

TF策略我在之前的高频词提取文章中进行过使用,TF用来表示词频,也就是某个词在文章中出现的总次数,也就是:

TF=某个词在文章中出现的总次数

但是考虑到每篇文章的长短是不同的,所以我们可以把上述内容进行一个标准化:

TF=某个词在文章中出现的总次数/文章的总词数

IDF用来表示逆文档频率,所谓逆文档频率其实是用来反映一个词在所有文档中出现的频率,当一个词在很多文档中出现的时候,其所对应的IDF值也应该变低,当一个词在很少的文档中出现的时候,其所对应的IDF值就会变高,用一个式子来表述一下:

IDF=log(语料库中的文档总数/(包含该词的文档数+1))

在这里我们+1的目的是为了当没有词语在文档中时来避免分母为0。

现在我们知道了TF,IDF分别代表什么,那么我们也可以得到TF-IDF:

TF-IDF=TF*IDF

并且根据上述的性质我们可以得出:TF-IDF与一个词在文档中的出现次数成正比,与该词在整个语料库中的出现次数成反比。

TF-IDF的实现

我们了解了TF-IDF代表什么之后,下面我们来用不同的方式来实现一下该算法。

一、使用gensim来计算TF-IDF

首先我们来设定一个语料库并进行分词处理:

# 建立一个语料库corpus= [
"what is the weather like today",
"what is for dinner tonight",
"this is a question worth pondering",
"it is a beautiful day today"]
# 进行分词words= []
foriincorpus:
words.append(i.split(" "))
print(words)

image.gif

得到的结果如下:

image.png

接下来我们来计算一下每个词语在当前文档中出现的次数:

# 给每一个词一个ID并统计每个词在当前文档中出现的次数dic=corpora.Dictionary(words)
new_corpus= [dic.doc2bow(text) fortextinwords]
print(new_corpus)
print(dic.token2id)

image.gif

得到的结果如下:

image.png

doc2bow函数主要用于让dic中的内用变为bow词袋模型,其中每个括号中的第一个数代表词的ID第二个数代表在当前文档中出现的次数。(可能例子选择的不佳,这里每个词出现的次数都为1)

token2id主要用于输出一种字典类型的数据,其数据格式为:{词,对应的单词id}

如果是id2token则为:{单词id,对应的词},这里用那种形式都可以。

然后我们要训练gensim模型并保存,并加以测试:

# 训练模型并保存tfidf=models.TfidfModel(new_corpus)
tfidf.save("my_model.tfidf")
# 载入模型tfidf=models.TfidfModel.load("my_model.tfidf")
# 使用训练好的模型计算TF-IDF值string="i like the weather today"string_bow=dic.doc2bow(string.lower().split())
string_tfidf=tfidf[string_bow]
print(string_tfidf)

image.gif

结果如下:

image.png

由结果我们可以看出训练出来的结果左边是词的ID右边是词的tfidf值,但是对于我们在训练模型时没有训练到的词,在结果中别没有显示出来。

二、sklearn来计算TF-IDF

sklearn使用起来要比gensim方便的多,主要用到了sklearn中的TfidfVectorizer:

fromsklearn.feature_extraction.textimportTfidfVectorizercorpus= [
"what is the weather like today",
"what is for dinner tonight",
"this is a question worth pondering",
"it is a beautiful day today"]
tfidf_vec=TfidfVectorizer()
# 利用fit_transform得到TF-IDF矩阵tfidf_matrix=tfidf_vec.fit_transform(corpus)
# 利用get_feature_names得到不重复的单词print(tfidf_vec.get_feature_names())
# 得到每个单词所对应的IDprint(tfidf_vec.vocabulary_)
# 输出TF-IDF矩阵print(tfidf_matrix)

image.gif

得到的部分参考结果如下:

image.png

三、用Python手动实现TF-IDF算法

上文中我们用了两种库函数来计算自定义语料库中每个单词的TF-IDF值,下面我们来手动实现一下TF-IDF:

importmathcorpus= [
"what is the weather like today",
"what is for dinner tonight",
"this is a question worth pondering",
"it is a beautiful day today"]
words= []
# 对corpus分词foriincorpus:
words.append(i.split())
# 如果有自定义的停用词典,我们可以用下列方法来分词并去掉停用词# f = ["is", "the"]# for i in corpus:#     all_words = i.split()#     new_words = []#     for j in all_words:#         if j not in f:#             new_words.append(j)#     words.append(new_words)# print(words)# 进行词频统计defCounter(word_list):
wordcount= []
foriinword_list:
count= {}
forjini:
ifnotcount.get(j):
count.update({j: 1})
elifcount.get(j):
count[j] +=1wordcount.append(count)
returnwordcountwordcount=Counter(words)
# 计算TF(word代表被计算的单词,word_list是被计算单词所在文档分词后的字典)deftf(word, word_list):
returnword_list.get(word) /sum(word_list.values())
# 统计含有该单词的句子数defcount_sentence(word, wordcount):
returnsum(1foriinwordcountifi.get(word))
# 计算IDFdefidf(word, wordcount):
returnmath.log(len(wordcount) / (count_sentence(word, wordcount) +1))
# 计算TF-IDFdeftfidf(word, word_list, wordcount):
returntf(word, word_list) *idf(word, wordcount)
p=1foriinwordcount:
print("part:{}".format(p))
p=p+1forj, kini.items():
print("word: {} ---- TF-IDF:{}".format(j, tfidf(j, i, wordcount)))

image.gif

运行后的部分结果如下:

image.png

总结

TF-IDF主要用于文章中关键词的提取工作,也可用于查找相似文章、对文章进行摘要提取、特征选择(重要特征的提取)工作。

TF-IDF算法的优点是简单快速,结果比较符合实际情况。缺点是,单纯以"词频"衡量一个词的重要性,不够全面,有时重要的词可能出现次数并不多。而且,这种算法无法体现词的位置信息,出现位置靠前的词与出现位置靠后的词,都被视为重要性相同,这是不正确的。(一种解决方法是,对全文的第一段和每一段的第一句话,给予较大的权重。)

相关文章
|
5天前
|
算法 测试技术 开发者
在Python开发中,性能优化和代码审查至关重要。性能优化通过改进代码结构和算法提高程序运行速度,减少资源消耗
在Python开发中,性能优化和代码审查至关重要。性能优化通过改进代码结构和算法提高程序运行速度,减少资源消耗;代码审查通过检查源代码发现潜在问题,提高代码质量和团队协作效率。本文介绍了一些实用的技巧和工具,帮助开发者提升开发效率。
10 3
|
3天前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
12天前
|
机器学习/深度学习 算法 Java
机器学习、基础算法、python常见面试题必知必答系列大全:(面试问题持续更新)
机器学习、基础算法、python常见面试题必知必答系列大全:(面试问题持续更新)
|
17天前
|
存储 缓存 算法
如何通过优化算法和代码结构来提升易语言程序的执行效率?
如何通过优化算法和代码结构来提升易语言程序的执行效率?
|
9天前
|
缓存 分布式计算 监控
优化算法和代码需要注意什么
【10月更文挑战第20天】优化算法和代码需要注意什么
14 0
|
11天前
|
算法 安全 数据安全/隐私保护
基于game-based算法的动态频谱访问matlab仿真
本算法展示了在认知无线电网络中,通过游戏理论优化动态频谱访问,提高频谱利用率和物理层安全性。程序运行效果包括负载因子、传输功率、信噪比对用户效用和保密率的影响分析。软件版本:Matlab 2022a。完整代码包含详细中文注释和操作视频。
|
29天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于MSER和HOG特征提取的SVM交通标志检测和识别算法matlab仿真
### 算法简介 1. **算法运行效果图预览**:展示算法效果,完整程序运行后无水印。 2. **算法运行软件版本**:Matlab 2017b。 3. **部分核心程序**:完整版代码包含中文注释及操作步骤视频。 4. **算法理论概述**: - **MSER**:用于检测显著区域,提取图像中稳定区域,适用于光照变化下的交通标志检测。 - **HOG特征提取**:通过计算图像小区域的梯度直方图捕捉局部纹理信息,用于物体检测。 - **SVM**:寻找最大化间隔的超平面以分类样本。 整个算法流程图见下图。
|
8天前
|
人工智能 算法 数据安全/隐私保护
基于遗传优化的SVD水印嵌入提取算法matlab仿真
该算法基于遗传优化的SVD水印嵌入与提取技术,通过遗传算法优化水印嵌入参数,提高水印的鲁棒性和隐蔽性。在MATLAB2022a环境下测试,展示了优化前后的性能对比及不同干扰下的水印提取效果。核心程序实现了SVD分解、遗传算法流程及其参数优化,有效提升了水印技术的应用价值。
|
9天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。
|
14天前
|
存储
基于遗传算法的智能天线最佳阵列因子计算matlab仿真
本课题探讨基于遗传算法优化智能天线阵列因子,以提升无线通信系统性能,包括信号质量、干扰抑制及定位精度。通过MATLAB2022a实现的核心程序,展示了遗传算法在寻找最优阵列因子上的应用,显著改善了天线接收功率。