如何用R分析CNKI文献关键词词频?

简介: 疑惑《如何用VOSviewer分析CNKI数据?》一文发布后,有同学问我:王老师,我有个问题,我用cnki导出关键词后,想统计关键词的词频,我应该用什么样的工具?如果不利用citespace和python,做出excel那种的统计表格,该怎么做呢?这个问题,我觉得很有意思。

疑惑

如何用VOSviewer分析CNKI数据?》一文发布后,有同学问我:

王老师,我有个问题,我用cnki导出关键词后,想统计关键词的词频,我应该用什么样的工具?如果不利用citespace和python,做出excel那种的统计表格,该怎么做呢?

这个问题,我觉得很有意思。统计关键词的词频,确实也用不到Citespace。

那我们就来试试看,怎么做才好。

数据

首先检索文献。我这里检索的是2017年知网收录的“竞争情报”相关的论文。一共154篇。

img_5d38d232e470d9c632f2ad565697d082.png
image

下面就是手动全选,翻几页,选完全部。

img_8c89c7e065e09338be793ad642c516e0.png
image

然后导出文献。

img_2daf8eedad6d9938b500273c38b17ab2.png
image

默认的格式显然不符合我们的要求,因为根本不包含关键词。我们可以选择“自定义”。

img_f78323b745bdea55df0e7ef95101312d.png
image

注意前面几项内容,是无法不勾选的。我们因为要分析关键词,所以勾选关键词项。

img_ca410c1f3173dd2591258831785c3156.png
image

好了,我们用xls格式导出。

img_be28d7b36365bf643bb0e2874acdd000.png
image

注意在macOS下面,导出后的Excel文件打开的时候会报错,忽略即可。

img_92f2ab196cbd6d68e84a5161cb21b769.jpe
image

经检验,数据完整。但是我们最好重新保存成为新的xlsx文件,以便于后续正常使用。我们另存为文件名cnki.xlsx。

注意这里的关键词列,可以看到关键词之间用两个分号来分割。有的文章关键词多,有的关键词少。我们要统计关键词词频,就得处理这种格式问题。

分析

因为读者要求,不可以用Citespace,也不许用Python。Excel的编程我又不会,怎么办呢?

后来一想,干脆用R好了。

打开RStudio环境。

img_5b3ed2cb2f16e3ea036c5ab6d2b4cf27.jpe
image

新建一个RMarkdown文件。清除全部正文内容。正式开始我们的分析过程。

首先,设置时区。

Sys.setenv(TZ="Asia/Shanghai")

然后设定工作目录。请根据你的具体情况,更改为自己的工作目录。

setwd("/Users/wsy/coaching/term-frequency-cnki/")

下面载入几个必要的软件包。

library(tidyverse)
library(readxl)
library(tidytext)

读入我们的Excel文件。

df <- read_excel("cnki.xlsx")

我们只需要其中的两列数据,分别是标题和关键词。

df1 <- df %>%
  select(starts_with('Keyword'), starts_with('Title'))

因为原先的Excel里面列名中英文混合,这里我们修改为英文名称,便于后续使用。

colnames(df1) <- c('keyword', 'title')

然后我们就需要对关键词这一列进行处理了。我们拆分一下,把关键词拆分,每一行保留一个关键词。

df1 %>%
  unnest_tokens(word, keyword, token = stringr::str_split, pattern = ";;")

结果如下:

## # A tibble: 524 x 2
##                                       title         word
##                                       <chr>        <chr>
##  1         基于内容分析法的企业竞争情报研究   内容分析法
##  2         基于内容分析法的企业竞争情报研究 企业竞争情报
##  3         基于内容分析法的企业竞争情报研究         应用
##  4 浅谈智库运作机制对优化竞争情报循环的启示         智库
##  5 浅谈智库运作机制对优化竞争情报循环的启示     运作机制
##  6 浅谈智库运作机制对优化竞争情报循环的启示     竞争情报
##  7   可视化分析视角下的国内竞争情报发展演进     竞争情报
##  8   可视化分析视角下的国内竞争情报发展演进     战略行为
##  9   可视化分析视角下的国内竞争情报发展演进     研究热点
## 10   可视化分析视角下的国内竞争情报发展演进     发展趋势
## # ... with 514 more rows

这样看着就清晰多了,是不是?

下面我们需要设置停用词。毕竟我们搜索的主题词是竞争情报,这里再统计“竞争情报”没有意义。所以我们需要在停用词表里过滤掉它。

我们先看看系统默认的停用词表是什么样子的?

data(stop_words)
stop_words

## # A tibble: 1,149 x 2
##           word lexicon
##          <chr>   <chr>
##  1           a   SMART
##  2         a's   SMART
##  3        able   SMART
##  4       about   SMART
##  5       above   SMART
##  6   according   SMART
##  7 accordingly   SMART
##  8      across   SMART
##  9    actually   SMART
## 10       after   SMART
## # ... with 1,139 more rows

哦,原来是个数据框,那我们仿照这个样子,也设置自己的停用词表。

my_stop_words_list = c('竞争情报')
my_lexicon_list = c('UNKNOWN')
my_stop_words = data.frame(my_stop_words_list, my_lexicon_list, stringsAsFactors=FALSE)
colnames(my_stop_words) <- c('word', 'lexicon')
my_stop_words

这一段里面,我们先建立两个向量,分别是停用词和词典。因为我们不涉及词典的属性设置,所以统一设置为UNKOWN。

显示的结果,停用词表是个数据框,里面只有一个停用词——“竞争情报”。

##       word lexicon
## 1 竞争情报 UNKNOWN

下面我们把刚才的内容串起来,先拆关键词,然后停用词过滤,最后统计停用词词频,并且排序:

df1 %>%
  unnest_tokens(word, keyword, token = stringr::str_split, pattern = ";;") %>%
  anti_join(my_stop_words) %>%
  count(word, sort = TRUE)

结果如下:

## Joining, by = "word"

## # A tibble: 362 x 2
##            word     n
##           <chr> <int>
##  1       大数据    17
##  2 企业竞争情报     9
##  3         企业     8
##  4       情报学     7
##  5 产业竞争情报     6
##  6   反竞争情报     6
##  7     研究热点     6
##  8     情报服务     5
##  9     情报需求     4
## 10     知识图谱     4
## # ... with 352 more rows

看来今年的竞争情报研究文献里,最突出的关键词是“大数据”。

然后我们尝试用ggplot可视化一下,只看那些出现3次以上的关键词统计结果:

df1 %>%
  unnest_tokens(word, keyword, token = stringr::str_split, pattern = ";;") %>%
  anti_join(my_stop_words) %>%
  count(word, sort = TRUE) %>%
  filter(n > 3) %>%
  mutate(word = reorder(word, n)) %>%
  ggplot(aes(word, n)) +
  geom_col() +
  xlab(NULL) +
  coord_flip()

## Joining, by = "word"
img_9025f97f1bc0ea94bdf789fb4675805b.png
image

结果令我们很不满,因为关键词显示都是方框。

别着急,这种情况,是因为系统默认使用的字体不能识别汉字。只要告诉ggplot一声,让它使用汉字字体,例如黑体,就可以了。

df1 %>%
  unnest_tokens(word, keyword, token = stringr::str_split, pattern = ";;") %>%
  anti_join(my_stop_words) %>%
  count(word, sort = TRUE) %>%
  filter(n > 3) %>%
  mutate(word = reorder(word, n)) %>%
  ggplot(aes(word, n)) +
  geom_col() +
  xlab(NULL) +
  coord_flip() +
  theme(text=element_text(family="SimHei"))

## Joining, by = "word"
img_7a4192e97d226f091d862de2610e3f6a.png
image

这次看着就舒服多了,不是吗?

讨论

读过本文之后,你有什么心得要分享给大家吗?有没有不同的意见或看法?欢迎留言,记录下你的思考,我们一起交流讨论。

如果你对我的文章感兴趣,欢迎点赞,并且微信关注和置顶我的公众号“玉树芝兰”(nkwangshuyi)。

如果本文可能对你身边的亲友有帮助,也欢迎你把本文通过微博或朋友圈分享给他们。让他们一起参与到我们的讨论中来。

延伸阅读

如何用《玉树芝兰》入门数据科学?

数据科学相关文章合集(玉树芝兰)

目录
相关文章
|
7月前
|
算法 数据挖掘 Python
【数据挖掘】层次聚类DIANA、AGNES算法讲解及实战应用(图文解释 超详细)
【数据挖掘】层次聚类DIANA、AGNES算法讲解及实战应用(图文解释 超详细)
531 0
|
4月前
|
数据采集 搜索推荐 算法
基于B站视频评论的文本分析,采用包括文本聚类分析、LDA主题分析、网络语义分析
本文通过Python爬虫技术采集B站视频评论数据,利用LDA主题分析、聚类分析和语义网络分析等方法,对评论进行深入的文本分析,挖掘用户评论的主题、情感倾向和语义结构,旨在为商业决策提供支持,优化内容创作和用户满意度。
427 2
基于B站视频评论的文本分析,采用包括文本聚类分析、LDA主题分析、网络语义分析
|
4月前
|
数据采集 存储 算法
【2024泰迪杯】B 题:基于多模态特征融合的图像文本检索20页论文及Python代码
本文介绍了2024年泰迪杯B题的解决方案,该题目要求构建基于多模态特征融合的图像文本检索模型和算法,通过深入分析和预处理数据集,构建了OFA、BertCLIP和ChineseCLIP三种多模态特征融合模型,并通过投票融合机制优化检索效果,实验结果表明所提模型在图像与文本检索任务中显著提高了检索准确性和效率。
124 2
|
4月前
|
自然语言处理 数据可视化 搜索推荐
基于python直播平台数据的文本分析,包括LDA主题分析、分词以及网络语义分析,生成网络图
本文探讨了基于Python的直播平台数据文本分析方法,包括LDA主题分析、分词和网络语义分析,旨在揭示用户观点和需求,优化用户体验,并辅助运营方制定改进策略,同时通过生成词云图和网络图提供数据驱动的决策支持。
基于python直播平台数据的文本分析,包括LDA主题分析、分词以及网络语义分析,生成网络图
|
7月前
|
人工智能 数据可视化
【数据分享】维基百科Wiki负面有害评论(网络暴力)文本数据多标签分类挖掘可视化
【数据分享】维基百科Wiki负面有害评论(网络暴力)文本数据多标签分类挖掘可视化
|
机器学习/深度学习 算法
JointKPE关键词抽取论文算法解读
这篇论文是清华大学2021年的论文,主要目的是在开放领域进行关键词/短语抽取。作者提出了一种模型叫做JointKPE,是建立在预训练语言模型上的开放领域关键词抽取模型
255 0
JointKPE关键词抽取论文算法解读
|
机器学习/深度学习 算法
【论文写作分析】之五《融合类别特征扩展与N-gram子词过滤的fastText短文本分类》
【论文写作分析】之五《融合类别特征扩展与N-gram子词过滤的fastText短文本分类》
【论文写作分析】之五《融合类别特征扩展与N-gram子词过滤的fastText短文本分类》
|
机器学习/深度学习 算法 数据挖掘
K近邻算法(KNN)(包含手写体识别、约会类型识别的代码)
是有监督学习、属于判别模型 、支持多分类以及回归、非线性、有预测函数、无优化目标、无优化求解算法。(算法地图) 对应每个训练数据xi有对应的标签yi--监督学习;
179 0
K近邻算法(KNN)(包含手写体识别、约会类型识别的代码)
|
算法 Serverless
基于朴素贝叶斯算法对新闻文本进行分类
基于朴素贝叶斯算法对新闻文本进行分类
245 0
基于朴素贝叶斯算法对新闻文本进行分类
|
机器学习/深度学习 存储 自然语言处理
文本分类毕设:基于python实现的上市公司新闻文本分析与分类预测
文本分类毕设:基于python实现的上市公司新闻文本分析与分类预测
312 0