【计算机设计大赛近年获奖信息】数据分析及可视化

简介: 【计算机设计大赛近年获奖信息】数据分析及可视化

写在前面


本文通过最近三年 “中国大学生计算机设计大赛” 的获奖数据(2021结果尚未揭晓),分析挖掘一下该比赛深层的一些内容,主要有以下几点:

  • 各年各奖项的比例分布
  • 各年得奖最多的学校 Top10
  • 哪些学校多次进入得奖最多 Top10
  • 各学校三年中参赛次数统计
  • 各级别奖项中学校层次划分
  • 参赛人数与奖项之间的关系
  • 获奖作品名称热词

文中各部分中如果代码量较多的,为了阅读体验,就不进行展示,如需代码及相关文件可以私信我。


数据读取及描述


数据集是大赛官方提供的数据,2018、2019 年数据为.xlsx文件,2020 年数据为.pdf文件。先读取 2018 、2019 年数据,并观察一下数据集信息。


import pandas as pd
df_2018 = pd.read_excel('2018年决赛正式结果.xlsx', sheet_name='123等奖')
df_2019 = pd.read_excel('2019年大赛获奖作品名单公示20190907.xlsx')
复制代码


image.png

df_2019.info()
复制代码

image.png

通过上图中的信息可以看到,2018 年与 2019 年的数据集格式有挺大的差异,这些在之后合并时需要统一。


由于 2020 年的数据是 .pdf 文件,我们单独定义一个函数来读取。对于读取时的一些细节问题,都已在代码中以注释的形式标出。


import pdfplumber
def read_pdf_2020(read_path):
    pdf_2020 = pdfplumber.open(read_path)
    result_df = pd.DataFrame()
    for page in pdf_2020.pages:
        table = page.extract_table()
        df_detail = pd.DataFrame(table[1:], columns=table[0])
        # 合并每页的数据集
        result_df = pd.concat([df_detail, result_df], ignore_index=True)
    # 删除值全部是 NaN 的列
    result_df.dropna(axis=1, how='all', inplace=True)
    # 重置列名
    result_df.columns = ['奖项', '作品编号', '作品名称', '参赛学校', '作者', '指导老师']
    return result_df
df_2020 = read_pdf_2020('2020年中国大学生计算机设计大赛参赛作品获奖名单.pdf')
复制代码

image.png

观察 2020 年的数据,相比于前两年的数据,它的各列都没有缺失值,但2020年的获奖信息中并没有包含作品类别这一列,所以我们处理数据集时要将前两年的类别列进行删除。这样,我们可以按照 2020 数据集的格式作为模板,将前两年的数据集转换为相同的格式,再进行合并。


数据预处理


各年数据集格式化

按照 2020 年格式,将 2018 年与 2019 年数据集中部分列进行合并,并更换列名,删除多余的列。并添加 “年份” 这一列。

下面是处理后的 2018 年与 2019 年数据。

image.png

image.png

对于 2020 年数据集的处理要注意,数据读取时是基于每页数据来读取的,如果在一页的最后一行数据较多,需要换行的话,那么下一页首行数据就会缺失,如下所示。

image.png

这种情况就需要先筛选出这些作品编号为空的行,在将数据添加到上一行中。

# 2020年数据集处理
clean_df_2020 = df_2020.copy()
# 部分信息过长导致在分页处被分割,分别出现在两页上,下面将奖项为空的数据添加到上一条数据的信息中。
clean_df_2020.iloc[609]['参赛学校'] += '医大学'
clean_df_2020.iloc[1330]['作品名称'] += '丹霞'
clean_df_2020.iloc[2121]['作品名称'] += '现'
clean_df_2020.iloc[2997]['作品名称'] += '云平台'
del_index = clean_df_2020.loc[clean_df_2020['奖项'] == ''].index
clean_df_2020.drop(del_index, inplace=True)
clean_df_2020.reset_index(drop=True, inplace=True)
clean_df_2020['年份'] = [2020 for _ in range(len(clean_df_2020))]
复制代码


数据合并

现在合并三年的数据。合并后数据集如下。

image.png


数据清洗

现在我们要对合并后的数据集进行一些处理,以便更好地分析及可视化。由于之后我们要用到全国高校的一些基本信息,如学校层次(985 211等),所以需要导入 college_info.csv ,该数据是博主在 6月15日 爬取的,部分高职高专可能并未收录,对于这部分高校就将对应标签赋值为 “暂无数据” 。清除参赛学校和作品名称中的换行符“\n”,之后添加 参赛人数列 来记录 各作品作者人数指导老师人数列 记录 该作品指导老师人数

college_info = pd.read_csv('college_info.csv')
college_name = college_info['学校名称'].values.tolist()
college_level = []
for college in all_df['参赛学校']:
    if college not in college_name:
        college_level.append('暂无数据')
    else:
        college_level.append(college_info['学校层次'][college_name.index(college)])
all_df['学校层次'] = college_level
all_df['参赛学校'] = all_df['参赛学校'].str.replace('\n|\r', '')
all_df['作品名称'] = all_df['作品名称'].str.replace('\n|\r', '')
# 删除作者为空的列
all_df.dropna(subset=['作者'], axis=0, inplace=True)
# 添加 参数人数 列来记录各作品作者人数
all_df['参赛人数'] = all_df['作者'].apply(lambda x: len(x.split('、')))
count_list = []
for index, row in all_df.iterrows():
    try:
        count_list.append(len(row['指导老师'].split('、')))
    except:
        count_list.append(0)
all_df['指导老师人数'] = count_list
all_df.to_csv('all_df.csv', index=False)
all_df
复制代码

处理后的数据集如下。

image.png


数据分析及可视化


各年奖项数量分布

统计三年中一等奖、二等奖、三等奖的占比,绘制层叠条形图。

'''
数据统计省略
'''
from pyecharts import options as opts
from pyecharts.charts import Bar
from pyecharts.commons.utils import JsCode
from pyecharts.globals import ThemeType
c = Bar(init_opts=opts.InitOpts(theme=ThemeType.CHALK))
c.add_xaxis([2018, 2019, 2020])
c.add_yaxis("三等奖", list1, stack="stack1", category_gap="70%")
c.add_yaxis("二等奖", list2, stack="stack1", category_gap="70%")
c.add_yaxis("一等奖", list3, stack="stack1", category_gap="70%")
c.set_series_opts(label_opts=opts.LabelOpts(
                    position="right",
                    formatter=JsCode(
                        "function(x){return Number(x.data.percent * 100).toFixed() + '%';}"
                    ),
                )
            )
c.render("./images/各年奖项数量分布堆叠条形图.html")
c.render_notebook()
复制代码

image.png

从上图中观察发现,随着时间的推移,一等奖、二等奖的比例开始减少,三等奖比例增加,在 2020 年三等奖比例达到68%,不难看出赛方想要增加一等奖的含金量。


各年得奖最多的学校Top10

统计各年得奖最多的前 10 名学校的各项奖的数目,绘制图形。

image.png

从上图中大致可以看到很多大学不止一次出现在 Top10 当中,在这些学校中,一部分可能是因为学校比较重视该比赛。

下面使用韦恩图详细看一下,哪些学校多次进入得奖最多 Top10。

image.png

沈阳师范大学、沈阳工学院、辽宁工业大学在三年中都进入 Top10,还有一些其他两次进入 Top10 的学校, 其中东北部的大学明显较多。


各学校参加次数统计

现在统计各个学校的参赛次数,并计算各次数的学校数量。

from collections import Counter
all_school = []
for year in [2018, 2019, 2020]:
    school_set = set(all_df.loc[all_df['年份'] == year, '参赛学校'].values.tolist())
    all_school += list(school_set)
value_count = Counter(all_school)
count_list = ['参赛' + str(n) + '次' for n in value_count.values()]
counter = Counter(count_list)
from pyecharts.charts import Pie
c = Pie(init_opts=opts.InitOpts(theme=ThemeType.CHALK))
c.add("", [list(z) for z in zip(counter.keys(), counter.values())])
c.set_global_opts(title_opts=opts.TitleOpts(title="Pie-基本示例"))
c.set_series_opts(label_opts=opts.LabelOpts(formatter="{b}: {c}"))
c.render("./images/各学校参加次数统计饼图.html")
c.render_notebook()
复制代码

image.png

在这三年的参赛学校中,三次参赛的占了一半左右,参赛一次和参赛两次的各占 25% 左右,这么说,参加比赛的学校还是愿意继续下一届继续去参加,说明该比赛是有吸引学校的地方。


各年参赛学校层次划分

统计各年参赛学校的层次,观察参加比赛学校的层次分布。

image.png

三年中,绝大多数的参赛者来自普通本科,其次为211,并且各层次的学校参赛人数在逐年上升。普通本科最为显著。可以看到,随着大赛的宣传和计算机的普及,越来越多的人关注计算机方面的比赛。(对于暂无数据的那一列部分原因是因为学校的信息没有收录,还有可能是参赛选手填写学校时出现失误造成)


参赛人数与奖项分布

根据作者和指导老师的人数进行组合,统计各奖项中出现的次数,绘制如下图形。

image.png

在各项奖项中,获奖比例最多的都是3名作者2名老师的阵容,其次就是3名作者1名老师。其余的阵容获奖人数就比较少了。看样子也不是人数越多获奖几率越大。


获奖作品名称热词

首先定义一个加载停用词的函数,用于加载本地停用词。

def load_stopwords(read_path):
    '''
    读取文件每行内容并保存到列表中
    :param read_path: 待读取文件的路径
    :return: 保存文件每行信息的列表
    '''
    result = []
    with open(read_path, "r", encoding='utf-8') as f:
        for line in f.readlines():
            line = line.strip('\n')  # 去掉列表中每一个元素的换行符
            result.append(line)
    return result
# 加载中文停用词
stopwords = load_stopwords('wordcloud_stopwords.txt')
复制代码


统计所有作品名称中去除停用词后的词汇,保存到列表中。

import jieba
# 添加自定义词典
jieba.load_userdict("自定义词典.txt")
token_list = []
# 对标题内容进行分词,并将分词结果保存在列表中
for name in all_df['作品名称']:
    tokens = jieba.lcut(name, cut_all=False)
    token_list += [token for token in tokens if token not in stopwords]
len(token_list)
复制代码


统计该列表中各词出现的频率,取前100作为热门词,绘制词云图。

from pyecharts.charts import WordCloud
from collections import Counter
token_count_list = Counter(token_list).most_common(100)
new_token_list = []
for token, count in token_count_list:
    new_token_list.append((token, str(count)))
c = WordCloud()   
c.add(series_name="热词", data_pair=new_token_list, word_size_range=[20, 200])
c.set_global_opts(
    title_opts=opts.TitleOpts(
        title="获奖作品热词", title_textstyle_opts=opts.TextStyleOpts(font_size=23)
    ),
    tooltip_opts=opts.TooltipOpts(is_show=True),
)
c.render("./images/获奖作品热词.html")
c.render_notebook()
复制代码

image.png

观察上图,能够十分清晰的了解目前计算机中热门的话题,如大数据、人工智能、算法、可视化、管理系统、机器人等,这些方向一直都是计算机行业的热门方向,也可以作为我们今后发展的一条道路。


总结


  • 近年来,计算机设计大赛一等奖、二等奖的比例减少,三等奖比例增加,这就增加了获得一、二等奖的难度含金量
  • 东北部的大学更加关注该赛事,无论从参赛人数还是获奖人数来看,其中沈阳师范大学、沈阳工学院、辽宁工业大学多次进入获奖最多 Top10。
  • 绝大多数的学校连续参加该比赛,在最近三年中,三次参赛的学校占了获奖总学校的一半左右。
  • 三年中,绝大多数的参赛者来自普通本科,其次为211,并且各层次的学校参赛人数在逐年上升。
  • 获奖的参赛选手中比例最多的是 3名作者2名老师 的阵容,其次就是 3名作者1名老师。(作者最多5人,指导老师2人 共7人)
  • 作品中的热门词大数据、人工智能、算法、可视化、管理系统、机器人等。



相关文章
|
4天前
|
数据可视化 数据挖掘
R语言生存分析数据分析可视化案例(下)
R语言生存分析数据分析可视化案例
12 0
|
19天前
|
机器学习/深度学习 数据采集 数据可视化
Python中的数据分析与可视化技术探索
数据分析与可视化在当今信息化时代扮演着愈发重要的角色。Python作为一种强大的编程语言,提供了丰富的库和工具,使得数据分析与可视化变得更加高效和灵活。本文将探讨Python中常用的数据分析与可视化技术,包括数据准备、数据分析和可视化展示等方面,并结合实例演示其应用,帮助读者更好地理解和运用这些技术。
|
1天前
|
数据可视化 前端开发 数据挖掘
数据分析可视化神器---streamlit框架,各种图表绘制,布局以及生产综合案例剖析
数据分析可视化神器---streamlit框架,各种图表绘制,布局以及生产综合案例剖析
|
4天前
|
数据可视化 数据挖掘
R语言生存分析数据分析可视化案例(上)
R语言生存分析数据分析可视化案例
|
14天前
|
数据采集 数据可视化 数据挖掘
SciPy在数据分析中的应用:从数据清洗到可视化
【4月更文挑战第17天】# SciPy在数据分析中的应用:从数据清洗到可视化。文章探讨了SciPy在数据清洗(使用NumPy处理缺失值和异常值)、数据分析(描述性统计和模型拟合)以及数据可视化(结合Matplotlib和Seaborn进行图表绘制)中的作用。SciPy与其他Python库结合,为完整的数据分析流程提供了强大支持。
|
15天前
|
存储 数据可视化 数据挖掘
数据分析与可视化:Pandas与Matplotlib/Seaborn的完美结合
【4月更文挑战第16天】本文探讨了Python中的Pandas、Matplotlib和Seaborn如何协同进行数据分析与可视化。Pandas提供高效的数据结构DataFrame,便于数据处理和清洗;Matplotlib是基础绘图库,支持自定义图表;Seaborn则在Matplotlib基础上提供美观的统计图形。通过这三个库的无缝结合,数据分析师可以从数据处理直达可视化,提高效率并呈现更具吸引力的分析结果。掌握这些工具将助力深入理解数据并揭示其中的故事。
|
19天前
|
机器学习/深度学习 数据可视化 数据挖掘
用Python进行健康数据分析:挖掘医疗统计中的信息
【4月更文挑战第12天】Python在医疗健康数据分析中扮演重要角色,具备数据处理、机器学习、可视化及丰富生态的优势。基本流程包括数据获取、预处理、探索、模型选择与训练、评估优化及结果可视化。应用案例包括疾病预测、药物效果分析和医疗资源优化,例如使用RandomForestClassifier进行疾病预测,Logit模型分析药物效果,以及linprog优化医疗资源配置。
|
23天前
|
人工智能 数据可视化 数据挖掘
【python】Python国内GDP经济总量数据分析可视化(源码+报告)【独一无二】
【python】Python国内GDP经济总量数据分析可视化(源码+报告)【独一无二】
|
23天前
|
机器学习/深度学习 数据可视化 数据挖掘
【python】双十一美妆数据分析可视化 [聚类分析/线性回归/支持向量机](代码+报告)【独一无二】
【python】双十一美妆数据分析可视化 [聚类分析/线性回归/支持向量机](代码+报告)【独一无二】
|
24天前
|
机器学习/深度学习 数据可视化 数据挖掘
利用Python进行数据分析与可视化:从入门到精通
本文将介绍如何使用Python语言进行数据分析与可视化,从基础概念到高级技巧一应俱全。通过学习本文,读者将掌握Python在数据处理、分析和可视化方面的核心技能,为实际项目应用打下坚实基础。