大数据分析考科目三到底哪里容易被挂

简介: 大数据分析考科目三到底哪里容易被挂

阅读本文需要3分钟



01起因


就在上周五, 也就是5月24号, 也就是本狗的阳历生日的这天, 本狗考了科目三, 结果是:“唉”, 没想到过了。用一句小时候经常听的话来讲这次的成绩就是——“一根油条, 俩个鸡蛋”。厉害吧!!!

不过相反, 也有人挂了, 垂头丧气。于是,出于好奇的我,爬取了若干数据, 看看大家的科目三到底是哪个项目最致命 , 以及分布的地区。


02经过


1.首先老样子, 爬取数据


需要的模块:

import random
import requests
import time
from lxml import etree
from urllib.parse import urljoin
import csv


构造每页的url:

data_list = []
def url_():
    url = 'https://bbs.pcauto.com.cn/forum-22487-{}.html'
    for i in range(2, 10):
        new_url = url.format(i)
        parse_url(new_url)


构造每个帖子详情的url:

def parse_url(url):
    baseurl = 'https:'
    response = requests.get(url, headers=headers)
    text = response.text
    html = etree.HTML(text)
    tbodys = html.xpath('//table[@class="data_table"]//tbody')[1:]
    for tbody in tbodys:
        user_urls = tbody.xpath('.//span[@class="checkbox_title"]//a/@href')[0]
        new_user_urls = urljoin(baseurl, user_urls)
        parse_data(new_user_urls)
        time.sleep(random.randint(1, 1))

爬取数据:

def parse_data(url):
    global cities
    data = {}
    response = requests.get(url, headers=headers)
    text = response.text
    html = etree.HTML(text)
    questions = html.xpath('//h1[@class="yh"]/i/text()')[0]
    data['question'] = questions
    try:
        cities = ''.join(html.xpath('//div[contains(@class, "psot_wrap_first")]//div[@class="user_info"]/ul//li//a[@class="dblue"]//text()')).split()[1]
    except Exception:
        pass
    data['city'] = cities
    print(data)
    data_list.append(data)
    csv_()


保存入库:

def csv_():
    headers = [ 'question', 'city']
    with open('question.csv', 'w', encoding='gbk', newline='')as fb:
        writer = csv.DictWriter(fb, headers)
        writer.writeheader()
        writer.writerows(data_list)

数据采集就完毕了!!!


2.接下来进行数据可视化

词云:


“紧张”, “靠边”, “转弯”, “技巧”, “教练”等,都是考生关注的!!!


代码:

import jieba
import wordcloud
import matplotlib.pyplot as plt
f = open('question.csv', 'r', encoding='utf-8')
t = f.read()
f.close()
lis = jieba.lcut(t)
txt = " ".join(lis)
w = wordcloud.WordCloud( width=1000, font_path='C:\Windows\Fonts\simfang.ttf', height=700)
w.generate("  ".join(jieba.lcut(txt))).to_file('cloud111.png')
plt.imshow(w)
plt.axis("off")
plt.show()


地区分布:

主要通过提取City这个字段。Python中的地图可视化主要通过Basemap模块,这个模块需要从国外网站下载地图信息,使用起来非常的不便。百度的ECharts在前端使用的比较多,虽然社区里提供了pyecharts项目,可我注意到因为政策的改变,目前Echarts不再支持导出地图的功能,所以地图的定制方面目前依然是一个问题。

主流的技术方案是配置全国各省市的JSON数据,这里使用的是BDP个人版,这是一个零编程的方案,我们通过Python导出一个CSV文件,然后将其上传到BDP中,通过简单拖拽就可以制作可视化地图,简直不能再简单。


考生主要集中在广东省, 河南省和河北省。



03结果


其实科目三并不难呀, 前提是要好好练习!!!“熟能生巧”还是硬道理啊!!!


获取源码, 后台回复 【科三】

相关文章
|
25天前
|
数据可视化 搜索推荐 大数据
基于python大数据的北京旅游可视化及分析系统
本文深入探讨智慧旅游系统的背景、意义及研究现状,分析其在旅游业中的作用与发展潜力,介绍平台架构、技术创新、数据挖掘与服务优化等核心内容,并展示系统实现界面。
|
1月前
|
数据采集 人工智能 分布式计算
ODPS在AI时代的发展战略与技术演进分析报告
ODPS(现MaxCompute)历经十五年发展,从分布式计算平台演进为AI时代的数据基础设施,以超大规模处理、多模态融合与Data+AI协同为核心竞争力,支撑大模型训练与实时分析等前沿场景,助力企业实现数据驱动与智能化转型。
231 4
|
1月前
|
JSON 大数据 API
巧用苏宁易购 API,精准分析苏宁易购家电销售大数据
在数据驱动的电商时代,精准分析销售数据能助力企业优化库存、提升营销效果。本文详解如何利用苏宁易购API获取家电销售数据,结合Python进行数据清洗与统计分析,实现销量预测与洞察提取,帮助企业降本增效。
43 0
|
2月前
|
消息中间件 NoSQL 数据可视化
数据说了算,可你得“听得快”——聊聊大数据里的实时分析
数据说了算,可你得“听得快”——聊聊大数据里的实时分析
90 2
|
6天前
|
存储 SQL 分布式计算
终于!大数据分析不用再“又要快又要省钱”二选一了!Dataphin新功能太香了!
Dataphin推出查询加速新功能,支持用StarRocks等引擎直连MaxCompute或Hadoop查原始数据,无需同步、秒级响应。数据只存一份,省成本、提效率,权限统一管理,打破“又要快又要省”的不可能三角,助力企业实现分析自由。
93 49
|
3月前
|
数据采集 人工智能 算法
数据没洗干净,分析全白干:聊聊大数据里的“洗澡水”工程
数据没洗干净,分析全白干:聊聊大数据里的“洗澡水”工程
107 1
|
11天前
|
数据采集 数据可视化 关系型数据库
基于python大数据的电影数据可视化分析系统
电影分析与可视化平台顺应电影产业数字化趋势,整合大数据处理、人工智能与Web技术,实现电影数据的采集、分析与可视化展示。平台支持票房、评分、观众行为等多维度分析,助力行业洞察与决策,同时提供互动界面,增强观众对电影文化的理解。技术上依托Python、MySQL、Flask、HTML等构建,融合数据采集与AI分析,提升电影行业的数据应用能力。
|
21天前
|
数据可视化 大数据 数据挖掘
基于python大数据的招聘数据可视化分析系统
本系统基于Python开发,整合多渠道招聘数据,利用数据分析与可视化技术,助力企业高效决策。核心功能包括数据采集、智能分析、可视化展示及权限管理,提升招聘效率与人才管理水平,推动人力资源管理数字化转型。
|
24天前
|
机器学习/深度学习 搜索推荐 算法
基于python大数据的口红商品分析与推荐系统
本研究基于Python大数据技术,构建口红商品分析与推荐系统,旨在解决口红市场产品同质化与消费者选择困难问题。通过分析颜色、质地、价格等多维度数据及用户行为,实现个性化推荐,提升购物体验与品牌营销效率,推动美妆行业数字化转型,具有重要现实意义与市场价值。
|
2月前
|
SQL 存储 机器学习/深度学习
基于 Dify + Hologres + QWen3 进行企业级大数据的处理和分析
在数字化时代,企业如何高效处理和分析海量数据成为提升竞争力的关键。本文介绍了基于 Dify 平台与 Hologres 数据仓库构建的企业级大数据处理与分析解决方案。Dify 作为开源大语言模型平台,助力快速开发生成式 AI 应用;Hologres 提供高性能实时数仓能力。两者结合,不仅提升了数据处理效率,还实现了智能化分析与灵活扩展,为企业提供精准决策支持,助力数字化转型。
544 2
基于 Dify + Hologres + QWen3 进行企业级大数据的处理和分析

热门文章

最新文章