大数据分析考科目三到底哪里容易被挂

简介: 大数据分析考科目三到底哪里容易被挂

阅读本文需要3分钟



01起因


就在上周五, 也就是5月24号, 也就是本狗的阳历生日的这天, 本狗考了科目三, 结果是:“唉”, 没想到过了。用一句小时候经常听的话来讲这次的成绩就是——“一根油条, 俩个鸡蛋”。厉害吧!!!

不过相反, 也有人挂了, 垂头丧气。于是,出于好奇的我,爬取了若干数据, 看看大家的科目三到底是哪个项目最致命 , 以及分布的地区。


02经过


1.首先老样子, 爬取数据


需要的模块:

import random
import requests
import time
from lxml import etree
from urllib.parse import urljoin
import csv


构造每页的url:

data_list = []
def url_():
    url = 'https://bbs.pcauto.com.cn/forum-22487-{}.html'
    for i in range(2, 10):
        new_url = url.format(i)
        parse_url(new_url)


构造每个帖子详情的url:

def parse_url(url):
    baseurl = 'https:'
    response = requests.get(url, headers=headers)
    text = response.text
    html = etree.HTML(text)
    tbodys = html.xpath('//table[@class="data_table"]//tbody')[1:]
    for tbody in tbodys:
        user_urls = tbody.xpath('.//span[@class="checkbox_title"]//a/@href')[0]
        new_user_urls = urljoin(baseurl, user_urls)
        parse_data(new_user_urls)
        time.sleep(random.randint(1, 1))

爬取数据:

def parse_data(url):
    global cities
    data = {}
    response = requests.get(url, headers=headers)
    text = response.text
    html = etree.HTML(text)
    questions = html.xpath('//h1[@class="yh"]/i/text()')[0]
    data['question'] = questions
    try:
        cities = ''.join(html.xpath('//div[contains(@class, "psot_wrap_first")]//div[@class="user_info"]/ul//li//a[@class="dblue"]//text()')).split()[1]
    except Exception:
        pass
    data['city'] = cities
    print(data)
    data_list.append(data)
    csv_()


保存入库:

def csv_():
    headers = [ 'question', 'city']
    with open('question.csv', 'w', encoding='gbk', newline='')as fb:
        writer = csv.DictWriter(fb, headers)
        writer.writeheader()
        writer.writerows(data_list)

数据采集就完毕了!!!


2.接下来进行数据可视化

词云:


“紧张”, “靠边”, “转弯”, “技巧”, “教练”等,都是考生关注的!!!


代码:

import jieba
import wordcloud
import matplotlib.pyplot as plt
f = open('question.csv', 'r', encoding='utf-8')
t = f.read()
f.close()
lis = jieba.lcut(t)
txt = " ".join(lis)
w = wordcloud.WordCloud( width=1000, font_path='C:\Windows\Fonts\simfang.ttf', height=700)
w.generate("  ".join(jieba.lcut(txt))).to_file('cloud111.png')
plt.imshow(w)
plt.axis("off")
plt.show()


地区分布:

主要通过提取City这个字段。Python中的地图可视化主要通过Basemap模块,这个模块需要从国外网站下载地图信息,使用起来非常的不便。百度的ECharts在前端使用的比较多,虽然社区里提供了pyecharts项目,可我注意到因为政策的改变,目前Echarts不再支持导出地图的功能,所以地图的定制方面目前依然是一个问题。

主流的技术方案是配置全国各省市的JSON数据,这里使用的是BDP个人版,这是一个零编程的方案,我们通过Python导出一个CSV文件,然后将其上传到BDP中,通过简单拖拽就可以制作可视化地图,简直不能再简单。


考生主要集中在广东省, 河南省和河北省。



03结果


其实科目三并不难呀, 前提是要好好练习!!!“熟能生巧”还是硬道理啊!!!


获取源码, 后台回复 【科三】

相关文章
|
4天前
|
SQL 分布式计算 数据可视化
Tableau与大数据:可视化工具在大数据分析中的应用
【4月更文挑战第8天】Tableau是一款领先的数据可视化工具,擅长于大数据分析,提供广泛的数据连接器,支持多源整合。它与Hadoop、Spark等深度集成,实现高效大数据处理。Tableau的拖拽式界面和交互式分析功能使得非技术人员也能轻松探索数据。在实战中,Tableau用于业务监控、数据storytelling和自助式分析,推动数据民主化,提升决策效率。未来,Tableau将持续创新,扩展生态系统,并保障数据安全与合规性,助力企业最大化数据价值。
44 0
|
4天前
|
存储 消息中间件 监控
【Flume】Flume在大数据分析领域的应用
【4月更文挑战第4天】【Flume】Flume在大数据分析领域的应用
|
4天前
|
供应链
代采系统如何利用大数据分析优化采购决策?
代采系统可以利用大数据分析来优化采购决策
|
4天前
|
Cloud Native 数据处理 云计算
探索云原生技术在大数据分析中的应用
随着云计算技术的不断发展,云原生架构作为一种全新的软件开发和部署模式,正逐渐引起企业的广泛关注。本文将探讨云原生技术在大数据分析领域的应用,介绍其优势与挑战,并探讨如何利用云原生技术提升大数据分析的效率和可靠性。
|
4天前
|
存储 消息中间件 大数据
Go语言在大数据处理中的实际应用与案例分析
【2月更文挑战第22天】本文深入探讨了Go语言在大数据处理中的实际应用,通过案例分析展示了Go语言在处理大数据时的优势和实践效果。文章首先介绍了大数据处理的挑战与需求,然后详细分析了Go语言在大数据处理中的适用性和核心技术,最后通过具体案例展示了Go语言在大数据处理中的实际应用。
|
4天前
|
数据采集 运维 数据挖掘
API电商接口大数据分析与数据挖掘 (商品详情店铺)
API接口、数据分析以及数据挖掘在商品详情和店铺相关的应用中,各自扮演着重要的角色。以下是关于它们各自的功能以及如何在商品详情和店铺分析中协同工作的简要说明。
|
4天前
|
存储 分布式计算 算法
【底层服务/编程功底系列】「大数据算法体系」带你深入分析MapReduce算法 — Shuffle的执行过程
【底层服务/编程功底系列】「大数据算法体系」带你深入分析MapReduce算法 — Shuffle的执行过程
30 0
|
4天前
|
数据可视化 大数据 Python
python大数据分析处理
python大数据分析处理
14 0
|
4天前
|
机器学习/深度学习 人工智能 大数据
AI时代Python金融大数据分析实战:ChatGPT让金融大数据分析插上翅膀
AI时代Python金融大数据分析实战:ChatGPT让金融大数据分析插上翅膀
|
4天前
|
存储 机器学习/深度学习 数据采集
大数据处理与分析实战:技术深度剖析与案例分享
【5月更文挑战第2天】本文探讨了大数据处理与分析的关键环节,包括数据采集、预处理、存储、分析和可视化,并介绍了Hadoop、Spark和机器学习等核心技术。通过电商推荐系统和智慧城市交通管理的实战案例,展示了大数据在提高用户体验和解决实际问题上的效能。随着技术进步,大数据处理与分析将在更多领域发挥作用,推动社会进步。

热门文章

最新文章