国足晋级12强 | 爬取《NBA30支球队》“现役球员信息”,再来看看篮球吧!

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
RDS MySQL DuckDB 分析主实例,集群系列 8核16GB
简介: 国足晋级12强 | 爬取《NBA30支球队》“现役球员信息”,再来看看篮球吧!

1. 页面分析

我爬取的页面是腾讯体育,链接如下:

https://nba.stats.qq.com/player/list.htm

image.png

观察上图:左边展示的分别是NBA的30支球队,右边就是每只球队对应球员的详细信息。


此时思路就很清晰了,我们每点击一支球员,右侧就会出现该球队的球员信息。


整个爬虫思路简化如下:


① 获取每支球员页面的url;

② 利用Python代码获取每个网页中的数据;

③ 将获取到的数据,整理后存储至不同的数据库;

那么,现在要做的就是找到每支球员页面的url,去发现它们的关联。


我们每点击一支球队,复制它的url,下面我复制了三支球队的页面url,如下所示:


# 76人
https://nba.stats.qq.com/player/list.htm#teamId=20
# 火箭
https://nba.stats.qq.com/player/list.htm#teamId=10
# 热火
https://nba.stats.qq.com/player/list.htm#teamId=14


观察上述url,可以发现:url基本一模一样,除了参数teamId对应的数字不一样,完全可以猜测出,这就是每支球队对应的编号,30支球队30个编号。


只要是涉及到“腾讯”二字,基本都是动态网页,我之前碰到过好多次。基础方法根本获取不到数据,不信可以查看网页源码试试:点击鼠标右键——>点击查看网页源代码。

image.png

接着,将网页中的某个数据(你要获取的)复制,然后再源代码页面中,点击crtl + f,调出“搜索框”,将复制的数据粘贴进去。如果和上图一样,出现0条记录,则基本可以判断该网页属于动态网页,直接获取源码,一定找不到你要的数据。


因此如果你想要获取页面中的数据,使用selenuim自动化爬虫,是其中一种办法。


2. 数据爬取

关于selenium的的使用配置,我在一篇文章中详细讲述过,贴上这个链接供大家参考:

https://mp.weixin.qq.com/s/PUPmpbiCJqRW8Swr1Mo2UQ


我喜欢用xpath,对于本文数据的获取,我都将使用它。关于xpath的使用,那就是另一篇文章了,这里就不详细讲述。


说了这么多,咋们直接上代码吧!【代码中会有注释】


from selenium import webdriver
# 创建浏览器对象,该操作会自动帮我们打开Google浏览器窗口
browser = webdriver.Chrome()
# 调用浏览器对象,向服务器发送请求。该操作会打开Google浏览器,并跳转到“百度”首页
browser.get("https://nba.stats.qq.com/player/list.htm#teamId=20")
# 最大化窗口
browser.maximize_window()
# 获取球员中文名
chinese_names = browser.find_elements_by_xpath('//div[@class="players"]//tr[@class="show"]/td[2]/a')
chinese_names_list  = [i.text for i in chinese_names]
# 获取球员英文名
english_names = browser.find_elements_by_xpath('//div[@class="players"]//tr[@class="show"]/td[3]/a')
english_names_list = [i.get_attribute('title') for i in english_names] # 获取属性
# 获取球员号码
numbers = browser.find_elements_by_xpath('//div[@class="players"]//tr[@class="show"]/td[4]')
numbers_list = [i.text for i in numbers_list]
# 获取球员位置
locations = browser.find_elements_by_xpath('//div[@class="players"]//tr[@class="show"]/td[5]')
locations_list = [i.text for i in locations_list]
# 获取球员身高
heights = browser.find_elements_by_xpath('//div[@class="players"]//tr[@class="show"]/td[6]')
heights_list = [i.text for i in heights_list]
# 获取球员体重
weights = browser.find_elements_by_xpath('//div[@class="players"]//tr[@class="show"]/td[7]')
weights_list = [i.text for i in weights_list]
# 获取球员年龄
ages = browser.find_elements_by_xpath('//div[@class="players"]//tr[@class="show"]/td[8]')
ages_list = [i.text for i in ages_list]
# 获取球员球龄
qiu_lings = browser.find_elements_by_xpath('//div[@class="players"]//tr[@class="show"]/td[9]')
qiu_lings_list = [i.text for i in qiu_lings_list]


这里只爬取了一支球队,剩下29支球队球员数据的爬取任务交给你们。整个代码部分,基本上大同小异,我写了一个,你们照葫芦画瓢。【就一个循环,还不简单呀!】


3. 存储至txt

将数据保存到txt文本的操作非常简单,txt几乎兼容所有平台,唯一的缺点就是不方便检索。要是对检索和数据结构要求不高,追求方便第一的话,请采用txt文本存储。


注意:txt中写入的是str字符串。


txt文档写入数据的规则是这样的:从头开始,从左至右一直填充。当填充至最右边后,会被挤到下一行。因此,如果你想存入的数据规整一点,可以自动填入制表符“\t”和换行符“\n”。


以本文为例,将获取到的数据,存储到txt文本中。


for i in zip(chinese_names_list,english_names_list,numbers_list,locations_list,heights_list,weights_list,ages_list,qiu_lings_list):
    with open("NBA.txt","a+",encoding="utf-8") as f:
        # zip函数,得到的是一个元组,我们需要将它转换为一个字符串
        f.write(str(i)[1:-1])
        # 自动换行,好写入第2行数据
        f.write("\n")
        f.write("\n")


部分截图如下:

image.png


4. 存储至excel

excel有两种格式的文件,一种是csv格式,一种是xlsx格式。将数据保存至excel,当然是使用pandas库更方便。


import pandas as pd
# 一定要学会组织数据
df = pd.DataFrame({"中文名": chinese_names_list,
                   "英文名": english_names_list,
                   "球员号码": numbers_list,
                   "位置": locations_list,
                   "身高": heights_list,
                   "体重": weights_list,
                   "年龄": ages_list,
                   "球龄": qiu_lings_list})
# to_excel()函数
df.to_excel("NBA.xlsx",encoding="utf-8",index=None)


结果如下:

image.png


5. 存储至mysql

MySQL是一个关系型数据库,数据是采用类excel的二维表来保存数据的,即行、列组成的表,每一行代表一条记录,每一列代表一个字段。


关于Python操作MySQL数据库,我曾经写了一篇博客,大家可以参考以下:

http://blog.csdn.net/weixin_41261833/article/details/103832017


为了让大家更明白这个过程,我这里分布为大家讲解:


① 创建一个表nba

我们想要往数据库中插入数据,首先需要建立一张表,这里命名为nba。


import pymysql
# 1. 连接数据库
db = pymysql.connect(host='localhost',user='root', password='123456',port=3306, db='demo', charset='utf8')
# 2. 创建一个表
# 创建一个游标对象;
cursor = db.cursor()
# 建表语句;
sql = """
        create table NBA(
            chinese_names_list varchar(20),
            english_names_list varchar(20),
            numbers_list varchar(20),
            locations_list varchar(20),
            heights_list varchar(20),
            weights_list varchar(20),
            ages_list varchar(20),
            qiu_lings_list varchar(20)
        )charset=utf8
      """
# 执行sql语句;
cursor.execute(sql)
# 断开数据库的连接;
db.close()

② 往表nba中插入数据

import pymysql
# 1. 组织数据
data_list = []
for i in zip(chinese_names_list,english_names_list,numbers_list,locations_list,heights_list,weights_list,ages_list,qiu_lings_list):
    data_list.append(i)
# 2. 连接数据库
db = pymysql.connect(host='localhost',user='root', password='123456',port=3306, db='demo', charset='utf8')
# 创建一个游标对象;
cursor = db.cursor()
# 3. 插入数据
sql = 'insert into nba(chinese_names_list,english_names_list,numbers_list,locations_list,heights_list,weights_list,ages_list,qiu_lings_list) values(%s,%s,%s,%s,%s,%s,%s,%s)'
try:
    cursor.executemany(sql,data_list)
    db.commit()
    print("插入成功")
except:
    print("插入失败")
    db.rollback()
db.close()



结果如下:

image.png

相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。   相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情: https://www.aliyun.com/product/rds/mysql 
相关文章
|
机器学习/深度学习
基于PaddleGAN精准唇形合成模型实现美女表白视频
基于PaddleGAN精准唇形合成模型实现美女表白视频
1620 0
基于PaddleGAN精准唇形合成模型实现美女表白视频
|
12月前
|
前端开发 UED
游戏直播平台源码分享,功能对标虎牙斗鱼
熊猫比分开发的游戏直播平台,提供全面的电竞赛事直播与数据服务,涵盖LOL、DOTA2等热门项目。平台特色包括丰富的基础数据、详细的统计数据、最新的媒体资讯及优质的直播体验,如画中画功能和IM通讯模块,增强用户互动与粘性。
|
网络协议 网络架构
IP网络协议的深度讲解
IP协议作为互联网的基础,其设计的简洁性和强大功能使得全球范围内的网络通信成为可能。通过不断的发展和改进,尤其是IPv6的推广使用,IP协议将继续支持着日益增长的网络通信需求。了解IP协议的工作原理,对于任何网络技术的学习和应用都是基础且必要的。
380 0
|
存储 监控 供应链
一文讲透阿里商旅账单系统架构设计实践
阿里商旅作为飞猪旅行旗下面向企业客户的数字化差旅解决方案产品,依托飞猪旅行机票、酒店供应链为企业客户提供一站式的机票、酒店、火车票、用车等预订管控及结算票据服务。阿里商旅不仅是集团欢行的供应商,而且近几年在商业化差旅市场上崭露头角,服务了2万+中大型客户,43万+小微企业。
|
机器学习/深度学习 编解码 人工智能
|
编解码 人工智能 算法
如临现场的视觉感染力,NBA决赛直播还能这样看?
阿里云视频云联手百视TV,让NBA直播“降本又增效”
1138 1
如临现场的视觉感染力,NBA决赛直播还能这样看?
|
数据采集 数据可视化 Python
用Python爬取《王者荣耀》英雄皮肤数据并可视化分析,用图说话
带大家分析一波当前热门手游《王者荣耀》英雄皮肤,比如**皮肤上线时间**、**皮肤类型**(勇者;史诗;传说等)、**价格**。
1117 0
用Python爬取《王者荣耀》英雄皮肤数据并可视化分析,用图说话
|
存储 Web App开发 缓存
PWA 实践/应用(Google Workbox)
PWA(Progressive Web App – 渐进式网页应用)是一种理念,由 Google Chrome 在 2015 年提出。PWA 它不是特指某一项技术,而是应用多项技术来改善用户体验的 Web App,其核心技术包括 Web App Manifest、Service Worker、Web Push 等,用户体验才是 PWA 的核心。
3556 1
PWA 实践/应用(Google Workbox)
|
设计模式 算法 数据库
零代码以“王者荣耀”为例解析设计七原则,助你面试拿“五杀”
面试设计原则还在死记硬背?一文助你深入理解设计模式七大原则。
15432 0
零代码以“王者荣耀”为例解析设计七原则,助你面试拿“五杀”
|
SQL 消息中间件 存储
Flink 在米哈游的应用实践
米哈游大数据实时计算团队负责人张剑在 FFA 2022 主会场的分享。
Flink 在米哈游的应用实践