Python爬虫实战(4) | 爬取历年中国电影票房排行榜

简介: 看了看后台,发现之前写的几篇有关爬虫实战的文章特别受欢迎,阅读量都是好几千那种然后回头发现自己好久没写爬虫了,刚好写了个小小的爬虫 demo ,今天分享给大家

附上官网地址

中国历年电影票房(http://www.boxofficecn.com/boxofficecn)

需求分析

我们先来看一下需求

  1. 获取自1994年至2022年之间,各年度的大陆票房情况,包括电影名称和票房总额
  2. 各个年度的电影票房情况分别保存至以本年度为名称的CSV文件,例如2022年电影票房数据保存到2022.csv

我们发现,中国历年来的电影票房都对应着一个 url,而且这个 url 是有规律的

例如:

1994年的中国大陆电影票房网址:http://www.boxofficecn.com/boxoffice1994

1995年的中国大陆电影票房网址:http://www.boxofficecn.com/boxoffice1995

网页分析

在知道了网址的规律之后,我们对网页进行一下分析

我们按 F12 进入网页代码查看器,当前页面的代码结构如下图
image-20221214110757437.png
可以看到电影的信息都存放在

年份、票房、电影名称以及序号都在

标签里面

代码实现

既然知道了我们要获取的信息的所在标签中,那么就开始我们的爬取过程吧!

需要导入的库文件

import requests
import bs4

将当前网页获取下来

注意:因为网页中含有中文字符,所以我们在下载网页源码之前先看下它的编码格式,输入当前网页的编码格式 print(res.encoding)

可以看到是 UTF-8 编码格式,所以我们将网页源码获取之后要对其进行编码 encode('UTF-8')

def get_web(url):
    header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36 Edg/91.0.864.59"}
    res = requests.get(url, headers=header, timeout=5)
    # 查看当前网页的编码格式
    print(res.encoding)

    #对网页源码进行编码
    content = res.text.encode('UTF-8')
    return content

从网页源码中获取所需标签信息

将网页下载获取下来之后,我们使用 bs4 模块来进行解析并获取我们所需要的数据信息

soup = bs4.BeautifulSoup(content, 'lxml')
movie_list = soup.find_all('tr', attrs={'align': 'left'})

这里我定义了一个 movie_list 去存放票房信息

image-20221214111940476.png
可以看到 movie_list 是一个 bs4.element.ResultSet 对象,我们需要对其进行遍历才能获得里面的元素

print(type(movie_list))

##结果
<class 'bs4.element.ResultSet'>

信息处理

遍历获取 movie_list 中的元素并且对其进行处理,然后存放到列表 list 中

list = []
for i in movie_list:
    i = i.text.split('\n')
    i = i[1:len(i)-1]
    list.append(i)

list 中的元素如下所示:

[['1', '1995', '真实的谎言', '10300'], ['2', '1995', '红番区', '9500'], ['3', '1995', '阳光灿烂的日子', '5000'], ['4', '1995', '虎胆龙威3', '4700'], ['5', '1995', '狮子王(1994)', '4130'], ['6', '1995', '红粉', '4000'], ['7', '1995', '红樱桃', '4000'], ['8', '1995', '生死时速', '3780'], ['9', '1995', '七七事变', '3300'], ['10', '1995', '绝地战警', '3280'], ['11', '1995', '阿甘正传', '1960']]

接着我们将 list 中的内容以键值对的形式保存,方便信息的阅读性

我们以电影序号作为唯一的key

dic = {}
for i in list:
    dic[i[0]] = {'年份': i[1], '电影名称': i[2], '票房(万元)': i[3]}
return dic

数据保存

我们将字典中的内容保存到本地的 csv 文件中

def data_save(dic,year):
    file_name = 'D:\movie\\' + str(year) + '.csv'
    with open(file_name, 'w+') as f:
        f.write('序号,年份,电影名称,票房(万元)\n')
        for k, v in dic.items():
            f.write(k+','+v['年份']+','+v['电影名称']+','+v['票房(万元)']+'\n')

补充:

def data_save(dic,year):
    file_name = 'D:\movie\\' + str(year) + '.csv'
    with open(file_name, 'w+') as f:
        f.write('序号,年份,电影名称,票房(万元)\n')
        for k, v in dic.items():
            f.write(k+','+v['年份']+','+v['电影名称']+','+v['票房(万元)']+'\n')

刚开始用上面这段代码实现的时候报错

UnicodeEncodeError: 'gbk' codec can't encode character u'\xa0' in position 12:illegal multibyte sequence

出现 UnicodeEncodeError ,说明是 Unicode 编码问题, ‘gbk’ codec can’t encode character –> 说明是将Unicode字符编码为GBK时候出现的问题;

此时,往往最大的可能就是,本身Unicode类型的字符中,包含了一些无法转换为GBK编码的一些字符

unicode中的‘\xa0’字符在转换成gbk编码时会出现问题,gbk无法转换'\xa0'字符。
所以,在转换的时候必需进行一些前置动作,例如将这些字符替换成空格

.replace(u'\xa0', u' ')  

后面在演示的时候分别又报了如下报错

UnicodeEncodeError: 'gbk' codec can't encode character '\u200e' in position 13: illegal multibyte sequence


UnicodeEncodeError: 'gbk' codec can't encode character '\u200b' in position 13: illegal multibyte sequence

有了上面的经验,我们只需要把对应无法转换的字符替换成空格即可

replace(u'\u200b', u' ')

replace(u'\u200e', u' ')

最后代码如下所示:

def get_content(url):
    content = get_web(url)
    list = parse_content(content)
    dic = {}
    for i in list:
        i[1] = i[1].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ')
        i[2] = i[2].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ')
        i[3] = i[3].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ')
        dic[i[0]] = {'年份': i[1], '电影名称': i[2], '票房(万元)': i[3]}
    return dic

结果展示
image-20221214113141351.png
image-20221214113158609.png
image-20221214133807742.png

  • 完整代码
import requests
import bs4

'''
去访问对应的网页并将网页源码下载下来
需要注意网页的编码格式
'''
def get_web(url):
    header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36 Edg/91.0.864.59"}
    res = requests.get(url, headers=header, timeout=5)
    # 查看当前网页的编码格式
    # print(res.encoding)

    #对网页源码进行编码
    content = res.text.encode('UTF-8')
    return content

'''
对下载下来的网页源码进行解析,然后获取指定内容并存放到一个列表里
'''
def parse_content(content):
    soup = bs4.BeautifulSoup(content, 'lxml')
    movie_list = soup.find_all('tr', attrs={'align': 'left'})
    list = []
    for i in movie_list:
        i = i.text.split('\n')
        i = i[1:len(i)-1]
        list.append(i)

    return list

'''
将列表中的内容转换成字典,以键值对的形式存放
'''
def get_content(url):
    content = get_web(url)
    list = parse_content(content)
    dic = {}
    for i in list:
        i[1] = i[1].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ')
        i[2] = i[2].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ')
        i[3] = i[3].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ')
        dic[i[0]] = {'年份': i[1], '电影名称': i[2], '票房(万元)': i[3]}
    return dic

'''
数据保存
'''
def data_save(dic,year):
    file_name = 'D:\movie\\' + str(year) + '.csv'
    with open(file_name, 'w+') as f:
        f.write('序号,年份,电影名称,票房(万元)\n')
        for k, v in dic.items():
            f.write(k+','+v['年份']+','+v['电影名称']+','+v['票房(万元)']+'\n')


if __name__ == '__main__':
    url = 'http://www.boxofficecn.com/boxoffice'
    for year in range(1994, 2023):
        new_url = url + str(year)
        dic = get_content(new_url)
        print('_____开始获取%s年的票房信息______' %(year))
        data_save(dic, year)
        print('_____获取完成!______')
import requests
import bs4
import sys
import time

'''
根据url访问对应的网页并将网页源码下载下来
'''
def webDownload(year):
    headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
    url = 'http://www.boxofficecn.com/boxoffice'+str(year)
    response = requests.get(url, headers=headers, timeout=4)
    content = response.text.encode('UTF-8')
    return content


'''
对爬取到的网页内容进行处理——解析和转换成字典形式
'''
def processContent(year):
    content = webDownload(year)

    movie_list = []
    soup = bs4.BeautifulSoup(content, 'lxml')
    list = soup.find_all('tr', attrs={'align': 'left'})
    for i in list:
        movie_list.append(i.text.split('\n')[1:-1])

    movie_dic = {}
    for i in movie_list:
        i[1] = i[1].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ')
        i[2] = i[2].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ')
        i[3] = i[3].replace(u'\xa0', u' ').replace(u'\u200b', u' ').replace(u'\u200e', u' ').replace('–', 'null')
        movie_dic[i[0]] = {'年份': i[1], '电影名称': i[2], '票房(万元)': i[3]}
    return movie_dic


'''
将获取到的历年大陆票房数据保存到本地csv文件
'''
def data2csv(dic,year):
    file_name = 'E:\\movie\\' + str(year) + '.csv'
    with open(file_name, 'w+') as file:
        file.write('名次,年份,电影名称,票房(万元)\n')
        for k, v in dic.items():
            file.write(k+','+v['年份']+','+v['电影名称']+','+v['票房(万元)']+'\n')


if __name__ == '__main__':
    for year in range(1994, 2023):
        dic = processContent(year)
        print('\n_____开始获取%s年的票房信息______' %(year))
        data2csv(dic, year)
        for i in range(1, 101):
            print("\r", end="")
            print("进度: {}%: ".format(i), "▓" * (i // 2), end="")
            sys.stdout.flush()
            time.sleep(0.05)
    print('\n获取完成!')
相关文章
|
14天前
|
数据采集 存储 API
网络爬虫与数据采集:使用Python自动化获取网页数据
【4月更文挑战第12天】本文介绍了Python网络爬虫的基础知识,包括网络爬虫概念(请求网页、解析、存储数据和处理异常)和Python常用的爬虫库requests(发送HTTP请求)与BeautifulSoup(解析HTML)。通过基本流程示例展示了如何导入库、发送请求、解析网页、提取数据、存储数据及处理异常。还提到了Python爬虫的实际应用,如获取新闻数据和商品信息。
|
18天前
|
数据采集 Python
【python】爬虫-西安医学院-校长信箱
本文以西安医学院-校长信箱为基础来展示爬虫案例。来介绍python爬虫。
【python】爬虫-西安医学院-校长信箱
|
19天前
|
存储 缓存 JavaScript
python实战篇:利用request库打造自己的翻译接口
python实战篇:利用request库打造自己的翻译接口
31 1
python实战篇:利用request库打造自己的翻译接口
|
24天前
|
数据采集 安全 Python
python并发编程:Python实现生产者消费者爬虫
python并发编程:Python实现生产者消费者爬虫
25 0
python并发编程:Python实现生产者消费者爬虫
|
5天前
|
API 数据库 数据安全/隐私保护
Flask框架在Python面试中的应用与实战
【4月更文挑战第18天】Django REST framework (DRF) 是用于构建Web API的强力工具,尤其适合Django应用。本文深入讨论DRF面试常见问题,包括视图、序列化、路由、权限控制、分页过滤排序及错误处理。同时,强调了易错点如序列化器验证、权限认证配置、API版本管理、性能优化和响应格式统一,并提供实战代码示例。了解这些知识点有助于在Python面试中展现优秀的Web服务开发能力。
22 1
|
3天前
|
人工智能 Python
【AI大模型应用开发】【LangChain系列】实战案例1:用LangChain写Python代码并执行来生成答案
【AI大模型应用开发】【LangChain系列】实战案例1:用LangChain写Python代码并执行来生成答案
7 0
|
4天前
|
数据采集 存储 JSON
Python爬虫面试:requests、BeautifulSoup与Scrapy详解
【4月更文挑战第19天】本文聚焦于Python爬虫面试中的核心库——requests、BeautifulSoup和Scrapy。讲解了它们的常见问题、易错点及应对策略。对于requests,强调了异常处理、代理设置和请求重试;BeautifulSoup部分提到选择器使用、动态内容处理和解析效率优化;而Scrapy则关注项目架构、数据存储和分布式爬虫。通过实例代码,帮助读者深化理解并提升面试表现。
13 0
|
5天前
|
SQL 中间件 API
Flask框架在Python面试中的应用与实战
【4月更文挑战第18天】**Flask是Python的轻量级Web框架,以其简洁API和强大扩展性受欢迎。本文深入探讨了面试中关于Flask的常见问题,包括路由、Jinja2模板、数据库操作、中间件和错误处理。同时,提到了易错点,如路由冲突、模板安全、SQL注入,以及请求上下文管理。通过实例代码展示了如何创建和管理数据库、使用表单以及处理请求。掌握这些知识将有助于在面试中展现Flask技能。**
12 1
Flask框架在Python面试中的应用与实战
|
6天前
|
SQL 关系型数据库 MySQL
Python与MySQL数据库交互:面试实战
【4月更文挑战第16天】本文介绍了Python与MySQL交互的面试重点,包括使用`mysql-connector-python`或`pymysql`连接数据库、执行SQL查询、异常处理、防止SQL注入、事务管理和ORM框架。易错点包括忘记关闭连接、忽视异常处理、硬编码SQL、忽略事务及过度依赖低效查询。通过理解这些问题和提供策略,可提升面试表现。
26 6
|
7天前
|
数据采集 JavaScript 前端开发
使用Python打造爬虫程序之破茧而出:Python爬虫遭遇反爬虫机制及应对策略
【4月更文挑战第19天】本文探讨了Python爬虫应对反爬虫机制的策略。常见的反爬虫机制包括User-Agent检测、IP限制、动态加载内容、验证码验证和Cookie跟踪。应对策略包括设置合理User-Agent、使用代理IP、处理动态加载内容、验证码识别及维护Cookie。此外,还提到高级策略如降低请求频率、模拟人类行为、分布式爬虫和学习网站规则。开发者需不断学习新策略,同时遵守规则和法律法规,确保爬虫的稳定性和合法性。