简单爬取——爬取电影详情页

简介: 简单使用

紧接上回我们爬取了电影的列表页,我们也获得了所有详情页的URL,下一步就是解析详情页并提取到我们想要的信息,观察详情页的网页结构,我们想要的内容和对应的结点信息如下。
封面:是一个img结点。其class属性为over
名称:是一个h2结点,其内容是电影名称
类别:是span结点,其内容是电影类别。span结点的外侧是button结点,再外侧的class为categories的div结点。
上映时间:是span结点,其内容包含上映时间,外侧是class为info的div结点。
评分:是一个p结点,其内容便是电影评分。p结点的class属性为score。
剧情简介:是一个p结点,其内容便是剧情简介,其外侧是class为drama的div结点。

详情页的爬取

def scape_detail(url):

return scrape_page(url)

很简单

详情页的解析

def parse_detail(html):

cover_pattern=re.compile('class="item.*?<img.*?src="(.*?)".*?class="cover">',re.S)
cover=re.search(cover_pattern,html).group(1).strip() if re.search(cover_pattern,html) else None
name_pattern=re.compile('<h2.*?>(.*?)</h2>')
name=re.search(name_pattern,html).group(1).strip() if re.search(name_pattern,html) else None
published_at_pattern=re.compile('(\d{4}-\d{2}-\d{2}).*?上映')
published=re.search(published_at_pattern,html).group(1).strip() if re.search(published_at_pattern,html) else None
return {
    "cover":cover,
    "name":name,
    "published":published

}  

我们根据字典和正则表达式来完成对详情页的提取与分析 。

main方法

def main():

for page in range(1,TOTAL_PAGE+1):
    index_html=scrape_index(page)
    detail_urls=parse_index(index_html)
    # logging.info("detail urls %s",list(detail_urls))
    for detail_url in detail_urls:
        detail_html=scape_detail(detail_url)
        data=parse_detail(detail_html)
        logging.info("get detail data %s",data)
        save(data)

保存文件并对爬虫代码进行改良

保存数据方法的定义

import json
from os import makedirs
from os.path import exists
RESULTS_DIR='results'
exists(RESULTS_DIR) or makedirs(RESULTS_DIR)
def save(data):

name=data.get("name")
data_path=f'{RESULTS_DIR}/{name}.json'
json.dump(data,open(data_path,'w',encoding='utf-8'),ensure_ascii=False,indent=2)

多进程的改良

if __name__=="__main__":

pool=multiprocessing.Pool()
pages=range(1,TOTAL_PAGE+1)
pool.map(main,pages)
pool.close()
pool.join()

每次的的调用分别变成一个进程,加入进程池当中,进城池根据运行环境来决定多少个进程

相关文章
|
数据采集 机器学习/深度学习 算法
Matlab函数——mapminmax
Matlab函数——mapminmax
386 0
|
数据采集 Python
Python爬虫:设置随机 User-Agent
Python爬虫:设置随机 User-Agent
386 0
|
Android开发
我的Android进阶之旅------&gt;adbd cannot run as root in production builds 的解决方法
今天用adb root命令时候,报了错误:adbd cannot run as root in production builds C:\Documents and Settings\Administrator>adb root adbd cannot ...
4991 0
|
Ubuntu Unix Linux
在Linux中,Linux发行版有哪些?
在Linux中,Linux发行版有哪些?
|
数据采集 存储 JavaScript
(2024)豆瓣电影详情内容爬虫详解和源码
这是一个Python爬虫程序,用于抓取豆瓣电影详情页面如`https://movie.douban.com/subject/1291560/`的数据。它首先发送GET请求,使用PyQuery解析DOM,然后根据`&lt;br&gt;`标签分割HTML内容,提取电影信息如导演、演员、类型等,并将中文键转换为英文键存储在字典中。完整代码包括请求、解析、数据处理和测试部分。当运行时,会打印出电影详情,如导演、演员列表、类型、时长等。
360 1
 (2024)豆瓣电影详情内容爬虫详解和源码
|
持续交付 Python
解决Python执行命令时路径空格引发的困扰
在Python编程中,执行含空格的系统路径可能导致命令执行失败。本文介绍了三种解决方法:1) 使用引号包裹路径;2) 转义空格字符;3) 利用`os`模块的`normpath`或`join`处理路径。推荐使用`subprocess`模块以获得更精确的命令控制。最佳实践包括避免路径空格、使用`os.path.join()`构建路径及充分测试。
|
消息中间件 存储 运维
RabbitMQ-消息消费时的可靠性保障
将这些实践融入到消息消费的处理逻辑中,可以很大程度上保障RabbitMQ中消息消费的可靠性,确保消息系统的稳定性和数据的一致性。这些措施的实施,需要在系统的设计和开发阶段充分考虑,以及在后续的维护过程中不断的调整和完善。
214 0
|
数据采集 存储 JavaScript
使用Python截取网页内容的综合指南
使用Python截取网页内容的综合指南
509 1
|
数据可视化 Go
|
Linux
Linux命令(82)之wget
Linux命令(82)之wget
246 0