第103篇Python:Python爬虫系列之书籍爬取,细节拉满

简介: 第103篇Python:Python爬虫系列之书籍爬取,细节拉满

前言
大家好,我是辣条。

不知不觉写了有103篇博文了,辣条以后尽量给大家带上编号,这样方便大家后续查阅,毕竟很多人都是放在收藏里起灰,方便你们后续查找的话你们直接看编号就简单多了。这样你们也可以放心收藏起来了

今天给大家继续爬虫系列,切记不能沉迷,另外也不要轻易模仿。 可以收藏研究一下技术点学长还是特别支持的

目录
前言
一,开发环境
二,程序分析&代码实现
三,项目总结
一,开发环境
​ python3.7

​ pycharm

二,程序分析&代码实现

​ 首先获取它的页面资源:

import requests
from lxml import etree

资源地址

url = ' 地址'

请求头

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.82 Safari/537.36'

}

页面响应

response = requests.get(url=url,headers=headers)

数据转换

data = etree.HTML(response.text)
1
2
3
4
5
6
7
8
9
10
11
12
​ 接下来通过页面解析拿到所有的书:

获取到排行榜所有书

book_info_list = data.xpath('//div[@class="item"]')
1
2
进入模块可以发现所有书的详情页面都是放在该路径下:

那么我们可以筛选,拿到path进行拼接:

for book_info in book_info_list:

#拿到path
page_id = book_info.xpath('div[@class="image"]/a/@href')[0]
#拼接到主域名下
url = url[0:19] + page_id

1
2
3
4
5
在详情页面看到有个下载链接,这样可以省了很大的功夫,通过页面来分析:

可以看到它的下载url,是传了参数跟书名过去的,那么可以获取到该链接并且拼接这样就拿到了下载链接,同时拿到书的名字作为下载备用:

for book_info in book_info_list:

#拿到path
page_id = book_info.xpath('div[@class="image"]/a/@href')[0]
#拼接到主域名下
url = url[0:19] + page_id

#获取详情页面
response = requests.get(url=url,headers=headers)
info_page = etree.HTML(response.text)
#拿到下载path
download_url = info_page.xpath('//div[@class="readbtn"]/a/@href')[2]
#拼接url
download_url = url[0:19] + download_url
#拿到书名字
book_name = download_url.split('=')[2]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
接下来对下载链接发起请求,通过文件I/O写入本地:

boo_txt = requests.get(url=download_url,headers=headers)
with open('book/%s.txt'%book_name,'w',encoding='utf-8') as f:
    f.write(boo_txt.text)

1
2
3
让我们来看看结果:

这样就拿到了排行榜的所有书了,非常的方便快捷。

三,项目总结
首先要去手动分析下载的路径步骤,然后将这些步骤用代码一一实现就好啦。轻轻松松又简简单单

这样就拿到了排行榜的所有小说了,非常的方便快捷。 另外还有之前的一些源码啥的都可以在底下的小卡片找我拿,还有一些我之前用的书,脑图路线,视频啥的,都快放不下了~

目录
相关文章
|
8天前
|
数据采集 XML 数据处理
使用Python实现简单的Web爬虫
本文将介绍如何使用Python编写一个简单的Web爬虫,用于抓取网页内容并进行简单的数据处理。通过学习本文,读者将了解Web爬虫的基本原理和Python爬虫库的使用方法。
|
8天前
|
数据采集 中间件 Python
Scrapy爬虫:利用代理服务器爬取热门网站数据
Scrapy爬虫:利用代理服务器爬取热门网站数据
|
6天前
|
数据采集 数据挖掘 Python
使用Python构建简单网页爬虫的技术指南
【5月更文挑战第17天】使用Python构建简单网页爬虫的教程,涉及`requests`和`BeautifulSoup4`库。首先安装所需库,然后发送HTTP GET请求获取HTML内容。利用`BeautifulSoup`解析HTML,找到目标元素,如`<h2>`标签内的新闻标题。处理相对链接,将它们转化为绝对URL。添加异常处理以应对网络问题,同时遵循网站的`robots.txt`规则。此爬虫适用于数据分析和市场研究等场景。
|
8天前
|
数据采集 Web App开发 数据处理
Lua vs. Python:哪个更适合构建稳定可靠的长期运行爬虫?
Lua vs. Python:哪个更适合构建稳定可靠的长期运行爬虫?
|
8天前
|
数据采集 Web App开发 Java
Python 爬虫:Spring Boot 反爬虫的成功案例
Python 爬虫:Spring Boot 反爬虫的成功案例
|
8天前
|
数据采集 Python
使用Python实现简单的Web爬虫
本文将介绍如何使用Python编写一个简单的Web爬虫,用于抓取网页上的信息。通过分析目标网页的结构,利用Python中的requests和Beautiful Soup库,我们可以轻松地提取所需的数据,并将其保存到本地或进行进一步的分析和处理。无论是爬取新闻、股票数据,还是抓取图片等,本文都将为您提供一个简单而有效的解决方案。
|
8天前
|
数据采集 存储 XML
如何利用Python构建高效的Web爬虫
本文将介绍如何使用Python语言以及相关的库和工具,构建一个高效的Web爬虫。通过深入讨论爬虫的基本原理、常用的爬虫框架以及优化技巧,读者将能够了解如何编写可靠、高效的爬虫程序,实现数据的快速获取和处理。
|
8天前
|
数据采集 Web App开发 iOS开发
爬取B站评论:Python技术实现详解
爬取B站评论:Python技术实现详解
|
8天前
|
数据采集 Web App开发 数据可视化
Python爬虫技术与数据可视化:Numpy、pandas、Matplotlib的黄金组合
Python爬虫技术与数据可视化:Numpy、pandas、Matplotlib的黄金组合
|
8天前
|
数据采集 存储 大数据
Python爬虫:数据获取与解析的艺术
本文介绍了Python爬虫在大数据时代的作用,重点讲解了Python爬虫基础、常用库及实战案例。Python因其简洁语法和丰富库支持成为爬虫开发的优选语言。文中提到了requests(发送HTTP请求)、BeautifulSoup(解析HTML)、Scrapy(爬虫框架)、Selenium(处理动态网页)和pandas(数据处理分析)等关键库。实战案例展示了如何爬取电商网站的商品信息,包括确定目标、发送请求、解析内容、存储数据、遍历多页及数据处理。最后,文章强调了遵守网站规则和尊重隐私的重要性。
32 2