基于python的Scrapy爬虫框架实战

简介: 基于python的Scrapy爬虫框架实战2018年7月19日笔记1.伯乐在线网站页面如下图所示:网站页面.png1.1 新建爬虫工程命令:scrapy startproject BoleArticle新建爬虫工程命令命令:scrapy genspider article "blog.jobbole.com"注意:运行此命令时必须在爬虫工程文件夹内,如下图路径所示。

基于python的Scrapy爬虫框架实战


2018年7月19日笔记

1.伯乐在线

网站页面如下图所示:


网站页面.png
网站页面.png

1.1 新建爬虫工程

命令:scrapy startproject BoleArticle

新建爬虫工程命令
新建爬虫工程命令

命令: scrapy genspider article "blog.jobbole.com"
注意:运行此命令时必须在爬虫工程文件夹内,如下图路径所示。
新建爬虫文件命令
新建爬虫文件命令

1.2 编辑items.py文件

6个字段:title、publishTime、category、digest、detailUrl、img_url,数据类型为scrapy.Field对象

import scrapy
from scrapy import Field

class BolearticleItem(scrapy.Item):
    title = Field()
    publishTime = Field()
    category = Field()
    digest = Field()
    detailUrl = Field()
    img_url =Field()

1.3 编辑article.py文件

parse函数用于解析最大共有多少页,并将每一个目录页面的链接通过字符串拼接的方法传给下一级解析函数
scrapy.Request函数里面有2个参数:第1个参数数据类型是字符串,是下一级解析页面的url链接;
第2个参数数据类型是函数对象,是ArticleSpider里面函数的函数名。
parse1函数用于解析每一个目录页面的文章信息,共有6个字段:title、publishTime、category、digest、detailUrl、img_url,publishTime字段是通过正则表达式找到的,具体是使用re.search方法。其他字段通过xpath可以找到。

import scrapy
from ..items import BolearticleItem
import re

class ArticleSpider(scrapy.Spider):
    name = 'article'
    allowed_domains = ['blog.jobbole.com']
    start_urls = ['http://blog.jobbole.com/all-posts/']

    def parse(self, response):
        pageNum = response.xpath("//a[@class='page-numbers']/text()")[-1].extract()
        for i in range(1,int(pageNum)+1):
            url = "http://blog.jobbole.com/all-posts/page/{}/".format(i)
            yield scrapy.Request(url,callback=self.parse1)

    def parse1(self,response):
        def find(xpath, pNode=response):
            if len(pNode.xpath(xpath)):
                return pNode.xpath(xpath).extract()[0]
            else:
                return ''
        article_list = response.xpath("//div[@class='post floated-thumb']")
        for article in article_list:
            item = BolearticleItem()
            item['title'] = find("div[1]/a/@title",article)
            pTagStr = find("div[2]/p",article)
            item['publishTime'] = re.search("\d+/\d+/\d+",pTagStr).group(0)
            item['category'] = find("div[2]/p/a[2]/text()",article)
            item['digest'] = find("div[2]/span/p/text()",article)
            item['detailUrl'] = find("div[2]/p/a[1]/@href",article)
            item['img_url'] = find("div[1]/a/img/@src",article)
            yield item

1.4 编辑pipelines.py文件

在管道类初始化时,删除并新建表article1
下面一段代码中有2处需要修改:1.数据库名,第4行的变量database;2.数据库连接的密码,第8行的变量passwd
代码第28行变量insert_sql的数据类型是字符串,通过字符串拼接形成插入数据的sql语句。
理解变量fieldStr、valueStr形成过程的难点是字符串的join方法和推导式
每次插入数据后都执行self.conn.commit()

import pymysql
from time import time

def getConn(database ="bolearticle"):
    args = dict(
        host = 'localhost',
        user = 'root',
        passwd = '... your password',
        charset = 'utf8',
        db = database
    )
    return pymysql.connect(**args)

class BolearticlePipeline(object):
    startTime = time()
    conn = getConn()
    cursor = conn.cursor()
    drop_sql = "drop table if exists article1"
    cursor.execute(drop_sql)
    create_sql = "create table article1(title varchar(200) primary key,publishtime varchar(30)," \
                 "category varchar(30),digest varchar(500)," \
                 "detailUrl varchar(200),img_url varchar(200));"
    cursor.execute(create_sql)

    def process_item(self, item, spider):
        fieldStr = ','.join(['`%s`'%k for k in item.keys()])
        valuesStr = ','.join(['"%s"'%v for v in item.values()])
        insert_sql = "insert into article1(%s) values(%s)" %(fieldStr,valuesStr)
        self.cursor.execute(insert_sql)
        self.conn.commit()
        return item

1.5 编辑settings.py文件

关键点是最后3行要开启管道,CONCURRENT_REQUESTS变量设置为96能够较好利用多线程性能
ROBOTSTXT_OBEY设置为False,意思是不遵守爬虫协议,也称机器人协议。如果设置为True,即遵守爬虫协议,则可能访问受限。

BOT_NAME = 'BoleArticle'
SPIDER_MODULES = ['BoleArticle.spiders']
NEWSPIDER_MODULE = 'BoleArticle.spiders'
ROBOTSTXT_OBEY = False
CONCURRENT_REQUESTS = 96
ITEM_PIPELINES = {
   'BoleArticle.pipelines.BolearticlePipeline': 300,
}

1.6 运行结果

在命令行中运行命令:scrapy crawl article
查看数据库,结果截图如下:


图片.png-117.4kB
图片.png-117.4kB

2.网易新闻图片

网址:http://news.163.com/special/photo-search/#q=%E4%B8%AD%E5%9B%BD
用urllib.parse.unquote方法查看%E4%B8%AD%E5%9B%BD的中文对应字符,如下图所示:

图片.png-3.8kB
图片.png-3.8kB

网站页面如下图所示,需要爬取2400张图片:
图片.png-2954.8kB
图片.png-2954.8kB

2.1 新建爬虫工程

新建爬虫工程命令:scrapy startproject NeteasyImage
进入爬虫工程文件夹:cd .\NeteasyImage
新建爬虫文件命令:scrapy genspider image "news.163.com"

2.2 编辑items.py文件

3个字段:id、img_url、img_title

import scrapy
from scrapy import Field

class NeteasyimageItem(scrapy.Item):
    id = Field()
    img_url = Field()
    img_title = Field()

2.3 编辑image.py文件

image_number变量是下载图片的数量。
start_urls变量数据类型为列表,其中的每个元素的数据类型为字符串,是获取图片链接的请求url。
start_urls中的元素发出请求返回的内容为json类型的文本。
json.loads方法中有1个参数,参数数据类型为字符串,这个方法的作用可以把字符串转为字典,要求字符串必须以{开头,以}结束
对于下图的json文本来说,需要删除左边的var jsonres=,删除最后一个字符;
转化后的字典赋值给jsonLoad变量,jsonLoad['hits']数据类型为列表,当中有图片的链接,标题等。
id字段用来判断是第几张图。

图片.png-111.3kB
图片.png-111.3kB

import scrapy
import json
from ..items import NeteasyimageItem
class ImageSpider(scrapy.Spider):
    name = 'image'
    allowed_domains = ['netease.com']
    image_number = 2000
    urlBefore = "http://uvs.youdao.com/search?site=photogalaxy.163.com" \
                "&sort=time&channelid=&q=%E4%B8%AD%E5%9B%BD&length=100&start={}"
    start_urls = []
    for i in range(0, image_number, 100):
        start_urls.append(urlBefore.format(i))
    count = 0
    def parse(self, response):
        jsonStr = response.text.lstrip("var jsonres=").strip().strip(";")
        jsonLoad = json.loads(jsonStr)
        for image in jsonLoad['hits']:
            self.count += 1
            item = NeteasyimageItem()
            item['id'] = self.count
            item['img_title'] = image['setname']
            item['img_url'] = image['imgsrc']
            yield item

2.4 编辑settings.py文件

关键点是最后3行要开启管道,CONCURRENT_REQUESTS变量设置为96能够较好利用多线程性能
ROBOTSTXT_OBEY设置为False,意思是不遵守爬虫协议,也称机器人协议。如果设置为True,即遵守爬虫协议,则可能访问受限。

import os
BOT_NAME = 'NeteasyImage'
SPIDER_MODULES = ['NeteasyImage.spiders']
NEWSPIDER_MODULE = 'NeteasyImage.spiders'
ROBOTSTXT_OBEY = False
CONCURRENT_REQUESTS = 96
CONCURRENT_ITEMS = 200
IMAGES_STORE = os.getcwd() + '/images/'
ITEM_PIPELINES = {
   'NeteasyImage.pipelines.NeteasyimagePipeline': 300,
}

2.5 编辑pipelines.py文件

下面代码比较难懂的地方是item_completed函数中的results参数
results数据类型为列表,列表中的第一个元素为元组,元组中第一个元素result[0][0]数据类型为布尔,是下载结果是否成功。
result[0][1]是下载图片返回的一些信息,数据类型为字典,其中有3个键值对,3个键为url、path、checksum。格式如下所示。
{'url': 'http://img2.cache.netease.com/photo/0003/2016-07-18/t_BS95B1C900AJ0003.jpg', 'path':
'full/98979c89e2b5e6ef9926183dab4e8bf5a8efa8a4.jpg', 'checksum': '15d5231fcd77d81ddd58d7db6a07c1ce'}
url是下载图片的链接,path是下载图片保存的路径,checksum是下载图片的文件校验和。
用os.rename方法重命名图片文件。
from scrapy.pipelines.images import ImagesPipeline
import scrapy
from .settings import IMAGES_STORE as images_store
import os

class NeteasyimagePipeline(ImagesPipeline):
    def get_media_requests(self, item, info):
        yield scrapy.Request(item['img_url'])
    def item_completed(self, results, item, info):
        if results[0][0]:
            old_path = images_store + results[0][1]['path']
            fileName = "{}-{}.jpg".format(item['id'],item['img_title'])
            new_path = images_store + fileName
            os.rename(old_path,new_path)

2.6 运行结果

在命令行中运行命令:scrapy crawl image
查看图片保存的文件夹,如下图所示:


图片.png-641.4kB
图片.png-641.4kB
目录
相关文章
|
6月前
|
数据采集 Web App开发 数据安全/隐私保护
实战:Python爬虫如何模拟登录与维持会话状态
实战:Python爬虫如何模拟登录与维持会话状态
|
6月前
|
Java 数据处理 索引
(Pandas)Python做数据处理必选框架之一!(二):附带案例分析;刨析DataFrame结构和其属性;学会访问具体元素;判断元素是否存在;元素求和、求标准值、方差、去重、删除、排序...
DataFrame结构 每一列都属于Series类型,不同列之间数据类型可以不一样,但同一列的值类型必须一致。 DataFrame拥有一个总的 idx记录列,该列记录了每一行的索引 在DataFrame中,若列之间的元素个数不匹配,且使用Series填充时,在DataFrame里空值会显示为NaN;当列之间元素个数不匹配,并且不使用Series填充,会报错。在指定了index 属性显示情况下,会按照index的位置进行排序,默认是 [0,1,2,3,...] 从0索引开始正序排序行。
459 0
|
6月前
|
存储 Java 数据处理
(numpy)Python做数据处理必备框架!(一):认识numpy;从概念层面开始学习ndarray数组:形状、数组转置、数值范围、矩阵...
Numpy是什么? numpy是Python中科学计算的基础包。 它是一个Python库,提供多维数组对象、各种派生对象(例如掩码数组和矩阵)以及用于对数组进行快速操作的各种方法,包括数学、逻辑、形状操作、排序、选择、I/0 、离散傅里叶变换、基本线性代数、基本统计运算、随机模拟等等。 Numpy能做什么? numpy的部分功能如下: ndarray,一个具有矢量算术运算和复杂广播能力的快速且节省空间的多维数组 用于对整组数据进行快速运算的标准数学函数(无需编写循环)。 用于读写磁盘数据的工具以及用于操作内存映射文件的工具。 线性代数、随机数生成以及傅里叶变换功能。 用于集成由C、C++
535 1
|
7月前
|
数据采集 Web App开发 自然语言处理
新闻热点一目了然:Python爬虫数据可视化
新闻热点一目了然:Python爬虫数据可视化
|
6月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
639 0
|
6月前
|
Java 数据处理 索引
(numpy)Python做数据处理必备框架!(二):ndarray切片的使用与运算;常见的ndarray函数:平方根、正余弦、自然对数、指数、幂等运算;统计函数:方差、均值、极差;比较函数...
ndarray切片 索引从0开始 索引/切片类型 描述/用法 基本索引 通过整数索引直接访问元素。 行/列切片 使用冒号:切片语法选择行或列的子集 连续切片 从起始索引到结束索引按步长切片 使用slice函数 通过slice(start,stop,strp)定义切片规则 布尔索引 通过布尔条件筛选满足条件的元素。支持逻辑运算符 &、|。
333 0
|
6月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例
|
7月前
|
数据采集 存储 XML
Python爬虫技术:从基础到实战的完整教程
最后强调: 父母法律法规限制下进行网络抓取活动; 不得侵犯他人版权隐私利益; 同时也要注意个人安全防止泄露敏感信息.
966 19
|
6月前
|
数据采集 存储 JSON
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
|
6月前
|
数据采集 存储 JavaScript
解析Python爬虫中的Cookies和Session管理
Cookies与Session是Python爬虫中实现状态保持的核心。Cookies由服务器发送、客户端存储,用于标识用户;Session则通过唯一ID在服务端记录会话信息。二者协同实现登录模拟与数据持久化。

推荐镜像

更多