Scrapy爬取makepolo网站数据深入详解

简介: 题记之前对爬虫只是概念了解多,实战少。知道网上流行的有号称免费的八爪鱼等(实际导出数据收费)。大致知道,所有爬虫要实现爬取网页信息,需要定义正则匹配规则。

题记

之前对爬虫只是概念了解多,实战少。知道网上流行的有号称免费的八爪鱼等(实际导出数据收费)。

大致知道,所有爬虫要实现爬取网页信息,需要定义正则匹配规则。

这次,项目紧急,才知道“书到用时方恨少”,有限的理论知识是远远不够的。

首先,Google搜索了不同语言实现的开源爬虫,C++、Java、Python、Ruby等。由于C++写的过于庞大,Java代码不太熟。

Python虽也不熟悉,但看起来不费劲,并且,Python在爬虫领域有很大优势,值得深入研究。

其次,对比选型Python爬虫开源实现,主要包括:Scrapy、PyRailgun等。

最后,定选型。对比国内写的PyRailgun和Scrapy,不论从易用性、Git关注度、广泛性。Scrapy都有明显优势,研究的人非常多。

因此,本文从Scrapy爬取makepolo企业数据说起。


一、Scrapy爬虫使用概括步骤如下

1、创建新的Scrapy工程;

2、定义需要提取的Items;

3、写爬虫Spider用于爬取设定的站点,提取Items;

4、写Item Pipeline(管道),用来存储提取的Items。


二、Scrapy爬虫使用详解

前提:

1)爬虫目标网站:http://company.makepolo.com/shandong/

2)待爬取内容:以列表形式呈现的公司名称。

3)设备:centos 6.8

4)安装Scrapy参考步骤(目前最好用、快捷版本):

https://www.douban.com/group/topic/51645204/


第1步:创建马可波罗网站爬虫工程。

[root@yang scrapy_testing]# scrapy startproject scrapy_makepolo

New Scrapy project ‘scrapy_makepolo’, using template directory ‘/usr/local/lib/python2.7/site-packages/scrapy/templates/project’, created in:

/home/yang/spider_ycy/scrapy_testing/scrapy_makepolo


You can start your first spider with:

cd scrapy_makepolo

scrapy genspider example example.com


以上内容是提示信息,也就是说创建完毕以后,会形成如下树结构的工程路径:

[root@yang scrapy_testing]# tree scrapy_makepolo/

scrapy_makepolo/

├── scrapy.cfg ‘#工程的配置文件

└── scrapy_makepolo ‘#工程的Python模型,需要在此处导入代码

├── init.py

├── init.pyc

├── init.pyo

├── items.py ‘#工程 Items文件

├── pipelines.py ‘#工程 管道文件

├── settings.py ‘#工程 配置文件

├── settings.pyc

└── spiders ‘#放置爬虫的路径

├── example.py

├── init.py

├── init.pyc

└── init.pyo


第2步:定义你的Item

在items.py文件里定义在抓取网页内容中抽象出来的数据结构的定义,由于这里需要公司名称一个字段,所以,定义的Item结构如下:

[root@laoyang scrapy_makepolo]# cat items.py


'# -*- coding: utf-8 -*-


# Define here the models for your scraped items

#

# See documentation in:

# http://doc.scrapy.org/en/latest/topics/items.html


from scrapy import Item,Field


class ScrapyMakepoloItem(Item):

 # define the fields for your item here like:

 # name = scrapy.Field()

 companyName = Field() #公司名称

 pass

You have new mail in /var/spool/mail/root

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

第3步:定义爬虫规则等

1.Spiders是定义的类,scrapy用于爬取指定域名或者域名组信息。

2.需要定义用于下载的初始化URL列表,需要定义跟踪列表和解析页面内容以提取items的规则。

3.为了创建Spider,你需要定义scrapy.Spider子类,并需要定义如下的一些属性值:

1)name:用于标识Spider。该名称必须确保唯一性。

2)start_urls:爬虫需要爬取的起点Urls列表。

3)parse()方法:Spider方法,每个页面下载的Response对象是该方法的唯一参数。

该方法作用:解析response数据,并提取爬取的数据。

路径如下:


/home/yangcy/spider_ycy/scrapy_testing/scrapy_makepolo/scrapy_makepolo/spiders

[root@laoyang spiders]# ls -al

总用量 24

drwxr-xr-x 2 root root 4096 9月 8 14:20 .

drwxr-xr-x 3 root root 4096 9月 8 14:35 ..

-rw-r--r-- 1 root root 240 9月 8 14:20 example.py

-rw-r--r-- 1 root root 161 9月 7 15:50 __init__.py

-rw-r--r-- 1 root root 177 9月 8 14:20 __init__.pyc

-rw-r--r-- 1 root root 177 9月 7 16:04 __init__.pyo

1

2

3

4

5

6

7

8

9

将example.py改名为 ScrapyMakepolo.py,并做如下的规则定义。


[root@laoyang spiders]# cat ScrapyMakepolo.py

# -*- coding: utf-8 -*-


from scrapy.spiders import Spider, Rule

from scrapy.selector import Selector

from scrapy_makepolo.items import ScrapyMakepoloItem

from scrapy.linkextractors import LinkExtractor

import re

from scrapy.spiders import CrawlSpider


class ScrapyMakepoloSpider(CrawlSpider):

 name = "MakepoloSpider"


 allowed_domains = ["company.makepolo.com"]

 start_urls = [

 "http://company.makepolo.com/shandong/1",

 ]


 rules = (

 Rule(LinkExtractor(allow=('shandong/([\d]+)', ),),callback='parse_item',follow=True),

 )


 def parse_item(self, response):

 sel = response.selector

 posts = sel.xpath('//div[@class="colist"]/div[@class="colist_item"]')

 items = []

 for p in posts:

 item = ScrapyMakepoloItem()

 companyName = p.xpath('h2[@class="colist_item_title"]/a/text()').extract_first()

 item["companyName"] = (companyName is not None and [companyName.encode("utf-8")] or [""])[0]

 items.append(item)


 return items

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

第4步: 写Item Pipeline(管道),用来存储提取的Items。

将结果输出到item.json文件中。


[root@laoyang scrapy_makepolo]# cat pipelines.py

# -*- coding: utf-8 -*-


# Define your item pipelines here

#

# Don't forget to add your pipeline to the ITEM_PIPELINES setting

# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html


import json


class ScrapyMakepoloPipeline(object):

 def __init__(self):

 self.file = open("item.json", "w+")


 def process_item(self, item, spider):

 record = json.dumps(dict(item), ensure_ascii=False)+"\n"

 self.file.write(record)

 return item

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

第5步:修改配置setting.py.

主要修改: ITEM_PIPELINES 为pipelines.py 中定义的管道接口类ScrapyMakepoloPipeline。


[root@laoyang scrapy_makepolo]# cat settings.py

# -*- coding: utf-8 -*-


# Scrapy settings for scrapy_makepolo project

#

# For simplicity, this file contains only settings considered important or

# commonly used. You can find more settings consulting the documentation:

#

# http://doc.scrapy.org/en/latest/topics/settings.html

# http://scrapy.readthedocs.org/en/latest/topics/downloader-middleware.html

# http://scrapy.readthedocs.org/en/latest/topics/spider-middleware.html


BOT_NAME = 'scrapy_makepolo'


SPIDER_MODULES = ['scrapy_makepolo.spiders']

NEWSPIDER_MODULE = 'scrapy_makepolo.spiders'


# Configure item pipelines

# See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html

ITEM_PIPELINES = {

 'scrapy_makepolo.pipelines.ScrapyMakepoloPipeline': 1,

}

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

至此,所有配置完毕。


第6步:执行。

scrapy crawl MakepoloSpider

其中:

MakepoloSpider为ScrapyMakepolo.py中的name定义。


执行结果如下所示:


[root@laoyang scrapy_makepolo]# tail -f item.json

{"companyName": "章丘市宇龙机械有限公司"}

{"companyName": "济南松岳机器有限责任公司"}

{"companyName": "山东双一集团销售部"}

{"companyName": "山东景盛泉酒业"}

{"companyName": "郓城皮家烧鸡有限公司"}

{"companyName": "胶州市煜德手机通讯服务部"}

{"companyName": "宁津县天福建筑新材料有限公司"}

{"companyName": "聊城市建兴金属材料有限公司"}

{"companyName": "山东益母草有限公司"}

..........

1

2

3

4

5

6

7

8

9

10

11

去重后结果数:


[root@laoyang scrapy_cnblogs-master]# cat sd_mkbl_uniq.txt | wc -l

9521

1

2

三、scrapy爬取马可波罗网站思路详解:

步骤1:进入到马可波罗山东企业首页:http://company.makepolo.com/shandong/

步骤2:查看其页面结构,知道其支持通过下一页按钮进入下一页。

第1页链接:http://company.makepolo.com/shandong/1

第2页链接:http://company.makepolo.com/shandong/2

……

第1000页链接:http://company.makepolo.com/shandong/1000


由此看出网站以序号作为参数来表示页数,这样看来爬虫的规则就比较简单实现。

image.png

步骤3:定义爬虫规则。

‘shandong/([\d]+)’ ,这个就是爬虫的规则,数字为对应数字的页面,这样无论有多少页都可以通过遍历规则遍历到。

1)如果页面数量很少时:可以在start_urls列表中,将要爬取的页面都列出来,

2)如果页面数量很多时:要继承CrawlSpider爬虫类,使用Spider就不行了。(该问题排查了30分钟以上,才解决)

在规则定义(rules)时,如果要对爬取的网页进行处理,而不是简单的需要Url列表堆砌。

这时,需要定义一个回调函数,在爬取到符合条件的网页时调用,并且设置follow=Ture,定义如下:


rules = (

 Rule(LinkExtractor(allow=('shandong/([\d]+)', ),),callback='parse_item',follow=True),

 )

1

2

3

四、小结

想融汇贯通Scrapy进行网络数据分析,个人感觉:网页数据爬取正则标示,xpath解析非常重要。这也是我接下来要深入研究的重点。

也想进一步就其他网站做进一步深入爬取、分析。


参考

[1]http://doc.scrapy.org/en/latest/intro/tutorial.html

http://www.cnblogs.com/rwxwsblog/p/4557123.html

[2]学习python:https://learnpythonthehardway.org/book/

[3]http://www.pycoding.com/2016/03/14/scrapy-04.html

相关文章
|
1月前
|
数据采集 前端开发 数据处理
Scrapy的Lambda函数用法:简化数据提取与处理的技巧
在现代爬虫开发中,**Scrapy** 是一个广泛使用的高效 Python 框架,适用于大规模数据爬取。本文探讨如何利用 Python 的 **Lambda 函数** 简化 Scrapy 中的数据提取与处理,特别是在微博数据爬取中的应用。通过结合 **代理IP**、**Cookie** 和 **User-Agent** 设置,展示了实际用法,包括代码示例和优化技巧,以提高爬虫的稳定性和效率。使用 Lambda 函数能显著减少代码冗余,提升可读性,有效应对复杂的数据清洗任务。
|
1月前
|
消息中间件 数据采集 数据库
小说爬虫-03 爬取章节的详细内容并保存 将章节URL推送至RabbitMQ Scrapy消费MQ 对数据进行爬取后写入SQLite
小说爬虫-03 爬取章节的详细内容并保存 将章节URL推送至RabbitMQ Scrapy消费MQ 对数据进行爬取后写入SQLite
25 1
|
6月前
|
数据采集 中间件 Python
Scrapy爬虫:利用代理服务器爬取热门网站数据
Scrapy爬虫:利用代理服务器爬取热门网站数据
|
4月前
|
数据采集 存储 缓存
使用Scrapy进行网络爬取时的缓存策略与User-Agent管理
使用Scrapy进行网络爬取时的缓存策略与User-Agent管理
|
5月前
|
Web App开发 iOS开发 Python
经验大分享:scrapy框架爬取糗妹妹网站qiumeimei.com图片
经验大分享:scrapy框架爬取糗妹妹网站qiumeimei.com图片
38 0
|
18天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
60 6
|
1月前
|
数据采集 中间件 开发者
Scrapy爬虫框架-自定义中间件
Scrapy爬虫框架-自定义中间件
|
1月前
|
数据采集 中间件 Python
Scrapy爬虫框架-通过Cookies模拟自动登录
Scrapy爬虫框架-通过Cookies模拟自动登录
|
19天前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
45 4
|
18天前
|
数据采集 中间件 API
在Scrapy爬虫中应用Crawlera进行反爬虫策略
在Scrapy爬虫中应用Crawlera进行反爬虫策略