【Python爬虫】<万物可爬>Scrayp框架

简介: 【1月更文挑战第22天】【Python爬虫】<万物可爬>Scrayp框架

 目录

Scrapy概述:

安装Scrapy:

创建一个Scrapy爬虫项目:

1.使用scrapy创建一个工程:

2.创建爬虫文件:

Scrapy项目结构:

response的属性和方法:

Scrapy架构组成:

Scrapy Shell:

安装:

应用:


Scrapy概述:

       Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。

安装Scrapy:

pip install scrapy

image.gif

pip install -I cryptography

image.gif

创建一个Scrapy爬虫项目:

1.使用scrapy创建一个工程:

scrapy startproject scrapy项目名称

image.gif

image.gif编辑

注意:项目的名称不允许使用数字开头,也不能包含中文!

2.创建爬虫文件:

注意:要在spiders文件夹中去创建爬虫文件!

cd 项目名称\项目名称\spiders

image.gif

 修改君子协定:

image.gif编辑

image.gif编辑

创建爬虫文件:

scrapy genspider 爬虫文件的名字 要爬取的网页

image.gif

import scrapy
class BaiduSpider(scrapy.Spider):
    # 爬虫的名字 用于运行爬虫的时候 url使用指:
    name = 'baidu'
    # 允许访问的域名:
    allowed_domains = ['https://www.baidu.com']
    # 起始的url地址 指的是第一次要访问的域名
    # start_urls是在allowed_domains的前面添加一个http://,在allowed_domains后面添加一个/
    start_urls = ['https://www.baidu.com/']
    # 是执行了start_urls之后,执行的方法,方法中的response 就是返回的那个对象
    # 相当于 response = urllib.request.urlopen()
    #       response = request.get()
    def parse(self, response):
        print('------------------\n'
              '------------------\n'
              '------Hello-------\n'
              '------World-------\n'
              '------------------\n'
              '------------------\n')
        pass

image.gif

执行爬虫文件:

scrapy crawl 爬虫文件文件名

image.gif

image.gif编辑

Scrapy项目结构:

image.gif编辑

response的属性和方法:

image.gif编辑

response.text 获取的是响应的字符串
response.body 获取的是二进制数据
response.xpath 可以直接是xpath方法来解析response中的内容

response.extract()

提取selector对象的data属性值
response.extract_first() 提取selector列表的第一个数据

Scrapy架构组成:

    • 引擎:自动运行,无需关注,会自动组织所有的请求对象,分发给下载器。
    • 下载器:从引擎处获取请求对象后,请求数据。
    • Spiders:Spider类定义了如何爬取某个(某些)网站,包括爬取的动作(例如:是否跟进连接)以及如何从网页的内容中提取结构化数据(爬取item)。Sprider就是定义爬取的动作及分析某个网页(或者有些网页)的地方。
    • 调度器:有自己的调度规则,无需关注。
    • 管道(Item pipeIine):最终处理数据的管道,会预留接口进行数据处理。当Item正在Spider中被收集之后,它将会被传递到Item Pipline,一些组件会按照一定的顺序执行对Item的处理。每个Item PipLine组件是实现了简单方法的Python类,他们接收到Item并通过它执行一些行为,同时也决定此Item是否继续通过pipiline或者是丢弃不再进行处理。

    以下是item pipline的一些典型应用:

      • 清理HTML数据
      • 验证爬取的数据(检查item包含某些字段)
      • 查重(并丢弃)
      • 将爬取的结果保存到数据库中

      image.gif编辑


      Scrapy Shell:

             Scrapy终端,是一个交互终端,可以在未启动Spider的情况下尝试及调试爬虫代码。其本意是用来测试和提取数据的代码,不过可以被作为正常的Python终端,在上面测试任何的Python代码。

             该终端用来测试XPath或CSS表达式,查看他们的工作方式及从网页中提取数据。在编写您的Spider时,该终端提供了交互性测试您的表达式代码的功能,免去了每次修改后运行Spider的麻烦。

             一旦熟悉Scrapy终端后,就能发现其在开发和调试Spider时发挥的巨大作用。

      安装:

      pip install ipython

      image.gif

             如果安装了IPython,Scrapy终端将会使用IPython(代替标准Python终端),IPython终端与其他相比较更为强大,提供智能化的自动补全,高亮输出,及其他特性。

      应用:

      直接在CMD中启动后,会自动打开IPython终端:

      scrapy shell URL地址(爬取指定目标地址)

      image.gif

      image.gif编辑

      image.gif编辑

      启动IPthon终端:

      image.gif编辑

      scrapy shell www.daidu.com
      scrapy shell https://www.baidu.com
      scrapy shell "https://www.baidu.com"
      scrapy shell "www.baidu.com"


      相关文章
      |
      2月前
      |
      数据采集 Web App开发 数据安全/隐私保护
      实战:Python爬虫如何模拟登录与维持会话状态
      实战:Python爬虫如何模拟登录与维持会话状态
      |
      2月前
      |
      存储 Java 数据处理
      (numpy)Python做数据处理必备框架!(一):认识numpy;从概念层面开始学习ndarray数组:形状、数组转置、数值范围、矩阵...
      Numpy是什么? numpy是Python中科学计算的基础包。 它是一个Python库,提供多维数组对象、各种派生对象(例如掩码数组和矩阵)以及用于对数组进行快速操作的各种方法,包括数学、逻辑、形状操作、排序、选择、I/0 、离散傅里叶变换、基本线性代数、基本统计运算、随机模拟等等。 Numpy能做什么? numpy的部分功能如下: ndarray,一个具有矢量算术运算和复杂广播能力的快速且节省空间的多维数组 用于对整组数据进行快速运算的标准数学函数(无需编写循环)。 用于读写磁盘数据的工具以及用于操作内存映射文件的工具。 线性代数、随机数生成以及傅里叶变换功能。 用于集成由C、C++
      316 1
      |
      3月前
      |
      数据采集 Web App开发 自然语言处理
      新闻热点一目了然:Python爬虫数据可视化
      新闻热点一目了然:Python爬虫数据可视化
      |
      2月前
      |
      Java 数据处理 索引
      (Pandas)Python做数据处理必选框架之一!(二):附带案例分析;刨析DataFrame结构和其属性;学会访问具体元素;判断元素是否存在;元素求和、求标准值、方差、去重、删除、排序...
      DataFrame结构 每一列都属于Series类型,不同列之间数据类型可以不一样,但同一列的值类型必须一致。 DataFrame拥有一个总的 idx记录列,该列记录了每一行的索引 在DataFrame中,若列之间的元素个数不匹配,且使用Series填充时,在DataFrame里空值会显示为NaN;当列之间元素个数不匹配,并且不使用Series填充,会报错。在指定了index 属性显示情况下,会按照index的位置进行排序,默认是 [0,1,2,3,...] 从0索引开始正序排序行。
      254 0
      |
      2月前
      |
      Java 数据挖掘 数据处理
      (Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
      Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
      405 0
      |
      2月前
      |
      Java 数据处理 索引
      (numpy)Python做数据处理必备框架!(二):ndarray切片的使用与运算;常见的ndarray函数:平方根、正余弦、自然对数、指数、幂等运算;统计函数:方差、均值、极差;比较函数...
      ndarray切片 索引从0开始 索引/切片类型 描述/用法 基本索引 通过整数索引直接访问元素。 行/列切片 使用冒号:切片语法选择行或列的子集 连续切片 从起始索引到结束索引按步长切片 使用slice函数 通过slice(start,stop,strp)定义切片规则 布尔索引 通过布尔条件筛选满足条件的元素。支持逻辑运算符 &、|。
      163 0
      |
      2月前
      |
      数据采集 监控 数据库
      Python异步编程实战:爬虫案例
      🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
      Python异步编程实战:爬虫案例
      |
      3月前
      |
      数据采集 存储 XML
      Python爬虫技术:从基础到实战的完整教程
      最后强调: 父母法律法规限制下进行网络抓取活动; 不得侵犯他人版权隐私利益; 同时也要注意个人安全防止泄露敏感信息.
      701 19
      |
      2月前
      |
      数据采集 存储 JSON
      Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
      Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
      |
      2月前
      |
      数据采集 存储 JavaScript
      解析Python爬虫中的Cookies和Session管理
      Cookies与Session是Python爬虫中实现状态保持的核心。Cookies由服务器发送、客户端存储,用于标识用户;Session则通过唯一ID在服务端记录会话信息。二者协同实现登录模拟与数据持久化。

      推荐镜像

      更多