scrapy中最为重要的两个对象Request、Response

简介: Requestrequest是请求对象,参数列表为Request[url[, callback, method='GET', headers, body, cookies, meta, encoding='utf-8', priority=0, dont_filter=False, errbac...

Request

request是请求对象,参数列表为Request[url[, callback, method='GET', headers, body, cookies, meta, encoding='utf-8', priority=0, dont_filter=False, errback])]

url:必填,请求的目标网址

callback:回调函数,默认一个参数response,其他请求相关信息可通过meta传递

method:请求方式,默认为Get

headers: 请求头信息,字典格式

body:请求正文,bytes或str类型

cookies:请求cookie信息,可以是cookie列表或cookie字典

meta:包含此请求的任意元数据的字典。此dict对于新请求为空,通常由不同的Scrapy组件(扩展程序,中间件等)填充,内置关键词为如下

  
  

dont_redirect:如果 Request.meta 包含 dont_redirect 键,则该request将会被RedirectMiddleware忽略
dont_retry:如果 Request.meta 包含 dont_retry 键, 该request将会被RetryMiddleware忽略
handle_httpstatus_list:Request.meta 中的 handle_httpstatus_list 键可以用来指定每个request所允许的response code
handle_httpstatus_all:handle_httpstatus_all为True ,可以允许请求的任何响应代码
dont_merge_cookies:Request.meta 中的dont_merge_cookies设为TRUE,可以避免与现有cookie合并
cookiejar:Scrapy通过使用 Request.meta中的cookiejar 来支持单spider追踪多cookie session。 默认情况下其使用一个cookie jar(session),不过可以传递一个标示符来使用多个
dont_cache:可以避免使用dont_cache元键等于True缓存每个策略的响应
redirect_urls:通过该中间件的(被重定向的)request的url可以通过 Request.meta 的 redirect_urls 键找到
bindaddress:用于执行请求的传出IP地址的IP
dont_obey_robotstxt:如果Request.meta将dont_obey_robotstxt键设置为True,则即使启用ROBOTSTXT_OBEY,RobotsTxtMiddleware也会忽略该请求
download_timeout:下载器在超时之前等待的时间(以秒为单位)
download_maxsize:爬取URL的最大长度
download_latency:自请求已经开始,即通过网络发送的HTTP消息,用于获取响应的时间量 
该元密钥仅在下载响应时才可用。虽然大多数其他元键用于控制Scrapy行为,但是这个应用程序应该是只读的
download_fail_on_dataloss:是否在故障响应失败
proxy:可以将代理每个请求设置为像http:// some_proxy_server:port这样的值
ftp_user :用于FTP连接的用户名
ftp_password :用于FTP连接的密码
referrer_policy:为每个请求设置referrer_policy
max_retry_times:用于每个请求的重试次数。初始化时,max_retry_times元键比RETRY_TIMES设置更高优先级

其中常用的proxy用于设置代理,其余关键字在使用时查询文档即可。

        encoding: 此请求的编码(默认为'utf-8')

        priority:此请求的优先级(默认为0),较高优先级值的请求将较早执行

        dont_filter:默认为False,表示参与过滤,反之则不对该URL过滤

        errback: 指定处理请求中的异常回调函数,包括失败的404 HTTP错误等页面。



Request子类FormRequest

FormRequest用于表单操作,原文文档如下:

FormRequest objects

The FormRequest class extends the base  Request  with functionality for dealing with HTML forms. It uses  lxml.html forms  to pre-populate form fields with form data from  Response  objects.

  • class scrapy.http.FormRequest(url[formdata...])

  • The  FormRequest  class adds a new argument to the constructor. The remaining arguments are the same as for the  Request  class and are not documented here.

    Parameters: formdata  (dict or iterable of tuples ) – is a dictionary (or iterable of (key, value) tuples) containing HTML Form data which will be url-encoded and assigned to the body of the request.

    The  FormRequest  objects support the following class method in addition to the standard  Request methods:

    • response (Response

       object) – the response containing a HTML form which will be used to pre-populate the form fields
    • formname (string

      ) – if given, the form with name attribute set to this value will be used.
    • formid (string

      ) – if given, the form with id attribute set to this value will be used.
    • formxpath (string

      ) – if given, the first form that matches the xpath will be used.
    • formcss (string

      ) – if given, the first form that matches the css selector will be used.
    • formnumber (integer

      ) – the number of form to use, when the response contains multiple forms. The first one (and also the default) is 

      0.

    • formdata (dict

      ) – fields to override in the form data. If a field was already present in the response 

      <form>

       element, its value is overridden by the one passed in this parameter.
    • clickdata (dict

      ) – attributes to lookup the control clicked. If it’s not given, the form data will be submitted simulating a click on the first clickable element. In addition to html attributes, the control can be identified by its zero-based index relative to other submittable inputs inside the form, via the 

      nr

      attribute.
    • dont_click (boolean

      ) – If True, the form data will be submitted without clicking in any element.
    • classmethod from_response(response[formname=Noneformid=Noneformnumber=0formdata=Noneformxpath=Noneformcss=Noneclickdata=Nonedont_click=False...])

    • Returns a new  FormRequest  object with its form field values pre-populated with those found in the HTML  <form>  element contained in the given response. For an example see  Using FormRequest.from_response() to simulate a user login.

      The policy is to automatically simulate a click, by default, on any form control that looks clickable, like a  <input type="submit"> . Even though this is quite convenient, and often the desired behaviour, sometimes it can cause problems which could be hard to debug. For example, when working with forms that are filled and/or submitted using javascript, the default  from_response()  behaviour may not be the most appropriate. To disable this behaviour you can set the  dont_click  argument to  True . Also, if you want to change the control clicked (instead of disabling it) you can also use the  clickdata  argument.

      Parameters:

      The other parameters of this class method are passed directly to the  FormRequest constructor.

      New in version 0.10.3:  The  formname  parameter.

      New in version 0.17:  The  formxpath  parameter.

      New in version 1.1.0:  The  formcss  parameter.

      New in version 1.1.0:  The  formid  parameter.

Request usage examples

Using FormRequest to send data via HTTP POST

If you want to simulate a HTML Form POST in your spider and send a couple of key-value fields, you can return a  FormRequest  object (from your spider) like this:

return [FormRequest(url="http://www.example.com/post/action",
formdata={'name': 'John Doe', 'age': '27'},
callback=self.after_post)]


Using FormRequest.from_response() to simulate a user login

It is usual for web sites to provide pre-populated form fields through  <input type="hidden"> elements, such as session related data or authentication tokens (for login pages). When scraping, you’ll want these fields to be automatically pre-populated and only override a couple of them, such as the user name and password. You can use the  FormRequest.from_response()  method for this job. Here’s an example spider which uses it:

import scrapy

class LoginSpider(scrapy.Spider):
name = 'example.com'
start_urls = ['http://www.example.com/users/login.php']

def parse(self, response):
return scrapy.FormRequest.from_response(
response,
formdata={'username': 'john', 'password': 'secret'},
callback=self.after_login
)

def after_login(self, response):
# check login succeed before going on
if "authentication failed" in response.body:
self.logger.error("Login failed")
return

# continue scraping with authenticated session...
 
 
不规则翻译如下:

请求子类

这里是内置子类的Request列表。您还可以将其子类化以实现您自己的自定义功能。

FormRequest对象
FormRequest类扩展了Request具有处理HTML表单的功能的基础。它使用lxml.html表单 从Response对象的表单数据预填充表单字段。

class scrapy.http.FormRequest(url[, formdata, ...])

FormRequest类增加了新的构造函数的参数。其余的参数与Request类相同,这里没有记录。

  • 参数:formdata(元组的dict或iterable) - 是一个包含HTML Form数据的字典(或(key,value)元组的迭代),它将被url编码并分配给请求的主体。
    FormRequest对象支持除标准以下类方法Request的方法:

classmethod from_response(response[, formname=None, formid=None, formnumber=0, formdata=None, formxpath=None, formcss=None, clickdata=None, dont_click=False, ...])

返回一个新FormRequest对象,其中的表单字段值已预先<form>填充在给定响应中包含的HTML 元素中。有关示例,请参阅 使用FormRequest.from_response()来模拟用户登录。

该策略是在任何可查看的表单控件上默认自动模拟点击,如a 。即使这是相当方便,并且经常想要的行为,有时它可能导致难以调试的问题。例如,当使用使用javascript填充和/或提交的表单时,默认行为可能不是最合适的。要禁用此行为,您可以将参数设置 为。此外,如果要更改单击的控件(而不是禁用它),您还可以使用 参数。<input type="submit"> from_response() dont_click True clickdata

参数:

  • response(Responseobject) - 包含将用于预填充表单字段的HTML表单的响应

  • formname(string) - 如果给定,将使用name属性设置为此值的形式。

  • formid(string) - 如果给定,将使用id属性设置为此值的形式。

  • formxpath(string) - 如果给定,将使用匹配xpath的第一个表单。

  • formcss(string) - 如果给定,将使用匹配css选择器的第一个形式。

  • formnumber(integer) - 当响应包含多个表单时要使用的表单的数量。第一个(也是默认)是0。

  • formdata(dict) - 要在表单数据中覆盖的字段。如果响应<form>元素中已存在字段,则其值将被在此参数中传递的值覆盖。

  • clickdata(dict) - 查找控件被点击的属性。如果没有提供,表单数据将被提交,模拟第一个可点击元素的点击。除了html属性,控件可以通过其相对于表单中其他提交表输入的基于零的索引,通过nr属性来标识。

  • dont_click(boolean) - 如果为True,表单数据将在不点击任何元素的情况下提交。


请求使用示例

使用FormRequest通过HTTP POST发送数据

如果你想在你的爬虫中模拟HTML表单POST并发送几个键值字段,你可以返回一个FormRequest对象(从你的爬虫)像这样:



   
   
  1. return [FormRequest(url="http://www.example.com/post/action",

  2. formdata={'name': 'John Doe', 'age': '27'},

  3. callback=self.after_post)]

使用FormRequest.from_response()来模拟用户登录

网站通常通过元素(例如会话相关数据或认证令牌(用于登录页面))提供预填充的表单字段。进行剪贴时,您需要自动预填充这些字段,并且只覆盖其中的一些,例如用户名和密码。您可以使用 此作业的方法。这里有一个使用它的爬虫示例:<input type="hidden"> FormRequest.from_response()

import scrapy

class LoginSpider(scrapy.Spider):
name = 'example.com'
start_urls = ['http://www.example.com/users/login.php']

def parse(self, response):
return scrapy.FormRequest.from_response(
response,
formdata={'username': 'john', 'password': 'secret'},
callback=self.after_login
)

def after_login(self, response):
# check login succeed before going on
if "authentication failed" in response.body:
self.logger.error("Login failed")
return

# continue scraping with authenticated session...


感兴趣的看看原文文档(https://doc.scrapy.org),后面会说具体的案例。



Response

response是响应对象,具体子类有TextResponse、HtmlResponse、XmlResponse,子类继承于Response基类,它是根据响应中的Content-Type类型生成的,使用最多的是HtmlResponse。

HtmlResponse子类具有下列属性:

  • url :HTTP响应的url地址,str类型

  • status:HTTP响应的状态码, int类型

  • headers :HTTP响应的头部, 类字典类型, 可以调用get或者getlist方法对其进行访问

  • body:HTTP响应正文, bytes类型 

  • text:文本形式的HTTP响应正文, str类型, 它是由response.body 使用response.encoding解码得到的 

  • response.text = response.body.decode(response.encoding) 

  • encoding:HTTP响应正文的编码, 它的值可能是从HTTP响应头部或者正文中解析出来的 

  • reqeust:产生该HTTP响应的Reqeust对象 

  • meta:即response.request.meta, 在构造Request对象时, 可将要传递给响应处理函数的信息通过meta参数传入, 响应处理函数处理响应时, 通过response.meta将信息提取出来 

  • selector:Selector对象用于在Response中提取数据使用 

  • xpath(query):使用XPath选择器在Response中提取数据, 实际上是response.selector.xpath方法的快捷方式 

  • css(query) :使用css选择器在Response中提取数据, 实际上它是response.selector.css方法的快捷方式 

  • urljoin(url) :用于构造绝对url, 当传入的url参数是一个相对地址时, 根据response.url计算出相应的绝对url. 


scrapy中Request、Response是最为核心的两个对象,它是连接爬虫、引擎、下载器、调度器关键的媒介,是不得不深入理解的两个对象。


相关文章
|
8月前
|
数据采集 调度 Python
Scrapy爬虫中合理使用time.sleep和Request
Scrapy爬虫中合理使用time.sleep和Request
|
8月前
|
前端开发 Python
Scrapy中response介绍、属性以及内容提取
Scrapy中response介绍、属性以及内容提取
293 0
|
数据采集 调度 Python
Python爬虫:Scrapy的Crawler对象及扩展Extensions和信号Signa
Python爬虫:Scrapy的Crawler对象及扩展Extensions和信号Signa
386 0
|
数据采集 Python
Python爬虫:Scrapy链接解析器LinkExtractor返回Link对象
Python爬虫:Scrapy链接解析器LinkExtractor返回Link对象
173 0
|
2月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
121 6
|
3月前
|
数据采集 中间件 开发者
Scrapy爬虫框架-自定义中间件
Scrapy爬虫框架-自定义中间件
65 1
|
3月前
|
数据采集 中间件 Python
Scrapy爬虫框架-通过Cookies模拟自动登录
Scrapy爬虫框架-通过Cookies模拟自动登录
135 0
|
2月前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
100 4
|
2月前
|
数据采集 中间件 API
在Scrapy爬虫中应用Crawlera进行反爬虫策略
在Scrapy爬虫中应用Crawlera进行反爬虫策略
|
8月前
|
数据采集 中间件 Python
Scrapy爬虫:利用代理服务器爬取热门网站数据
Scrapy爬虫:利用代理服务器爬取热门网站数据