《Python爬虫开发与项目实战》——3.2 HTTP请求的Python实现

简介:

本节书摘来自华章计算机《Python爬虫开发与项目实战》一书中的第3章,第3.2节,作者:范传辉著,更多章节内容可以访问云栖社区“华章计算机”公众号查看

3.2 HTTP请求的Python实现

  通过上面的网络爬虫结构,我们可以看到读取URL、下载网页是每一个爬虫必备而且关键的功能,这就需要和HTTP请求打交道。接下来讲解Python中实现HTTP请求的三种方式:urllib2/urllib、httplib/urllib以及Requests。
3.2.1 urllib2/urllib实现
  urllib2和urllib是Python中的两个内置模块,要实现HTTP功能,实现方式是以urllib2为主,urllib为辅。
  1.?首先实现一个完整的请求与响应模型
  urllib2提供一个基础函数urlopen,通过向指定的URL发出请求来获取数据。最简单的形式是:

import urllib2
     response=urllib2.urlopen('http://www.zhihu.com')
     html=response.read()
     print html

  其实可以将上面对http://www.zhihu.com的请求响应分为两步,一步是请求,一步是响应,形式如下:

import urllib2
  # 请求
  request=urllib2.Request('http://www.zhihu.com')
  # 响应
  response = urllib2.urlopen(request)
  html=response.read()
  print html

  上面这两种形式都是GET请求,接下来演示一下POST请求,其实大同小异,只是增加了请求数据,这时候用到了urllib。示例如下:

import urllib
  import urllib2
  url = 'http://www.xxxxxx.com/login'
  postdata = {'username' : 'qiye',
              'password' : 'qiye_pass'}
  # info 需要被编码为urllib2能理解的格式,这里用到的是urllib
  data = urllib.urlencode(postdata)
  req = urllib2.Request(url, data)
  response = urllib2.urlopen(req)
  html = response.read()

  但是有时会出现这种情况:即使POST请求的数据是对的,但是服务器拒绝你的访问。这是为什么呢?问题出在请求中的头信息,服务器会检验请求头,来判断是否是来自浏览器的访问,这也是反爬虫的常用手段。
  2.?请求头headers处理
  将上面的例子改写一下,加上请求头信息,设置一下请求头中的User-Agent域和Referer域信息。

import urllib
    import urllib2
    url = 'http://www.xxxxxx.com/login'
    user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
    referer='http://www.xxxxxx.com/'
    postdata = {'username' : 'qiye',
                'password' : 'qiye_pass'}
    # 将user_agent,referer写入头信息
    headers={'User-Agent':user_agent,'Referer':referer}
    data = urllib.urlencode(postdata)
    req = urllib2.Request(url, data,headers)
    response = urllib2.urlopen(req)
    html = response.read()

  也可以这样写,使用add_header来添加请求头信息,修改如下:

import urllib
   import urllib2
   url = 'http://www.xxxxxx.com/login'
   user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
   referer='http://www.xxxxxx.com/'
   postdata = {'username' : 'qiye',
               'password' : 'qiye_pass'}
   data = urllib.urlencode(postdata)
   req = urllib2.Request(url)
   # 将user_agent,referer写入头信息
   req.add_header('User-Agent',user_agent)
   req.add_header('Referer',referer)
   req.add_data(data)
   response = urllib2.urlopen(req)
   html = response.read()

  对有些header要特别留意,服务器会针对这些header做检查,例如:

  • User-Agent:有些服务器或Proxy会通过该值来判断是否是浏览器发出的请求。
  • Content-Type:在使用REST接口时,服务器会检查该值,用来确定HTTP Body中的内容该怎样解析。在使用服务器提供的RESTful或SOAP服务时,Content-Type设置错误会导致服务器拒绝服务。常见的取值有:application/xml(在XML RPC,如RESTful/SOAP调用时使用)、application/json(在JSON RPC调用时使用)、application/x-www-form-urlencoded(浏览器提交Web表单时使用)。
  • Referer:服务器有时候会检查防盗链。
      3.?Cookie处理

  urllib2对Cookie的处理也是自动的,使用CookieJar函数进行Cookie的管理。如果需要得到某个Cookie项的值,可以这么做:
screenshot

  但是有时候会遇到这种情况,我们不想让urllib2自动处理,我们想自己添加Cookie的内容,可以通过设置请求头中的Cookie域来做:

import  urllib2
     opener = urllib2.build_opener()
     opener.addheaders.append( ( 'Cookie', 'email=' + "xxxxxxx@163.com" ) )
     req = urllib2.Request( "http://www.zhihu.com/" )
     response = opener.open(req)
     print response.headers
     retdata = response.read()

  4.?Timeout设置超时
  在Python2.6之前的版本,urllib2的API并没有暴露Timeout的设置,要设置Timeout值,只能更改Socket的全局Timeout值。示例如下:

import urllib2
     import socket
     socket.setdefaulttimeout(10) # 10 秒钟后超时
     urllib2.socket.setdefaulttimeout(10) # 另一种方式

  在Python2.6及新的版本中,urlopen函数提供了对Timeout的设置,示例如下:
screenshot

  5.?获取HTTP响应码
  对于200 OK来说,只要使用urlopen返回的response对象的getcode()方法就可以得到HTTP的返回码。但对其他返回码来说,urlopen会抛出异常。这时候,就要检查异常对象的code属性了,示例如下:

import urllib2
  try:
      response = urllib2.urlopen('http://www.google.com')
      print response
  except urllib2.HTTPError as e:
      if hasattr(e, 'code'):
          print 'Error code:',e.code

  6.?重定向
  urllib2默认情况下会针对HTTP 3XX返回码自动进行重定向动作。要检测是否发生了重定向动作,只要检查一下Response的URL和Request的URL是否一致就可以了,示例如下:

import urllib2
   response = urllib2.urlopen('http://www.zhihu.cn')
   isRedirected = response.geturl() == 'http://www.zhihu.cn'

  如果不想自动重定向,可以自定义HTTPRedirectHandler类,示例如下:

import urllib2
    class RedirectHandler(urllib2.HTTPRedirectHandler):
        def http_error_301(self, req, fp, code, msg, headers):
            pass
        def http_error_302(self, req, fp, code, msg, headers):
            result = urllib2.HTTPRedirectHandler.http_error_301(self, req, fp, code, 
?        ????msg, headers)
            result.status = code
            result.newurl = result.geturl()
            return result
    opener = urllib2.build_opener(RedirectHandler)
    opener.open('http://www.zhihu.cn')

  7.?Proxy的设置
  在做爬虫开发中,必不可少地会用到代理。urllib2默认会使用环境变量http_proxy来设置HTTP Proxy。但是我们一般不采用这种方式,而是使用ProxyHandler在程序中动态设置代理,示例代码如下:
screenshot

  这里要注意的一个细节,使用urllib2.install_opener()会设置urllib2的全局opener,之后所有的HTTP访问都会使用这个代理。这样使用会很方便,但不能做更细粒度的控制,比如想在程序中使用两个不同的Proxy设置,这种场景在爬虫中很常见。比较好的做法是不使用install_opener去更改全局的设置,而只是直接调用opener的open方法代替全局的urlopen方法,修改如下:

import urllib2
     proxy = urllib2.ProxyHandler({'http': '127.0.0.1:8087'})
     opener = urllib2.build_opener(proxy,)
     response = opener.open("http://www.zhihu.com/")
     print response.read()

3.2.2 httplib/urllib实现
  httplib模块是一个底层基础模块,可以看到建立HTTP请求的每一步,但是实现的功能比较少,正常情况下比较少用到。在Python爬虫开发中基本上用不到,所以在此只是进行一下知识普及。下面介绍一下常用的对象和函数:

  • 创建HTTPConnection对象:class httplib.HTTPConnection(host[, port[, strict[, timeout[, source_address]]]])。
  • 发送请求:HTTPConnection.request(method, url[, body[, headers]])。
  • 获得响应:HTTPConnection.getresponse()。
  • 读取响应信息:HTTPResponse.read([amt])。
  • 获得指定头信息:HTTPResponse.getheader(name[, default])。
  • 获得响应头(header, value)元组的列表:HTTPResponse.getheaders()。
  • 获得底层socket文件描述符:HTTPResponse.fileno()。
  • 获得头内容:HTTPResponse.msg。
  • 获得头http版本:HTTPResponse.version。
  • 获得返回状态码:HTTPResponse.status。
  • 获得返回说明:HTTPResponse.reason。
      接下来演示一下GET请求和POST请求的发送,首先是GET请求的示例,如下所示:

screenshot
screenshot

  POST请求的示例如下:

import httplib, urllib
     conn = None
     try:
         params = urllib.urlencode({'name': 'qiye', 'age': 22})
         headers = {"Content-type": "application/x-www-form-urlencoded"
         , "Accept": "text/plain"}
         conn = httplib.HTTPConnection("www.zhihu.com", 80, timeout=3)
         conn.request("POST", "/login", params, headers)
         response = conn.getresponse()
         print response.getheaders() # 获取头信息
         print response.status
         print response.read()
     except Exception, e:
         print e
     finally:
         if conn:
             conn.close()

3.2.3 更人性化的Requests
  Python中Requests实现HTTP请求的方式,是本人极力推荐的,也是在Python爬虫开发中最为常用的方式。Requests实现HTTP请求非常简单,操作更加人性化。
  Requests库是第三方模块,需要额外进行安装。Requests是一个开源库,使用Requests库需要先进行安装,一般有两种安装方式:

  • 使用pip进行安装,安装命令为:pip install requests,不过可能不是最新版。
  • 直接到GitHub上下载Requests的源代码,将源代码压缩包进行解压,然后进入解压后的文件夹,运行setup.py文件即可。
      如何验证Requests模块安装是否成功呢?在Python的shell中输入import requests,如果不报错,则是安装成功。如图3-5所示。

screenshot

  1.?首先还是实现一个完整的请求与响应模型
  以GET请求为例,最简单的形式如下:

import requests
     r = requests.get('http://www.baidu.com')
     print r.content

  大家可以看到比urllib2实现方式的代码量少。接下来演示一下POST请求,同样是非常简短,更加具有Python风格。示例如下:

import requests
     postdata={'key':'value'}
     r = requests.post('http://www.xxxxxx.com/login',data=postdata)
     print r.content

  HTTP中的其他请求方式也可以用Requests来实现,示例如下:

screenshot
screenshot

  通过打印结果,我们看到最终的URL变成了:

http://zzk.cnblogs.com/s/blogpost?Keywords=blog:qiyeboy&pageindex=1。

  2.?响应与编码
  还是从代码入手,示例如下:

import requests
    r = requests.get('http://www.baidu.com')
    print 'content-->'+r.content
    print 'text-->'+r.text
    print 'encoding-->'+r.encoding
    r.encoding='utf-8'
    print 'new text-->'+r.text

  其中r.content返回的是字节形式,r.text返回的是文本形式,r.encoding返回的是根据HTTP头猜测的网页编码格式。
  输出结果中:“text-->”之后的内容在控制台看到的是乱码,“encoding-->”之后的内容是ISO-8859-1(实际上的编码格式是UTF-8),由于Requests猜测编码错误,导致解析文本出现了乱码。Requests提供了解决方案,可以自行设置编码格式,r.encoding='utf-8'设置成UTF-8之后,“new text-->”的内容就不会出现乱码。但是这种手动的方式略显笨拙,下面提供一种更加简便的方式:chardet,这是一个非常优秀的字符串/文件编码检测模块。安装方式如下:

pip install chardet

  安装完成后,使用chardet.detect()返回字典,其中confidence是检测精确度,encoding是编码形式。示例如下:

import requests
  r = requests.get('http://www.baidu.com')
  print chardet.detect(r.content)
  r.encoding = chardet.detect(r.content)['encoding']
  print r.text

  直接将chardet探测到的编码,赋给r.encoding实现解码,r.text输出就不会有乱码了。
  除了上面那种直接获取全部响应的方式,还有一种流模式,示例如下:
screenshot

  设置stream=True标志位,使响应以字节流方式进行读取,r.raw.read函数指定读取的字节数。
  3.?请求头headers处理
  Requests对headers的处理和urllib2非常相似,在Requests的get函数中添加headers参数即可。示例如下:

import requests
     user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
     headers={'User-Agent':user_agent}
     r = requests.get('http://www.baidu.com',headers=headers)
     print r.content

  4.?响应码code和响应头headers处理
  获取响应码是使用Requests中的status_code字段,获取响应头使用Requests中的headers字段。示例如下:

import requests
     r = requests.get('http://www.baidu.com')
     if r.status_code == requests.codes.ok:
         print r.status_code# 响应码
         print r.headers# 响应头
         print r.headers.get('content-type')# 推荐使用这种获取方式,获取其中的某个字段
         print r.headers['content-type']# 不推荐使用这种获取方式
     else:
         r.raise_for_status()

  上述程序中,r.headers包含所有的响应头信息,可以通过get函数获取其中的某一个字段,也可以通过字典引用的方式获取字典值,但是不推荐,因为如果字段中没有这个字段,第二种方式会抛出异常,第一种方式会返回None。r.raise_for_status()是用来主动地产生一个异常,当响应码是4XX或5XX时,raise_for_status()函数会抛出异常,而响应码为200时,raise_for_status()函数返回None。
  5.?Cookie处理
  如果响应中包含Cookie的值,可以如下方式获取Cookie字段的值,示例如下:
screenshot

  如果想自定义Cookie值发送出去,可以使用以下方式,示例如下:

import requests
   user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
   headers={'User-Agent':user_agent}
   cookies = dict(name='qiye',age='10')
   r = requests.get('http://www.baidu.com',headers=headers,cookies=cookies)
   print r.text

  还有一种更加高级,且能自动处理Cookie的方式,有时候我们不需要关心Cookie值是多少,只是希望每次访问的时候,程序自动把Cookie的值带上,像浏览器一样。Requests提供了一个session的概念,在连续访问网页,处理登录跳转时特别方便,不需要关注具体细节。使用方法示例如下:

import Requests
    loginUrl = 'http://www.xxxxxxx.com/login'
    s = requests.Session()
    #首先访问登录界面,作为游客,服务器会先分配一个cookie
    r = s.get(loginUrl,allow_redirects=True)
    datas={'name':'qiye','passwd':'qiye'}
    #向登录链接发送post请求,验证成功,游客权限转为会员权限
    r = s.post(loginUrl, data=datas,allow_redirects= True)
    print r.text

  上面的这段程序,其实是正式做Python开发中遇到的问题,如果没有第一步访问登录的页面,而是直接向登录链接发送Post请求,系统会把你当做非法用户,因为访问登录界面时会分配一个Cookie,需要将这个Cookie在发送Post请求时带上,这种使用Session函数处理Cookie的方式之后会很常用。
  6.?重定向与历史信息
  处理重定向只是需要设置一下allow_redirects字段即可,例如r=requests.get。将allow_redirects设置为True,则是允许重定向;设置为False,则是禁止重定向。如果是允许重定向,可以通过r.history字段查看历史信息,即访问成功之前的所有请求跳转信息。示例如下:

import requests
     r = requests.get('http://github.com')
     print r.url
     print r.status_code
     print r.history
  打印结果如下:
     https:// github.com/
     200
     (<Response [301]>,)

  上面的示例代码显示的效果是访问GitHub网址时,会将所有的HTTP请求全部重定向为HTTPS。
  7.?超时设置
  超时选项是通过参数timeout来进行设置的,示例如下:

requests.get('http://github.com', timeout=2)

  8.?代理设置
  使用代理Proxy,你可以为任意请求方法通过设置proxies参数来配置单个请求:

import requests
     proxies = {
         "http": "http://0.10.1.10:3128",
         "https": "http://10.10.1.10:1080",
     }
     requests.get("http://example.org", proxies=proxies)

  也可以通过环境变量HTTP_PROXY和HTTPS_PROXY?来配置代理,但是在爬虫开发中不常用。你的代理需要使用HTTP Basic Auth,可以使用·http://user:password@host/语法:

proxies = {
         "http": "http://user:pass@10.10.1.10:3128/",
     }
相关文章
|
15天前
|
Java
java原生发送http请求
java原生发送http请求
|
15天前
|
算法 测试技术 开发者
性能优化与代码审查:提升Python开发效率
【4月更文挑战第9天】本文强调了Python开发中性能优化和代码审查的重要性。性能优化包括选择合适数据结构、使用生成器和避免全局变量,而代码审查涉及遵循编码规范、使用静态代码分析工具和编写单元测试。这些实践能提升代码效率和可维护性,促进团队协作。
|
16天前
|
数据采集 Python
【python】爬虫-西安医学院-校长信箱
本文以西安医学院-校长信箱为基础来展示爬虫案例。来介绍python爬虫。
【python】爬虫-西安医学院-校长信箱
|
22天前
|
网络协议 Linux iOS开发
推荐:实现RTSP/RTMP/HLS/HTTP协议的轻量级流媒体框架,支持大并发连接请求
推荐:实现RTSP/RTMP/HLS/HTTP协议的轻量级流媒体框架,支持大并发连接请求
48 1
|
22天前
|
数据采集 安全 Python
python并发编程:Python实现生产者消费者爬虫
python并发编程:Python实现生产者消费者爬虫
24 0
python并发编程:Python实现生产者消费者爬虫
|
4天前
|
安全 Java 网络安全
Servlet 教程 之 Servlet 客户端 HTTP 请求 2
Servlet教程介绍了如何在Servlet中处理HTTP请求,包括获取Cookie、头信息、参数、Session等。方法如:`getCookies()`、`getAttributeNames()`、`getHeaderNames()`、`getParameterNames()`等。还能获取身份验证类型、字符编码、MIME类型、请求方法、远程用户信息、URL路径、安全通道状态以及请求内容长度等。此外,可通过`getSession()`创建或获取Session,并以`Map`形式获取参数。
20 8
|
2天前
|
数据采集 存储 JSON
Python爬虫面试:requests、BeautifulSoup与Scrapy详解
【4月更文挑战第19天】本文聚焦于Python爬虫面试中的核心库——requests、BeautifulSoup和Scrapy。讲解了它们的常见问题、易错点及应对策略。对于requests,强调了异常处理、代理设置和请求重试;BeautifulSoup部分提到选择器使用、动态内容处理和解析效率优化;而Scrapy则关注项目架构、数据存储和分布式爬虫。通过实例代码,帮助读者深化理解并提升面试表现。
11 0
|
5天前
|
数据采集 JavaScript 前端开发
使用Python打造爬虫程序之破茧而出:Python爬虫遭遇反爬虫机制及应对策略
【4月更文挑战第19天】本文探讨了Python爬虫应对反爬虫机制的策略。常见的反爬虫机制包括User-Agent检测、IP限制、动态加载内容、验证码验证和Cookie跟踪。应对策略包括设置合理User-Agent、使用代理IP、处理动态加载内容、验证码识别及维护Cookie。此外,还提到高级策略如降低请求频率、模拟人类行为、分布式爬虫和学习网站规则。开发者需不断学习新策略,同时遵守规则和法律法规,确保爬虫的稳定性和合法性。
|
6天前
|
前端开发 Java Go
开发语言详解(python、java、Go(Golong)。。。。)
开发语言详解(python、java、Go(Golong)。。。。)
|
8天前
|
安全 网络安全 开发工具
对象存储oss使用问题之flutter使用http库进行post请求文件上传返回400如何解决
《对象存储OSS操作报错合集》精选了用户在使用阿里云对象存储服务(OSS)过程中出现的各种常见及疑难报错情况,包括但不限于权限问题、上传下载异常、Bucket配置错误、网络连接问题、跨域资源共享(CORS)设定错误、数据一致性问题以及API调用失败等场景。为用户降低故障排查时间,确保OSS服务的稳定运行与高效利用。
24 1