第 60 天:Python Requests 库的基本使用

简介: 第 60 天:Python Requests 库的基本使用

介绍

首先让我们来看 Requests 官方的介绍:


Requests is an elegant and simple HTTP library for Python, built for human beings.


翻译过来就是:Requests 是为人类写的一个优雅而简单的 Python HTTP 库。这个介绍很直白了,让我们先来感受一下 Requests 的威力。




import requests
# 发送请求response = requests.get(url="http://www.baidu.com/s", params={'wd':'python'})# 处理响应print(response.status_code)
# 输出结果200


这个请求如果用 urllib 来实现,代码如下:


import urllib.parseimport urllib.request
url = "http://www.baidu.com/s"params = urllib.parse.urlencode({'wd':'python'})# 发送请求response = urllib.request.urlopen('?'.join([url, params]))# 处理响应print(response.getcode())
# 输出结果200


从感官上就能看出来,使用 urllib 在 URL 、参数等方面会复杂一些。这只是冰山一角,实际使用中 Requests 还有好多方面超越 urllib ,它并不是浪得虚名,接下来的学习中你就会感受到。


安装


使用pip命令


$ pip3 install requests

或者也可以使用 easy_install 命令安装


$ easy_install requests


发送请求


使用 Requests 发送网络请求非常简单。


我们首先需要导入 Requests 模块:


import requests

然后,我们就可以尝试获取某个网页。本例子中,我们来获取 Github 的公共时间线:


r = requests.get('https://api.github.com/events')

现在,我们有一个名为 r 的 Response 对象。我们可以从这个对象中获取所有我们想要的信息。


Requests 简便的 API 意味着所有 HTTP 请求类型都是显而易见的。例如,你可以这样发送一个 HTTP POST 请求:


r = requests.post('http://httpbin.org/post', data = {'key':'value'})


简单,对吧?那么其他 HTTP 请求类型:PUT,DELETE,HEAD 以及 OPTIONS 又是如何的呢?都是一样的简单:


r = requests.put('http://httpbin.org/put', data = {'key':'value'})r = requests.delete('http://httpbin.org/delete')r = requests.head('http://httpbin.org/get')r = requests.options('http://httpbin.org/get')


传递参数


我们在发送请求时,经常需要向服务端发送请求参数,通常参数都是以键/值对的形式置于 URL 中,跟在一个问号的后面。例如, httpbin.org/get?key=val。Requests 允许你使用 params 关键字参数,以一个字符串字典来提供这些参数。举例来说,如果你想传递 key1=value1 和 key2=value2 到 httpbin.org/get ,那么你可以使用如下代码:


payload = {'key1': 'value1', 'key2': 'value2'}r = requests.get("http://httpbin.org/get", params=payload)print(r.url)
# 输出结果http://httpbin.org/get?key1=value1&key2=value2


通过打印输出该 URL,你能看到 URL 已被正确编码。


注意字典里值为 None 的键都不会被添加到 URL 的查询字符串里。


你还可以将一个列表作为值传入:


payload = {'key1': 'value1', 'key2': ['value2', 'value3']}r = requests.get("http://httpbin.org/get", params=payload)
# 输出结果http://httpbin.org/get?key1=value1&key2=value2&key2=value3


响应内容


我们可以通过返回读取服务器响应的内容,以 请求百度首页为例:


import requestsr = requests.get('http://www.baidu.com')print(r.text)
#返回(太多,只显示一部分)
<!DOCTYPE html><!--STATUS OK--><html> <head><meta http-eq...


Requests 会自动解码来自服务器的内容,大多数 unicode 字符集都能被无缝地解码。


请求发出后,Requests 会基于 HTTP 头部对响应的编码作出有根据的推测。当你访问 r.text 之时,Requests 会使用其推测的文本编码。你可以通过 r.encoding 来获取 Requests 使用的编码:


r.encoding
# 输出结果'utf-8'


并且能够使用 r.encoding 属性来改变它:


r.encoding = 'ISO-8859-1'


如果你改变了编码,每当你访问 r.text ,Request 都将会使用 r.encoding 的新值。


二进制响应内容


对于非文本请求(例如图片),你也能以字节的方式访问请求响应体,Requests 会自动为你解码 gzip 和 deflate 传输编码的响应数据。


例如,以请求返回的二进制数据创建一张图片,你可以使用如下代码:



import requestsfrom PIL import Imagefrom io import BytesIO
r = requests.get('http://img.sccnn.com/bimg/326/203.jpg')print(r.content)bi = BytesIO(r.content)print(bi)i = Image.open(bi)print(i)
# 输出结果b'\xff\xd8\xff\xe0\x00\x10JFIF\x00\...<_io.BytesIO object at 0x1112fdbf8><PIL.JpegImagePlugin.JpegImageFile image mode=RGB size=600x400 at 0x111020588>


JSON 响应内容


Requests 中有一个内置的 JSON 解码器,可以帮助你处理 JSON 数据:


r = requests.get('https://api.github.com/events')print(r.json())
# 输出结果[{u'repository': {u'open_issues': 0, u'url': 'https://github.com/...


如果 JSON 解码失败, r.json() 就会抛出一个异常。



r = requests.get('https://www.baidu.com')print(r.json())
# 输出结果json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)


需要注意的是,成功调用 r.json() 并不意味着响应的成功。有的服务器会在失败的响应中包含一个 JSON 对象(比如 HTTP 500 的错误细节)。这种 JSON 会被解码返回。要检查请求是否成功,请使用 r.raise_for_status() 或者检查 r.status_code 是否和你的期望相同。


原始响应内容


在极少数情况下,你可能想获取来自服务器的原始套接字响应,那么你可以访问 r.raw。这个时候请确保在初始请求中设置了 stream=True。具体你可以这么做:



r = requests.get('https://api.github.com/events', stream=True)print(r.raw)print(r.raw.read(10))
# 输出结果<requests.packages.urllib3.response.HTTPResponse object at 0x101194810>'\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'


设置请求头


如果你在爬取某个页面内容的时候,发现获取的数据为空,但是直接用浏览器访问 URL 没问题,这时候很有可能是你被服务器识别为爬虫用户了,怎么办呢?我们应该要模拟浏览器去请求,这时候你需要为请求添加 HTTP 头部信息,只要简单地传递一个 dict 给 headers 参数就可以了。


例如,我们设置一下 User-Agent :



url = 'http://www.baidu.com'headers = {'User-Agent': 'myagent/2.21.0'}r = requests.get(url, headers=headers)print(r.request.headers)
# 输出结果{'User-Agent': 'myagent/2.21.0', 'Accept-Encoding': 'gzip, deflate', 'Accept': '*/*', 'Connection': 'keep-alive'}


可以看到,请求的 User-Agent 已经变成了设置的 myagent/2.21.0。



复杂的 POST 请求


我们在使用 POST 请求的时候,打印一下 r.text 会发现每次都会出现几个关键字:


{  "args": {},   "data": "",   "files": {},   "form": {},   "headers": {},   "json": null,   "origin": "221.232.172.222, 221.232.172.222",   "url": "https://httpbin.org/post"}


这些关键字都可以在 POST 的参数里面设置。其中 headers 和 args 我们前面已经讲过,分别表示请求头和参数信息。origin 是指请求的路由 ip,url 是我们请求的 url,其他几个我们都是可以设置的。下面我们就来看看其他几个关键字怎么设置。


设置data参数


如果你在 POST 请求时想提交表单,也只需要简单的传递一个字典给 data 参数即可。你的数据字典在发出请求时会自动编码为表单形式:


payload = {'key1': 'value1', 'key2': 'value2'}r = requests.post("http://httpbin.org/post", data=payload)print(r.text)
# 输出结果{  ...  "form": {    "key1": "value1",     "key2": "value2"  },   ...}


你也可以为 data 参数传入一个元组列表。Requests 会自动将其转换成一个列表:


payload = (('key1', 'value1'), ('key1', 'value2'))r = requests.post("http://httpbin.org/post", data=payload)print(r.text)
# 输出结果{  ...  "form": {    "key1": [      "value1",       "value2"    ]  },   ...}


设置 json 参数


Requests 允许你使用 json 直接传递参数,然后它就会被自动编码。


payload = {'some': 'data'}r = requests.post("http://httpbin.org/post", json=payload)print(r.text)
# 输出结果{  "args": {},   "data": "{\"some\": \"data\"}",   "files": {},   "form": {},   "headers": {    "Accept": "*/*",     "Accept-Encoding": "gzip, deflate",     "Content-Length": "16",     "Content-Type": "application/json",     "Host": "httpbin.org",     "User-Agent": "python-requests/2.21.0"  },   "json": {    "some": "data"  },   "origin": "221.232.172.222, 221.232.172.222",   "url": "https://httpbin.org/post"}


注意,这里不仅赋值给 json 了,而且还自动赋值给 data 了,json 里面的键值对也被自动编码到 data 中了。


设置文件参数


Requests 上传文件很简单:


files = {'file': open('test.txt', 'rb')}r = requests.post('http://httpbin.org/post', files=files)print(r.text)
# 输出结果{  ...  "files": {    "file": "this is a file test"  },   ...}


你也可以增加一个参数,把字符串发送到上传的文件中,例如:


files = {'file': ('test.txt', 'some,data,to,send\nanother,row,to,send\n')}r = requests.post('http://httpbin.org/post', files=files)print(r.text)
# 输出结果{  ...  "files": {    "file": "some,data,to,send\nanother,row,to,send\n"  },   ...}


响应状态码和响应头


我们可以从服务器响应的结果中获取状态码和响应头的信息,例如:


r = requests.get('http://httpbin.org/get')print(r.status_code)
# 输出结果200


为方便引用,Requests还附带了一个内置的状态码查询对象:


print(r.status_code == requests.codes.ok)
# 输出结果True


我们还可以查看响应的响应头信息:


r = requests.get('http://httpbin.org/get')print(r.headers)
# 输出结果{'Access-Control-Allow-Credentials': 'true', 'Access-Control-Allow-Origin': '*', 'Content-Encoding': 'gzip', 'Content-Type': 'application/json', 'Date': 'Wed, 18 Sep 2019 12:22:06 GMT', 'Referrer-Policy': 'no-referrer-when-downgrade', 'Server': 'nginx', 'X-Content-Type-Options': 'nosniff', 'X-Frame-Options': 'DENY', 'X-XSS-Protection': '1; mode=block', 'Content-Length': '183', 'Connection': 'keep-alive'}


要获取响应头的某个字段值,我们可以这样:


print(r.headers['Content-Encoding'])
# 输出结果gzip


Cookie


如果一个响应中包含了 cookie ,那么我们可以利用 cookies 变量来拿到:


url = 'http://example.com/some/cookie/setting/url'r = requests.get(url)r.cookies['example_cookie_name']
# 输出结果'example_cookie_value'


以上程序仅是样例,运行程序并不会得到下面的返回。需要包含 cookie 的响应才可以得到。


另外可以利用 cookies 变量来向服务器发送 cookies 信息:


cookies = dict(cookies_are='working')r = requests.get('http://httpbin.org/cookies', cookies=cookies)print(r.text)
# 输出结果{  "cookies": {    "cookies_are": "working"  }}


可以看到我们设置 cookies 参数后,返回中就包含了我们设置的信息。


Cookie 的返回对象为 RequestsCookieJar,它和字典类似,适合跨域名跨路径使用,也就是说我们可以为不同的域名或者路径设置不同的 cookie 。你还可以把 Cookie Jar 传到 Requests 中:


jar = requests.cookies.RequestsCookieJar()#为路径/cookies设置cookiejar.set('tasty_cookie', 'yum', domain='httpbin.org', path='/cookies')#为路径/elsewhere设置cookiejar.set('gross_cookie', 'blech', domain='httpbin.org', path='/elsewhere')#请求路径为/cookies的URLurl = 'http://httpbin.org/cookies'r = requests.get(url, cookies=jar)print(r.text)
# 输出结果{  "cookies": {    "tasty_cookie": "yum"  }}


重定向与请求历史


默认情况下,除了 HEAD 请求, Requests 会自动处理所有重定向。


可以使用响应对象的 history 方法来追踪重定向。


Response.history 是一个 Response 对象的列表,这个对象列表按照从最老到最近的请求进行排序。


例如,Github 将所有的 HTTP 请求重定向到 HTTPS:


r = requests.get('http://github.com')print(r.url)print(r.status_code)print(r.history)
# 输出结果https://github.com/200[<Response [301]>]


如果你使用的 Mac ,在运行这段代码时报错:ConnectionResetError: [Errno 54] Connection reset by peer。你需要升级你系统的 openssl,具体方法请自行百度关键词“mac 更新OpenSSL”,更新之后就不会报错了。


我们还可以通过 allow_redirects 参数禁用重定向处理:


r = requests.get('http://github.com', allow_redirects=False)print(r.status_code)print(r.history)
# 输出结果301[]


超时


你可以通过设置 timeout 参数来告诉 requests 在经过以 timeout 参数设定的秒数时间之后停止等待响应


requests.get('http://github.com', timeout=0.001)
# 输出结果requests.exceptions.ConnectTimeout: HTTPConnectionPool(host='github.com', port=80): Max retries exceeded with url: / (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x110adf400>, 'Connection to github.com timed out. (connect timeout=0.001)'))


这里通过设置极短的超时时间导致请求停止等待响应,从而引发报错。注意 timeout 仅对连接过程有效,与响应体的下载无关。timeout 并不是整个下载响应的时间限制,而是如果服务器在 timeout 秒内没有应答,将会引发一个异常。


总结


本文给大家介绍了 Requests 的基本用法,如果你对爬虫有了一定的基础,那么肯定可以很快上手,因为 Requests 使用起来简直太方便了。话不多说,感觉上手实践吧!

文中示例代码:python-100-days

目录
相关文章
|
10天前
|
调度 开发者 Python
Python中的异步编程:理解asyncio库
在Python的世界里,异步编程是一种高效处理I/O密集型任务的方法。本文将深入探讨Python的asyncio库,它是实现异步编程的核心。我们将从asyncio的基本概念出发,逐步解析事件循环、协程、任务和期货的概念,并通过实例展示如何使用asyncio来编写异步代码。不同于传统的同步编程,异步编程能够让程序在等待I/O操作完成时释放资源去处理其他任务,从而提高程序的整体效率和响应速度。
|
13天前
|
数据采集 存储 数据挖掘
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第27天】在数据分析领域,Python的Pandas库因其强大的数据处理能力而备受青睐。本文介绍了Pandas在数据导入、清洗、转换、聚合、时间序列分析和数据合并等方面的高效技巧,帮助数据分析师快速处理复杂数据集,提高工作效率。
40 0
|
19天前
|
数据采集 前端开发 算法
Python Requests 的高级使用技巧:应对复杂 HTTP 请求场景
本文介绍了如何使用 Python 的 `requests` 库应对复杂的 HTTP 请求场景,包括 Spider Trap(蜘蛛陷阱)、SESSION 访问限制和请求频率限制。通过代理、CSS 类链接数控制、多账号切换和限流算法等技术手段,提高爬虫的稳定性和效率,增强在反爬虫环境中的生存能力。文中提供了详细的代码示例,帮助读者掌握这些高级用法。
Python Requests 的高级使用技巧:应对复杂 HTTP 请求场景
|
7天前
|
数据库 Python
异步编程不再难!Python asyncio库实战,让你的代码流畅如丝!
在编程中,随着应用复杂度的提升,对并发和异步处理的需求日益增长。Python的asyncio库通过async和await关键字,简化了异步编程,使其变得流畅高效。本文将通过实战示例,介绍异步编程的基本概念、如何使用asyncio编写异步代码以及处理多个异步任务的方法,帮助你掌握异步编程技巧,提高代码性能。
20 4
|
7天前
|
API 数据处理 Python
探秘Python并发新世界:asyncio库,让你的代码并发更优雅!
在Python编程中,随着网络应用和数据处理需求的增长,并发编程变得愈发重要。asyncio库作为Python 3.4及以上版本的标准库,以其简洁的API和强大的异步编程能力,成为提升性能和优化资源利用的关键工具。本文介绍了asyncio的基本概念、异步函数的定义与使用、并发控制和资源管理等核心功能,通过具体示例展示了如何高效地编写并发代码。
16 2
|
12天前
|
数据采集 JSON 测试技术
Python爬虫神器requests库的使用
在现代编程中,网络请求是必不可少的部分。本文详细介绍 Python 的 requests 库,一个功能强大且易用的 HTTP 请求库。内容涵盖安装、基本功能(如发送 GET 和 POST 请求、设置请求头、处理响应)、高级功能(如会话管理和文件上传)以及实际应用场景。通过本文,你将全面掌握 requests 库的使用方法。🚀🌟
33 7
|
28天前
|
网络协议 数据库连接 Python
python知识点100篇系列(17)-替换requests的python库httpx
【10月更文挑战第4天】Requests 是基于 Python 开发的 HTTP 库,使用简单,功能强大。然而,随着 Python 3.6 的发布,出现了 Requests 的替代品 —— httpx。httpx 继承了 Requests 的所有特性,并增加了对异步请求的支持,支持 HTTP/1.1 和 HTTP/2,能够发送同步和异步请求,适用于 WSGI 和 ASGI 应用。安装使用 httpx 需要 Python 3.6 及以上版本,异步请求则需要 Python 3.8 及以上。httpx 提供了 Client 和 AsyncClient,分别用于优化同步和异步请求的性能。
python知识点100篇系列(17)-替换requests的python库httpx
|
13天前
|
机器学习/深度学习 数据采集 算法
Python机器学习:Scikit-learn库的高效使用技巧
【10月更文挑战第28天】Scikit-learn 是 Python 中最受欢迎的机器学习库之一,以其简洁的 API、丰富的算法和良好的文档支持而受到开发者喜爱。本文介绍了 Scikit-learn 的高效使用技巧,包括数据预处理(如使用 Pipeline 和 ColumnTransformer)、模型选择与评估(如交叉验证和 GridSearchCV)以及模型持久化(如使用 joblib)。通过这些技巧,你可以在机器学习项目中事半功倍。
20 3
|
16天前
|
数据采集 数据可视化 数据处理
如何使用Python实现一个交易策略。主要步骤包括:导入所需库(如`pandas`、`numpy`、`matplotlib`)
本文介绍了如何使用Python实现一个交易策略。主要步骤包括:导入所需库(如`pandas`、`numpy`、`matplotlib`),加载历史数据,计算均线和其他技术指标,实现交易逻辑,记录和可视化交易结果。示例代码展示了如何根据均线交叉和价格条件进行开仓、止损和止盈操作。实际应用时需注意数据质量、交易成本和风险管理。
35 5
|
14天前
|
存储 数据挖掘 数据处理
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第26天】Python 是数据分析领域的热门语言,Pandas 库以其高效的数据处理功能成为数据科学家的利器。本文介绍 Pandas 在数据读取、筛选、分组、转换和合并等方面的高效技巧,并通过示例代码展示其实际应用。
29 2