python爬虫入门requests模块

简介: python爬虫入门requests模块

Requests

Python标准库中提供了:urllib、urllib2、httplib等模块以供Http请求,

但是,它的 API 太渣了。它是为另一个时代、另一个互联网所创建的。

它需要巨量的工作,甚至包括各种方法覆盖,来完成最简单的任务。


Requests 是使用 Apache2 Licensed 许可证的 基于Python开发的HTTP 库,

其在Python内置模块的基础上进行了高度的封装,从而使得Pythoner进行网络请求时,

变得美好了许多,使用Requests可以轻而易举的完成浏览器可有的任何操作。


简介

安装:  

pip install requests

requests常用属性:

response = requests.get(url)
    response.text
    response.content
    response.encoding
    response.apparent_encoding
    response.status_code
            301 永久重定向
            302 临时重定向
    response.cookies.get_dict()

1、GET请求

1、无参数实例

import requests
    ret = requests.get('https://github.com/timeline.json')
    print ret.url
    print ret.text

2、有参数实例

import requests
    payload = {'key1': 'value1', 'key2': 'value2'}
    ret = requests.get("http://httpbin.org/get", params=payload)
    print ret.url
    print ret.text

2、POST请求

1、基本POST实例

import requests
    payload = {'key1': 'value1', 'key2': 'value2'}
    ret = requests.post("http://httpbin.org/post", data=payload)
    print ret.text

2、发送请求头和数据实例

import requests
    import json
    url = 'https://api.github.com/some/endpoint'
    payload = {'some': 'data'}
    headers = {'content-type': 'application/json'}
    ret = requests.post(url, data=json.dumps(payload), headers=headers)
    print ret.text
    print ret.cookies

3、其他请求

requests.get(url, params=None, **kwargs)
    requests.post(url, data=None, json=None, **kwargs)
    requests.put(url, data=None, **kwargs)
    requests.head(url, **kwargs)
    requests.delete(url, **kwargs)
    requests.patch(url, data=None, **kwargs)
    requests.options(url, **kwargs)
    # 以上方法均是在此方法的基础上构建
    requests.request(method, url, **kwargs)

4、更多参数


 

def request(method, url, **kwargs):
        """Constructs and sends a :class:`Request <Request>`.
        :param method: method for the new :class:`Request` object.
        :param url: URL for the new :class:`Request` object.
        :param params: (optional) Dictionary or bytes to be sent in the query string for the :class:`Request`.
        :param data: (optional) Dictionary, bytes, or file-like object to send in the body of the :class:`Request`.
        :param json: (optional) json data to send in the body of the :class:`Request`.
        :param headers: (optional) Dictionary of HTTP Headers to send with the :class:`Request`.
        :param cookies: (optional) Dict or CookieJar object to send with the :class:`Request`.
        :param files: (optional) Dictionary of ``'name': file-like-objects`` (or ``{'name': file-tuple}``) for multipart encoding upload.
            ``file-tuple`` can be a 2-tuple ``('filename', fileobj)``, 3-tuple ``('filename', fileobj, 'content_type')``
            or a 4-tuple ``('filename', fileobj, 'content_type', custom_headers)``, where ``'content-type'`` is a string
            defining the content type of the given file and ``custom_headers`` a dict-like object containing additional headers
            to add for the file.
        :param auth: (optional) Auth tuple to enable Basic/Digest/Custom HTTP Auth.
        :param timeout: (optional) How long to wait for the server to send data
            before giving up, as a float, or a :ref:`(connect timeout, read
            timeout) <timeouts>` tuple.
        :type timeout: float or tuple
        :param allow_redirects: (optional) Boolean. Set to True if POST/PUT/DELETE redirect following is allowed.
        :type allow_redirects: bool
        :param proxies: (optional) Dictionary mapping protocol to the URL of the proxy.
        :param verify: (optional) whether the SSL cert will be verified. A CA_BUNDLE path can also be provided. Defaults to ``True``.
        :param stream: (optional) if ``False``, the response content will be immediately downloaded.
        :param cert: (optional) if String, path to ssl client cert file (.pem). If Tuple, ('cert', 'key') pair.
        :return: :class:`Response <Response>` object
        :rtype: requests.Response
        Usage::
          >>> import requests
          >>> req = requests.request('GET', 'http://httpbin.org/get')
          <Response [200]>
        """
    def param_method_url():
        requests.request(method='get', url='http://127.0.0.1:8000/test/')
        requests.request(method='post', url='http://127.0.0.1:8000/test/')
    def param_param():
        # - 可以是字典
        # - 可以是字符串
        # - 可以是字节(ascii编码以内)
        requests.request(method='get',
        url='http://127.0.0.1:8000/test/',
        params={'k1': 'v1', 'k2': '水电费'})
        requests.request(method='get',
        url='http://127.0.0.1:8000/test/',
        params="k1=v1&k2=水电费&k3=v3&k3=vv3")
        requests.request(method='get',
        url='http://127.0.0.1:8000/test/',
        params=bytes("k1=v1&k2=k2&k3=v3&k3=vv3", encoding='utf8'))
        # 错误
        requests.request(method='get',
        url='http://127.0.0.1:8000/test/',
        params=bytes("k1=v1&k2=水电费&k3=v3&k3=vv3", encoding='utf8'))
    def param_data():
        # 可以是字典
        # 可以是字符串
        # 可以是字节
        # 可以是文件对象
        requests.request(method='POST',
            url='http://127.0.0.1:8000/test/',
            data={'k1': 'v1', 'k2': '水电费'})
        requests.request(method='POST',
            url='http://127.0.0.1:8000/test/',
            data="k1=v1; k2=v2; k3=v3; k3=v4")
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        data="k1=v1;k2=v2;k3=v3;k3=v4",
        headers={'Content-Type': 'application/x-www-form-urlencoded'})
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        data=open('data_file.py', mode='r', encoding='utf-8'),
        # 文件内容是:k1=v1;k2=v2;k3=v3;k3=v4
        headers={'Content-Type': 'application/x-www-form-urlencoded'})
    def param_json():
        # 将json中对应的数据进行序列化成一个字符串,json.dumps(...)
        # 然后发送到服务器端的body中,并且Content-Type是
        # {'Content-Type': 'application/json'}
        requests.request(method='POST',
                 url='http://127.0.0.1:8000/test/',
                 json={'k1': 'v1', 'k2': '水电费'})
    def param_headers():
        # 发送请求头到服务器端
        requests.request(method='POST',
                 url='http://127.0.0.1:8000/test/',
                 json={'k1': 'v1', 'k2': '水电费'},
                 headers={'Content-Type': 'application/x-www-form-urlencoded'}
                 )
    def param_cookies():
        # 发送Cookie到服务器端
        requests.request(method='POST',
             url='http://127.0.0.1:8000/test/',
             data={'k1': 'v1', 'k2': 'v2'},
             cookies={'cook1': 'value1'},
             )
        # 也可以使用CookieJar(字典形式就是在此基础上封装)
        from http.cookiejar import CookieJar
        from http.cookiejar import Cookie
        obj = CookieJar()
        obj.set_cookie(Cookie(version=0, name='c1', value='v1', port=None, domain='', path='/', secure=False, expires=None,
                              discard=True, comment=None, comment_url=None, rest={'HttpOnly': None}, rfc2109=False,
                              port_specified=False, domain_specified=False, domain_initial_dot=False, path_specified=False)
                       )
        requests.request(method='POST',
                         url='http://127.0.0.1:8000/test/',
                         data={'k1': 'v1', 'k2': 'v2'},
                         cookies=obj)
    def param_files():
        # 发送文件
        file_dict = {
        'f1': open('readme', 'rb')
        }
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        files=file_dict)
        # 发送文件,定制文件名
        file_dict = {
        'f1': ('test.txt', open('readme', 'rb'))
        }
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        files=file_dict)
        # 发送文件,定制文件名
        file_dict = {
        'f1': ('test.txt', "hahsfaksfa9kasdjflaksdjf")
        }
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        files=file_dict)
        # 发送文件,定制文件名
        file_dict = {
            'f1': ('test.txt', "hahsfaksfa9kasdjflaksdjf",
                'application/text', {'k1': '0'})
         }
          requests.request(method='POST',
                 url='http://127.0.0.1:8000/test/',
                 files=file_dict)
    def param_auth():
        from requests.auth import HTTPBasicAuth, HTTPDigestAuth
        ret = requests.get('https://api.github.com/user',
            auth=HTTPBasicAuth('wupeiqi', 'sdfasdfasdf'))
        print(ret.text)
        ret = requests.get('http://192.168.1.1',
            auth=HTTPBasicAuth('admin', 'admin'))
        ret.encoding = 'gbk'
        print(ret.text)
        ret = requests.get('http://httpbin.org/digest-auth/auth/user/pass',
            auth=HTTPDigestAuth('user', 'pass'))
        print(ret)
    def param_timeout():
        ret = requests.get('http://google.com/', timeout=1)
        print(ret)
        ret = requests.get('http://google.com/', timeout=(5, 1))
        print(ret)
    def param_allow_redirects():
        ret = requests.get('http://127.0.0.1:8000/test/', allow_redirects=False)
        print(ret.text)
    def param_proxies():
        proxies = {
            "http": "61.172.249.96:80",
            "https": "http://61.185.219.126:3128",
        }
        proxies = {'http://10.20.1.128': 'http://10.10.1.10:5323'}
        ret = requests.get("http://www.proxy360.cn/Proxy", proxies=proxies)
        print(ret.headers)
        from requests.auth import HTTPProxyAuth
        proxyDict = {
            'http': '77.75.105.165',
            'https': '77.75.105.165'
        }
        auth = HTTPProxyAuth('username', 'mypassword')
        r = requests.get("http://www.google.com", proxies=proxyDict, auth=auth)
        print(r.text)
    def param_stream():
        ret = requests.get('http://127.0.0.1:8000/test/', stream=True)
        print(ret.content)
        ret.close()
        from contextlib import closing
        with closing(requests.get('http://httpbin.org/get', stream=True)) as r:
            # 在此处理响应。
            for i in r.iter_content():
                print(i)
    def requests_session():
        import requests
        session = requests.Session()
        # 1、首先登陆任何页面,获取cookie
        i1 = session.get(url="http://dig.chouti.com/help/service")
        # 2、用户登陆,携带上一次的cookie,后台对cookie中的 gpsd 进行授权
        i2 = session.post(
            url="http://dig.chouti.com/login",
            data={
                'phone': "8615131255089",
                'password': "xxxxxx",
                'oneMonth': ""
            }
        )
        i3 = session.post(
            url="http://dig.chouti.com/link/vote?linksId=8589623",
        )
        print(i3.text)
相关文章
|
1天前
|
数据采集 存储 数据挖掘
深入探索 Python 爬虫:高级技术与实战应用
本文介绍了Python爬虫的高级技术,涵盖并发处理、反爬虫策略(如验证码识别与模拟登录)及数据存储与处理方法。通过asyncio库实现异步爬虫,提升效率;利用tesseract和requests库应对反爬措施;借助SQLAlchemy和pandas进行数据存储与分析。实战部分展示了如何爬取电商网站的商品信息及新闻网站的文章内容。提醒读者在实际应用中需遵守法律法规。
103 66
|
2天前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python进行数据分析的入门指南
【9月更文挑战第33天】本文旨在为初学者提供一个关于使用Python进行数据分析的全面概述。我们将从基本的安装和设置开始,逐步介绍数据处理、数据可视化以及机器学习的基本概念和应用。文章将通过实际代码示例来展示如何使用Python及其相关库来解决常见的数据分析问题。
|
6天前
|
JSON API 数据格式
30天拿下Python之requests模块
30天拿下Python之requests模块
18 7
|
6天前
|
人工智能 数据可视化 搜索推荐
Python异常模块与包
Python异常模块与包
|
6天前
|
数据可视化 Python
使用Python进行数据可视化:从入门到精通
【8月更文挑战第60天】本文是一篇面向初学者的Python数据可视化教程,旨在帮助读者掌握如何使用Python及其强大的库(如Matplotlib和Seaborn)来创建引人入胜的数据可视化。我们将从基础开始,逐步深入,最终达到能够独立完成复杂数据可视化项目的水平。无论你的背景如何,只要你对数据可视化感兴趣,这篇文章都将为你开启一段新的学习之旅。
|
1天前
|
测试技术 数据安全/隐私保护 开发者
Python中的装饰器:从入门到精通
【9月更文挑战第34天】 在Python的世界里,装饰器是一个既强大又神秘的工具,它允许我们在不修改函数代码的情况下增加函数的功能。本文将通过浅显易懂的语言和实际的代码示例,带领读者从零开始理解装饰器的概念、原理和应用,直至能够熟练运用它来优化代码结构、增强代码可读性和提高开发效率。
7 0
|
5天前
|
Linux Python Windows
一个Python模块Pendulum的问题
一个Python模块Pendulum的问题
11 0
|
2月前
|
数据采集 存储 中间件
Python进行网络爬虫:Scrapy框架的实践
【8月更文挑战第17天】网络爬虫是自动化程序,用于从互联网收集信息。Python凭借其丰富的库和框架成为构建爬虫的首选语言。Scrapy作为一款流行的开源框架,简化了爬虫开发过程。本文介绍如何使用Python和Scrapy构建简单爬虫:首先安装Scrapy,接着创建新项目并定义爬虫,指定起始URL和解析逻辑。运行爬虫可将数据保存为JSON文件或存储到数据库。此外,Scrapy支持高级功能如中间件定制、分布式爬取、动态页面渲染等。在实践中需遵循最佳规范,如尊重robots.txt协议、合理设置爬取速度等。通过本文,读者将掌握Scrapy基础并了解如何高效地进行网络数据采集。
150 6
|
2月前
|
数据采集 存储 JSON
Python爬虫开发:BeautifulSoup、Scrapy入门
在现代网络开发中,网络爬虫是一个非常重要的工具。它可以自动化地从网页中提取数据,并且可以用于各种用途,如数据收集、信息聚合和内容监控等。在Python中,有多个库可以用于爬虫开发,其中BeautifulSoup和Scrapy是两个非常流行的选择。本篇文章将详细介绍这两个库,并提供一个综合详细的例子,展示如何使用它们来进行网页数据爬取。
|
5月前
|
数据采集 存储 中间件
Python高效爬虫——scrapy介绍与使用
Scrapy是一个快速且高效的网页抓取框架,用于抓取网站并从中提取结构化数据。它可用于多种用途,从数据挖掘到监控和自动化测试。 相比于自己通过requests等模块开发爬虫,scrapy能极大的提高开发效率,包括且不限于以下原因: 1. 它是一个异步框架,并且能通过配置调节并发量,还可以针对域名或ip进行精准控制 2. 内置了xpath等提取器,方便提取结构化数据 3. 有爬虫中间件和下载中间件,可以轻松地添加、修改或删除请求和响应的处理逻辑,从而增强了框架的可扩展性 4. 通过管道方式存储数据,更加方便快捷的开发各种数据储存方式
下一篇
无影云桌面