Flask获取post,get参数,以及 爬虫 requests的get,post参数详解

简介: Flask获取post,get参数,以及 爬虫 requests的get,post参数详解

1.Flask-----get


@app.route('/get',methods=["get"])
def get():
    print(f"request.args{request.args}")
    return 'GET!'

View Code

2.Flask-----post

@app.route('/post',methods=["post"])
def post():
    print(f"request.form{request.form}")
    print(f"request.get_data{request.get_data()}")
    print(f"request.get_json{request.get_json()}")
    print(f"request.files{request.files}")
    return 'POST!'

View Code

3.爬虫之get方法参数详解

import requests,json
url_get = "http://127.0.0.1:5000/get"
pm = {"name":"my name is Get"}
res = requests.get(url_get,params=pm)
print(res.text)
'''
1.params = 字典
request.argsImmutableMultiDict([('name', 'my name is Get')])
'''

View Code

4.爬虫之post方法参数详解

import requests,json
url_post = "http://127.0.0.1:5000/post"
data_data = {"name":"my name is POST_data"}
data_json = {"name":"my name is POST_json"}
res = requests.post(url_post,data=json.dumps(data_data),json=data_json)
print(res.text)
"""
有data,那么json就不生效
1.json=data_json
request.get_data   b'{"name": "my name is POST_json"}'
request.get_json   {'name': 'my name is POST_json'}
2.json=json.dumps(data_json)
request.get_datab'"{\\"name\\": \\"my name is POST_json\\"}"'
request.get_json{"name": "my name is POST_json"}
3.data=data_data
request.form    ImmutableMultiDict([('name', 'my name is POST_data')])
4.data=json.dumps(data_data)
request.get_data b'{"name": "my name is POST_data"}'
"""

View Code

5.爬虫之传参文件:

res = requests.post(url, files={"key": open(file_url, "rb")})
相关文章
|
4月前
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
【7月更文挑战第31天】在网络数据的海洋中,使用Python的`requests`库构建网络爬虫就像探索未知的航船。HTTP协议指导爬虫与服务器交流,收集信息。HTTP请求包括请求行、头和体,响应则含状态行、头和体。`requests`简化了发送各种HTTP请求的过程。
81 4
|
4天前
|
数据采集 JSON 测试技术
Python爬虫神器requests库的使用
在现代编程中,网络请求是必不可少的部分。本文详细介绍 Python 的 requests 库,一个功能强大且易用的 HTTP 请求库。内容涵盖安装、基本功能(如发送 GET 和 POST 请求、设置请求头、处理响应)、高级功能(如会话管理和文件上传)以及实际应用场景。通过本文,你将全面掌握 requests 库的使用方法。🚀🌟
21 7
|
2月前
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
在网络数据的海洋中,网络爬虫遵循HTTP协议,穿梭于互联网各处,收集宝贵信息。本文将从零开始,使用Python的requests库,深入解析HTTP协议,助你构建自己的网络爬虫帝国。首先介绍HTTP协议基础,包括请求与响应结构;然后详细介绍requests库的安装与使用,演示如何发送GET和POST请求并处理响应;最后概述爬虫构建流程及挑战,帮助你逐步掌握核心技术,畅游数据海洋。
66 3
|
2月前
|
数据采集 API 开发者
🚀告别网络爬虫小白!urllib与requests联手,Python网络请求实战全攻略
在网络的广阔世界里,Python凭借其简洁的语法和强大的库支持,成为开发网络爬虫的首选语言。本文将通过实战案例,带你探索urllib和requests两大神器的魅力。urllib作为Python内置库,虽API稍显繁琐,但有助于理解HTTP请求本质;requests则简化了请求流程,使开发者更专注于业务逻辑。从基本的网页内容抓取到处理Cookies与Session,我们将逐一剖析,助你从爬虫新手成长为高手。
64 1
|
3月前
|
数据采集 数据可视化 关系型数据库
【优秀python web设计】基于Python flask的猫眼电影可视化系统,可视化用echart,前端Layui,数据库用MySQL,包括爬虫
本文介绍了一个基于Python Flask框架、MySQL数据库和Layui前端框架的猫眼电影数据采集分析与可视化系统,该系统通过爬虫技术采集电影数据,利用数据分析库进行处理,并使用Echart进行数据的可视化展示,以提供全面、准确的电影市场分析结果。
107 4
|
3月前
|
数据采集 数据可视化 前端开发
基于python flask的旅游数据大屏实现,有爬虫有数据库
本文介绍了一个基于Python Flask框架开发的旅游数据大屏系统,该系统集成了爬虫技术、数据库存储和ECharts数据可视化,提供了一个全面、实时更新的旅游信息展示平台,旨在提升旅游行业用户体验和决策效率。
|
3月前
|
数据采集 程序员 测试技术
比 requests 更强大 Python 库,让你的爬虫效率提高一倍!
比 requests 更强大 Python 库,让你的爬虫效率提高一倍!
|
4月前
|
数据采集 XML 数据挖掘
构建高效Python爬虫:探索BeautifulSoup与Requests库的协同工作
【7月更文挑战第31天】在数据驱动的世界里,掌握网络数据采集技术变得尤为重要。本文将深入探讨如何利用Python语言中的BeautifulSoup和Requests库来构建一个高效的网络爬虫。我们将通过实际案例,展示这两个库如何在爬取网页数据时相互配合,以及如何通过简单的编码实现数据的精准抓取。文章不仅提供代码示例,还讨论了在使用这些工具时应注意的一些常见陷阱和最佳实践。无论你是数据分析师、研究人员还是对爬虫技术感兴趣的程序员,这篇文章都将为你提供一个清晰的指导框架,帮助你快速入门并提高你的爬虫技能。
70 1
|
4月前
|
API Python
python flask 提供web的get/post开发
python flask 提供web的get/post开发
45 0
|
7天前
|
JSON API 数据格式
如何使用Python和Flask构建一个简单的RESTful API。Flask是一个轻量级的Web框架
本文介绍了如何使用Python和Flask构建一个简单的RESTful API。Flask是一个轻量级的Web框架,适合小型项目和微服务。文章从环境准备、创建基本Flask应用、定义资源和路由、请求和响应处理、错误处理等方面进行了详细说明,并提供了示例代码。通过这些步骤,读者可以快速上手构建自己的RESTful API。
19 2