1Python全栈之路系列Web框架介绍

简介:

Python全栈之路系列之Web框架介绍


所有的语言Web框架本质其实就是起一个socket服务端,监听一个端口,然后运行起来

Web框架包含两部分,一部分是socket,另外一部分是业务的逻辑处理,根据请求的不同做不同的处理


Python的Web框架分成了两类,

  1. 即包含socket也包含业务逻辑处理的(tornado)

  2. 不包含socket(框架本身通过第三方模块实现socket)只包含业务逻辑处理(django,Flask)

WSGI的全称是Web Server Gateway Interface,翻译过来就是Web服务器网关接口。具体的来说,WSGI是一个规范,定义了Web服务器如何与Python应用程序进行交互,使得使用Python写的Web应用程序可以和Web服务器对接起来。WSGI一开始是在PEP-0333中定义的,最新版本是在Python的PEP-3333定义的。

wKioL1j-pBDRP81WAAEUN6DYSvI463.png

下面实例的代码中RunServer()函数就是符合WSGI标准的一个HTTP处理函数,它接收两个参数:

  1. environ:一个包含所有HTTP请求信息的dict对象;

  2. start_response:一个发送HTTP响应的函数;

通过wsgiref模块实现一个自定义的web框架

代码的大概逻辑就是: 定义了两个函数index()manage(),如果用户访问的URL是127.0.0.1:8000/index就返回<h1>/index</h1>,如果用户访问的是127.0.0.1:8000/manage就返回/manage,如果访问其他页面就返回404

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
#!/usr/bin/python2
# _*_coding:utf-8 _*_
from  wsgiref.simple_server  import  make_server
 
def  index(arg):
     # 返回一个含有html代码的字符串
     return  "<h1>%s</h1>"  % (arg)
     
def  manage(arg):
     return  arg
     
URLS  =  {
     "/index" : index,
     "/manage" : manage,
}
 
def  RunServer(environ, start_response):
     start_response( '200 OK' , [( 'Content-Type' 'text/html' )])
     url  =  environ[ 'PATH_INFO' ]
     if  url  in  URLS.keys():
         func_name  =  URLS[url]
         ret  =  func_name(url)
     else :
         ret  =  "404"
     return  ret
     
if  __name__  = =  '__main__' :
     httpd  =  make_server('',  8000 , RunServer)
     httpd.serve_forever()

通过本机的curl命令去访问测试

1
2
3
4
5
6
ansheng@Darker:~$ curl  127.0 . 0.1 : 8000 / index
<h1> / index< / h1>
ansheng@Darker:~$ curl  127.0 . 0.1 : 8000 / asdasd
404
ansheng@Darker:~$ curl  127.0 . 0.1 : 8000 / manage
/ manage

无论多么复杂的Web应用程序,入口都是一个WSGI处理函数。HTTP请求的所有输入信息都可以通过environ获得,HTTP响应的输出都可以通过start_response()加上函数返回值作为Body,复杂的Web应用程序,光靠一个WSGI函数来处理还是太底层了,我们需要在WSGI之上再抽象出Web框架,进一步简化Web开发。

MVC and MTV

MVC模式就是架构模式的一种,MVC模式的目的是实作一种动态的程式设计,使后续对程式的修改和扩充功能简化,并且使程式某一部分的重复利用成为可能。除此之外,此模式通过对复杂度的简化,使程式结构更加直觉。

wKiom1j5tdiRc3VPAAAX7GQbjnA071.png-wh_50

软体系统通过对自身基本部分分离的同时也赋予了各个基本部分应有的功能。专业人员可以通过自身的专长分组:

  1. 控制器Controller - 负责转发请求,对请求进行处理;

  2. 视图View - 介面设计人员进行图形介面设计;

  3. 模型Model - 程式设计师编写程式应有的功能(实作演算法等等)、资料库专家进行资料管理和资料库设计(可以实作具体的功能);

MVC中的M是代表MODLE层,V代表VIEW层,C代表Contrl层.
MTV中的M是代表MODLE层,T代表Template(模板层),V代表VIEW层.










本文转自 Edenwy  51CTO博客,原文链接:http://blog.51cto.com/edeny/1918242,如需转载请自行联系原作者
目录
相关文章
|
1天前
|
机器学习/深度学习 JSON 编译器
C++ 资源大全:标准库、Web框架、人工智能等 | 最全整理
C++ 资源列表,内容包括: 标准库、Web应用框架、人工智能、数据库、图片处理、机器学习、日志、代码分析等
8 1
|
1天前
|
Go
golang学习3,golang 项目中配置gin的web框架
golang学习3,golang 项目中配置gin的web框架
|
3天前
|
数据采集 NoSQL 中间件
python-scrapy框架(四)settings.py文件的用法详解实例
python-scrapy框架(四)settings.py文件的用法详解实例
9 0
|
3天前
|
存储 数据采集 数据库
python-scrapy框架(三)Pipeline文件的用法讲解
python-scrapy框架(三)Pipeline文件的用法讲解
7 0
|
3天前
|
存储 数据采集 JSON
python-scrapy框架(二)items文件夹的用法讲解
python-scrapy框架(二)items文件夹的用法讲解
11 0
|
3天前
|
数据采集 前端开发 中间件
python-scrapy框架(一)Spider文件夹的用法讲解
python-scrapy框架(一)Spider文件夹的用法讲解
10 0
|
3天前
|
存储 程序员 API
python web开发示例详解
python web开发示例详解
13 0
|
5天前
|
数据采集 Python
使用Python实现简单的Web爬虫
本文将介绍如何使用Python编写一个简单的Web爬虫,用于抓取网页上的信息。通过分析目标网页的结构,利用Python中的requests和Beautiful Soup库,我们可以轻松地提取所需的数据,并将其保存到本地或进行进一步的分析和处理。无论是爬取新闻、股票数据,还是抓取图片等,本文都将为您提供一个简单而有效的解决方案。
|
5天前
|
持续交付 Python
使用Python实现自动化Web内容巡检
使用Python实现自动化Web内容巡检
17 1
|
6天前
|
数据采集 存储 XML
如何利用Python构建高效的Web爬虫
本文将介绍如何使用Python语言以及相关的库和工具,构建一个高效的Web爬虫。通过深入讨论爬虫的基本原理、常用的爬虫框架以及优化技巧,读者将能够了解如何编写可靠、高效的爬虫程序,实现数据的快速获取和处理。