Python网络编程——静态Web服务器进阶版

简介: 可以返回请求的指定页面,没有请求的该文件,则返回404状态信息。

概述

可以返回请求的指定页面没有请求的该文件,则返回404状态信息。


实现步骤

1.导入socket、os包

importsocketimportos


2.创建tcp服务端套接字

tcp_server_socket=socket.socket(socket.AF_INET, socket.SOCK_STREAM)


3.绑定端口号

tcp_server_socket.bind(("", 8000))


4.设置监听

tcp_server_socket.listen(128)


5.等待接受客户端的连接请求

new_socket, ip_port=tcp_server_socket.accept()


6.接收客户端的请求信息

recv_data=new_socket.recv(4096)
# 判断接收的数据长度是否为0iflen(recv_data) ==0:
new_socket.close()
return


7.对二进制数据进行解码

recv_content=recv_data.decode("utf-8")
print(recv_content)


8.对数据按照空格进行分割

request_list=recv_content.split(" ", maxsplit=2)


9.获取请求的资源路径

request_path=request_list[1]
print(request_path)


10.判断请求的是否是根目录,如果是根目录设置返回的信息

ifrequest_path=="/":
request_path="/index.html"


11.报文处理

try:
# 打开文件读取文件中的数据, 提示:这里使用rb模式,兼容打开图片文件withopen("static"+request_path, "rb") asfile:  # 这里的file表示打开文件的对象file_data=file.read()
# 提示: with open 关闭文件这步操作不用程序员来完成,系统帮我们来完成exceptExceptionase:
# 代码执行到此,说明没有请求的该文件,返回404状态信息# 响应行response_line="HTTP/1.1 404 Not Found\r\n"# 响应头response_header="Server: PWS/1.0\r\n"# 读取404页面数据withopen("static/error.html", "rb") asfile:
file_data=file.read()
# 响应体response_body=file_data# 把数据封装成http 响应报文格式的数据response= (response_line+response_header+"\r\n").encode("utf-8") +response_body# 发送给浏览器的响应报文数据new_socket.send(response)
else:
# 代码执行到此,说明文件存在,返回200状态信息# 响应行response_line="HTTP/1.1 200 OK\r\n"# 响应头response_header="Server: PWS/1.0\r\n"# 响应体response_body=file_data# 把数据封装成http 响应报文格式的数据response= (response_line+response_header+"\r\n").encode("utf-8") +response_body# 发送给浏览器的响应报文数据new_socket.send(response)
finally:
# 关闭服务于客户端的套接字new_socket.close()


代码实现


importsocketimportosdefmain():
# 创建tcp服务端套接字tcp_server_socket=socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 设置端口号复用,程序退出端口号立即释放tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, True)
# 绑定端口号tcp_server_socket.bind(("", 8000))
# 设置监听tcp_server_socket.listen(128)
# 循环等待接受客户端的连接请求whileTrue:
# 等待接受客户端的连接请求new_socket, ip_port=tcp_server_socket.accept()
# 代码执行到此,说明连接建立成功# 接收客户端的请求信息recv_data=new_socket.recv(4096)
# 判断接收的数据长度是否为0iflen(recv_data) ==0:
new_socket.close()
return# 对二进制数据进行解码recv_content=recv_data.decode("utf-8")
print(recv_content)
# 对数据按照空格进行分割request_list=recv_content.split(" ", maxsplit=2)
# 获取请求的资源路径request_path=request_list[1]
print(request_path)
# 判断请求的是否是根目录,如果是根目录设置返回的信息ifrequest_path=="/":
request_path="/index.html"# 1. os.path.exits# os.path.exists("static/" + request_path)# 2. try-excepttry:
# 打开文件读取文件中的数据, 提示:这里使用rb模式,兼容打开图片文件withopen("static"+request_path, "rb") asfile:  # 这里的file表示打开文件的对象file_data=file.read()
# 提示: with open 关闭文件这步操作不用程序员来完成,系统帮我们来完成exceptExceptionase:
# 代码执行到此,说明没有请求的该文件,返回404状态信息# 响应行response_line="HTTP/1.1 404 Not Found\r\n"# 响应头response_header="Server: PWS/1.0\r\n"# 读取404页面数据withopen("static/error.html", "rb") asfile:
file_data=file.read()
# 响应体response_body=file_data# 把数据封装成http 响应报文格式的数据response= (response_line+response_header+"\r\n").encode("utf-8") +response_body# 发送给浏览器的响应报文数据new_socket.send(response)
else:
# 代码执行到此,说明文件存在,返回200状态信息# 响应行response_line="HTTP/1.1 200 OK\r\n"# 响应头response_header="Server: PWS/1.0\r\n"# 响应体response_body=file_data# 把数据封装成http 响应报文格式的数据response= (response_line+response_header+"\r\n").encode("utf-8") +response_body# 发送给浏览器的响应报文数据new_socket.send(response)
finally:
# 关闭服务于客户端的套接字new_socket.close()
# 判断是否是主模块的代码if__name__=='__main__':
main()



目录
相关文章
|
15天前
|
Python
Python中的异步编程:使用asyncio和aiohttp实现高效网络请求
【10月更文挑战第34天】在Python的世界里,异步编程是提高效率的利器。本文将带你了解如何使用asyncio和aiohttp库来编写高效的网络请求代码。我们将通过一个简单的示例来展示如何利用这些工具来并发地处理多个网络请求,从而提高程序的整体性能。准备好让你的Python代码飞起来吧!
36 2
|
22天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
64 6
|
10天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
垃圾识别分类系统。本系统采用Python作为主要编程语言,通过收集了5种常见的垃圾数据集('塑料', '玻璃', '纸张', '纸板', '金属'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对图像数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。然后使用Django搭建Web网页端可视化操作界面,实现用户在网页端上传一张垃圾图片识别其名称。
41 0
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
|
15天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
39 3
|
24天前
|
缓存 监控 Linux
Python 实时获取Linux服务器信息
Python 实时获取Linux服务器信息
|
20天前
|
数据采集 存储 XML
Python实现网络爬虫自动化:从基础到实践
本文将介绍如何使用Python编写网络爬虫,从最基础的请求与解析,到自动化爬取并处理复杂数据。我们将通过实例展示如何抓取网页内容、解析数据、处理图片文件等常用爬虫任务。
114 1
|
23天前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
50 4
|
23天前
|
网络协议 物联网 API
Python网络编程:Twisted框架的异步IO处理与实战
【10月更文挑战第26天】Python 是一门功能强大且易于学习的编程语言,Twisted 框架以其事件驱动和异步IO处理能力,在网络编程领域独树一帜。本文深入探讨 Twisted 的异步IO机制,并通过实战示例展示其强大功能。示例包括创建简单HTTP服务器,展示如何高效处理大量并发连接。
40 1
|
24天前
|
数据采集 存储 机器学习/深度学习
构建高效的Python网络爬虫
【10月更文挑战第25天】本文将引导你通过Python编程语言实现一个高效网络爬虫。我们将从基础的爬虫概念出发,逐步讲解如何利用Python强大的库和框架来爬取、解析网页数据,以及存储和管理这些数据。文章旨在为初学者提供一个清晰的爬虫开发路径,同时为有经验的开发者提供一些高级技巧。
17 1
|
26天前
|
Kubernetes 网络协议 Python
Python网络编程:从Socket到Web应用
在信息时代,网络编程是软件开发的重要组成部分。Python作为多用途编程语言,提供了从Socket编程到Web应用开发的强大支持。本文将从基础的Socket编程入手,逐步深入到复杂的Web应用开发,涵盖Flask、Django等框架的应用,以及异步Web编程和微服务架构。通过本文,读者将全面了解Python在网络编程领域的应用。
22 1
下一篇
无影云桌面