Python网络编程——静态Web服务器进阶版

简介: 可以返回请求的指定页面,没有请求的该文件,则返回404状态信息。

概述

可以返回请求的指定页面没有请求的该文件,则返回404状态信息。


实现步骤

1.导入socket、os包

importsocketimportos


2.创建tcp服务端套接字

tcp_server_socket=socket.socket(socket.AF_INET, socket.SOCK_STREAM)


3.绑定端口号

tcp_server_socket.bind(("", 8000))


4.设置监听

tcp_server_socket.listen(128)


5.等待接受客户端的连接请求

new_socket, ip_port=tcp_server_socket.accept()


6.接收客户端的请求信息

recv_data=new_socket.recv(4096)
# 判断接收的数据长度是否为0iflen(recv_data) ==0:
new_socket.close()
return


7.对二进制数据进行解码

recv_content=recv_data.decode("utf-8")
print(recv_content)


8.对数据按照空格进行分割

request_list=recv_content.split(" ", maxsplit=2)


9.获取请求的资源路径

request_path=request_list[1]
print(request_path)


10.判断请求的是否是根目录,如果是根目录设置返回的信息

ifrequest_path=="/":
request_path="/index.html"


11.报文处理

try:
# 打开文件读取文件中的数据, 提示:这里使用rb模式,兼容打开图片文件withopen("static"+request_path, "rb") asfile:  # 这里的file表示打开文件的对象file_data=file.read()
# 提示: with open 关闭文件这步操作不用程序员来完成,系统帮我们来完成exceptExceptionase:
# 代码执行到此,说明没有请求的该文件,返回404状态信息# 响应行response_line="HTTP/1.1 404 Not Found\r\n"# 响应头response_header="Server: PWS/1.0\r\n"# 读取404页面数据withopen("static/error.html", "rb") asfile:
file_data=file.read()
# 响应体response_body=file_data# 把数据封装成http 响应报文格式的数据response= (response_line+response_header+"\r\n").encode("utf-8") +response_body# 发送给浏览器的响应报文数据new_socket.send(response)
else:
# 代码执行到此,说明文件存在,返回200状态信息# 响应行response_line="HTTP/1.1 200 OK\r\n"# 响应头response_header="Server: PWS/1.0\r\n"# 响应体response_body=file_data# 把数据封装成http 响应报文格式的数据response= (response_line+response_header+"\r\n").encode("utf-8") +response_body# 发送给浏览器的响应报文数据new_socket.send(response)
finally:
# 关闭服务于客户端的套接字new_socket.close()


代码实现


importsocketimportosdefmain():
# 创建tcp服务端套接字tcp_server_socket=socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 设置端口号复用,程序退出端口号立即释放tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, True)
# 绑定端口号tcp_server_socket.bind(("", 8000))
# 设置监听tcp_server_socket.listen(128)
# 循环等待接受客户端的连接请求whileTrue:
# 等待接受客户端的连接请求new_socket, ip_port=tcp_server_socket.accept()
# 代码执行到此,说明连接建立成功# 接收客户端的请求信息recv_data=new_socket.recv(4096)
# 判断接收的数据长度是否为0iflen(recv_data) ==0:
new_socket.close()
return# 对二进制数据进行解码recv_content=recv_data.decode("utf-8")
print(recv_content)
# 对数据按照空格进行分割request_list=recv_content.split(" ", maxsplit=2)
# 获取请求的资源路径request_path=request_list[1]
print(request_path)
# 判断请求的是否是根目录,如果是根目录设置返回的信息ifrequest_path=="/":
request_path="/index.html"# 1. os.path.exits# os.path.exists("static/" + request_path)# 2. try-excepttry:
# 打开文件读取文件中的数据, 提示:这里使用rb模式,兼容打开图片文件withopen("static"+request_path, "rb") asfile:  # 这里的file表示打开文件的对象file_data=file.read()
# 提示: with open 关闭文件这步操作不用程序员来完成,系统帮我们来完成exceptExceptionase:
# 代码执行到此,说明没有请求的该文件,返回404状态信息# 响应行response_line="HTTP/1.1 404 Not Found\r\n"# 响应头response_header="Server: PWS/1.0\r\n"# 读取404页面数据withopen("static/error.html", "rb") asfile:
file_data=file.read()
# 响应体response_body=file_data# 把数据封装成http 响应报文格式的数据response= (response_line+response_header+"\r\n").encode("utf-8") +response_body# 发送给浏览器的响应报文数据new_socket.send(response)
else:
# 代码执行到此,说明文件存在,返回200状态信息# 响应行response_line="HTTP/1.1 200 OK\r\n"# 响应头response_header="Server: PWS/1.0\r\n"# 响应体response_body=file_data# 把数据封装成http 响应报文格式的数据response= (response_line+response_header+"\r\n").encode("utf-8") +response_body# 发送给浏览器的响应报文数据new_socket.send(response)
finally:
# 关闭服务于客户端的套接字new_socket.close()
# 判断是否是主模块的代码if__name__=='__main__':
main()



目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
282 55
|
2月前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
2月前
|
Python
Python中的异步编程:使用asyncio和aiohttp实现高效网络请求
【10月更文挑战第34天】在Python的世界里,异步编程是提高效率的利器。本文将带你了解如何使用asyncio和aiohttp库来编写高效的网络请求代码。我们将通过一个简单的示例来展示如何利用这些工具来并发地处理多个网络请求,从而提高程序的整体性能。准备好让你的Python代码飞起来吧!
111 2
|
2月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
139 6
|
2月前
|
安全 网络安全 数据安全/隐私保护
|
3月前
|
机器学习/深度学习 人工智能 运维
企业内训|LLM大模型在服务器和IT网络运维中的应用-某日企IT运维部门
本课程是为某在华日资企业集团的IT运维部门专门定制开发的企业培训课程,本课程旨在深入探讨大型语言模型(LLM)在服务器及IT网络运维中的应用,结合当前技术趋势与行业需求,帮助学员掌握LLM如何为运维工作赋能。通过系统的理论讲解与实践操作,学员将了解LLM的基本知识、模型架构及其在实际运维场景中的应用,如日志分析、故障诊断、网络安全与性能优化等。
108 2
|
1月前
|
机器学习/深度学习 人工智能 算法
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
188 29
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
|
1月前
|
Kubernetes 安全 Devops
有效抵御网络应用及API威胁,聊聊F5 BIG-IP Next Web应用防火墙
有效抵御网络应用及API威胁,聊聊F5 BIG-IP Next Web应用防火墙
72 10
有效抵御网络应用及API威胁,聊聊F5 BIG-IP Next Web应用防火墙
|
29天前
|
缓存 负载均衡 监控
HTTP代理服务器在网络安全中的重要性
随着科技和互联网的发展,HTTP代理IP中的代理服务器在企业业务中扮演重要角色。其主要作用包括:保护用户信息、访问控制、缓存内容、负载均衡、日志记录和协议转换,从而在网络管理、性能优化和安全性方面发挥关键作用。
64 2
|
2月前
|
网络安全 Python
Python网络编程小示例:生成CIDR表示的IP地址范围
本文介绍了如何使用Python生成CIDR表示的IP地址范围,通过解析CIDR字符串,将其转换为二进制形式,应用子网掩码,最终生成该CIDR块内所有可用的IP地址列表。示例代码利用了Python的`ipaddress`模块,展示了从指定CIDR表达式中提取所有IP地址的过程。
66 6

热门文章

最新文章