Python进阶---网络编程

简介: Python进阶---网络编程

一、网络编程

ip地址: 网络中标识唯一一台网络设备的编号


在同一个局域网中的网段是相同的


产看电脑的ip地址


mac/linux : ifconfig


win: ipconfig


ip地址:


ipv4 : 已经枯竭了


ipv6 : 够用的


ping 命令:


检测网络是否畅通


ping localhost 等价于 ping 127.0.0.1 检测本机网络环境是否畅通


二、端口

端口: 网络数据毕竟的地方


端口号: 对端口的编号


在网络中通过ip地址可以找到一个网络设备, 通过端口号可以找到这台网络设备中的一个网络程序


端口号的分类


知名端口


0~1023


动态端口


1024~65535


测试端口


8080


三、TCP协议

网络中通过tcp协议进行建立链接需要


建立链接

  1. 三次握手的机制(链接建立成功)

  1. 数据通讯

发送发送应答机制(发送一个数据后一定会接收到一个应答 这才是一个完整的数据通讯)


超时重传(发送一个数据以后, 在一定的时间内没有接受到回答, 重写发送一个数据)


错误校验,发送数据的时候,会在数据的开头标明数据的信息(数据长度10)


流量控制


四、socekt(本地套接字)

socekt: 进程间进行数据通讯的一个工具(在网络中的进程间进行通讯)


tcp服务端的业务流程:


socket() : 创建一个服务端的电话 负责接受客户端的请求


bind() : 绑定一个ip地址和端口号 方便客户进行请求


listen() : 把socket这个电话从可以打电话也可以接电话 变成一个只可以接电话的电话(被动套接字socket)


accept() : 等待接受链接的到来,阻塞处理(类似于input)


recv() : 接受客户的数据


send() : 发送数据给客户


close() : 关闭套接字


五、业务流程

整个业务两个部分


客户端


服务端


客户端和服务端进行数据的传输


建立连接


三次握手(打电话打通)


数据的交互


send(data)


recv(data)


连接断开


四次挥手


server 和 client进行断开过程

六、总结

# 导入socket模块
import socket
 
# 1. 创建电话
# 参数1: ipv4地址
# 参数2: tcp协议, 流式协议
tcp_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 2. 绑定电话号码
# 参数: 元组
# 元组中的第一元素: 字符串类型的数据 ip地址
# 元组中的第二元素: 整数类型 端口号
tcp_socket.bind(("127.0.0.1", 8080))
# 3. 改成只能接电话
# 参数: 同一时刻最大可以接受的链接请求数量
tcp_socket.listen(128)
 
while True:
    # 4. 等待客户的到来
    # 阻塞等待客户的链接请求的到来
    # client_socket  ==>  和客户端通讯的电话
    # client_addr   ==>   客户端的ip地址和端口号
    client_socket, client_addr = tcp_socket.accept()
    print(f"客户端{client_addr}上线了")
    
    
    # 让我们的小弟(client_socket) 可以一直跟一个客户进行数据的交互
    while True:
        recv_data = client_socket.recv(1024)
        print("接受到的客户端数据:", recv_data.decode("gbk"))
 
        if len(recv_data) == 0:
            print(f'{client_addr}客户端断开连接')
            client_socket.close()
            break
            
        data = input("请输入数据:")
        client_socket.send(data.encode("utf8"))
 
# 7.挂电话
tcp_socket.close()

解析:

01-创建电话-socket()


tcp_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)


参数1: socket.AF_INET ==> ipv4地址


参数2: socket.SOCK_STREAM ==> tcp协议


02-绑定地址信息-bind()


tcp_socket.bind(("127.0.0.1", 8080))


参数(元组类型的):


元组的第一元素 : 字符串类型的数据 ip地址


元组中的第二元素: 整数类型 端口号


03-设置监听listen-让tcp_socket变成一个只会接受数据的socket


tcp_socket.listen(128)


04-设置了循环while True


accept() 让我们的大哥(tcp_socket) 可以一直循环接受 用户的连接请求


client_socket, client_addr = tcp_socket.accept() print(f"客户端{client_addr}上线了")


recv()~send() 让我们的小弟(client_socket) 可以一直跟一个客户进行数据的交互


while True: recv_data = client_socket.recv(1024) print("接受到的客户端数据:", recv_data.decode("gbk")) if len(recv_data) == 0: print(f'{client_addr}客户端断开连接') client_socket.close() break data = input("请输入数据:") client_socket.send(data.encode("utf8"))


如何判断客户端是否断开了链接:


如果接受的数据为空 即数据的长度为0 那么证明客户端断开了链接


<end>


目录
相关文章
|
1月前
|
搜索推荐 程序员 调度
精通Python异步编程:利用Asyncio与Aiohttp构建高效网络应用
【10月更文挑战第5天】随着互联网技术的快速发展,用户对于网络应用的响应速度和服务质量提出了越来越高的要求。为了构建能够处理高并发请求、提供快速响应时间的应用程序,开发者们需要掌握高效的编程技术和框架。在Python语言中,`asyncio` 和 `aiohttp` 是两个非常强大的库,它们可以帮助我们编写出既简洁又高效的异步网络应用。
121 1
|
9天前
|
Python
Python中的异步编程:使用asyncio和aiohttp实现高效网络请求
【10月更文挑战第34天】在Python的世界里,异步编程是提高效率的利器。本文将带你了解如何使用asyncio和aiohttp库来编写高效的网络请求代码。我们将通过一个简单的示例来展示如何利用这些工具来并发地处理多个网络请求,从而提高程序的整体性能。准备好让你的Python代码飞起来吧!
27 2
|
16天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
60 6
|
5天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
垃圾识别分类系统。本系统采用Python作为主要编程语言,通过收集了5种常见的垃圾数据集('塑料', '玻璃', '纸张', '纸板', '金属'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对图像数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。然后使用Django搭建Web网页端可视化操作界面,实现用户在网页端上传一张垃圾图片识别其名称。
25 0
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
|
9天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
29 3
|
14天前
|
数据采集 存储 XML
Python实现网络爬虫自动化:从基础到实践
本文将介绍如何使用Python编写网络爬虫,从最基础的请求与解析,到自动化爬取并处理复杂数据。我们将通过实例展示如何抓取网页内容、解析数据、处理图片文件等常用爬虫任务。
|
17天前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
40 4
|
17天前
|
网络协议 物联网 API
Python网络编程:Twisted框架的异步IO处理与实战
【10月更文挑战第26天】Python 是一门功能强大且易于学习的编程语言,Twisted 框架以其事件驱动和异步IO处理能力,在网络编程领域独树一帜。本文深入探讨 Twisted 的异步IO机制,并通过实战示例展示其强大功能。示例包括创建简单HTTP服务器,展示如何高效处理大量并发连接。
39 1
|
18天前
|
数据采集 存储 机器学习/深度学习
构建高效的Python网络爬虫
【10月更文挑战第25天】本文将引导你通过Python编程语言实现一个高效网络爬虫。我们将从基础的爬虫概念出发,逐步讲解如何利用Python强大的库和框架来爬取、解析网页数据,以及存储和管理这些数据。文章旨在为初学者提供一个清晰的爬虫开发路径,同时为有经验的开发者提供一些高级技巧。
13 1
|
20天前
|
Kubernetes 网络协议 Python
Python网络编程:从Socket到Web应用
在信息时代,网络编程是软件开发的重要组成部分。Python作为多用途编程语言,提供了从Socket编程到Web应用开发的强大支持。本文将从基础的Socket编程入手,逐步深入到复杂的Web应用开发,涵盖Flask、Django等框架的应用,以及异步Web编程和微服务架构。通过本文,读者将全面了解Python在网络编程领域的应用。
20 1