基于Python的TCP和UDP数据流的带宽竞争分析(附完整代码)

简介: 基于Python的TCP和UDP数据流的带宽竞争分析(附完整代码)

本课题来源于计算机网络实践与应用课程的创新型实验,题目为“TCP和UDP数据流的带宽竞争分析”。实验的主要目的是通过编程实现多进程TCP和UDP数据传输模块,编写相关的TCP/UDP流利用带宽测量软件,设计实验,让多个TCP和UDP流竞争有限带宽,分析结果,进而掌握TCP和UDP流传输的特点,了解工作原理和工作过程,并通过测试验证其竞争机制。


1.2 项目意义


在实际应用中,一个端设备往往同时存在多个TCP和UDP的连接。通过此项目,我们可以了解多连接情况下TCP和UDP的运行性能与特点,从而在实际的应用中合理分配混合数据流的TCP和UDP的连接数,从而提高数据流的传输性能,充分利用有限的带宽,提高传输效率。


1.3 项目创新分析


该项目通过实现编程代码来进行TCP和UDP的传输和监听,创新性地将TCP和UDP的相关内容特点与现实问题(有限带宽竞争)相联系,可以让我们从新的角度理解课程中以及书本上的TCP和UDP的特点,增强了我们用实践来检验理论知识的创新意识。


第2章 与项目相关的主要技术及其分析


2.1 socket编程(python)


Socket套接字是网络通信过程中端点的抽象表示,是程序进行网络通信的基础,使应用层能使用传输层提供的服务(TCP和UDP),进而实现TCP和UDP的数据传输模块。


本次实验中,我们使用python中的socket包,分别在client和server中将socket与IP地址和端口号建立对应关系,进而实现TCP和UDP的发送和监听。


2.2 多线程技术


多线程技术建立多个线程来收发数据,可以用来同时建立多个连接,进而可以在一个程序中进行TCP和UDP的同时收发,进而实现可控的连接数对网络带宽的竞争。

使用python中的threading包来实现函数在多个线程的同时运行。


2.3 流量的实时计算与可视化(python)


通过调用pyshark(基于wireshark的Python库)来进行实时捕获,分析每秒内不同目的端口接收的TCP和UDP数据包,计算流量。

使用python中的matplotlib来实时绘制TCP和UDP的流量曲线图,从而进行流量的可视化,体现TCP和UDP的竞争关系。


2.4 GUI编程(python)


Tkinter 是 Python 的标准 GUI 库。Python 使用 Tkinter 可以快速的创建 GUI 应用程序,从而使整个操作过程直接明了,易于控制。


第3章 混合数据流带宽竞争分析实现


3.1 实验方案


用python实现客户端与服务器端的应用程序client.py与server.py,以及在服务器端运行的流量监听工具Monitor.py。


使用两台计算机设备,分别作为服务器端和客户端。


先在服务器端运行程序Server.exe(生成的可执行文件)与Monitor.py,再在客户端指定服务器IP地址与要发送的文件,进行多种情况下的TCP和UDP的竞争传输,在服务器端查看传输过程以及monitor的流量图像。


3.2 客户端程序的实现


用来向服务器指定端口发送数据包,TCP的目的端口是10241,UDP的目的端口是10240。


TCP套接字connect服务器的10241端口,建立连接,再从本地读取文件,发送文件大小后,再发送数据包(分组大小设置为BATCH_SIZE),在发送数据的同时打印已发送数据的大小


UDP进行无连接传输,直接向服务器的10240端口发送文件(如果先发送文件大小, 可能丢包)


为TCP和UDP传输分别启用一个线程,用户自行选择传输方式(只进行TCP传输,只进行UDP传输,两者同时进行)


运行效果

8ffef57792fa99b5a216d07cff13362c.png


3.3 服务器端程序的实现


3.3.1 服务器端程序Server.py


用来接收数据包,在10240接收UDP数据包,在10241接收TCP数据包。

  • 同样启用两个线程,设置两个socket分别绑定10240和10241,用来接收数据,使用listen方法进行监听,并将接受的数据包写入指定文件中
  • TCP连接能先获知接受数据的大小

实现效果

89006b5a891793d8fc99e26fd57961ad.png


3.3.2 流量计算工具Monitor.py


通过调用pyshark(基于wireshark的Python库)进行实时捕获 ,分析每秒内目的端口为10240的UDP数据包和10241的TCP数据包,计算流量,使用matplotlib实时绘制TCP和UDP流量曲线图。


3.4 带宽竞争的实现


按照3.1中的实验方案进行操作,Client端要发送大量数据来竞争带宽,因此在操作过程中选择一个较大的文件进行TCP和UDP的传输,确保达到有限带宽内的竞争。


第4章 项目测试


4.1 测试方案


  • 基本操作过程按照3.1实验方案进行
  • TCP和UDP同时启动时,进行实验,观察流量监听界面,进行分析
  • TCP先启动时,UDP后启动时,进行实验分析
  • UDP先启动时,TCP后启动时,进行实验分析


4.2 测试结果


TCP和UDP同时启动时,流量监听界面如下

b9f7aa337be95f7213ba19936d32a253.png


g)


发现在同时启动的情况下,TCP传输相对于UDP传输有一个滞后的过程,UDP发送很多数据后TCP才会进行发送。TCP是面向连接的传输层服务,开始时需要建立连接(三次握手),而UDP是无连接的,直接进行数据的发送。因此会出现这种现象。


TCP先启动时,UDP后启动时,流量监听界面如下


3c189c93dcc089efd43ac5188813e0f3.png


3c90f79a8b31c11d19c6c94ef1727999.png


UDP先启动时,TCP后启动时,流量监听界面如下


25fcfd33ec616643764cd7b2ce98d99b.png

aa256017584a927b4514f45bc59effa8.png


经过以上监测到的竞争过程,我们可以发现:

在TCP和UDP竞争中,UDP会占用更多的带宽。(还可能出现UDP完全压制TCP传输的现象,如下图所示)只有在UDP传输完成后,TCP才能恢复到较高的速率进行传输。


742a23960073553ea28d9ca5445109b9.png

第5章 结论


在测试中,带宽占用率过高时,TCP和UDP竞争中,由于二者对网络拥塞的反应是不同的。TCP具有拥塞控制机制,对拥塞的处理是降低自身的传输速率,从而避免丢包的发生。而UDP缺少端到端的拥塞控制,进而在链路带宽的占用上处于优势,但会丢失一些数据包,其传输是不可靠的。


竞争会使TCP流得不到公平的带宽,因此应当探索一种机制,来处理TCP和UDP的竞争过程。


完整代码:https://download.csdn.net/download/weixin_55771290/87398318

目录
打赏
0
0
0
0
30
分享
相关文章
|
2月前
|
时间序列异常检测:MSET-SPRT组合方法的原理和Python代码实现
MSET-SPRT是一种结合多元状态估计技术(MSET)与序贯概率比检验(SPRT)的混合框架,专为高维度、强关联数据流的异常检测设计。MSET通过历史数据建模估计系统预期状态,SPRT基于统计推断判定偏差显著性,二者协同实现精准高效的异常识别。本文以Python为例,展示其在模拟数据中的应用,证明其在工业监控、设备健康管理及网络安全等领域的可靠性与有效性。
607 13
时间序列异常检测:MSET-SPRT组合方法的原理和Python代码实现
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
精通服务器推送事件(SSE)与 Python 和 Go 实现实时数据流 🚀
服务器推送事件(SSE)是HTML5规范的一部分,允许服务器通过HTTP向客户端实时推送更新。相比WebSocket,SSE更轻量、简单,适合单向通信场景,如实时股票更新或聊天消息。它基于HTTP协议,使用`EventSource` API实现客户端监听,支持自动重连和事件追踪。虽然存在单向通信与连接数限制,但其高效性使其成为许多轻量级实时应用的理想选择。文中提供了Python和Go语言的服务器实现示例,以及HTML/JavaScript的客户端代码,帮助开发者快速集成SSE功能,提升用户体验。
从混沌到秩序:Python的依赖管理工具分析
Python 的依赖管理工具一直没有标准化,主要原因包括历史发展的随意性、社区的分散性、多样化的使用场景、向后兼容性的挑战、缺乏统一治理以及生态系统的快速变化。依赖管理工具用于处理项目中的依赖关系,确保不同环境下的依赖项一致性,避免软件故障和兼容性问题。常用的 Python 依赖管理工具如 pip、venv、pip-tools、Pipenv、Poetry 等各有优缺点,选择时需根据项目需求权衡。新工具如 uv 和 Pixi 在性能和功能上有所改进,值得考虑。
137 35
全平台开源即时通讯IM框架MobileIMSDK:7端+TCP/UDP/WebSocket协议,鸿蒙NEXT端已发布,5.7K Stars
全平台开源即时通讯IM框架MobileIMSDK:7端+TCP/UDP/WebSocket协议,鸿蒙NEXT端已发布,5.7K Stars
50 1
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
本文探讨了金融资产波动率建模中的三种主流方法:GARCH、GJR-GARCH和HAR模型,基于SPY的实际交易数据进行实证分析。GARCH模型捕捉波动率聚类特征,GJR-GARCH引入杠杆效应,HAR整合多时间尺度波动率信息。通过Python实现模型估计与性能比较,展示了各模型在风险管理、衍生品定价等领域的应用优势。
584 66
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
Python中main函数:代码结构的基石
在Python中,`main`函数是程序结构化和模块化的重要组成部分。它实现了脚本执行与模块导入的分离,避免全局作用域污染并提升代码复用性。其核心作用包括:标准化程序入口、保障模块复用及支持测试驱动开发(TDD)。根据项目复杂度,`main`函数有基础版、函数封装版、参数解析版和类封装版四种典型写法。 与其他语言相比,Python的`main`机制更灵活,支持同一文件作为脚本运行或模块导入。进阶技巧涵盖多文件项目管理、命令行参数处理、环境变量配置及日志集成等。此外,还需注意常见错误如全局变量污染和循环导入,并通过延迟加载、多进程支持和类型提示优化性能。
73 0
Python GIL(全局解释器锁)机制对多线程性能影响的深度分析
在Python开发中,GIL(全局解释器锁)一直备受关注。本文基于CPython解释器,探讨GIL的技术本质及其对程序性能的影响。GIL确保同一时刻只有一个线程执行代码,以保护内存管理的安全性,但也限制了多线程并行计算的效率。文章分析了GIL的必要性、局限性,并介绍了多进程、异步编程等替代方案。尽管Python 3.13计划移除GIL,但该特性至少要到2028年才会默认禁用,因此理解GIL仍至关重要。
305 16
Python GIL(全局解释器锁)机制对多线程性能影响的深度分析
实战指南:通过1688开放平台API获取商品详情数据(附Python代码及避坑指南)
1688作为国内最大的B2B供应链平台,其API为企业提供合法合规的JSON数据源,直接获取批发价、SKU库存等核心数据。相比爬虫方案,官方API避免了反爬严格、数据缺失和法律风险等问题。企业接入1688商品API需完成资质认证、创建应用、签名机制解析及调用接口四步。应用场景包括智能采购系统、供应商评估模型和跨境选品分析。提供高频问题解决方案及安全合规实践,确保数据安全与合法使用。立即访问1688开放平台,解锁B2B数据宝藏!
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等