10.python网络编程(解决粘包问题 part 2)

简介:

一.什么时候会产生粘包现象。

只有在使用tcp协议的情况下才会产生粘包现象!udp协议永远不会!

发送端可以1k1k的把数据发送出去,接收端,可以2k2k的的去接收数据,一次可能会接收3k,也有可能1次接收6k。

TCP协议是面向流的协议,这也是容易出现粘包问题的原因。而UDP是面向消息的协议,每个UDP段都是一条消息,应用程序必须以消息为单位提取数据,不能一次提取任意字节的数据,这一点和TCP是很不同的。怎样定义消息呢?可以认为对方一次性write/send的数据为一个消息,需要明白的是当对方send一条信息的时候,无论底层怎样分段分片,TCP协议层会把构成整条消息的数据段排序完成后才呈现在内核缓冲区。

例如基于tcp的套接字客户端往服务端上传文件,发送时文件内容是按照一段一段的字节流发送的,在接收方看了,根本不知道该文件的字节流从何处开始,在何处结束!!!


其实说的再简单一些。

所谓粘包问题主要还是因为接收方不知道消息之间的界限,不知道一次性提取多少字节的数据所造成的。

!!此外,发送方引起的粘包是由TCP协议本身造成的,TCP为提高传输效率,发送方往往要收集到足够多的数据后才发送一个TCP段。若连续几次需要send的数据都很少,通常TCP会根据优化算法把这些数据合成一个TCP段后一次发送出去,这样接收方就收到了粘包数据。!!

TCP(transport control protocol,传输控制协议)是面向连接的,面向流的,提供高可靠性服务。收发两端(客户端和服务器端)都要有一一成对的socket,因此,发送端为了将多个发往接收端的包,更有效的发到对方,使用了优化方法(Nagle算法),将多次间隔较小且数据量小的数据,合并成一个大的数据块,然后进行封包。这样,接收端,就难于分辨出来了,必须提供科学的拆包机制。 即面向流的通信是无消息保护边界的。

UDP(user datagram protocol,用户数据报协议)是无连接的,面向消息的,提供高效率服务。不会使用块的合并优化算法,, 由于UDP支持的是一对多的模式,所以接收端的skbuff(套接字缓冲区)采用了链式结构来记录每一个到达的UDP包,在每个UDP包中就有了消息头(消息来源地址,端口等信息),这样,对于接收端来说,就容易进行区分处理了。 即面向消息的通信是有消息保护边界的。


udp的recvfrom是阻塞的,一个recvfrom(x)必须对一个一个sendinto(y),收完了x个字节的数据就算完成,若是y>x数据就丢失,这意味着udp根本不会粘包,但是会丢数据,不可靠


tcp的协议数据不会丢,没有收完包,下次接收,会继续上次继续接收,己端总是在收到ack时才会清除缓冲区内容。数据是可靠的,但是会粘包。


二、细说在tcp通信下产生粘包的两种情况:

发送端需要等缓冲区满才发送出去,造成粘包(发送数据时间间隔很短,数据了很小,会合到一起,产生粘包)。


另一种情况,就是,当发送端缓冲区的长度大于网卡的MTU时,tcp会将这次发送的数据拆成几个数据包发送出去。


补充说明:为什么说tcp连接可靠?

tcp在数据传输时,发送端先把数据发送到自己的缓存中,然后协议控制将缓存中的数据发往对端,对端返回一个ack=1,发送端则清理缓存中的数据,对端返回ack=0,则重新发送数据,所以tcp是可靠的

而udp发送数据,对端是不会返回确认信息的,因此不可靠。


三、如何解决粘包问题?

我们可以通过自定义报头的方式来解决粘包问题。

为字节流加上自定义固定长度报头,报头中包含字节流长度,然后一次send到对端,对端在接收时,先从缓存中取出定长的报头,然后再取真实数据。


说道自定义报头,就不得不提到一个名为struct模块,这个模块的主要作用就是,把一个类型,如数字,转成固定长度的bytes。(为什么要用这个模块?用这个模块是为了让报头长度固定,当报头长度固定后,就可以分辨出数据流中的报头和真实数据的分界了。)


关于struct模块的详细用法请参考:

http://www.cnblogs.com/coser/archive/2011/12/17/2291160.html


制作报头大概流程演示:

import json,struct

#假设通过客户端上传1T:1073741824000的文件a.txt

#为避免粘包,必须自定制报头

header={'file_size':1073741824000,'file_name':'/a/b/c/d/e/a.txt','md5':'8f6fbf8347faa4924a76856701edb0f3'} #1T数据,文件路径和md5值

#为了该报头能传送,需要序列化并且转为bytes

head_bytes=bytes(json.dumps(header),encoding='utf-8') #序列化并转成bytes,用于传输

#为了让客户端知道报头的长度,用struck将报头长度这个数字转成固定长度:4个字节

head_len_bytes=struct.pack('i',len(head_bytes)) #这4个字节里只包含了一个数字,该数字是报头的长度

#客户端开始发送

conn.send(head_len_bytes) #先发报头的长度,4个bytes

conn.send(head_bytes) #再发报头的字节格式

conn.sendall(文件内容) #然后发真实内容的字节格式

#服务端开始接收

head_len_bytes=s.recv(4) #先收报头4个bytes,得到报头长度的字节格式

x=struct.unpack('i',head_len_bytes)[0] #提取报头的长度

head_bytes=s.recv(x) #按照报头长度x,收取报头的bytes格式

header=json.loads(json.dumps(header)) #提取报头

#最后根据报头的内容提取真实的数据,比如

real_data_len=s.recv(header['file_size'])

s.recv(real_data_len)


粘包的解决思路:

我们可以把报头做成字典,字典里包含将要发送的真实数据的详细信息,然后json序列化,然后用struck将序列化后的数据长度打包成4个字节(4个自己足够用了)


发送时:

先发报头长度。

再编码报头内容然后发送。

最后发真实内容。

 

接收时:

先收报头长度,用struct取出来。

根据取出的长度收取报头内容,然后解码,反序列化。

从反序列化的结果中取出待取数据的详细信息,然后去取真实的数据内容。


下面是以python2.7版本作为示范的示例,做一个文件的上传功能,客户端可以将文件发送给服务端。

服务端代码:

#!/usr/bin/python2.7

# -*- coding:utf-8 -*-

import socket

import json

import struct

import os

class Mytcpserver(object):

    sockt_family = socket.AF_INET

    socket_type = socket.SOCK_STREAM

    allow_reuse_addr = False

    max_trans_size = 8192

    coding = 'utf-8'

    tcp_queue_size = 5

    upload_dir_name = 'upload_file'

    def __init__(self,server_address,bind_and_active = True):

        self.server_address = server_address

        self.socket = socket.socket(self.sockt_family,self.socket_type)

        if bind_and_active:

            try:

                self.server_bind()

                self.server_active()

            except Exception:

                self.server_close()

                raise

    def server_bind(self):

        if self.allow_reuse_addr:

            self.socket.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1)

        self.socket.bind(self.server_address)

        self.server_address = self.socket.getsockname() #增加一个没啥卵用的功能,获取刚刚绑定的地址.

    def server_active(self):

        self.socket.listen(self.tcp_queue_size)

    def server_close(self):

        self.socket.close()

    def get_request(self):

        return self.socket.accept()

    def close_request(self):

        return self.socket.close()

    def run(self):

        while True:

            self.conn,self.client_ip = self.get_request()

            print self.client_ip

            while True:

                try:

                    head_struct = self.conn.recv(4)  #用来接收报头

                    if not head_struct:

                        break

                    head_len = struct.unpack('i',head_struct)[0]   #解析出来的报头长度

                    head_json = self.conn.recv(head_len).decode(self.coding) #接收报头内容

                    head_dict = json.loads(head_json) #将json报头转换为字典

                    print head_dict

                    cmd = head_dict['cmd']

                    if hasattr(self,cmd):

                        func = getattr(self,cmd)

                        func(head_dict)

                except Exception:

                    break

    def put(self,args):

        upload_file_path = os.path.normpath(os.path.join(self.upload_dir_name,args['file_name']))

        file_size = args["file_size"]

        recv_size = 0

        print "------>"+upload_file_path

        with open(upload_file_path,'wb+') as f:

            while recv_size < file_size:

                recv_data = self.conn.recv(self.max_trans_size)

                f.write(recv_data)

                recv_size+=len(recv_data)

                print "recvsize:%s filesize:%s" %(recv_size,file_size)

tcp_server_1 = Mytcpserver(('10.39.0.100',8888))

tcp_server_1.run()


客户端代码:

#!/usr/bin/python2.7

# -*- coding:utf-8 -*-

import socket

import json

import struct

import os

class Mytcpclient(object):

    sockt_family = socket.AF_INET

    socket_type = socket.SOCK_STREAM

    allow_reuse_addr = False

    max_trans_size = 8192

    coding = 'utf-8'

    tcp_queue_size = 5

    def __init__(self,server_address,connect = True):

        self.server_address = server_address

        self.socket = socket.socket(self.sockt_family,self.socket_type)

        if connect:

            try:

                self.client_connect()

            except:

                self.client_close()

                raise

    def client_connect(self):

        self.socket.connect(self.server_address)

    def client_close(self):

        self.socket.close()

    def run(self):

        while True:

            user_input = raw_input(">>").strip()

            if not user_input:

                continue

            cmd = user_input.split()[0]

            if hasattr(self,cmd):

                func = getattr(self,cmd)

                func(user_input.split())

    def put(self,args):

        cmd = args[0]

        filename = args[1]

        if not os.path.isfile(filename):

            print  "file is not exists!!"

            return None

        else:

            filesize = os.path.getsize(filename)

        head_dic = {'cmd':cmd,'file_name':os.path.basename(filename),'file_size':filesize}

        print head_dic

        head_json = json.dumps(head_dic).encode("utf-8") 

        head_struct_size = struct.pack('i',len(head_json)).encode("utf-8") #准备发送的报头大小

        self.socket.send(head_struct_size) #发送报头大小

        self.socket.send(head_json) #发送报头

        send_size = 0

        with open(filename,'rb') as f:

            for line in f:

                self.socket.send(line)

                send_size+=len(line)

                print send_size

            else:

                print "file upload success!!"

client = Mytcpclient(('10.39.0.100',8888))

client.run()




      本文转自苏浩智 51CTO博客,原文链接:http://blog.51cto.com/suhaozhi/1923431,如需转载请自行联系原作者





相关文章
|
6天前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
115 55
|
1月前
|
Python
Python中的异步编程:使用asyncio和aiohttp实现高效网络请求
【10月更文挑战第34天】在Python的世界里,异步编程是提高效率的利器。本文将带你了解如何使用asyncio和aiohttp库来编写高效的网络请求代码。我们将通过一个简单的示例来展示如何利用这些工具来并发地处理多个网络请求,从而提高程序的整体性能。准备好让你的Python代码飞起来吧!
74 2
|
1月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
105 6
|
16天前
|
机器学习/深度学习 人工智能 算法
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
97 29
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
|
16天前
|
机器学习/深度学习 人工智能 算法
深度学习入门:用Python构建你的第一个神经网络
在人工智能的海洋中,深度学习是那艘能够带你远航的船。本文将作为你的航标,引导你搭建第一个神经网络模型,让你领略深度学习的魅力。通过简单直观的语言和实例,我们将一起探索隐藏在数据背后的模式,体验从零开始创造智能系统的快感。准备好了吗?让我们启航吧!
42 3
|
21天前
|
网络安全 Python
Python网络编程小示例:生成CIDR表示的IP地址范围
本文介绍了如何使用Python生成CIDR表示的IP地址范围,通过解析CIDR字符串,将其转换为二进制形式,应用子网掩码,最终生成该CIDR块内所有可用的IP地址列表。示例代码利用了Python的`ipaddress`模块,展示了从指定CIDR表达式中提取所有IP地址的过程。
35 6
|
24天前
|
机器学习/深度学习 自然语言处理 语音技术
Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧
本文介绍了Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧,并通过TensorFlow和PyTorch等库展示了实现神经网络的具体示例,涵盖图像识别、语音识别等多个应用场景。
48 8
|
23天前
|
数据采集 XML 存储
构建高效的Python网络爬虫:从入门到实践
本文旨在通过深入浅出的方式,引导读者从零开始构建一个高效的Python网络爬虫。我们将探索爬虫的基本原理、核心组件以及如何利用Python的强大库进行数据抓取和处理。文章不仅提供理论指导,还结合实战案例,让读者能够快速掌握爬虫技术,并应用于实际项目中。无论你是编程新手还是有一定基础的开发者,都能在这篇文章中找到有价值的内容。
|
1月前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
垃圾识别分类系统。本系统采用Python作为主要编程语言,通过收集了5种常见的垃圾数据集('塑料', '玻璃', '纸张', '纸板', '金属'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对图像数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。然后使用Django搭建Web网页端可视化操作界面,实现用户在网页端上传一张垃圾图片识别其名称。
79 0
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
|
1月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
58 3
下一篇
DataWorks