10.python网络编程(解决粘包问题 part 2)

简介:

一.什么时候会产生粘包现象。

只有在使用tcp协议的情况下才会产生粘包现象!udp协议永远不会!

发送端可以1k1k的把数据发送出去,接收端,可以2k2k的的去接收数据,一次可能会接收3k,也有可能1次接收6k。

TCP协议是面向流的协议,这也是容易出现粘包问题的原因。而UDP是面向消息的协议,每个UDP段都是一条消息,应用程序必须以消息为单位提取数据,不能一次提取任意字节的数据,这一点和TCP是很不同的。怎样定义消息呢?可以认为对方一次性write/send的数据为一个消息,需要明白的是当对方send一条信息的时候,无论底层怎样分段分片,TCP协议层会把构成整条消息的数据段排序完成后才呈现在内核缓冲区。

例如基于tcp的套接字客户端往服务端上传文件,发送时文件内容是按照一段一段的字节流发送的,在接收方看了,根本不知道该文件的字节流从何处开始,在何处结束!!!


其实说的再简单一些。

所谓粘包问题主要还是因为接收方不知道消息之间的界限,不知道一次性提取多少字节的数据所造成的。

!!此外,发送方引起的粘包是由TCP协议本身造成的,TCP为提高传输效率,发送方往往要收集到足够多的数据后才发送一个TCP段。若连续几次需要send的数据都很少,通常TCP会根据优化算法把这些数据合成一个TCP段后一次发送出去,这样接收方就收到了粘包数据。!!

TCP(transport control protocol,传输控制协议)是面向连接的,面向流的,提供高可靠性服务。收发两端(客户端和服务器端)都要有一一成对的socket,因此,发送端为了将多个发往接收端的包,更有效的发到对方,使用了优化方法(Nagle算法),将多次间隔较小且数据量小的数据,合并成一个大的数据块,然后进行封包。这样,接收端,就难于分辨出来了,必须提供科学的拆包机制。 即面向流的通信是无消息保护边界的。

UDP(user datagram protocol,用户数据报协议)是无连接的,面向消息的,提供高效率服务。不会使用块的合并优化算法,, 由于UDP支持的是一对多的模式,所以接收端的skbuff(套接字缓冲区)采用了链式结构来记录每一个到达的UDP包,在每个UDP包中就有了消息头(消息来源地址,端口等信息),这样,对于接收端来说,就容易进行区分处理了。 即面向消息的通信是有消息保护边界的。


udp的recvfrom是阻塞的,一个recvfrom(x)必须对一个一个sendinto(y),收完了x个字节的数据就算完成,若是y>x数据就丢失,这意味着udp根本不会粘包,但是会丢数据,不可靠


tcp的协议数据不会丢,没有收完包,下次接收,会继续上次继续接收,己端总是在收到ack时才会清除缓冲区内容。数据是可靠的,但是会粘包。


二、细说在tcp通信下产生粘包的两种情况:

发送端需要等缓冲区满才发送出去,造成粘包(发送数据时间间隔很短,数据了很小,会合到一起,产生粘包)。


另一种情况,就是,当发送端缓冲区的长度大于网卡的MTU时,tcp会将这次发送的数据拆成几个数据包发送出去。


补充说明:为什么说tcp连接可靠?

tcp在数据传输时,发送端先把数据发送到自己的缓存中,然后协议控制将缓存中的数据发往对端,对端返回一个ack=1,发送端则清理缓存中的数据,对端返回ack=0,则重新发送数据,所以tcp是可靠的

而udp发送数据,对端是不会返回确认信息的,因此不可靠。


三、如何解决粘包问题?

我们可以通过自定义报头的方式来解决粘包问题。

为字节流加上自定义固定长度报头,报头中包含字节流长度,然后一次send到对端,对端在接收时,先从缓存中取出定长的报头,然后再取真实数据。


说道自定义报头,就不得不提到一个名为struct模块,这个模块的主要作用就是,把一个类型,如数字,转成固定长度的bytes。(为什么要用这个模块?用这个模块是为了让报头长度固定,当报头长度固定后,就可以分辨出数据流中的报头和真实数据的分界了。)


关于struct模块的详细用法请参考:

http://www.cnblogs.com/coser/archive/2011/12/17/2291160.html


制作报头大概流程演示:

import json,struct

#假设通过客户端上传1T:1073741824000的文件a.txt

#为避免粘包,必须自定制报头

header={'file_size':1073741824000,'file_name':'/a/b/c/d/e/a.txt','md5':'8f6fbf8347faa4924a76856701edb0f3'} #1T数据,文件路径和md5值

#为了该报头能传送,需要序列化并且转为bytes

head_bytes=bytes(json.dumps(header),encoding='utf-8') #序列化并转成bytes,用于传输

#为了让客户端知道报头的长度,用struck将报头长度这个数字转成固定长度:4个字节

head_len_bytes=struct.pack('i',len(head_bytes)) #这4个字节里只包含了一个数字,该数字是报头的长度

#客户端开始发送

conn.send(head_len_bytes) #先发报头的长度,4个bytes

conn.send(head_bytes) #再发报头的字节格式

conn.sendall(文件内容) #然后发真实内容的字节格式

#服务端开始接收

head_len_bytes=s.recv(4) #先收报头4个bytes,得到报头长度的字节格式

x=struct.unpack('i',head_len_bytes)[0] #提取报头的长度

head_bytes=s.recv(x) #按照报头长度x,收取报头的bytes格式

header=json.loads(json.dumps(header)) #提取报头

#最后根据报头的内容提取真实的数据,比如

real_data_len=s.recv(header['file_size'])

s.recv(real_data_len)


粘包的解决思路:

我们可以把报头做成字典,字典里包含将要发送的真实数据的详细信息,然后json序列化,然后用struck将序列化后的数据长度打包成4个字节(4个自己足够用了)


发送时:

先发报头长度。

再编码报头内容然后发送。

最后发真实内容。

 

接收时:

先收报头长度,用struct取出来。

根据取出的长度收取报头内容,然后解码,反序列化。

从反序列化的结果中取出待取数据的详细信息,然后去取真实的数据内容。


下面是以python2.7版本作为示范的示例,做一个文件的上传功能,客户端可以将文件发送给服务端。

服务端代码:

#!/usr/bin/python2.7

# -*- coding:utf-8 -*-

import socket

import json

import struct

import os

class Mytcpserver(object):

    sockt_family = socket.AF_INET

    socket_type = socket.SOCK_STREAM

    allow_reuse_addr = False

    max_trans_size = 8192

    coding = 'utf-8'

    tcp_queue_size = 5

    upload_dir_name = 'upload_file'

    def __init__(self,server_address,bind_and_active = True):

        self.server_address = server_address

        self.socket = socket.socket(self.sockt_family,self.socket_type)

        if bind_and_active:

            try:

                self.server_bind()

                self.server_active()

            except Exception:

                self.server_close()

                raise

    def server_bind(self):

        if self.allow_reuse_addr:

            self.socket.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1)

        self.socket.bind(self.server_address)

        self.server_address = self.socket.getsockname() #增加一个没啥卵用的功能,获取刚刚绑定的地址.

    def server_active(self):

        self.socket.listen(self.tcp_queue_size)

    def server_close(self):

        self.socket.close()

    def get_request(self):

        return self.socket.accept()

    def close_request(self):

        return self.socket.close()

    def run(self):

        while True:

            self.conn,self.client_ip = self.get_request()

            print self.client_ip

            while True:

                try:

                    head_struct = self.conn.recv(4)  #用来接收报头

                    if not head_struct:

                        break

                    head_len = struct.unpack('i',head_struct)[0]   #解析出来的报头长度

                    head_json = self.conn.recv(head_len).decode(self.coding) #接收报头内容

                    head_dict = json.loads(head_json) #将json报头转换为字典

                    print head_dict

                    cmd = head_dict['cmd']

                    if hasattr(self,cmd):

                        func = getattr(self,cmd)

                        func(head_dict)

                except Exception:

                    break

    def put(self,args):

        upload_file_path = os.path.normpath(os.path.join(self.upload_dir_name,args['file_name']))

        file_size = args["file_size"]

        recv_size = 0

        print "------>"+upload_file_path

        with open(upload_file_path,'wb+') as f:

            while recv_size < file_size:

                recv_data = self.conn.recv(self.max_trans_size)

                f.write(recv_data)

                recv_size+=len(recv_data)

                print "recvsize:%s filesize:%s" %(recv_size,file_size)

tcp_server_1 = Mytcpserver(('10.39.0.100',8888))

tcp_server_1.run()


客户端代码:

#!/usr/bin/python2.7

# -*- coding:utf-8 -*-

import socket

import json

import struct

import os

class Mytcpclient(object):

    sockt_family = socket.AF_INET

    socket_type = socket.SOCK_STREAM

    allow_reuse_addr = False

    max_trans_size = 8192

    coding = 'utf-8'

    tcp_queue_size = 5

    def __init__(self,server_address,connect = True):

        self.server_address = server_address

        self.socket = socket.socket(self.sockt_family,self.socket_type)

        if connect:

            try:

                self.client_connect()

            except:

                self.client_close()

                raise

    def client_connect(self):

        self.socket.connect(self.server_address)

    def client_close(self):

        self.socket.close()

    def run(self):

        while True:

            user_input = raw_input(">>").strip()

            if not user_input:

                continue

            cmd = user_input.split()[0]

            if hasattr(self,cmd):

                func = getattr(self,cmd)

                func(user_input.split())

    def put(self,args):

        cmd = args[0]

        filename = args[1]

        if not os.path.isfile(filename):

            print  "file is not exists!!"

            return None

        else:

            filesize = os.path.getsize(filename)

        head_dic = {'cmd':cmd,'file_name':os.path.basename(filename),'file_size':filesize}

        print head_dic

        head_json = json.dumps(head_dic).encode("utf-8") 

        head_struct_size = struct.pack('i',len(head_json)).encode("utf-8") #准备发送的报头大小

        self.socket.send(head_struct_size) #发送报头大小

        self.socket.send(head_json) #发送报头

        send_size = 0

        with open(filename,'rb') as f:

            for line in f:

                self.socket.send(line)

                send_size+=len(line)

                print send_size

            else:

                print "file upload success!!"

client = Mytcpclient(('10.39.0.100',8888))

client.run()




      本文转自苏浩智 51CTO博客,原文链接:http://blog.51cto.com/suhaozhi/1923431,如需转载请自行联系原作者





相关文章
|
8天前
|
安全 Java 数据处理
Python网络编程基础(Socket编程)多线程/多进程服务器编程
【4月更文挑战第11天】在网络编程中,随着客户端数量的增加,服务器的处理能力成为了一个重要的考量因素。为了处理多个客户端的并发请求,我们通常需要采用多线程或多进程的方式。在本章中,我们将探讨多线程/多进程服务器编程的概念,并通过一个多线程服务器的示例来演示其实现。
|
8天前
|
程序员 开发者 Python
Python网络编程基础(Socket编程) 错误处理和异常处理的最佳实践
【4月更文挑战第11天】在网络编程中,错误处理和异常管理不仅是为了程序的健壮性,也是为了提供清晰的用户反馈以及优雅的故障恢复。在前面的章节中,我们讨论了如何使用`try-except`语句来处理网络错误。现在,我们将深入探讨错误处理和异常处理的最佳实践。
|
1月前
|
数据采集 存储 XML
深入浅出:基于Python的网络数据爬虫开发指南
【2月更文挑战第23天】 在数字时代,数据已成为新的石油。企业和个人都寻求通过各种手段获取互联网上的宝贵信息。本文将深入探讨网络爬虫的构建与优化,一种自动化工具,用于从网页上抓取并提取大量数据。我们将重点介绍Python语言中的相关库和技术,以及如何高效、合法地收集网络数据。文章不仅为初学者提供入门指导,也为有经验的开发者提供进阶技巧,确保读者能够在遵守网络伦理和法规的前提下,充分利用网络数据资源。
|
2月前
|
网络协议 Python
在Python中进行UDP(User Datagram Protocol)网络编程
在Python中进行UDP(User Datagram Protocol)网络编程
30 3
|
2月前
|
机器学习/深度学习 算法 PyTorch
python手把手搭建图像多分类神经网络-代码教程(手动搭建残差网络、mobileNET)
python手把手搭建图像多分类神经网络-代码教程(手动搭建残差网络、mobileNET)
46 0
|
2月前
|
网络协议 网络性能优化 Python
在Python中进行TCP/IP网络编程
在Python中进行TCP/IP网络编程
33 6
|
11天前
|
Python
Python网络编程基础(Socket编程)UDP服务器编程
【4月更文挑战第8天】Python UDP服务器编程使用socket库创建UDP套接字,绑定到特定地址(如localhost:8000),通过`recvfrom`接收客户端数据报,显示数据长度、地址和内容。无连接的UDP协议使得服务器无法主动发送数据,通常需应用层实现请求-响应机制。当完成时,用`close`关闭套接字。
|
15天前
|
数据采集 网络协议 API
python中其他网络相关的模块和库简介
【4月更文挑战第4天】Python网络编程有多个流行模块和库,如requests提供简洁的HTTP客户端API,支持多种HTTP方法和自动处理复杂功能;Scrapy是高效的网络爬虫框架,适用于数据挖掘和自动化测试;aiohttp基于asyncio的异步HTTP库,用于构建高性能Web应用;Twisted是事件驱动的网络引擎,支持多种协议和异步编程;Flask和Django分别是轻量级和全栈Web框架,方便构建不同规模的Web应用。这些工具使网络编程更简单和高效。
|
27天前
|
运维 安全 网络安全
Python灰帽子网络安全实践
旨在降低网络防范黑客的入门门槛,适合所有中小企业和传统企业。罗列常见的攻击手段和防范方法,让网站管理人员都具备基本的保护能力。Python 编程的简单实现,让网络运维变得更简单。各种黑客工具的理论和原理解剖,让人知其然更知道防范于未来。涉及互联网和局域网,让企业级网管工作更轻松。涵盖Linux&Windows 的知识点。
14 1
|
29天前
|
消息中间件 网络协议 API
Python语言的进程通讯及网络
Python语言的进程通讯及网络