5、理解CLOSE_WAIT状态
- 概念及介绍:
- 客户端调用了close函数发起两次挥手,服务器接收后就会进入CLOSE_WAIT状态,客户端再接收到服务端的ACK之后则会进入到FIN_WAIT_2状态;但服务端还没有发起两次挥手,只有完成四次挥手后连接才算真正断开,此时双方才会释放对应的连接资源
- 如果服务器接收到两次挥手后不进行调用close,那么服务器端就会存在大量处于CLOSE_WAIT状态的连接,而每个连接都会占用服务器的资源,最终就会导致服务器可用资源越来越少
注:对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成,这是一个 BUG,只需要加上对应的 close 即可解决问题
6、理解TIME_WAIT状态
- 概念及介绍:
客户端主动关闭连接时,发送最后一个ACK后,然后会进入TIME_WAIT状态,再停留2个MSL时间(后有MSL的解释),进入CLOSED状态,所以我们可以粗略地理解成在断开连接后主动断开连接的那一方就会进入一个等待状态,过了一定时间后,再真正的关闭,这所谓的状态也就是TIME_WAIT状态,这其中所说的一定时间也就是2MSL(MSL:最长分节生命期maximum segment lifetime,这个状态会持续MSL时长的两倍,所以称为2MSL)
- TIME_WAIT状态产生的原因:
- 可靠地实现TCP全双工连接的终止
假设发起主动关闭的一方(client)最后发送的ACK在网络中丢失,由于TCP协议的重传机制,执行被动关闭的一方(server)将会重发其FIN,在该FIN到达client之前,client必须维护这条连接状态,也就说这条TCP连接所对应的资源(client方的local_ip,local_port)不能被立即释放或重新分配,直到另一方重发的FIN达到之后,client重发ACK后,经过2MSL时间周期没有再收到另一方的FIN之后,说明被动关闭的一方(server)成功收到ACK,这样才能转变成CLOSED状态,正式断开双方建立的连接
如果主动关闭一方不维护这样一个TIME_WAIT状态,那么当被动关闭一方重发的FIN到达时,主动关闭一方的TCP传输层会用RST包响应对方,这会被对方认为是有错误发生,然而这事实上只是正常的关闭连接过程,并非异常
- 允许老的重复分节在网络中消逝
假设在12.106.32.254的1500端口和206.168.112.219的21端口之间有一个TCP连接。我们关闭这个连接,过一段时间后在相同的IP地址和端口之间建立另一个连接。后一个连接称为前一个连接的化身(incarnation),因为它们的IP地址和端口号都相同
TCP必须防止来自某个连接的老的重复分组在该连接已终止后再现,从而被误解成属于同一连接的某个新的化身。为做到这一点,TCP将不给处于TIME_WAIT状态的连接发起新的化身。所以TIME_WAIT状态的持续时间是MSL的2倍,这就足以让某个方向上的分组最多存活MSL秒即被丢弃,另一个方向上的应答最多存活MSL秒也被丢弃;此后,就可以用相同的四元组建立一条新连接而不会发生前后两次连接数据错乱的情况
注:MSL在RFC1122中规定为两分钟,但是各个操作系统的实现不同,比如在Centos7上默认配置的值是60s,可以通过cat /proc/sys/net/ipv4/tcp_fin_timeout命令来查看MSL的值
- TIME_WAIT的等待时长为什么是两个MSL:
MSL是TCP报文的最大生存时间,因此TIME_WAIT状态持续存在2MSL的话,就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失,同时也是在理论上保证最后一个报文可靠到达的时间
7、流量控制
- 概念及介绍:
- 接收端处理数据的速度是有限的,如果发送端发的太快,导致接收端的缓冲区被打满,此时发送端继续发送数据,就会造成丢包,进而引起丢包重传等一系列连锁反应,因此接收端可以将自己接收数据的能力告知发送端,让发送端控制自己发送数据的速度
- TCP支持根据接收端的接收数据的能力来决定发送端发送数据的速度,这个机制叫做流量控制(Flow Control)
- 示图:
- 说明:
- 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段, 通过ACK端通知发送端;
- 窗口大小字段越大, 说明网络的吞吐量越高;
- 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
- 发送端接受到这个窗口之后, 就会减慢自己的发送速度;
- 如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端
- 当窗口大小为0时,发送端获取何时可以发送数据的方式:
- 主动询问:发送端每隔一段时间向接收端发送报文,该报文不携带有效数据,只是为了询问发送端的窗口大小,直到接收端的接收缓冲区有空间后发送端就可以继续发送数据了
- 等待告知:接收端上层将接收缓冲区当中的数据读走后,接收端向发送端发送一个TCP报文,主动将自己的窗口大小告知发送端
- 16为数字最大表示65535,那TCP窗口最大就是65535吗:
理论上确实是这样的,但实际上TCP报头当中40字节的选项字段中包含了一个窗口扩大因子M,实际窗口大小是窗口字段的值左移M位得到的
- 第一次向对方发送数据时如何得知对方的窗口大小:
双方在进行TCP通信之前需要先进行三次握手建立连接,而双方在握手时除了验证双方通信信道是否通畅以外,还进行了其他信息的交互,其中就包括告知对方自己的接收能力,因此在双方还没有正式开始通信之前就已经知道了对方接收数据能力
8、滑动窗口
- 概念及引入:
- 在穿行的数据通行时,对每一个发送的数据段都要给一个ACK确认应答,收到ACK后再发送下一个数据段,而这样性能较差,效率不高,尤其是数据往返的时间较长的时候
- 实际在进行TCP通信中,发送方在根据对方的接受能力下可以一次向对方发送多条数据,这样可以将等待多个响应的时间重叠起来,进而提高数据通信的效率
- 示图:
- 滑动窗口介绍:
- 可以将发送缓冲区当中的数据分为三部分:已经发送并且已经收到ACK的数据,已经发送还但没有收到ACK的数据,还没有发送的数据
- 窗口大小指的是无需等待确认应答而可以继续发送数据的最大值,滑动窗口存在的最大意义就是可以提高发送数据的效率
- 示图:
- 说明:
- 窗口大小指的是无需等待确认应答而可以继续发送数据的最大值,上图的窗口大小就是4000个字节(四个段)发送前四个段的时候,不需要等待任何ACK直接发送;收到第一个ACK后,滑动窗口向后移动,继续发送第五个段的数据,依次类推
- 操作系统内核为了维护这个滑动窗口,需要开辟发送缓冲区来记录当前还有哪些数据没有应答;只有确认应答过的数据才能从缓冲区删掉(保证数据传输的可靠性,如果丢包可以进行超时重传)
- 窗口越大,则网络的吞吐率就越高
注:实际中滑动窗口的大小等于对方窗口大小与自身拥塞窗口大小的较小值,因为发送数据时不仅要考虑对方的接收能力,还要考虑当前网络的状况
- 示图:
- 滑动窗口的移动:
滑动窗口会根据接收到的确认应答来移动左边界的位置,根据对端和网络的情况两者中的最小值计算确定有边界的位置,所以滑动窗口也会随之不断变宽或者变窄
丢包问题
当发送端一次发送多个报文数据时,此时的丢包情况也可以分为两种
- 数据包已经抵达,ACK丢包
示图:
- 在发送端连续发送多个报文数据时,部分ACK丢包并不要紧,此时可以通过后续的ACK进行确认
- 因为确认序号表示的是改序号之前的数据包已经成功的接收到了,下一次从改序号开始发送数据
- 数据包丢了
- 示图:
- 当某一段报文段丢失之后,发送端会一直收到 1001 这样的ACK,就像是在提醒发送端 "我想要的是 1001"一样
- 如果发送端主机连续三次收到了同样一个 “1001” 这样的应答,就会将对应的数据 1001 - 2000 重新发送
- 这个时候接收端收到了 1001 之后,再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了,被放到了接收端操作系统内核的接收缓冲区中
注:这种机制被称为“高速重发控制”,也叫做“快重传”
- 快重传与超时重传:
- 超时重传需要通过设置重传定时器,在固定的时间后才会进行重传;快重传是在接收者接收到一个
乱序
的分组
的话,就返回对前一个正确分组的确认应答,当浏览器连续收到三个冗余ACK
,就会马上快速重传丢失数据
,不必等到超时时间再重传- 超时重传缺点是太慢了,超时时间的设置不好把握;快速重传解决了超时重传的慢速缺点,但是多发了好几个ACK会导致网络更加拥塞
9、拥塞控制
- 概念及介绍:
- 虽然TCP有了滑动窗口这个大杀器,能够高效可靠的发送大量的数据,但是如果在刚开始阶段就发送大量的数据,仍然可能引发问题
- 因为网络上有很多的计算机,可能当前的网络状态就已经比较拥堵,在不清楚当前网络状态下,贸然发送大量的数据,是很有可能引起雪上加霜的,此时很可能出现大量丢包的状况
- TCP引入慢启动机制,先发少量的数据探路,摸清当前的网络拥堵状态,再决定按照多大的速度传输数据
注:一旦出现大量的丢包,此时TCP就不再推测是双方接收和发送数据的问题,而判断是双方通信信道网络出现了拥塞问题
- 示图:
- 说明:
- 此处引入一个概念程为拥塞窗口,发送开始的时候, 定义拥塞窗口大小为1k;每次收到一个ACK应答, 拥塞窗口加1k;每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口
- 像上面这样的拥塞窗口增长速度, 是指数级别的,“慢启动” 只是指初使时慢,但是增长速度非常快。为了不增长的那么快,因此不能使拥塞窗口单纯的加倍,此处引入一个叫做慢启动的阈值:当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长 示图:
注:当TCP开始启动的时候, 慢启动阈值等于窗口最大值;在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1
- 注意:
- 少量的丢包,我们仅仅是触发超时重传;大量的丢包,我们就认为网络拥塞
- 当TCP通信开始后, 网络吞吐量会逐渐上升;随着网络发生拥堵, 吞吐量会立刻下降
- 拥塞控制,归根结底是TCP协议想尽可能快的把数据传输给对方,但是又要避免给网络造成太大压力的折中方案
- 如何解决网络拥塞问题:
网络拥塞时影响的不只是一台主机,而几乎是该网络当中的所有主机,此时所有使用TCP传输控制协议的主机都会执行拥塞避免算法;拥塞控制看似只是谈论的一台主机上的通信策略,实际这个策略是所有主机在网络崩溃后都会遵守的策略
10、延迟应答
- 如果接收数据的主机收到数据后立即进行ACK应答,此时返回的窗口可能比较小:
- 假设对方接收端缓冲区剩余空间大小为1M,对方一次收到500K的数据后,如果立即进行ACK应答,此时返回的窗口就是500K
- 但实际接收端处理数据的速度很快,10ms之内就将接收缓冲区中500K的数据消费掉了
- 在这种情况下,接收端处理还远没有达到自己的极限,即使窗口再放大一些,也能处理过来
- 如果接收端稍微等一会再进行ACK应答,比如等待200ms再应答,那么这时返回的窗口大小就是1M
- 示图:
- 注意:
窗口越大,网络吞吐量就越大,传输效率就越高,延迟应答的目标是在保证网络不拥塞的情况下尽量提高传输效率
- 不是所有的数据包都可以延迟应答:
- 数量限制:每个N个包就应答一次
- 时间限制:超过最大延迟时间就应答一次(这个时间不会导致误超时重传)
注:延迟应答具体的数量和超时时间,依操作系统不同也有差异,一般N取2,超时时间取200ms
11、捎带应答
- 概念及介绍:
- 很多情况下, 客户端服务器在应用层也是 “一发一收” 的:客户端给服务器发送数据,服务器可能也会给客户端发送数据,那么这个时候ACK可以和数据一起回给客户端,此时发送的这个报文既发送了数据,又完成了对收到数据的响应,这就叫做捎带应答
- 捎带应答实际也是发送数据的效率,此时双方通信时就可以不用再发送单纯的确认报文了
- 示图:
12、面向字节流
- 当创建一个TCP的socket时,同时在内核中会创建一个发送缓冲区和一个接收缓冲区:
- 调用write时, 数据会先写入发送缓冲区中
- 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出
- 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去
- 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区
- 然后应用程序可以调用read从接收缓冲区拿数据
- 另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据,这个概念叫做全双工
- 由于缓冲区的存在,TCP程序的读和写不需要一一匹配,例如:
- 写100个字节数据时,可以调用一次write写100字节,也可以调用100次write,每次写一个字节
- 读100个字节数据时,也完全不需要考虑写的时候是怎么写的,既可以一次read100个字节,也可以一次read一个字节,重复100次
注:在TCP看来这些只是一个个的字节数据,它的任务就是将这些数据准确无误的发送到对方的接收缓冲区当中就行了,而至于如何解释这些数据完全由上层应用来决定,这就叫做面向字节流
13、粘包问题
- 概念及解释:
首先要明确,粘包问题中的 “包” ,是指的应用层的数据包,在TCP的协议头中,没有如同UDP一样的 “报文长度” 这样的字段,但是有一个序号这样的字段,站在传输层的角度,TCP是一个一个报文过来的,按照序号排好序放在缓冲区中;站在应用层的角度,看到的只是一串连续的字节数据,那么应用程序看到了这么一连串的字节数据,就不知道从哪个部分开始到哪个部分,是一个完整的应用层数据包
- 要解决粘包问题,本质就是要明确报文和报文之间的边界:
- 对于定长的包,保证每次都按固定大小读取即可
- 对于变长的包,可以在报头的位置,约定一个包总长度的字段,从而就知道了包的结束位置。比如HTTP报头当中就包含Content-Length属性,表示正文的长度
- 对于变长的包,还可以在包和包之间使用明确的分隔符。因为应用层协议是程序员自己来定的,只要保证分隔符不和正文冲突即可
- UDP是否存在粘包问题:
- 对于UDP,如果还没有上层交付数据,UDP的报文长度仍然在,同时UDP是一个一个把数据交付给应用层的,有很明确的数据边界,站在应用层的角度,使用UDP的时候,要么收到完整的UDP报文,要么不收,不会出现“半个”的情况
- 因此UDP是不存在粘包问题的,根本原因就是UDP报头当中的16位UDP长度记录的UDP报文的长度,因此UDP在底层的时候就把报文和报文之间的边界明确了,而TCP存在粘包问题就是因为TCP是面向字节流的,TCP报文之间没有明确的边界
14、TCP异常情况
- 进程终止:进程终止会释放文件描述符,仍然可以发送FIN,和正常关闭没有什么区别
- 机器重启:和进程终止的情况相同
- 机器掉电/网线断开:接收端认为连接还在,一旦接收端有写入操作,接收端发现连接已经不在了,就会进行reset,即使没有写入操作,TCP自己也内置了一个保活定时器,会定期询问对方是否还在,如果对方不在会把连接释放;另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接