不为人知的网络编程(七):如何让不可靠的UDP变的可靠?

简介: 本文内容来自学霸君资深架构师袁荣喜的技术分享。1、前言最近和很多实时音视频领域的朋友交流中都有谈论到 RUDP(Reliable UDP),这其实是个老生常谈的问题,RUDP 在很多著名的项目上都有使用,例如 Google 的 QUIC 和 WebRTC。

本文内容来自学霸君资深架构师袁荣喜的技术分享。

1、前言

最近和很多实时音视频领域的朋友交流中都有谈论到 RUDP(Reliable UDP),这其实是个老生常谈的问题,RUDP 在很多著名的项目上都有使用,例如 Google 的 QUIC 和 WebRTC。在 UDP 之上做一层可靠,很多朋友认为这是很不靠谱的事情,也有朋友认为这是一个大杀器,可以解决实时领域里大部分问题。

作为教育公司,学霸君APP在很多实时场景下确实使用了 RUDP 技术来解决我们的问题,不同场景我们采用的 RUDP 方式也不一样。

先来看看我们哪些场景使用了 RUDP:

1)全局 250 毫秒延迟的实时 1V1 答疑,采用的是 RUDP + 多点 relay 智能路由方案;

2)500 毫秒 1080P 视频连麦互动系统,采用的是 RUDP + PROXY 调度传输方案;

3)6 方实时同步书写系统,采用的是 RUDP+redo log 的可靠传输技术;

4)弱网 Wi-Fi 下 Pad 的 720P 同屏传输系统,采用的是 RUDP +GCC 实时流控技术;

5)大型直播的 P2P 分发系统,通过 RUDP + 多点并联 relay 技术节省了 75% 以上的分发带宽。

涉及到实时传输我们都会先考虑 RUDP,RUDP 应用在我们APP核心传输体系的各个方面,但不同的系统场景我们设计了不同的 RUDP 方式,所以基于那些激烈的讨论和我们使用的经验,我决定扒一扒 RUDP,来给大家分享如何让UDP变的可靠的实践经验。

学习交流:

- 即时通讯开发交流群:320837163[推荐]

- 移动端IM开发入门文章:《新手入门一篇就够:从零开发移动端IM

(本文同步发布于:http://www.52im.net/thread-1293-1-1.html

2、系列文章

本文是系列文章中的第7篇(完结篇),本系列文章的大纲如下:

不为人知的网络编程(一):浅析TCP协议中的疑难杂症(上篇)

不为人知的网络编程(二):浅析TCP协议中的疑难杂症(下篇)

不为人知的网络编程(三):关闭TCP连接时为什么会TIME_WAIT、CLOSE_WAIT

不为人知的网络编程(四):深入研究分析TCP的异常关闭

不为人知的网络编程(五):UDP的连接性和负载均衡

不为人知的网络编程(六):深入地理解UDP协议并用好它

不为人知的网络编程(七):如何让不可靠的UDP变的可靠?》(本文)

如果您觉得本系列文章过于专业,您可先阅读《网络编程懒人入门》系列文章,该系列目录如下:

网络编程懒人入门(一):快速理解网络通信协议(上篇)

网络编程懒人入门(二):快速理解网络通信协议(下篇)

网络编程懒人入门(三):快速理解TCP协议一篇就够

网络编程懒人入门(四):快速理解TCP和UDP的差异

网络编程懒人入门(五):快速理解为什么说UDP有时比TCP更有优势

3、参考资料

TCP/IP详解 - 第11章·UDP:用户数据报协议

为什么QQ用的是UDP协议而不是TCP协议?

移动端IM/推送系统的协议选型:UDP还是TCP?

简述传输层协议TCP和UDP的区别

UDP中一个包的大小最大能多大

为什么说基于TCP的移动端IM仍然需要心跳保活?

4、UDP的三角制约原则

其实在实时通信领域存在一个三角平衡关系——成本、质量和时延三者的制约关系:


也就是说投入的成本、获得的质量和通信的时延之间是一个三角制约 (LEQ) 关系,所以实时通信系统的设计者会在这三个制约条件下找到一个平衡点,TCP 属于通过增大延迟和传输成本来保证质量的通信方式,UDP 是通过牺牲质量来保证时延和成本的通信方式,所以在一些特定场景下 RUDP 更容易找到这样的平衡点。RUDP 是怎么去找这个平衡点的,就要先从 RUDP 的可靠概念和使用场景来分析。

5、实时通信中什么是“可靠”

在实时通信过程中,不同的需求场景对可靠的需求是不一样的,我们在这里总体归纳为三类定义:

1)尽力可靠:通信的接收方要求发送方的数据尽量完整到达,但业务本身的数据是可以允许缺失的。例如:音视频数据、幂等性状态数据。;

2)无序可靠:通信的接收方要求发送方的数据必须完整到达,但可以不管到达先后顺序。例如:文件传输、白板书写、图形实时绘制数据、日志型追加数据等;

3)有序可靠:通信接收方要求发送方的数据必须按顺序完整到达。

RUDP 是根据这三类需求和上节图中的三角制约关系来确定自己的通信模型和机制的,也就是找通信的平衡点。

6、UDP 为什么要可靠

说到这里可能很多人会说:干嘛那么麻烦,直接用 TCP 好了! 

确实很多人也都是这样做的,TCP 是个基于公平性的可靠通信协议,但是在一些苛刻的网络条件下 TCP 要么不能提供正常的通信质量保证,要么成本过高。为什么要在 UDP 之上做可靠保证,究其原因就是在保证通信的时延和质量的条件下尽量降低成本。

RUDP 主要解决以下相关问题:

1)端对端连通性问题:

一般终端直接和终端通信都会涉及到 NAT 穿越,TCP 在 NAT 穿越实现非常困难,相对来说 UDP 穿越 NAT 却简单很多,如果是端到端的可靠通信一般用 RUDP 方式来解决,场景有:端到端的文件传输、实时音视频传输、交互指令传输等等;

2)弱网环境传输问题:

在一些 Wi-Fi 或者 3G/4G 移动网下,需要做低延迟可靠通信,如果用 TCP 通信延迟可能会非常大,这会影响用户体验。例如:实时的操作类网游通信、语音对话、多方白板书写等,这些场景可以采用特殊的 RUDP 方式来解决这类问题;

3)带宽竞争问题:

有时候客户端数据上传需要突破本身 TCP 公平性的限制来达到高速低延时和稳定,也就是说要用特殊的流控算法来压榨客户端上传带宽,例如:直播音视频推流,这类场景用 RUDP 来实现不仅能压榨带宽,也能更好地增加通信的稳定性,避免类似 TCP 的频繁断开重连;

4)传输路径优化问题:

在一些对延时要求很高的场景下,会用应用层 relay 的方式来做传输路由优化,也就是动态智能选路,这时双方采用 RUDP 方式来传输,中间的延迟进行 relay 选路优化延时。还有一类基于传输吞吐量的场景,例如:服务与服务之间数据分发、数据备份等,这类场景一般会采用多点并联 relay 来提高传输的速度,也是要建立在 RUDP 上的(这两点在后面着重来描述);

5)资源优化问题:

某些场景为了避免 TCP 的三次握手和四次挥手的过程,会采用 RUDP 来优化资源的占用率和响应时间,提高系统的并发能力,例如 QUIC。

不管哪类场景,都是要保证可靠性,也就是质量,那么在 UDP 之上怎么实现可靠呢?答案就是重传。

7、重传模式

IP 协议在设计的时候就不是为了数据可靠到达而设计的,所以 UDP 要保证可靠,就依赖于重传,这也就是我们通常意义上的 RUDP 行为。

在描述 RUDP 重传之前先来了解下 RUDP 基本框架,如图:


RUDP 分为发送端和接收端,每一种 RUDP 在设计的时候会做不一样的选择和精简,概括起来就是图中的单元。RUDP 的重传是发送端通过接收端 ACK 的丢包信息反馈来进行数据重传,发送端会根据场景来设计自己的重传方式,重传方式分为三类:定时重传、请求重传和 FEC 选择重传。

7.1 定时重传

定时重传很好理解,就是发送端如果在发出数据包(T1)时刻一个 RTO 之后还未收到这个数据包的 ACK 消息,那么发送端就重传这个数据包。这种方式依赖于接收端的 ACK 和 RTO,容易产生误判,主要有两种情况:

1)对方收到了数据包,但是 ACK 发送途中丢失;

2)ACK 在途中,但是发送端的时间已经超过了一个 RTO。

所以超时重传的方式主要集中在 RTO 的计算上,如果你的场景是一个对延迟敏感但对流量成本要求不高的场景,就可以将 RTO 的计算设计得比较小,这样能尽最大可能保证你的延时足够小。

例如:实时操作类网游、教育领域的书写同步,是典型的用 expense 换 latency 和 quality 的场景,适合用于小带宽低延迟传输。如果是大带宽实时传输,定时重传对带宽的消耗是很大的,极端情况会有 20% 的重传率,所以在大带宽模式下一般会采用请求重传模式。

7.2 请求重传

请求重传就是接收端在发送 ACK 的时候携带自己丢失报文的信息反馈,发送端接收到 ACK 信息时根据丢包反馈进行报文重传。

如下图:


这个反馈过程最关键的步骤就是回送 ACK 的时候应该携带哪些丢失报文的信息,因为 UDP 在网络传输过程中会乱序会抖动,接收端在通信的过程中要评估网络的 jitter time,也就是 rtt_var(RTT 方差值),当发现丢包的时候记录一个时刻 t1,当 t1 + rtt_var < curr_t(当前时刻),我们就认为它丢失了。

这个时候后续的 ACK 就需要携带这个丢包信息并更新丢包时刻 t2,后续持续扫描丢包队列,如果 t2 + RTO

这种方式是由丢包请求引起的重发,如果网络很不好,接收端会不断发起重传请求,造成发送端不停的重传,引起网络风暴,通信质量会下降,所以我们在发送端设计一个拥塞控制模块来限流,这个后面我们重点分析。

整个请求重传机制依赖于 jitter time 和 RTO 这个两个时间参数,评估和调整这两个参数和对应的传输场景也息息相关。请求重传这种方式比定时重传方式的延迟会大,一般适合于带宽较大的传输场景,例如:视频、文件传输、数据同步等。

7.3 FEC 选择重传

除了定时重传和请求重传模式以外,还有一种方式就是以 FEC 分组方式选择重传,FEC(Forward Error Correction)是一种前向纠错技术,一般通过 XOR 类似的算法来实现,也有多层的 EC 算法和 raptor 涌泉码技术,其实是一个解方程的过程。

应用到 RUDP 上示意图如下:


在发送方发送报文的时候,会根据 FEC 方式把几个报文进行 FEC 分组,通过 XOR 的方式得到若干个冗余包,然后一起发往接收端,如果接收端发现丢包但能通过 FEC 分组算法还原,就不向发送端请求重传,如果分组内包是不能进行 FEC 恢复的,就向发送端请求原始的数据包。

FEC 分组方式适合解决要求延时敏感且随机丢包的传输场景,在一个带宽不是很充裕的传输条件下,FEC 会增加多余的包,可能会使得网络更加不好。FEC 方式不仅可以配合请求重传模式,也可以配合定时重传模式。

8、RTT 与 RTO 的计算

在上面介绍重传模式时多次提到 RTT、RTO 等时间度量,RTT(Round Trip Time)即网络环路延时,环路延迟是通过发送的数据包和接收到的 ACK 包计算的,示意图如下:


RTT = T2 - T1:

这个计算方式只是计算了某一个报文时刻的 RTT,但网络是会波动的,这难免会有噪声现象,所以在计算的过程中引入了加权平均收敛的方法(具体可以参考 RFC793)。

SRTT = (α * SRTT) + (1-α)RTT:

这样可以求得逼近的 SRTT,在公式中一般α=0.8,确定了 SRTT,下一步就是计算 RTT_VAR(方差),我们设 RTT_VAR = |SRTT – RTT|,那么 SRTT_VAR =(α * SRTT_VAR) + (1-α) RTT_VAR,这样可以得到 RTT_VAR 的值。

但最终我们是需要 RTO,因为涉及到报文重传,RTO 就是一个报文的重传周期,从网络的通信流程我们很容易知道,重传一个包以后,如果一个 RTT+RTT_VAR 之后的时间还没收到确定,那我们就可以再次重传,则可知:RTO = SRTT + SRTT_VAR。

但一般网络在严重抖动的情况下还是会有较大的重复率问题,所以:RTO = β*(SRTT + RTT_VAR),1.2 <β<2.0,可以根据不同的传输场景来选择β的值。

9、窗口与拥塞控制

RUDP 是通过重传来保证可靠的,重传在三角平衡关系中其实是用 expense 和 latency 来换取 quality 的行为,所以重传会引来两个问题,一个是延时,一个是重传的带宽,尤其是后者,如果控制不好会引来网络风暴,所以在发送端会设计一个窗口拥塞机制了避免并发带宽占用过高的问题。

9.1 窗口

RUDP 需要一个收发的滑动窗口系统来配合对应的拥塞算法做流量控制,有些 RUDP 需要发送端和接收端的窗口严格地对应,有些 RUDP 不要求收发窗口严格对应。如果涉及到可靠有序的 RUDP,接收端就要做窗口排序和缓冲,如果是无序可靠或者尽力可靠的场景,接收端一般就不做窗口缓冲,只做位置滑动。

先来看收发窗口关系图:


上图描述的是发送端从发送窗口中发了 6 个数据报文给接收端,接收端收到 101,102,103,106 时会先判断报文的连续性并滑动窗口开始位置到 103,接着每个包都回应 ACK,发送端在接收到 ACK 的时候,会确认报文的连续性,并滑动窗口到 103,发送端会再判断窗口的空余,然后填补新的发送数据,这就是整个窗口滑动的流程。

这里值的一提的是在接收端收到 106 时的处理,如果是有序可靠,那么 106 不会通知上层业务进行处理,而是等待 104、105。如果是尽力可靠和无序可靠场景,会将 106 通知给上层业务先进行处理。在收到 ACK 后,发送端的窗口要滑动多少是由自己的拥塞机制定的,也就是说窗口的滑动速度受拥塞机制控制,拥塞控制实现要么基于丢包率来实现,要么基于双方的通信时延来实现,下面来看几种典型的拥塞控制。

9.2 经典拥塞算法

TCP 经典拥塞算法分为四个部分:慢启动、拥塞避免、拥塞处理和快速恢复,这四个部分都是为了决定发送窗口和发送速度而设计的,其实就是为了在当前网络条件下通过网络丢包来判断网络拥塞状态,从而确定比较适合的发送传输窗口。

经典算法是建立在定时重传的基础上的,如果 RUDP 采用这种算法来做拥塞控制,一般的场景是为了保证有序可靠传输的同时又兼顾网络传输的公平性原则。先逐个来解释下这几部分。

慢启动(slow start):

当连接链路刚刚建立后,不可能一开始将 cwnd 设置得很大,这样容易造成大量重传,经典拥塞里面会在开始将 cwnd = 1,然后根据通信过程的丢包情况来逐步扩大 cwnd 来适应当前的网络状态,直到达到慢启动的门限阈值 (ssthresh),步骤如下:

1)初始化设置 cwnd = 1,并开始传输数据;

2)收到回馈的 ACK,会将 cwnd 加 1;

3)当发送端一个 RTT 后且未发现有丢包重传,就会将 cwnd = cwnd * 2;

4)当 cwnd >= ssthresh 或发生丢包重传时慢启动结束,进入拥塞避免状态。

拥塞避免:

当通信连接结束慢启动后,有可能还未到网络传输速度的上线,这个时候需要进一步通过一个缓慢的调节过程来进行适配。一般是一个 RTT 后如果未发现丢包,就将 cwnd = cwnd + 1。一但发现丢包和超时重传,就进入拥塞处理状态。

拥塞处理:

拥塞处理在 TCP 里面实现很暴力,如果发生丢包重传,直接将 cwnd = cwnd / 2,然后进入快速恢复状态。

快速恢复:

通过确认丢包只发生在窗口一个位置的包来确定是否进行快速恢复,如图 6 中描述,如果只是 104 发生了丢失,而 105 和 106 是收到了的,那么 ACK 总是会将 ACK 的 base = 103,如果连续 3 次收到 base 为 103 的 ACK,就进行快速恢复,也就是立即重传 104,而后如果收到新的 ACK 且 base > 103,将 cwnd = cwnd + 1,并进入拥塞避免状态。

经典拥塞控制是基于丢包检测和定时重传模式来设计的,在三角平衡关系中是一个典型的以 latency 换取 quality 的案例,但由于其公平性设计避免了过高的 expense,也就会让这种传输方式很难压榨网络带宽,很难保证网络的大吞吐量和小时延。

9.3 BBR 拥塞算法

对于经典拥塞算法的延迟和带宽压榨问题 Google 设计了基于发送端延迟和带宽评估的 BBR 拥塞控制算法。

这种拥塞算法致力于解决两个问题:

1)在一定丢包率网络传输链路上充分利用带宽;

2)降低网络传输中的 buffer 延迟。

BBR 的主要策略是周期性通过 ACK 和 NACK 返回来评估链路的 min_rtt 和 max_bandwidth。最大吞吐量(cwnd)的大小就是:cwnd = max_bandwidth / min_rtt。

传输模型如下:


BBR 整个拥塞控制是一个探测带宽和 Pacing rate 的状态,有 4 个状态:

1)Startup:启动状态(相当于慢启动),增益参数为 max_gain  = 2.85;

2)DRAIN:满负荷传输状态;

3)PROBE_BW:带宽评估状态,通过一个较小的 BBR 增益参数来递增(1.25)或者递减 (0.75);

4)PROBE_RTT:延迟评估状态,通过维持一个最小发送窗口(4 个 MSS)进行的 RTT 采样。

那么这几种状态是怎么来回切换的呢?以下是 QUIC 中 BBR 大致的步骤如下:

1)初始化连接时会设置一个初始的 cwnd = 8,并将状态设置 Startup;

2)在 Startup 下发送数据,根据 ACK 数据的采样周期性判断是否可以增加带宽,如果可以,将 cwnd = cwnd *max_gain。如果时间周期数超过了预设的启动周期时间或者发生了丢包,进行 DRAIN 状态;

3)在 DRAIN 状态下,如果 flight_size(发送出去但还未确认的数据大小) >cwnd, 继续保证 DRAIN 状态,如果 flight_size

4)在PROBE_BW状态下,如果未发生丢包且flight_size cwnd,将cwnd = cwnd * 1.25,如果发生丢包,cwnd = cwnd * 0.75;

5)在 Startup/DRAIN/PROBE_BW 三个状态中,如果持续 10 秒钟的通信中没有出现 RTT <= min_rtt,就会进入到 PROBE_RTT 状态,并将 cwnd = 4 *MSS;

6)在 PROBE_RTT 状态,会在收到 ACK 返回的时候持续判断 flight_size >= cwnd 并且无丢包,将本次统计的最小 RTT 作为 min_rtt,进入 Startup 状态。

BBR 通过以上几个步骤来周期性计算 cwnd,也就是网络最大吞吐量和最小延迟,然后通过 pacing rate 来确定这一时刻发送端的码率,最终达到拥塞控制的目的。

BBR 适合在随机丢包且网络稳定的情况下做拥塞,如果在网络信号极不稳定的 Wi-Fi 或者 4G 上,容易出现网络泛洪和预测不准的问题,BBR 在多连接公平性上也存在小 RTT 的连接比大 RTT 的连接更吃带宽的情况,容易造成大 RTT 的连接速度过慢的情况。BBR 拥塞算法在三角平衡关系中是采用 expense 换取 latency 和 quality 的案例。

9.4 WebRTC GCC

说到实时音视频传输就必然会想到 开源实时音视频工程WebRTC,在 WebRTC 中对于视频传输也实现了一个拥塞控制算法 (GCC),WebRTC 的 GCC 是一个基于发送端丢包率和接收端延迟带宽统计的拥塞控制,而且是一个尽力可靠的传输算法,在传输的过程中如果一个报文重发太多次后会直接丢弃,这符合视频传输的场景(更多 WebRTC 文章点此进入)。

借用一张图来看个究竟:


(本图来自:《WebRTC基于GCC的拥塞控制(上) - 算法分析》一文)

GCC 的发送端会根据丢包率和一个对照表来 pacing rate,当 loss < 2% 时,会加大传输带宽,当 loss >=2% &&loss <10%,会保持当前码率,当 loss>=10%,会认为传输过载,进行调小传输带宽。

GCC 的接收端是根据数据到达的延迟方差和大小进行 KalmanFilter 进行带宽逼近收敛,具体的细节不介绍了,请查看:《WebRTC视频接收缓冲区基于KalmanFilter的延迟模型》。

这里值得一说的是 GCC 引入接收端对带宽进行 KalmanFilter 评估是一个非常新颖的拥塞控制思路,如果实现一个尽力可靠的 RUDP 传输系统不失为是一个很好的参考。

但这种算法也有个缺陷,就是在网络间歇性丢包情况下,GCC 可能收敛的速度比较慢,在一定程度上有可能会造成 REMB 很难反馈给发送端,容易出现发送端流控失效。GCC 在三角平衡关系算一个以 quality 和 expense 换取 latency 的案例。

9.5 弱窗口拥塞机制

其实在很多场景是不用拥塞控制或者只要很弱的拥塞控制即可,例如:师生双方书写同步、实时游戏,因为本身的传输的数据量不大,只要保证足够小的延时和可靠性就行,一般会采用固定窗口大小来进行流控,我们在系统中一般采用一个 cwnd =32 这样的窗口来做流控,ACK 确认也是通过整个接收窗口数据状态反馈给发送方,简单直接,也很容易适应弱网环境。

10、传输路径

RUDP 除了优化连接、压榨带宽、适应弱网环境等以外,它也继承了 UDP 天然的动态性,可以在中间应用层链路上做传输优化,一般分为多点串联优化和多点并联优化。我们具体来说一说。

10.1 多点串联 relay

在实时通信中一些业务场景对延迟非常敏感,例如:实时语音、同步书写、实时互动、直播连麦等,如果单纯的服务中转或者 P2P 通信,很难满足其需求,尤其是在物理距离很大的情况下。

在解决这个问题上 SKYPE 率先提出全球 RTN(实时多点传输网络),其实就是在通信双方之间通过几个 relay 节点来动态智能选路,这种传输方式很适合 RUDP,我们只要在通信双方构建一个 RUDP 通道,中间链路只是一个无状态的 relay cache 集合,relay 与 relay 之间进行路由探测和选路,以此来做到链路的高可用和实时性。

如下图:


通过多点 relay 来保证 RUDP 进行传输优化,这类场景在三角平衡关系里是典型的用 expense 来换取 latency 的案例。

10.2 多点并联 relay

在服务与服务进行媒体数据传输或者分发过程中,需要保证传输路径高可用和带宽并发,这类使用场景也会使用传输双方构建一个 RUDP 通道,中间通过多 relay 节点的并联来解决。

如下图所示:


这种模型需要在发送端设计一个多点路由表探测机制,以此来判断各个路径同时发送数据的比例和可用性,这个模型除了链路备份和增大传输并发带宽外,还有个辅助的功能,如果是流媒体分发系统,我们一般会用 BGP 来做中转,如果节点与节点之间可以直连,这样还可以减少对 BGP 带宽的占用,以此来减少成本。

11、本文小结

到这里 RUDP 的介绍也就结束了,说了些细节和场景相关的事,也算是个入门级的科普文章。RUDP 的概念从提出到现在也差不多有 20 年了,很多从业人员希望通过一套完善的方案来设计一个通用的 RUDP,我个人觉得这不太可能,就算设计出来了,估计和现在 TCP 差不多,这样做的意义不大。

RUDP 的价值在于根据不同的传输场景进行不同的技术选型,可能选择宽松的拥塞方式、也可能选择特定的重传模式,但不管怎么选,都是基于 expense(成本)、latency(时延)、quality(质量)三者之间来权衡,通过结合场景和权衡三角平衡关系 RUDP 或许能帮助开发者找到一个比较好的方案。

12、本文作者


袁荣喜:学霸君资深架构师,16 年的 C 程序员,擅长 P2P 通信网络、TCP/IP 通信协议栈和鉴权加密技术,2015 年加入学霸君,负责构建学霸君的智能路由实时音视频传输系统和网络,解决音视频通信的实时性的问题。

作者的另一篇文章《P2P技术如何将实时视频直播带宽降低75%?》也写的不错,有兴趣的读者可继续前往阅读。

附录:更多网络编程文章

[1] 网络编程基础资料:

TCP/IP详解 - 第11章·UDP:用户数据报协议

TCP/IP详解 - 第17章·TCP:传输控制协议

TCP/IP详解 - 第18章·TCP连接的建立与终止

TCP/IP详解 - 第21章·TCP的超时与重传

技术往事:改变世界的TCP/IP协议(珍贵多图、手机慎点)

通俗易懂-深入理解TCP协议(上):理论基础

通俗易懂-深入理解TCP协议(下):RTT、滑动窗口、拥塞处理

理论经典:TCP协议的3次握手与4次挥手过程详解

理论联系实际:Wireshark抓包分析TCP 3次握手、4次挥手过程

计算机网络通讯协议关系图(中文珍藏版)

UDP中一个包的大小最大能多大?

P2P技术详解(一):NAT详解——详细原理、P2P简介

P2P技术详解(二):P2P中的NAT穿越(打洞)方案详解

P2P技术详解(三):P2P技术之STUN、TURN、ICE详解

通俗易懂:快速理解P2P技术中的NAT穿透原理

高性能网络编程(一):单台服务器并发TCP连接数到底可以有多少

高性能网络编程(二):上一个10年,著名的C10K并发连接问题

高性能网络编程(三):下一个10年,是时候考虑C10M并发问题了

高性能网络编程(四):从C10K到C10M高性能网络应用的理论探索

不为人知的网络编程(一):浅析TCP协议中的疑难杂症(上篇)

不为人知的网络编程(二):浅析TCP协议中的疑难杂症(下篇)

不为人知的网络编程(三):关闭TCP连接时为什么会TIME_WAIT、CLOSE_WAIT

不为人知的网络编程(四):深入研究分析TCP的异常关闭

不为人知的网络编程(五):UDP的连接性和负载均衡

不为人知的网络编程(六):深入地理解UDP协议并用好它

不为人知的网络编程(七):如何让不可靠的UDP变的可靠?

网络编程懒人入门(一):快速理解网络通信协议(上篇)

网络编程懒人入门(二):快速理解网络通信协议(下篇)

网络编程懒人入门(三):快速理解TCP协议一篇就够

网络编程懒人入门(四):快速理解TCP和UDP的差异

网络编程懒人入门(五):快速理解为什么说UDP有时比TCP更有优势

>> 更多同类文章 ……

[2] NIO异步网络编程资料:

Java新一代网络编程模型AIO原理及Linux系统AIO介绍

有关“为何选择Netty”的11个疑问及解答

开源NIO框架八卦——到底是先有MINA还是先有Netty?

选Netty还是Mina:深入研究与对比(一)

选Netty还是Mina:深入研究与对比(二)

NIO框架入门(一):服务端基于Netty4的UDP双向通信Demo演示

NIO框架入门(二):服务端基于MINA2的UDP双向通信Demo演示

NIO框架入门(三):iOS与MINA2、Netty4的跨平台UDP双向通信实战

NIO框架入门(四):Android与MINA2、Netty4的跨平台UDP双向通信实战

Netty 4.x学习(一):ByteBuf详解

Netty 4.x学习(二):Channel和Pipeline详解

Netty 4.x学习(三):线程模型详解

Apache Mina框架高级篇(一):IoFilter详解

Apache Mina框架高级篇(二):IoHandler详解

MINA2 线程原理总结(含简单测试实例)

Apache MINA2.0 开发指南(中文版)[附件下载]

MINA、Netty的源代码(在线阅读版)已整理发布

解决MINA数据传输中TCP的粘包、缺包问题(有源码)

解决Mina中多个同类型Filter实例共存的问题

实践总结:Netty3.x升级Netty4.x遇到的那些坑(线程篇)

实践总结:Netty3.x VS Netty4.x的线程模型

详解Netty的安全性:原理介绍、代码演示(上篇)

详解Netty的安全性:原理介绍、代码演示(下篇)

详解Netty的优雅退出机制和原理

NIO框架详解:Netty的高性能之道

Twitter:如何使用Netty 4来减少JVM的GC开销(译文)

绝对干货:基于Netty实现海量接入的推送服务技术要点

Netty干货分享:京东京麦的生产级TCP网关技术实践总结

>> 更多同类文章 ……

(本文同步发布于:http://www.52im.net/thread-1293-1-1.html

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
30天前
|
Web App开发 缓存 网络协议
不为人知的网络编程(十八):UDP比TCP高效?还真不一定!
熟悉网络编程的(尤其搞实时音视频聊天技术的)同学们都有个约定俗成的主观论调,一提起UDP和TCP,马上想到的是UDP没有TCP可靠,但UDP肯定比TCP高效。说到UDP比TCP高效,理由是什么呢?事实真是这样吗?跟着本文咱们一探究竟!
53 10
|
1月前
|
存储 网络协议 Java
【网络】UDP回显服务器和客户端的构造,以及连接流程
【网络】UDP回显服务器和客户端的构造,以及连接流程
55 2
|
1月前
|
存储 网络协议 Java
【网络】UDP和TCP之间的差别和回显服务器
【网络】UDP和TCP之间的差别和回显服务器
65 1
|
2月前
|
C语言
C语言 网络编程(八)并发的UDP服务端 以进程完成功能
这段代码展示了如何使用多进程处理 UDP 客户端和服务端通信。客户端通过发送登录请求与服务端建立连接,并与服务端新建的子进程进行数据交换。服务端则负责接收请求,验证登录信息,并创建子进程处理客户端的具体请求。子进程会创建一个新的套接字与客户端通信,实现数据收发功能。此方案有效利用了多进程的优势,提高了系统的并发处理能力。
|
2月前
|
C语言
C语言 网络编程(七)UDP通信创建流程
本文档详细介绍了使用 UDP 协议进行通信的过程,包括创建套接字、发送与接收消息等关键步骤。首先,通过 `socket()` 函数创建套接字,并设置相应的参数。接着,使用 `sendto()` 函数向指定地址发送数据。为了绑定地址,需要调用 `bind()` 函数。接收端则通过 `recvfrom()` 函数接收数据并获取发送方的地址信息。文档还提供了完整的代码示例,展示了如何实现 UDP 的发送端和服务端功能。
|
2月前
|
C语言
C语言 网络编程(九)并发的UDP服务端 以线程完成功能
这是一个基于UDP协议的客户端和服务端程序,其中服务端采用多线程并发处理客户端请求。客户端通过UDP向服务端发送登录请求,并根据登录结果与服务端的新子线程进行后续交互。服务端在主线程中接收客户端请求并创建新线程处理登录验证及后续通信,子线程创建新的套接字并与客户端进行数据交换。该程序展示了如何利用线程和UDP实现简单的并发服务器架构。
|
2月前
|
网络协议 视频直播 C语言
C语言 网络编程(三)UDP 协议
UDP(用户数据报协议)是一种无需建立连接的通信协议,适用于高效率的数据传输,但不保证数据的可靠性。其特点是无连接、尽力交付且面向报文,具备较高的实时性。UDP广泛应用于视频会议、实时多媒体通信、直播及DNS查询等场景,并被许多即时通讯软件和服务(如MSN/QQ/Skype、流媒体、VoIP等)采用进行实时数据传输。UDP报文由首部和数据部分组成,首部包含源端口、目的端口、长度和校验和字段。相比TCP,UDP具有更高的传输效率和更低的资源消耗。
|
2月前
|
网络协议
网络协议概览:HTTP、UDP、TCP与IP
理解这些基本的网络协议对于任何网络专业人员都是至关重要的,它们不仅是网络通信的基础,也是构建更复杂网络服务和应用的基石。网络技术的不断发展可能会带来新的协议和标准,但这些基本协议的核心概念和原理将继续是理解和创新网络技术的关键。
173 0
|
3月前
|
网络协议 数据处理 C语言
网络编程进阶:UDP通信
网络编程进阶:UDP通信
199 0
|
3天前
|
安全 网络安全 数据安全/隐私保护
网络安全与信息安全:关于网络安全漏洞、加密技术、安全意识等方面的知识分享
在数字化时代,网络安全和信息安全已成为我们生活中不可或缺的一部分。本文将介绍网络安全漏洞、加密技术和安全意识等方面的知识,并提供一些实用的技巧和建议,帮助读者更好地保护自己的网络安全和信息安全。
下一篇
无影云桌面