Netty效率为什么那么高,看了就懂

简介: Netty效率为什么那么高,看了就懂

一、异步非阻塞通信

1.1 传统BIO

1.2 非阻塞NIO

1.3 拓展:AIO

1.4 I/O多路复用机制

1.4.1 select运行机制

1.4.2 Poll运行机制

1.4.3 Epoll运行机制

1.4.4 select、poll、epoll 区别总结:[^1]

二、零拷贝

2.1 传统数据读写

2.2 mmap优化

2.3 sendfile方式

2.4 Netty的零拷贝

三、内存池

四、高效的Reactor多线程模型

4.1 事件驱动模型

4.2 Reactor线程模型

五、无锁化串行设计

六、附录

Netty功能特性

Netty模块组件

文章内容是我在《Netty 系列之 Netty 高性能之道》这篇文章的基础上,查询其他资料,最终汇总的个人心得。有纰漏处,还望指出。


一、异步非阻塞通信

1.1 传统BIO


传统RPC框架多使用同步阻塞IO,客户端并发压力大或者网络时延长时,同步阻塞IO会频繁的wait导致线程阻塞,IO处理能力下降。假设一个烧开水的场景,有一排水壶在烧开水,BIO的工作模式就是, 叫一个线程停留在一个水壶那,直到这个水壶烧开,才去处理下一个水壶。但是实际上线程在等待水壶烧开的时间段什么都没有做。


1.2 非阻塞NIO


在 IO 编程过程中,当需要同时处理多个客户端接入请求时,可以利用多线程或者 IO 多路复用技术进行处理。IO 多路复用技术通过把多个 IO 的阻塞复用到同一个 select 的阻塞上,从而使得系统在单线程的情况下可以同时处理多个客户端请求。如果还拿烧开水来说,NIO的做法是叫一个线程不断的轮询每个水壶的状态,看看是否有水壶的状态发生了改变,从而进行下一步的操作。

与传统的多线程 / 多进程模型比,I/O 多路复用的最大优势是系统开销小,系统不需要创建新的额外进程或者线程,也不需要维护这些进程和线程的运行,降低了系统的维护工作量,节省了系统资源。


JDK1.4 提供了对非阻塞 IO(NIO)的支持,此时I/O多路复用的机制分为select/poll两种模式。


1.3 拓展:AIO

JDK1.5_update10 版本使用 epoll 替代了传统的 select/poll,极大的提升了 NIO 通信的性能。异步非阻塞无需一个线程去轮询所有IO操作的状态改变,在相应的状态改变后,系统会通知对应的线程来处理。对应到烧开水中就是,为每个水壶上面装了一个开关,水烧开之后,水壶会自动通知我水烧开了。


1.4 I/O多路复用机制

1.4.1 select运行机制

select()的机制中提供一种fd_set的数据结构,实际上是一个long类型的数组,每一个数组元素都能与一打开的文件句柄(不管是Socket句柄,还是其他文件或命名管道或设备句柄)建立联系,建立联系的工作由程序员完成,当调用select()时,由内核根据IO状态修改fd_set的内容,由此来通知执行了select()的进程哪一Socket或文件可读。


从流程上来看,使用select函数进行IO请求和同步阻塞模型没有太大的区别,甚至还多了添加监视socket,以及调用select函数的额外操作,效率更差。但是,使用select以后最大的优势是用户可以在一个线程内同时处理多个socket的IO请求。用户可以注册多个socket,然后不断地调用select读取被激活的socket,即可达到在同一个线程内同时处理多个IO请求的目的。而在同步阻塞模型中,必须通过多线程的方式才能达到这个目的。


select机制的问题


每次调用select,都需要把fd_set集合从用户态拷贝到内核态,如果fd_set集合很大时,那这个开销也很大

同时每次调用select都需要在内核遍历传递进来的所有fd_set,如果fd_set集合很大时,那这个开销也很大

为了减少数据拷贝带来的性能损坏,内核对被监控的fd_set集合大小做了限制,并且这个是通过宏控制的,大小不可改变(限制为1024)

1.4.2 Poll运行机制

poll的机制与select类似,与select在本质上没有多大差别,管理多个描述符也是进行轮询,根据描述符的状态进行处理,但是poll没有最大文件描述符数量的限制。也就是说,poll只解决了上面的问题3,并没有解决问题1,2的性能开销问题。

poll改变了文件描述符集合的描述方式,使用了链表结构而不是select的数组结构,使得poll支持的文件描述符集合限制远大于select的1024。


1.4.3 Epoll运行机制

epoll在Linux2.6内核正式提出,是基于事件驱动的I/O方式,相对于select来说,epoll没有描述符个数限制,使用一个文件描述符管理多个描述符,将用户关心的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。


1.4.4 select、poll、epoll 区别总结:1

IO多路复用机制 支持一个进程所能打开的最大连接数 FD剧增后带来的IO效率问题 消息传递方式

select 单个进程所能打开的最大连接数有FD_SETSIZE宏定义,其大小是32个整数的大小(在32位的机器上,大小就是3232,同理64位机器上FD_SETSIZE为3264),当然我们可以对进行修改,然后重新编译内核,但是性能可能会受到影响,这需要进一步的测试 因为每次调用时都会对连接进行线性遍历,所以随着FD的增加会造成遍历速度慢的“线性下降性能问题”。 内核需要将消息传递到用户空间,都需要内核拷贝动作

poll poll本质上和select没有区别,但是它没有最大连接数的限制,原因是它是基于链表来存储的 同select 同select

Epoll 虽然连接数有上限,但是很大,1G内存的机器上可以打开10万左右的连接,2G内存的机器可以打开20万左右的连接 因为epoll内核中实现是根据每个fd上的callback函数来实现的,只有活跃的socket才会主动调用callback,所以在活跃socket较少的情况下,使用epoll没有前面两者的线性下降的性能问题,但是所有socket都很活跃的情况下,可能会有性能问题。 epoll通过内核和用户空间共享一块内存来实现的。

综上,在选择select,poll,epoll时要根据具体的使用场合以及这三种方式的自身特点。

1、表面上看epoll的性能最好,但是在连接数少并且连接都十分活跃的情况下,select和poll的性能可能比epoll好,毕竟epoll的通知机制需要很多函数回调。

2、select低效是因为每次它都需要轮询。但低效也是相对的,视情况而定,也可通过良好的设计改善。


二、零拷贝

数据读写的发展历程2


2.1 传统数据读写

初学 Java 时,我们在学习 IO 和 网络编程时,会使用以下代码:


    File file = new File("index.html");
    RandomAccessFile raf = new RandomAccessFile(file, "rw");
    byte[] arr = new byte[(int) file.length()];
    raf.read(arr);
    Socket socket = new ServerSocket(8080).accept();
    socket.getOutputStream().write(arr);



    我们会调用 read 方法读取 index.html 的内容—— 变成字节数组,然后调用 write 方法,将 index.html 字节流写到 socket 中,那么,我们调用这两个方法,在 OS 底层发生了什么呢?如上图最左边的流程:


    read 调用导致用户态到内核态的一次变化,同时,第一次复制开始:DMA(Direct Memory Access,直接内存存取,即不使用 CPU 拷贝数据到内存,而是 DMA 引擎传输数据到内存,用于解放 CPU) 引擎从磁盘读取数据,并将数据放入到内核缓冲区。

    发生第二次数据拷贝,即:将内核缓冲区的数据拷贝到用户缓冲区,同时,发生了一次用内核态到用户态的上下文切换。

    发生第三次数据拷贝,我们调用 write 方法,系统将用户缓冲区的数据拷贝到 Socket 缓冲区。此时,又发生了一次用户态到内核态的上下文切换。

    第四次拷贝,数据异步的从 Socket 缓冲区,使用 DMA 引擎拷贝到网络协议引擎。这一段,不需要进行上下文切换。

    write 方法返回,再次从内核态切换到用户态。

    2.2 mmap优化

    mmap是一种内存映射文件的方法,即将一个文件或者其它对象映射到进程的地址空间,实现文件磁盘地址和进程虚拟地址空间中一段虚拟地址的一一对映关系。实现这样的映射关系后,进程就可以采用指针的方式读写操作这一段内存,而系统会自动回写脏页面到对应的文件磁盘上,即完成了对文件的操作而不必再调用read,write等系统调用函数。

    如上图中间的流程,user buffer 和 kernel buffer 共享 数据。如果你想把硬盘的数据传输到网络中,只需要从内核缓冲区拷贝到 Socket 缓冲区即可,比传统read+write方式减少了两次CPU Copy操作。但不减少上下文切换次数。


    2.3 sendfile方式

    sendfile系统调用在内核版本2.1中被引入,目的是简化通过网络在两个通道之间进行的数据传输过程。如上图最右边的流程,sendfile数据传送只发生在内核空间,所以减少了一次上下文切换;但是还是存在一次copy,能不能把这一次copy也省略掉,Linux2.4内核中做了改进,将Kernel buffer中对应的数据描述信息(内存地址,偏移量)记录到相应的socket缓冲区当中,这样连内核空间中的一次cpu copy也省掉了。


    2.4 Netty的零拷贝

    Netty 的“零拷贝”主要体现在如下三个方面:


    Netty 的接收和发送 ByteBuffer 采用 DIRECT BUFFERS,使用堆外直接内存进行 Socket 读写,不需要进行字节缓冲区的二次拷贝。如果使用传统的堆内存(HEAP BUFFERS)进行 Socket 读写,JVM 会将堆内存 Buffer 拷贝一份到直接内存中,然后才写入 Socket 中。相比于堆外直接内存,消息在发送过程中多了一次缓冲区的内存拷贝。

    Netty 提供了组合 Buffer 对象,可以聚合多个 ByteBuffer 对象,用户可以像操作一个 Buffer 那样方便的对组合 Buffer 进行操作,避免了传统通过内存拷贝的方式将几个小 Buffer 合并成一个大的 Buffer。

    Netty 的文件传输采用了 transferTo 方法,它可以直接将文件缓冲区的数据发送到目标 Channel,避免了传统通过循环 write 方式导致的内存拷贝问题。

    三、内存池

    随着 JVM 虚拟机和 JIT 即时编译技术的发展,对象的分配和回收是个非常轻量级的工作。但是对于缓冲区 Buffer,情况却稍有不同,特别是对于堆外直接内存的分配和回收,是一件耗时的操作。为了避免频繁的内存分配给系统带来负担以及GC对系统性能带来波动,Netty4提出了基于内存池的缓冲区重用机制,使用全新的内存池来管理内存的分配和回收。

    (此处我还没有看明白,先做留白~~后续继续完善。)


    四、高效的Reactor多线程模型

    4.1 事件驱动模型

    事件驱动方式:发生事件,主线程把事件放入事件队列,在另外线程不断循环消费事件列表中的事件,调用事件对应的处理逻辑处理事件。事件驱动方式也被称为消息通知方式,其实是设计模式中观察者模式的思路。

    主要包括 4 个基本组件:


    事件队列(event queue):接收事件的入口,存储待处理事件;

    分发器(event mediator):将不同的事件分发到不同的业务逻辑单元;

    事件通道(event channel):分发器与处理器之间的联系渠道;

    事件处理器(event processor):实现业务逻辑,处理完成后会发出事件,触发下一步操作。

    可以看出,相对传统轮询模式,事件驱动有如下优点:


    可扩展性好:分布式的异步架构,事件处理器之间高度解耦,可以方便扩展事件处理逻辑;

    高性能:基于队列暂存事件,能方便并行异步处理事件。

    4.2 Reactor线程模型

    Reactor 是反应堆的意思,Reactor 模型是指通过一个或多个输入同时传递给服务处理器的服务请求的事件驱动处理模式。

    Reactor 模型中有 2 个关键组成:


    Reactor:Reactor 在一个单独的线程中运行,负责监听和分发事件,分发给适当的处理程序来对 IO 事件做出反应。它就像公司的电话接线员,它接听来自客户的电话并将线路转移到适当的联系人;

    Handlers:处理程序执行 I/O 事件要完成的实际事件,类似于客户想要与之交谈的公司中的实际官员。Reactor 通过调度适当的处理程序来响应 I/O 事件,处理程序执行非阻塞操作。

    取决于 Reactor 的数量和 Hanndler 线程数量的不同,Reactor 模型有 3 个变种:

    1)单 Reactor 单线程;

    2)单 Reactor 多线程;

    3)主从 Reactor 多线程。

    Netty 主要基于主从 Reactors 多线程模型(如下图)做了一定的修改,其中主从 Reactor 多线程模型有多个 Reactor:

    1)MainReactor 负责客户端的连接请求,并将请求转交给 SubReactor;

    2)SubReactor 负责相应通道的 IO 读写请求;

    3)非 IO 请求(具体逻辑处理)的任务则会直接写入队列,等待 worker threads 进行处理。

    五、无锁化串行设计

    即消息的处理尽可能在同一个线程内完成,期间不进行线程切换,这样就避免了多线程竞争和同步锁。

    表面上看,串行化设计似乎CPU利用率不高,并发程度不够。但是,通过调整NIO线程池的线程参数,可以同时启动多个串行化的线程并行运行,这种局部无锁化的串行线程设计相比一个队列-多个工作线程模型性能更优。


    六、附录

    Netty功能特性


    Netty模块组件


    目录
    相关文章
    |
    6月前
    |
    Java
    【Netty 网络通信】Netty 工作流程分析
    【1月更文挑战第9天】Netty 工作流程分析
    |
    3月前
    |
    编解码 监控 网络协议
    Netty优化
    Netty优化
    61 3
    |
    3月前
    |
    开发者
    Netty运行原理问题之Netty高性能实现的问题如何解决
    Netty运行原理问题之Netty高性能实现的问题如何解决
    |
    3月前
    |
    API 开发者
    Netty运行原理问题之Netty实现低开发门槛的问题如何解决
    Netty运行原理问题之Netty实现低开发门槛的问题如何解决
    |
    6月前
    |
    编解码 网络协议 Java
    netty有什么优势
    Netty 是一个异步事件驱动的网络应用程序框架,用于快速开发可维护的高性能协议服务器和客户端。它的主要特点包括:开发门槛低, 定制能力强 ,高性能,活跃的社区.
    |
    6月前
    |
    缓存 前端开发 Java
    Netty Review - Netty与Protostuff:打造高效的网络通信
    Netty Review - Netty与Protostuff:打造高效的网络通信
    89 0
    |
    6月前
    |
    存储 缓存 监控
    Netty基础篇:详解Netty底层NIO
    Netty基础篇:详解Netty底层NIO
    |
    前端开发 网络协议 Java
    Netty(一)Netty核心功能与线程模型1
    Netty(一)Netty核心功能与线程模型
    167 0
    |
    编解码 弹性计算 网络协议
    【Netty】Netty高性能原理剖析
    我们在实际项目中必然会遇到网络间的通信,也就是RPC,大家肯定都用过Dubbo,那么你对Dubbo底层---Netty了解多少呢?对于它为什么性能如此之高又了解多少呢?这篇文章就简单的介绍下Netty高性能原理。
    214 0
    【Netty】Netty高性能原理剖析
    |
    编解码 弹性计算 前端开发
    太详细了!终于有人把Netty原理架构讲解清楚了
    本文基于 Netty 4.1 展开介绍相关理论模型,使用场景,基本组件、整体架构,知其然且知其所以然,希望给大家在实际开发实践、学习开源项目方面提供参考。
    460 1
    太详细了!终于有人把Netty原理架构讲解清楚了