性能追击:万字长文30+图揭秘8大主流服务器程序线程模型展示

本文涉及的产品
云数据库 Redis 版,社区版 2GB
推荐场景:
搭建游戏排行榜
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
云数据库 RDS MySQL Serverless,价值2615元额度,1个月
简介: 本文我们来探索一下主流的各种应用服务器的网络处理模型,看看大家都是怎么设计网络程序的。在本文中,我会从Node.js、Apache Server、Nginx、Netty、Redis、Tomcat、MySQL、Zuul等常用的服务器程序,给大家逐一分析,分析各种服务器程序的性能,心中有数,才能手中有术,从此性能是熟客。

看大佬如何用30+图片揭秘8大主流服务器程序线程模型:

网络异常,图片无法展示
|

最近拍的照片比较少,不知道配什么图好,于是自己画了一个,凑合着用,让大家见笑了。

本文我们来探索一下主流的各种应用服务器的网络处理模型,看看大家都是怎么设计网络程序的。在本文中,我会从Node.js、Apache Server、Nginx、Netty、Redis、Tomcat、MySQL、Zuul等常用的服务器程序,给大家逐一分析,分析各种服务器程序的性能,心中有数,才能手中有术,从此性能是熟客。

网络异常,图片无法展示
|

虽然涉及到很多底层知识,各种框架的原理,但是我都会尽量配上直白易懂的图文,方便大家理解。

1、Node.js

网络异常,图片无法展示
|

我们继续讲讲Node.js的运行模式,揭开它高性能背后的实现机制。

1.1、Node.js运行模式

网络异常,图片无法展示
|

Node.js是单线程的Event Loop:

  • V8引擎解析JS脚本,调用Node API;
  • libuv库执行Node API,会先将API请求 封装成事件 ,放入事件队列, Event Loop线程处于空闲状态时,就开始遍历处理事件队列中的事件 ,对事件进行处理:如果不是阻塞任务,直接处理得到结果,通过回调函数返回给V8;如果是阻塞任务,则从Worker线程池中取出一个线程,交给线程处理,最终线程把处理结果设置到事件的结果属性中, 把事件放回事件队列 ,等待Event Loop线程执行回调返回给V8引擎。

其中请求的任务会被封装成如下的结构:

varevent= createEvent({
  params:request.params, // 传递请求参数
  result:null, // 存放请求结果
  callback:function(){} // 指定回调函数
});

网络异常,图片无法展示
|

当然了,在客户端请求到Node.js服务器的时候,肯定会有一个创建已连接套接字的过程,然后把这个已连接套接字描述符与具体的执行代码关联起来,这样再异步处理完成之后,才知道要响应给哪个客户端。

1.2、Node.js异步案例

以上的运行模式说明还是需要结合例子来说明比较好理解。

如果没有通过回调函数进行异步处理,我们可能会写出如下代码:

var result = db.query("select * from t_user");
// do something with result here...
console.log("do something else...");

这个代码在执行查询result的时候,查询速度可能很慢,等待查询出结果后,才可以执行后面的console.log操作,因为这是在一个线程上执行的。

但是Node.js不是这么玩的,Node.js的运行模式下,只有一个Event Loop线程,如果这个线程被阻塞,这将导致无法接收新的请求。为了避免这种情况,我们按照Node.js的回调方式重写代码:

db.query("select * from t_user", function(rows) {
  var result = rows;
  // do something with result here...
});
console.log("do something else...");

现在,Node.js可以异步处理查询请求了,并且把 查询请求委托给Worker Thread,等待Worker Thread得到查询结果之后,再把结果连同回调匿名函数封装成事件发布到事件队列,等待Event Loop线程执行该回调函数 。这样console.log代码就可以立刻得到执行,而不会因为查询请求导致被阻塞住了。

1.3、Node.js并发模型优缺点

从以上分析可知,Node.js通过事件驱动,把阻塞的IO任务丢到线程池中进行异步处理,也就是说, Node.js适合I/O密集型任务

但是,如果碰到CPU密集型任务的时候,Node.js中的EventLoop线程就会自己处理任务,这样会导致在事件队列中的CPU密集型任务没有处理完,那么后面的任务就不会被执行到了,从而导致后续的请求响应变慢。

如下图,本来socket2和socket3很快就可以处理完的,但是由于socket1的任务一直占用着CPU时间,导致socket2和socket3都不能及时得到处理,从表现上看,就是响应变慢了。

网络异常,图片无法展示
|

如果CPU是单核的还好,充分的利用了CPU内核,但是如果CPU是多核的,这种情况就会导致其他内存处于闲置状态,造成资源浪费。

所以,Node.js不适合CPU密集型任务。

Node.js适合请求和响应内容小,无需大量计算逻辑的场景,这能够充分发挥Node.js运行模式的优势。类似的场景有聊天程序。

网络异常,图片无法展示
|

2、Apache

网络异常,图片无法展示
|

Apache于1995年首次发布,并迅速占领了市场,成为世界上最受欢迎的Web服务器。配合世界上最好的语言——PHP搭建网站,在那个年代可谓是打遍天下无敌手。

网络异常,图片无法展示
|

这里我们来探讨下Apache Web服务器使用的两个工作模型:

  • Apache MPM Prefork:用于实现多进程模型;
  • Apache MPM Worker:用于实现多线程模型;

Apache使用到了 Multi Processing Module 模块(MPM)来实现多进程或者多线程处理器。

2.1、Apache MPM Prefork

一句话总结: Prefork是一个非线程型的、预派生的MPM

这种模型是 每个请求一个进程 的模型,由一个父进程创建了许多子进程,这些子进程等待请求的到达并且进行处理,每个请求均由单独的进程进行处理。

网络异常,图片无法展示
|

需要注意的是,每个进程都会使用RAM和CPU等系统资源,使用的RAM数量都是相等的。如果同时有很多请求,那么apache会产生很多子进程,这将导致大量的资源利用率。

2.2、Apache MPM Worker

一句话总结: Worker是支持混合的多线程多进程的MPM 。如下图:

网络异常,图片无法展示
|

子进程借助内部固定数量的线程来处理请求,该数量由配置文件中的参数“ ThreadsPerChild 指定。

该模型一般使用多个子进程,每个子进程有多个线程,每个线程在某个确定的时间只处理一个连接,消耗内存较少。这种Apache模型可以用较少的系统资源来满足大量请求,因为这种模型下,有限数量的进程将为许多请求提供服务。

PHP攻城狮提问题:为啥mod_php中不能使用MPM Worker?

即使是一个请求用一个线程,Apache在高并发场景下,运行效率也是很差的。因为,如果一个请求需要数据库中的一些数据以及磁盘中的文件等涉及到IO操作的处理,则该线程将进入等待。因此, Apache中的某些线程(Worker模式)或者进程(Prefork模式)只是停下来下来等待某些任务完成,这些线程或者进程吃掉了系统资源。

而接下来我们介绍对并发场景处理更高效的主角:Nginx, 从根本上说,Apache和Nginx差别很大。Nginx的诞生是为了解决Apache中的c10k问题。

想象以下,从猪圈里冲出一群猪,Apache Server能够抵挡得住吗,也许不行,但是,Nginx,一定可以。这就是Nginx的强大之处。

网络异常,图片无法展示
|

3、Nginx

网络异常,图片无法展示
|

Nginx是一种开源Web服务器,自从最初作为Web服务器获得成功以来,现在还用作反向代理,HTTP缓存和负载均衡器。

Nginx旨在提供 低内存使用率 和高并发性。Nginx不会为每个Web请求创建新的流程,而是使用异步的,事件驱动的方法,在单个线程中处理请求。

3.1、Nginx的进程模型

  • 3.1.1、Nginx的进程数

我们在操作系统各种启动Nginx之后,一般会发现几个Nginx进程,如下图:

网络异常,图片无法展示
|

这里有一个master进程,3个workder进程。为什么启动Nginx会有3个worker进程呢,这是因为我们在配置文件中指定了工作进程数:

worker_processes  3;

3.2、进程模型

Nginx是多进程模型,在启动Nginx之后,以daemon的方式在后台运行,后台进程包含一个Master进程和多个worker进程,模型如下:

网络异常,图片无法展示
|

CM: Cache Manager, CL Cache Loader

Master进程主要用于管理Worker进程,主要负责如下功能:

  • 接收外接信号;
  • 向Worker进程发送信号;
  • 监控Worker进程运行状态;
  • Workder进程异常退出,会自动创建新的Worker进程。

Worker进程主要用于处理网络事件,我们一般设置的Worker进程数为机器的CPU核数,以最有效的利用硬件资源。为此,可以进行如下配置:

worker_processes auto;

通过使用共享缓存来实现子进程的缓存,会话持久性,限流,会话日志等。

3.3、工作原理

大致来说,Master进程执行以下步骤:

socket();
bind();
listen();
fork();

fork出若干个Worker进程,Worker仅执行以下步骤:

accept();  // accept_mutex锁
register IO handler;
epoll() or kqueue();
handle_events();
...

accept_mutex锁作用:保证同一时刻只有一个Worker进程在accept连接,从而解决惊群问题。当客户连接到达时候,只有成功获取到了锁的进程才会执行accept。

惊群问题:一个程序派生出N个子进程,它们各自调用accept并因此而被投入内核睡眠。当第一个客户连接到达的时候,所有N个子进程均被唤醒,这是因为所有子进程所用的监听描述符指向了同一个socket结构。尽管有N个子进程被唤醒,但是只有最先运行的子进程获得那个客户连接,其余的N-1个子进程继续恢复睡眠。

我们重点来看看Worker进程的工作原理。

  • 3.3.1、Worker进程工作原理

每个Worker进程都是运行于非阻塞、事件驱动的Reactor模型。

一个客户端请求在服务端的大致处理流程如下图所示:

网络异常,图片无法展示
|

单线程版本的Reactor模型:

网络异常,图片无法展示
|

而Worker进程中基本的处理逻辑则如上图所示:

  • 当一个请求到达Workder进程的之后,Accept接收新连接,把新连接IO读写事件注册到同步事件多路解复用器;
  • 执行dispatch调用多路解复用器阻塞等待IO事件;
  • 分发事件到特定的Handler中处理;
  • 3.3.2、如何处理繁重的工作?

与Node.js类似,Nginx中也会有一些繁重的工作。比如第三方模块中使用了阻塞调用,有时候该模块开发人员都没有意识到这个阻塞调用的缺点,如果直接在Worker进程中执行,就会导致整个事件处理周期都被阻塞了,必须等待操作完成才可以继续处理后续的事先。显然,这不是我们期望的效果。

使用线程池机制解决繁重工作或者第三方阻塞操作性能问题

以下操作可能导致Nginx进入阻塞状态:

  • 处理冗长占用大量CPU的处理;
  • 阻塞访问资源,如硬盘资源,互斥量,或者系统调用等,或者以同步方式从数据库获取数据
  • ...

以上这些情况都需要执行比较长的时间,遇到这种情况,Nginx会将需要执行很长时间的任务放入线程池处理队列中,通过线程池异步处理这些任务:

网络异常,图片无法展示
|

通过引入线程池,从而消除了对Worker进程的阻塞,将Nginx的性能提升到了新的高度。更加重要的是,以前那些与Nginx不兼容的第三方类库,都可以相对容易的使用,并且不影响Nginx的性能。

我们在更新完Nginx的配置之后,一般执行以下命令即可:

nginx -s reload

这行命令会检查磁盘上的配置,并向主进程发送SIGNUP信号。

主进程收到SIGNUP信号时,会执行如下操作:

  • 重新加载配置,并派生一组新的工作进程,这组新的工作进程立即开始接受连接并处理流量;
  • 指示旧的工作进程正常退出,工作进程停止接收新连接,当前的每个请求处理完成之后,旧的工作进程就会关掉,一旦所有的连接关闭,工作进程就将退出。

网络异常,图片无法展示
|

这种重新加载配置过程可能导致CPU的内存使用量小幅度提升,但是这个性能牺牲是值得的。

3.5、优雅的升级

Nginx的二进制升级过程也实现了不停服的效果。

网络异常,图片无法展示
|

升级过程与政策重新加载配置的方法类型,新的Nginx主进程与原始主进程并行运行,他们共享监听套接字,两个进程都处于活动状态,他们各自的工作进程都在处理流量,然后可以可以指示旧的Master和Worker进程正常退出。

3.5、Nginx的优势

在每个请求一个进程,阻塞式的连接方法中,每个连接都需要大量额外的资源开销,并且会导致频繁的上下文切换;可以尽可能消耗少的内存,每个连接几乎没有额外的开销,Nginx进程数可以设置为CPU核心数,上下文切换相对较少。

那么问题来了,我们自己写网络程序的时候,有没有可以帮助我们提高网络性能的程序框架呢?有,那就是大名鼎鼎的Netty,接下来就来说他。

4、Netty

网络异常,图片无法展示
|

4.1、Netty主从Reactor模式

Netty也不例外,是基于Reactor模型设计和开发的。

Netty采用了主从Reactor模式,主Reactor只负责建立连接,获取已连接套接字,然后把已连接套接字的IO事件转给从Reactor线程进行处理。

网络异常,图片无法展示
|

我们先来大致讲讲Netty中的几个与Reactor有关的抽象概念:

  • Selector:可以理解为一个Reactor线程,内部会通过IO多路复用感知事件的发生,然后把事件交代给Channel进行处理;
  • Channel:注册到Selector中的对象,代表Selector监听的事件,如套接字读写事件;

具体上,Netty抽象出了以下模型进行实现Reactor主从模式:

网络异常,图片无法展示
|

Netty基于Pipeline管道的模式来处理Channel事件,从Netty的使用API中也可以了解到。

4.2、Netty主从Reactor+Worker线程池模式

为了降低具体业务逻辑对从Reactor的影响,我们可以单独把业务逻辑处理放到一个线程池中处理,这样无论是对于监听套接字的事件处理,还是对于已连接套接字事件的处理,都不会因为业务处理程序而导致阻塞了,如下图所示,更详细的说明参考我的博客 IT宅(itzhai.com) 或者公众号 Java架构杂谈(itread) 中的文章更新 网络编程范式:高性能服务器就这么回事 | C10K,Event Loop,Reactor,Proactor :

网络异常,图片无法展示
|

我们可以通过创建一个 DefaultEventExecutorGroup 线程池来处理业务逻辑。

大致程序框架如下图所示:

// 声明一个bossGroup作为主Reactor,本质是一个线程池,每个线程是一个EventLoop
EventLoopGroup bossGroup = new NioEventLoopGroup();
// 声明一个workerGroup作为从Reactor,本质是一个线程池,每个线程是一个EventLoop
EventLoopGroup workerGroup = new NioEventLoopGroup();
// 构建业务处理Group
DefaultEventExecutorGroup defaultEventExecutorGroup =
        new DefaultEventExecutorGroup(10,
        new ThreadFactory() {
            private AtomicInteger threadIndex = new AtomicInteger(0);
            @Override
            public Thread newThread(Runnable r) {
                return new Thread(r, "BusinessThread-" + this.threadIndex.incrementAndGet());
            }
        });
try {
    // 创建服务端启动类
    ServerBootstrap bootstrap = new ServerBootstrap();
    bootstrap.group(bossGroup, workerGroup)
            .channel(NioServerSocketChannel.class)
            ...
            .childHandler(new ChannelInitializer<SocketChannel>() {
                @Override
                protected void initChannel(SocketChannel ch) throws Exception {
                    // 在pipeline中添加自定义的handler
                    ch.pipeline().addLast(defaultEventExecutorGroup, new BizHandler());
                }
            });
    ChannelFuture future = bootstrap.bind(port).sync();
    future.channel().closeFuture().sync();
} finally {
    bossGroup.shutdownGracefully();
    workerGroup.shutdownGracefully();
}

Netty是基于NIO的,而Java中的NIO是JDK1.4开始支持,内部是基于IO多路复用实现的,具体的实现思路不再详细说,底层都是IO复用技术,通过Channel借助于Buffer处理感知到的IO事件。

有了NIO为啥还要有Netty?

这是两个不同层次的东西,NIO只是一个IO类库,实现同步非阻塞IO,而Netty是基于NIO实现的高性能网络框架,基于主从Reactor设计的。

NIO类库API复杂,需要处理多线程编程,自己写Reactor模式,并且客户端断线重连、半包读写,失败缓存、网络阻塞和异常码流等问题处理起来难度很大。而Netty对于NIO遇到的这些问题都做了很好的封装,主要优点体现在:

  • API使用简单;
  • 封装度高,功能强大,提供多种编码解码器,解决了TCP拆包粘包问题;
  • 基于Reactor模式实现,性能高,无需再自己实现Reactor了;
  • 商用项目多,经历过很多考验,社区活跃...

5、Redis

网络异常,图片无法展示
|

相信大家已经听过无数遍“Redis是单线程的”这句话了, Redis真的是单线程的吗,又是如何支撑那么大的并发量 ,并且运用到了这么多的互联网应用中的呢?

其实,Redis的单线程指的是Redis内部会有一个主处理线程,充分利用了非阻塞、IO多路复用模型,实现的一个Reactor架构。但是在某些情况下,Redis会生成线程或者子进程来执行某些比较繁重的任务

5.1、Redis线程模型

还是那个Reactor模型,只不过我们再次踏入了不同的国界,于是又出现了一种新的的表述方式。

Redis基于Reactor模型开发了网络事件处理器,这个处理器被称为文件事件处理器。不过叫什么不重要,重要的是原理都是一样的。以下是Redis的线程模型:

网络异常,图片无法展示
|

这个图基本上涵盖了Redis进程处理的主要事情:

  • 客户端A发起请求建立连接,监听套接字Server Socket建立连接之后,产生一个AE_READABLE事件;
  • 该事件被IO多路复用处理,放入事件队列,最终被文件事件分派器分派给了连接应答处理器进行处理:连接应答处理器处理新连接,将FD1套接字的AE_READABLE事件与命令请求处理器关联起来。
  • 客户端A最终在客户端生成一个已连接套接字FD1;
  • 客户端A发送命令请求,产生一个AE_READABLE事件,该事件被IO多路复用处理,放入事件队列,最终被文件事件分派器分派给了命令请求处理器进行处理:命令请求处理器执行客户端FD1套接字命令操作,得到结果,将结果写入到套接字的回复缓冲区中,准备好响应给客户端;同时将FD1套接字的AE_WRITABLE事件与命令回复处理器关联;
  • 当FD1套接字准备好写的时候,会产生一个AE_WRITABLE事件,该事件被IO多路复用处理,放入事件队列,最终被事件分派器分派给了命令回复处理器进行处理:命令回复处理器把结果输出响应给客户端的FD1已连接套接字;然后将FD1套接字的AE_WRITABLE事件跟命令回复处理器解除关联。

大致一个交互流程就这样完成了,是不是很简单呢。

5.2、为啥Redis单线程也这么高效?

前面已经讲了这么多Reactor模式的好处,相信大家心里也有个底了,大致总结下:

  • Redis是纯内存操作的,所以处理速度非常快,这同时也跟Redis高效的数据结构有关,不过本文重点是讲网络相关的,数据结构不展开讲;
  • Redis的瓶颈不在CPU,而是在内存和网络;
  • 单线程反而避免了上下文切换的开销。

对于开发人员来说,最关注的一点就是:单线程降低了开发的复杂度,再也不需要处理各种静态条件了,就连Hash的惰性Rehash,Lpush等线程不安全的命令都可以进行无锁编程了。

5.3、Redis真的是单线程的吗?

我再问一句大家,Redis真的是单线程的吗,从Reactor模型上来说,单线程肯定会存在瓶颈的;

为此,Redis引入了多线程机制。

Redis 4.0初步引入多线程

在Redis 4.0中,Redis开始使具有更多线程。这个版本仅限于在后台删除对象,其中包括非阻塞的删除操作。UNLINK操作,只会将键从元数据中删除,并不会立刻删除数据,真正的删除操作会在一个后台线程异步执行。

Redis 6.0真正引入多线程

虽然基于Reactor模型,单线程也可以支持很大的并发量,但是要是IO读写多了,待处理的已连接套接字多了,需要执行的命令也多了,那么,单线程依旧是瓶颈,这个时候我们就要引入主从Reactor模型,甚至主从Reactor模型+Worker线程池了。

在Redis 6.0中,如果要开启多线程,可以进行设置:

io-threads 线程数 
io-threads-do-reads yes  // 默认IO线程只会用于写操作,如果要在读操作和协议解析的时候启用IO线程,则可以设置该选项为yes,但是Redis团队声称它并没有多大帮忙

不过呢,Redis为了避免产生线程并发安全的问题,在执行命令阶段仍然是单线程顺序执行的,只是在网络数据读写和协议解析阶段才用到了多线程。

为了进一步了解这个特性,我们可以阅读以下 redis.conf配置文件的说明。在这里,这个特性被命名为: THREADED I/O ,下面是翻译整理自里面的一些说明。

THREADED I/O

Redis大多是单线程的,但是有一些线程操作,例如UNLINK,执行缓慢的I/O访问等是在后台线程上执行的操作。

将io-threads设置为1只会像传统一样只启用单线程

使用8个以上的线程不会有太大帮助,并且建议实际存在性能问题的时候才使用IO线程,否则就没有必要使用了。

启用IO线程后,我们仅将IO线程用于写操作,即对write(2)系统调用进行线程化并将客户端缓冲区传输到套接字。 但是,也可以使用以下配置指令通过以下方式启用读取线程和协议解析:

io-threads-do-reads yes

通常,线程读取没有太大帮助。

Redis用的是类似单线程版的Reactor + IO线程池(Worker线程池),不过与我们前面提到的单线程Reactor + Worker线程池模式有所不同,再回顾下Reactor + Worker线程池模式:

网络异常,图片无法展示
|

Redis是在所谓的Reactor线程(主线程)中把IO读事件一批一批地交给IO线程池进行读取,读取完毕之后,统一执行所有请求的命令,然后才是一次性把所有请求的响应写到socket,如下图所示:

网络异常,图片无法展示
|

等待队列中的待处理时间平均分给每个IO线程,IO线程池只是负责IO读写和解析数据,IO线程池充分利用了CPU多核处理的能力,提高了IO读写速度。

Redis 6.0真的是单线程的吗?

6、Tomcat

网络异常,图片无法展示
|

作为一个Java程序员,怎么能不认识Tomcat呢,Tomcat的线程模型又是怎样的?不用往下看,我们都能猜出Tomcat肯定会利用Reactor模式来优化网络处理,不过这个优化过程却是跟随者技术的发展慢慢演变的。

6.1、Tomcat整体架构

Tomcat是HTTP服务器,同时还是一个Servlet容器,可以执行Java Servlet,并将JavaServer Pages(JSP)和JavaServerFaces(JSF)转换为Java Servlet。

我们先来看看Tomcat各个组件的整体架构。Tomcat采用了分层和模块化的体系结构,如下所示,这个结构有点像套娃,一层套一层的,这也同时是Tomcat server.xml配置文件的层级结构:

网络异常,图片无法展示
|

Server是顶层组件,代表着一个Tomcat实例,在配置文件中一般如下:

<Server port="8005" shutdown="SHUTDOWN"> ...... </Server>

Server下面可以包含多个Service,每个服务都有自己的Container和Connector。

  • 6.1.1、Container

Container用于管理各种Servlet,处理Connector传过来的Request请求。

大家可以看到,Container内部若隐若现的好像还有内幕..是的,上图中我把内幕隐藏起来了,接口Container内部,我们可以看到这样的结构:

网络异常,图片无法展示
|

  • Container最顶层是Engine,一个Service只能有一个Engine,用来管理多个站点;
  • Host代表一个站点,一个Engine下可以有多个Host;
  • Context代表一个应用,一个Host下面可以有多个应用;
  • Wrapper封装Servlet,每个应用都有很多Servlet,这个是大家最熟悉的了。
  • 6.1.2、Connector

Connector用于处理请求,处理Socket套接字,把原始的网络数据包装成Request对象给Container进行处理,并封装Response对象用于响应套接字输出。

如上图,一个Service可以有多个Connector, 每个Connector实现不同的连接协议,通过不同的端口提供服务。

这里已经看到我们要关注的重点了,是的,Connector就是处理网络的关键模块,这个模块的效率直接决定了Tomcat的性能!!!

接下来,我们打开Connector潘多拉的盒子,看看里面究竟有什么不可告人的秘密。

话不多说,我直接上图,这么爽快不断附图片的博客还真不多,IT宅(itzhai.com)的 Java架构杂谈 算一个,重点来了,这里我们先列出传统的BIO运行模型的组件图:

网络异常,图片无法展示
|

其中 ProtocolHandler 中主要的组件有:

EndPoint
Processor

不过既然知道EndPoint是直接负责对接套接字Api的,那我们就知道了核心的网络编程性能关键就在EndPoint这个组件里面,在这里可以使用各种IO编程范式来进行网络性能优化。EndPoint里面又有几个抽象概念:

Acceptor
Handler
AsyncTimeout

既然EndPoint组件是网络处理关键的性能所在,我们就重点来看看这块的设计吧。

6.2、Tomcat连接器性能分析

首先来看看传统的BIO线程模型。

  • 6.2.1、Tomcat之BIO线程模型

BIO线程模型即传统的以多线程处理请求的方式获取到一个新的已连接套接字之后,都丢到线程池里面,交给一个线程处理,从读取IO数据,处理业务,到响应IO数据都是在同一个线程中处理。如下图,我只把相关的组件给画出来:

网络异常,图片无法展示
|

如上图,Acceptor线程获取到新的已连接套接字之后,直接把新的已连接套接字交给Executor线程池进行处理。

这种模式,受能够创建线程数的限制,导致不能支撑很大并发,并且越多的因IO导致阻塞的线程,会导致越多的线程上下文切换,浪费了系统资源。

接下来我们看看NIO线程模型,该模型基于 主从Reactor + Worker线程池 网络编程模型。

  • 6.2.2、Tomcat之NIO线程模型

对应的实现类为: Http11NioProtocol ,同步非阻塞IO实现的HTTP/1.1协议处理器,Tomcat 8默认采用该模式。

以下是该模型的组件架构图:

网络异常,图片无法展示
|

其中Poller线程中维护了一个Selector对象,用来实现基于NIO网络事件处理。

基于NIO的Tomcat,避免了由于IO导致的阻塞,减少了线程开销,以及线程上下文切换开销,能够支撑更大的并发量。

  • 6.2.3、Tomcat之NIO2线程模型

Http11Nio2Protocol :异步IO实现的HTTP/1.1协议处理器,Tomcat 8之后开始支持,基于Java的AIO API实现的异步IO。

相关组件架构图如下:

网络异常,图片无法展示
|

对应的异步IO处理类是Nio2EndPoint,获取已连接套接字的类为Nio2Acceptor。

由于IO异步化了,所以Nio中的Poller类也就没有了存在的必要。不管是accept获取已连接套接字还是IO读写,都改为了异步处理,当可以做IO操作的时候,会由Java异步IO框架调用对应IO操作的 CompletionHandler 类进行后续处理。

这里的SocketProcessor实现了Runnable接口,其中的run方法即是原本丢给Worker线程处理的,包括IO读写。但是现在,SocketProcessor再也不需要多一次IO操作的系统调用开销了。

  • 6.2.4、Tomcat之APR线程模型

我们再简要介绍下,APR,对应的实现为 Http11AprProtocol :apr(Apache Portable Runtime/Apache可移植运行时),是一个高度可移植的库,它是Apache HTTP Server 2.x的核心。

在Tomcat中使用APR库,其实就是在Tomcat中使用JNI的方式来读取文件以及进行网络传输,可以大大提升Tomcat对静态文件的处理性能。如果服务开启了HTTPS的话,也可以提升SSL的处理性能。

7、MySQL

网络异常,图片无法展示
|

  • 7.1、MySQL线程模型

首先我们来看一个参数: thread_handling ,一个控制MySQL连接线程的参数,它有以下三个取值:

no-threads
one-thread-per-connection
loaded-dynamically

看起来,MySQL并没有使用Reactor或者Proactor优化网络IO效率。

那么我们就来看看传统的一个请求创建一个线程的模型下,MySQL内部是如何工作的吧,如下是该线程模型工作图示:

网络异常,图片无法展示
|

  • 连接请求: 客户端请求MySQL服务器,默认的 ,由MySQL服务器的TCP 3306接口进行接收消息,传入的连接请求被排队;
  • Receiver Thread(接收线程): 接受线程负责处理排队的连接请求,accept到请求之后,创建一个用户线程,让用户线程进一步处理后续逻辑;线程缓存: 如果在线程缓存中能够找到接收线程,则可以重用线程缓存中的线程,否则,新建线程。如果创建OS线程的成本很高,那么线程缓存对于连接速度起到很大的帮助作用。
  • THD: thread/connection descriptor,对于每个客户端连接,我们使创建一个单独的线程,并且为该线程提供 THD 数据结构,作为线程/连接描述符,每个连接线程对应一个THD。THD在连接建立的时候创建,在连接断开的时候删除。

7.2、限制MySQL并发效率的因素

限制MySQL并发效率的主要因素主要有互斥锁、数据库锁或IO。

  • 互斥锁 :一般为了保护共享内部数据结构的时候,都会创建一个互斥锁,确保任何时间只有一个线程在操作内部数据结构,但是互斥锁却导致了其他线程必须排队等待。
  • 数据库锁 :数据库锁,从某种程度上来说,数据库锁和数据库语义相关,一次更难避免(而InnoDB具有多版本并发控制,所以它在避免锁方面比较擅长。
  • 磁盘和网络IO :由于MySQL数据库是存储在硬盘的,执行SQL的过程中,不可避免的从磁盘加载数据页,此时线程会进入等待状态。线程并发性将受到IO容量的限制。

为什么MySQL没有使用Reactor模式优化IO?

关于这个问题,我想主要有以下原因:MySQL的架构设计,就决定了在通过索引查找数据的过程中,需要不断地加载数据页,采用Reactor模式,编码复杂度将更高。

鲁迅说:真的不考虑以下其他的数据库吗?

网络异常,图片无法展示
|

7.3、InnoDB对并发流量的守卫战

基于以上提及的MySQL性能问题,InnoDB存储引擎做了一些防守:在有助于最大程度地减少线程之间的上下文切换的情况下, InnoDB 可以使用多种技术来限制并发线程数。当 InnoDB 从用户会话接收到新请求时,如果同时执行的线程数已超预定义限制,则新请求将休眠一小段时间,然后再次尝试。睡眠后无法重新安排的请求被放入先进/先出队列,并最终得到处理。

涉及的参数:

  • innodb_thread_concurrency:InnDB存储引擎最大并发线程数,如果为0,则表示不限制;
  • innodb_thread_sleep_delay:超过最大并发线程数,请求线程需要等待innodb_thread_sleep_delay毫秒后才可以再次重试。
  • innodb_concurrency_tickets:一旦请求线程进入到了InnoDB,会获取到innodb_concurrency_tickets次通行证,代表该线程可以直接进InnoDB而不需要检查的次数。

通过这种设计, 尽可能地让一次查询请求尽快地完成(如一次join查询操作,可能包含多个InnoDB查询请求),而不会导致频繁的InnoDB线程上下文切换开销 。

8、Zuul

网络异常,图片无法展示
|

既然是Netflix开源的微服务网关,先来看看Zuul 1的性能情况。

网络异常,图片无法展示
|

这是一个多线程的系统架构。Zuul 1是基于Servlet构建的。IO操作是通过从线程池中获取一个线程来执行IO来完成的,在执行IO操作的过程中,请求线程被阻塞。

当后端延迟增加或者由于错误而导致请求重试,活动的链接和请求线程数就会增加,这种情况下可能会导致服务负载激增,为了抵御这些风险,于是便有了Hystrix熔断器,用于提供过载保护。

网络异常,图片无法展示
|

Zuul 2内部也是用到了事件循环。在异步的运行方式下,通常每个CPU内核对应一个线程,用于处理所有的请求和响应,请求和响应通过事件和回调进行处理。

因为每个连接不用创建新的线程,只需要付出文件描述符和监听器的成本,所以连接的成本很低。

在异步模式下,队列中的连接和事件的增加成本远低于线程堆积的成本。但是假设后端处理不过来,响应时间还是会不可避免的增加。

以上就是有关8大主流服务器的学习笔记,希望可以对大家学习有所帮助,喜欢的小伙伴可以帮忙转发+关注,感谢大家!LZ也会不定时地更新干货,以此来帮助大家的学习,充实自己!

相关文章
|
23天前
|
安全 Java 数据处理
Python网络编程基础(Socket编程)多线程/多进程服务器编程
【4月更文挑战第11天】在网络编程中,随着客户端数量的增加,服务器的处理能力成为了一个重要的考量因素。为了处理多个客户端的并发请求,我们通常需要采用多线程或多进程的方式。在本章中,我们将探讨多线程/多进程服务器编程的概念,并通过一个多线程服务器的示例来演示其实现。
|
2月前
|
存储 弹性计算 算法
倚天产品介绍|倚天ECS加速国密算法性能
倚天ECS是阿里云基于平头哥自研数据中心芯片倚天710推出arm架构实例,采用armv9架构,支持SM3/SM4指令,可以加速国密算法性能。本文基于OpenSSL 3.2和Tongsuo 实测对比了倚天ECS g8y实例和Intel g7 实例国密性能。为用户选择ECS提供参考。
|
2月前
|
编解码 弹性计算 Cloud Native
倚天使用|倚天ECS视频编解码之x264性能
在平头哥发布了首颗为云而生的 CPU 芯片倚天710之后,搭载倚天 710 的 ECS 实例表现出强劲的性能实力,在x264编解码场景下有着极高的性价比。
|
2月前
|
人工智能 JSON 前端开发
【Spring boot实战】Springboot+对话ai模型整体框架+高并发线程机制处理优化+提示词工程效果展示(按照框架自己修改可对接市面上百分之99的模型)
【Spring boot实战】Springboot+对话ai模型整体框架+高并发线程机制处理优化+提示词工程效果展示(按照框架自己修改可对接市面上百分之99的模型)
|
2月前
|
存储 弹性计算 关系型数据库
阿里云服务器ESSD云盘性能等级PL0、PL1、PL2、PL3区别,云盘性能级别PL知识点参考
在我们选择阿里云服务器系统盘和数据盘时,如果是选择ESSD云盘,还需要选择云盘的云盘性能级别PL,PL性能级别有PL3、PL2、PL1、PL0四个性能级别的云盘规格,如果是通过阿里云的活动来购买云服务器的话,由于系统盘默认一般为20G或40G容量,可选的PL性能级别通常只有PL0(单盘IOPS性能上限1万)和PL1(单盘IOPS性能上限5万)可选择,有的用户肯能并不清楚ESSD云盘的性能等级之间有何区别,单盘IOPS性能指的是什么,本文为大家介绍一下ESSD云盘的云盘性能级别PL3、PL2、PL1、PL0相关知识点。
阿里云服务器ESSD云盘性能等级PL0、PL1、PL2、PL3区别,云盘性能级别PL知识点参考
|
3天前
|
NoSQL Redis
Redis 线程模型
Redis 线程模型
|
4天前
|
存储 弹性计算 运维
深度解读:阿里云服务器ECS经济型e实例配置整理和性能参数表
阿里云推出经济型ECS e系列服务器,适用于个人开发者、学生和小微企业。该系列采用Intel Xeon Platinum处理器,支持多种CPU内存配比,性价比高,2核2G3M配置只需99元/年,新老用户不限量购买且续费不涨价。提供相同可用性SLA和安全标准,具备ESSD Entry云盘等企业级特性。适合中小型网站、开发测试和轻量级应用
|
4天前
|
监控 安全 Java
【多线程学习】深入探究阻塞队列与生产者消费者模型和线程池常见面试题
【多线程学习】深入探究阻塞队列与生产者消费者模型和线程池常见面试题
|
10天前
|
Java Linux
【linux线程(三)】生产者消费者模型详解(多版本)
【linux线程(三)】生产者消费者模型详解(多版本)
|
1月前
|
存储 弹性计算 缓存
阿里云服务器经济型e和通用算力型u1实例性能、适用场景简介及常见问题参考
在2024年阿里云活动中,价格比较优惠的云服务器实例主要有经济型e和通用算力型u1实例,经济型e实例(如2核2G3M,99元/年)适合个人和小型企业建站、开发测试,而通用算力型u1实例(如2核4G5M,199元/年)适合多种企业应用。在目前的活动中,经济型e和通用算力型u1实例还有2核4G、2核8G、4核8G、4核16G、8核16G等配置可选,有的新手用户由于是初次使用阿里云服务器,对于经济型e和通用算力型u1实例的相关性能并不是很清楚,本文为大家做个简单的介绍,以供参考。
阿里云服务器经济型e和通用算力型u1实例性能、适用场景简介及常见问题参考

热门文章

最新文章