深入Netty逻辑架构,从Reactor线程模型开始(二)

简介: 深入Netty逻辑架构,从Reactor线程模型开始(二)

3. 深入Netty的线程模型优化


上文说过,对每个EventLoop来说,都是单线程运行,并循环往复执行三个动作:


  • selector事件轮询
  • I/O事件处理
  • 任务处理


在slave EventLoopGroup中,并不是 “一个selector + 线程池”模式,而是有多个EventLoop组成的 “多selector + 多个单线程“ 模型,这是为什么呢?


这主要是因为我们分析的是Netty4的线程模型,跟Netty3的传统Reactor模型相比有了不同之处。


3.1 Netty3和Netty4的线程模型变化


在Netty3的线程模型中,分为 读事件处理模型 和 写事件处理模型。

83.png


  • read事件的ChannelHandler都是由Netty的 I/O 线程(对应Netty 4 中的 EventLoop)中负责执行。
  • I/O线程调度执行ChannelPipeline中Handler链的对应方法,直到业务实现的End Handler。
  • End Handler将消息封装成Runnable,放入到业务线程池中执行,I/O线程返回,继续读/写等I/O操作。

84.png


  • write事件是由调用线程处理,可能是 I/O 线程,也可能是业务线程。
  • 如果是业务线程,那么业务线程会执行ChannelPipeline中的Channel Handler。
  • 执行到系统最后一个ChannelHandler,将编码后的消息Push到发送队列中,业务线程返回。
  • Netty的I/O线程从发送消息队列中取出消息,调用SocketChannel的write方法进行消息发送。

由上文可以看到,在Netty3的线程模型中,是采用“selector + 业务线程池”的模型。


注意,在这种模型下,读写模型不一致。尤其是读事件、写事件的「执行线程」是不一样的。


但是在Netty4的线程模型中,采用了“多selector + 多个单线程”模型。

85.png


读事件:


  • I/O线程NioEventLoop从SocketChannel中读取数据,将ByteBuf投递到ChannelPipeline,触发ChannelRead事件;
  • I/O线程NioEventLoop调用ChannelHandler链,直到将消息投递到业务线程,然后I/O线程返回,继续后续的操作。


写事件:


  • 业务线程调用ChannelHandlerContext.write(Object msg)方法进行消息发送。
  • ChannelHandlerInvoker将发送消息封装成 任务,放入到EventLoop的Mpsc任务队列中,业务线程返回。后续由EventLoop在循环中统一调度和执行。
  • I/O线程EventLoop在进行 任务处理 时,从Mpsc任务队列中获取任务,调用ChannelPipeline进行处理,处理Outbound事件,直到将消息放入发送队列,然后唤醒Selector,执行写操作。


Netty4中,无论读写,都是通过I/O线程(也就是EventLoop)来统一处理。


为什么Netty4的线程模型做了这样的变化?答案就是 无锁串行化设计


3.2 什么是Netty4线程模型的无锁串行化


我们先看看Netty3的线程模型存在什么问题:


  • 读/写线程模型 不一致,带来额外的开发心智负担。
  • 写操作由业务线程发起时,通常业务会使用 线程池多线程并发执行 某个业务流程,所以某一个时刻会有多个业务线程同时操作ChannelHandler,我们需要对ChannelHandler进行并发保护,大大降低了开发效率。
  • 频繁的线程上下文切换,会带来额外的性能损耗。


而Netty4线程模型的 「无锁串行化」设计,就很好地解决了这些问题。


一图胜千言:


86.png


从事件轮询、消息的读取、编码以及后续Handler的执行,始终都由I/O线程NioEventLoop内部进行串行操作,这就意味着整个流程不会进行线程上下文的切换,避免多线程竞争导致的性能下降,数据也不会面临被并发修改的风险。


表面上看,串行化设计似乎CPU利用率不高,并发程度不够。但是,通过调整slave EventLoopGroup的线程参数,可以同时启动多个NioEventLoop,串行化的线程并行运行,这种局部无锁化的串行线程设计相比「一个队列-多个工作线程模型」性能更优。


总结下Netty4无锁串行化设计的优点:


  • 一个EventLoop会处理一个channel全生命周期的所有事件。从消息的读取、编码以及后续Handler的执行,始终都由I/O线程NioEventLoop负责。
  • 每个EventLoop会有自己独立的任务队列。
  • 整个流程不会进行线程上下文的切换,数据也不会面临被并发修改的风险。
  • 对于用户而言,统一的读写线程模型,也降低了使用的心智负担。


4. 从线程模型看最佳实践


NioEventLoop 无锁串行化的设计这么好,它就完美无缺了吗?


不是的!


在特定的场景下,Netty3的线程模型可能性能更高。比如编码和其它写操作非常耗时,由多个业务线程并发执行,性能肯定高于单个EventLoop线程串行执行。


因此,虽然单线程执行避免了线程切换,但是它的缺陷就是不能执行时间过长的 I/O 操作,一旦某个 I/O 事件发生阻塞,那么后续的所有 I/O 事件都无法执行,甚至造成事件积压。


所以,Netty4的线程模型的最佳实践需要注意以下两点:


  • 无论读/写,不在自定义ChannelHandler中做耗时操作。
  • 不把耗时操作放进 任务队列。




本文从Reactor线程模型开始说起,到Netty如何用EventLoop实现Reactor线程模型。


然后对Netty4的线程模型优化做了详细介绍,尤其是「无锁串行化设计」。


最后从EventLoop线程模型出发,说明了日常开发中使用Netty4开发的最佳实践。


希望大家能对EventLoop有全面的认识。

目录
相关文章
|
5月前
|
机器学习/深度学习 人工智能 监控
大型动作模型LAM:让企业重复任务实现80%效率提升的AI技术架构与实现方案
大型动作模型(LAMs)作为人工智能新架构,融合神经网络与符号逻辑,实现企业重复任务的自动化处理。通过神经符号集成、动作执行管道、模式学习、任务分解等核心技术,系统可高效解析用户意图并执行复杂操作,显著提升企业运营效率并降低人工成本。其自适应学习能力与上下文感知机制,使自动化流程更智能、灵活,为企业数字化转型提供坚实支撑。
393 0
大型动作模型LAM:让企业重复任务实现80%效率提升的AI技术架构与实现方案
|
6月前
|
存储 BI Shell
Doris基础-架构、数据模型、数据划分
Apache Doris 是一款高性能、实时分析型数据库,基于MPP架构,支持高并发查询与复杂分析。其前身是百度的Palo项目,现为Apache顶级项目。Doris适用于报表分析、数据仓库构建、日志检索等场景,具备存算一体与存算分离两种架构,灵活适应不同业务需求。它提供主键、明细和聚合三种数据模型,便于高效处理更新、存储与统计汇总操作,广泛应用于大数据分析领域。
687 2
|
6月前
|
负载均衡 算法 安全
基于Reactor模式的高性能网络库之线程池组件设计篇
EventLoopThreadPool 是 Reactor 模式中实现“一个主线程 + 多个工作线程”的关键组件,用于高效管理多个 EventLoop 并在多核 CPU 上分担高并发 I/O 压力。通过封装 Thread 类和 EventLoopThread,实现线程创建、管理和事件循环的调度,形成线程池结构。每个 EventLoopThread 管理一个子线程与对应的 EventLoop(subloop),主线程(base loop)通过负载均衡算法将任务派发至各 subloop,从而提升系统性能与并发处理能力。
363 3
|
6月前
|
消息中间件 负载均衡 中间件
⚡ 构建真正的高性能即时通讯服务:基于 Netty 集群的架构设计与实现
本文介绍了如何基于 Netty 构建分布式即时通讯集群。随着用户量增长,单体架构面临性能瓶颈,文章对比了三种集群方案:Nginx 负载均衡、注册中心服务发现与基于 ZooKeeper 的消息路由架构。最终选择第三种方案,通过 ZooKeeper 实现服务注册发现与消息路由,并结合 RabbitMQ 支持跨服务器消息广播。文中还详细讲解了 ZooKeeper 搭建、Netty 集群改造、动态端口分配、服务注册、负载均衡及消息广播的实现,构建了一个高可用、可水平扩展的即时通讯系统。
722 0
|
4月前
|
数据采集 机器学习/深度学习 搜索推荐
MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构
MIT与丰田研究院研究发现,扩散模型的“局部性”并非源于网络架构的精巧设计,而是自然图像统计规律的产物。通过线性模型仅学习像素相关性,即可复现U-Net般的局部敏感模式,揭示数据本身蕴含生成“魔法”。
231 3
MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构
|
3月前
|
设计模式 缓存 安全
【JUC】(6)带你了解共享模型之 享元和不可变 模型并初步带你了解并发工具 线程池Pool,文章内还有饥饿问题、设计模式之工作线程的解决于实现
JUC专栏第六篇,本文带你了解两个共享模型:享元和不可变 模型,并初步带你了解并发工具 线程池Pool,文章中还有解决饥饿问题、设计模式之工作线程的实现
241 2
|
3月前
|
机器学习/深度学习 存储 缓存
115_LLM基础模型架构设计:从Transformer到稀疏注意力
大型语言模型(LLM)的架构设计是其性能的核心决定因素。从2017年Transformer架构的提出,到如今的稀疏注意力和混合专家模型,LLM架构经历了快速的演进。本文将全面探讨LLM基础架构的设计原理,深入分析Transformer的核心机制,详细介绍稀疏注意力、MoE等创新架构,并展望未来架构发展方向。通过数学推导和实践案例,为构建高效、强大的LLM提供全面指导。
|
3月前
|
机器学习/深度学习 自然语言处理 算法
48_动态架构模型:NAS在LLM中的应用
大型语言模型(LLM)在自然语言处理领域的突破性进展,很大程度上归功于其庞大的参数量和复杂的网络架构。然而,随着模型规模的不断增长,计算资源消耗、推理延迟和部署成本等问题日益凸显。如何在保持模型性能的同时,优化模型架构以提高效率,成为2025年大模型研究的核心方向之一。神经架构搜索(Neural Architecture Search, NAS)作为一种自动化的网络设计方法,正在为这一挑战提供创新性解决方案。本文将深入探讨NAS技术如何应用于LLM的架构优化,特别是在层数与维度调整方面的最新进展,并通过代码实现展示简单的NAS实验。
|
5月前
|
编解码 文字识别 自然语言处理
Dots.ocr:告别复杂多模块架构,1.7B参数单一模型统一处理所有OCR任务22
Dots.ocr 是一款仅1.7B参数的视觉语言模型,正在重塑文档处理技术。它将布局检测、文本识别、阅读顺序理解和数学公式解析等任务统一于单一架构,突破传统OCR多模块流水线的限制。在多项基准测试中,其表现超越大参数模型,展现出“小而精”的实用价值,标志着OCR技术向高效、统一、灵活方向演进。
706 0
Dots.ocr:告别复杂多模块架构,1.7B参数单一模型统一处理所有OCR任务22
|
6月前
|
存储 人工智能 调度
上海创智学院联合无问芯穹发布Megrez2.0,本征架构突破端模型不可能三角,以终端算力撬动云端智能
终端是实现数字智能和生命智能自由交互的重要接口,持续帮助人类拓展生产能力的边界。当下,终端智能面临着“能效-空间-智能”的不可能三角:以DeepSeek-R1为例,其参数规模高达6710亿,超出了大部分笔记本电脑的内存容量;即使勉强在一台笔记本电脑上成功运行满血版模型,理论上坚持不到9分钟就会耗尽电池;如果通过蒸馏,将满血版模型压缩到更小尺寸,此时的精度损失又可能满足不了智能水平的要求。
155 0
上海创智学院联合无问芯穹发布Megrez2.0,本征架构突破端模型不可能三角,以终端算力撬动云端智能