Netty 源码深度解析(九) - 编码

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
简介:

概述

一个问题



编码器实现了 ChannelOutboundHandler,并将出站数据从 一种格式转换为另一种格式,和我们方才学习的解码器的功能正好相反。Netty 提供了一组类, 用于帮助你编写具有以下功能的编码器:

  • 将消息编码为字节
  • 将消息编码为消息
    我们将首先从抽象基类 MessageToByteEncoder 开始来对这些类进行考察

1 抽象类 MessageToByteEncoder

MessageToByteEncoder API
解码器通常需要在 Channel 关闭之后产生最后一个消息(因此也就有了 decodeLast()方法)
这显然不适于编码器的场景——在连接被关闭之后仍然产生一个消息是毫无意义的

1.1 ShortToByteEncoder

其接受一 Short 型实例作为消息,编码为Short的原子类型值,并写入ByteBuf,随后转发给ChannelPipeline中的下一个 ChannelOutboundHandler
每个传出的 Short 值都将会占用 ByteBuf 中的 2 字节
ShortToByteEncoder

1.2 Encoder

Netty 提供了一些专门化的 MessageToByteEncoder,可基于此实现自己的编码器
WebSocket08FrameEncoder 类提供了一个很好的实例

2 抽象类 MessageToMessageEncoder

你已经看到了如何将入站数据从一种消息格式解码为另一种
为了完善这幅图,将展示 对于出站数据将如何从一种消息编码为另一种。MessageToMessageEncoder 类的 encode() 方法提供了这种能力
MessageToMessageEncoderAPI
为了演示,使用 IntegerToStringEncoder 扩展了 MessageToMessageEncoder

  • 编码器将每个出站 Integer 的 String 表示添加到了该 List 中

IntegerToStringEncoder的设计

关于有趣的 MessageToMessageEncoder 的专业用法,请查看 io.netty.handler. codec.protobuf.ProtobufEncoder 类,它处理了由 Google 的 Protocol Buffers 规范所定义 的数据格式。

一个java对象最后是如何转变成字节流,写到socket缓冲区中去的

pipeline中的标准链表结构
java对象编码过程
write:写队列
flush:刷新写队列
writeAndFlush: 写队列并刷新

pipeline中的标准链表结构

标准的pipeline链式结构
数据从head节点流入,先拆包,然后解码成业务对象,最后经过业务Handler处理,调用write,将结果对象写出去
而写的过程先通过tail节点,然后通过encoder节点将对象编码成ByteBuf,最后将该ByteBuf对象传递到head节点,调用底层的Unsafe写到JDK底层管道

Java对象编码过程

为什么我们在pipeline中添加了encoder节点,java对象就转换成netty可以处理的ByteBuf,写到管道里?

我们先看下调用write的code

业务处理器接受到请求之后,做一些业务处理,返回一个user

  • 然后,user在pipeline中传递
    AbstractChannel#

DefaultChannelPipeline#
AbstractChannelHandlerContext#
AbstractChannelHandlerContext#

  • 情形一
    AbstractChannelHandlerContext#

AbstractChannelHandlerContext#

  • 情形二
    AbstractChannelHandlerContext#


AbstractChannelHandlerContext#invokeWrite0
AbstractChannelHandlerContext#invokeFlush0
handler 如果不覆盖 flush 方法,就会一直向前传递直到 head 节点

落到 Encoder节点,下面是 Encoder 的处理流程

按照简单自定义协议,将Java对象 User 写到传入的参数 out中,这个out到底是什么?

需知 User 对象,从BizHandler传入到 MessageToByteEncoder时,首先传到 write

1. 判断当前Handelr是否能处理写入的消息(匹配对象)



  • 判断该对象是否是该类型参数匹配器实例可匹配到的类型
    TypeParameterMatcher#

具体实例

2 分配内存


3 编码实现

  • 调用encode,这里就调回到 Encoder 这个Handler
  • 其为抽象方法,因此自定义实现类实现编码方法

4 释放对象

  • 既然自定义Java对象转换成ByteBuf了,那么这个对象就已经无用,释放掉 (当传入的msg类型是ByteBuf时,就不需要自己手动释放了)

5 传播数据

//112 如果buf中写入了数据,就把buf传到下一个节点,直到 header 节点

6 释放内存

//115 否则,释放buf,将空数据传到下一个节点
// 120 如果当前节点不能处理传入的对象,直接扔给下一个节点处理
// 127 当buf在pipeline中处理完之后,释放

Encoder处理传入的Java对象

  • 判断当前Handler是否能处理写入的消息

    • 如果能处理,进入下面的流程
    • 否则,直接扔给下一个节点处理
  • 将对象强制转换成Encoder 可以处理的 Response对象
  • 分配一个ByteBuf
  • 调用encoder,即进入到 Encoder 的 encode方法,该方法是用户代码,用户将数据写入ByteBuf
  • 既然自定义Java对象转换成ByteBuf了,那么这个对象就已经无用了,释放掉(当传入的msg类型是ByteBuf时,无需自己手动释放)
  • 如果buf中写入了数据,就把buf传到下一个节点,否则,释放buf,将空数据传到下一个节点
  • 最后,当buf在pipeline中处理完之后,释放节点

总结就是,Encoder节点分配一个ByteBuf,调用encode方法,将Java对象根据自定义协议写入到ByteBuf,然后再把ByteBuf传入到下一个节点,在我们的例子中,最终会传入到head节点

public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise) throws Exception {
    unsafe.write(msg, promise);
}

这里的msg就是前面在Encoder节点中,载有java对象数据的自定义ByteBuf对象

write - 写buffer队列


ChannelOutboundInvoker#

write(Object msg, boolean flush, ChannelPromise promise)



HeadContext in DefaultChannelPipeline#write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise)
Unsafe in Channel#write(Object msg, ChannelPromise promise)
以下过程分三步讲解

direct ByteBuf


AbstractChannel#filterOutboundMessage(Object msg)

  • 首先,调用 assertEventLoop 确保该方法的调用是在reactor线程中
  • 然后,调用 filterOutboundMessage() ,将待写入的对象过滤,把非ByteBuf对象和FileRegion过滤,把所有的非直接内存转换成直接内存DirectBuffer

AbstractNioChannel#newDirectBuffer

插入写队列

  • 接下来,估算出需要写入的ByteBuf的size

  • 最后,调用 ChannelOutboundBuffer 的addMessage(msg, size, promise) 方法,所以,接下来,我们需要重点看一下这个方法干了什么事情
    ChannelOutboundBuffer

想要理解上面这段代码,须掌握写缓存中的几个消息指针

ChannelOutboundBuffer 里面的数据结构是一个单链表结构,每个节点是一个 Entry,Entry 里面包含了待写出ByteBuf 以及消息回调 promise下面分别是

三个指针的作用

  • flushedEntry
    表第一个被写到OS Socket缓冲区中的节点

ChannelOutboundBuffer

  • unFlushedEntry
    表第一个未被写入到OS Socket缓冲区中的节点

ChannelOutboundBuffer

  • tailEntry
    ChannelOutboundBuffer缓冲区的最后一个节点

ChannelOutboundBuffer

图解过程

  • 初次调用write 即 addMessage

fushedEntry指向空,unFushedEntrytailEntry 都指向新加入节点

  • 第二次调用 addMessage
  • 第n次调用 addMessage

可得,调用n次addMessage

  • flushedEntry指针一直指向null,表此时尚未有节点需写到Socket缓冲区
  • unFushedEntry后有n个节点,表当前还有n个节点尚未写到Socket缓冲区

设置写状态

ChannelOutboundBuffer#addMessage

  • 统计当前有多少字节需要需要被写出
    ChannelOutboundBuffer#addMessage(Object msg, int size, ChannelPromise promise)
  • 当前缓冲区中有多少待写字节
    ChannelOutboundBuffer#


ChannelConfig#getWriteBufferHighWaterMark()

  • 所以默认不能超过64k
    WriteBufferWaterMark

  • 自旋锁+CAS 操作,通过 pipeline 将事件传播到channelhandler 中监控

flush:刷新buffer队列

添加刷新标志并设置写状态

  • 不管调用channel.flush(),还是ctx.flush(),最终都会落地到pipeline中的head节点
    DefaultChannelPipeline#flush
  • 之后进入到AbstractUnsafe
    AbstractChannel#flush()
  • flush方法中,先调用
    ChannelOutboundBuffer#addFlush

ChannelOutboundBuffer#decrementPendingOutboundBytes(long size, boolean invokeLater, boolean notifyWritability)

和之前那个实例相同,不再赘述

  • 结合前面的图来看,上述过程即
    首先拿到 unflushedEntry 指针,然后将 flushedEntry 指向unflushedEntry所指向的节点,调用完毕后

遍历 buffer 队列,过滤bytebuf

  • 接下来,调用 flush0()
  • 发现这里的核心代码就一个 doWrite
    AbstractChannel#

AbstractNioByteChannel

  • 继续跟
protected void doWrite(ChannelOutboundBuffer in) throws Exception {
    int writeSpinCount = -1;

    boolean setOpWrite = false;
    for (;;) {
        // 拿到第一个需要flush的节点的数据
        Object msg = in.current();

        if (msg instanceof ByteBuf) {
            boolean done = false;
            long flushedAmount = 0;
            // 拿到自旋锁迭代次数
            if (writeSpinCount == -1) {
                writeSpinCount = config().getWriteSpinCount();
            }
            // 自旋,将当前节点写出
            for (int i = writeSpinCount - 1; i >= 0; i --) {
                int localFlushedAmount = doWriteBytes(buf);
                if (localFlushedAmount == 0) {
                    setOpWrite = true;
                    break;
                }

                flushedAmount += localFlushedAmount;
                if (!buf.isReadable()) {
                    done = true;
                    break;
                }
            }

            in.progress(flushedAmount);

            // 写完之后,将当前节点删除
            if (done) {
                in.remove();
            } else {
                break;
            }
        } 
    }
}
  • 第一步,调用current()先拿到第一个需要flush的节点的数据
    ChannelOutboundBuffer#current
  • 第二步,拿到自旋锁的迭代次数
  • 第三步 调用 JDK 底层 API 进行自旋写
    自旋的方式将ByteBuf写到JDK NIO的Channel

强转为ByteBuf,若发现没有数据可读,直接删除该节点

  • 拿到自旋锁迭代次数

image.png

  • 在并发编程中使用自旋锁可以提高内存使用率和写的吞吐量,默认值为16
    ChannelConfig
  • 继续看源码

AbstractNioByteChannel#

  • javaChannel(),表明 JDK NIO Channel 已介入此次事件
    NioSocketChannel#

ByteBuf#readBytes(GatheringByteChannel out, int length)

  • 得到向JDK 底层已经写了多少字节
    PooledDirectByteBuf#

  • 从 Netty 的 bytebuf 写到 JDK 底层的 bytebuffer

  • 第四步,删除该节点
    节点的数据已经写入完毕,接下来就需要删除该节点


首先拿到当前被flush掉的节点(flushedEntry所指)
然后拿到该节点的回调对象 ChannelPromise, 调用 removeEntry()移除该节点

这里是逻辑移除,只是将flushedEntry指针移到下个节点,调用后

随后,释放该节点数据的内存,调用 safeSuccess 回调,用户代码可以在回调里面做一些记录,下面是一段Example

ctx.write(xx).addListener(new GenericFutureListener<Future<? super Void>>() {
    @Override
    public void operationComplete(Future<? super Void> future) throws Exception {
       // 回调 
    }
})

最后,调用 recycle,将当前节点回收

writeAndFlush: 写队列并刷新

writeAndFlush在某个Handler中被调用之后,最终会落到 TailContext 节点


public ChannelFuture writeAndFlush(Object msg, ChannelPromise promise) {
    write(msg, true, promise);

    return promise;
}

AbstractChannelHandlerContext#
AbstractChannelHandlerContext#

最终,通过一个boolean变量,表示是调用 invokeWriteAndFlush,还是 invokeWriteinvokeWrite便是我们上文中的write过程
AbstractChannelHandlerContext#
可以看到,最终调用的底层方法和单独调用 write flush 一样的


由此看来,invokeWriteAndFlush基本等价于write之后再来一次flush

总结

  • 调用write并没有将数据写到Socket缓冲区中,而是写到了一个单向链表的数据结构中,flush才是真正的写出
  • writeAndFlush等价于先将数据写到netty的缓冲区,再将netty缓冲区中的数据写到Socket缓冲区中,写的过程与并发编程类似,用自旋锁保证写成功
  • netty中的缓冲区中的ByteBuf为DirectByteBuf

当 BizHandler 通过 writeAndFlush 方法将自定义对象往前传播时,其实可以拆分成两个过程

  • 通过 pipeline逐渐往前传播,传播到其中的一个 encode 节点后,其负责重写 write 方法将自定义的对象转化为 ByteBuf,接着继续调用 write 向前传播
  • pipeline中的编码器原理是创建一个ByteBuf,将Java对象转换为ByteBuf,然后再把ByteBuf继续向前传递,若没有再重写了,最终会传播到 head 节点,其中缓冲区列表拿到缓存写到 JDK 底层 ByteBuffer
目录
相关文章
|
1月前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
76 2
|
2天前
|
存储 设计模式 算法
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
行为型模式用于描述程序在运行时复杂的流程控制,即描述多个类或对象之间怎样相互协作共同完成单个对象都无法单独完成的任务,它涉及算法与对象间职责的分配。行为型模式分为类行为模式和对象行为模式,前者采用继承机制来在类间分派行为,后者采用组合或聚合在对象间分配行为。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象行为模式比类行为模式具有更大的灵活性。 行为型模式分为: • 模板方法模式 • 策略模式 • 命令模式 • 职责链模式 • 状态模式 • 观察者模式 • 中介者模式 • 迭代器模式 • 访问者模式 • 备忘录模式 • 解释器模式
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
|
2天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
结构型模式描述如何将类或对象按某种布局组成更大的结构。它分为类结构型模式和对象结构型模式,前者采用继承机制来组织接口和类,后者釆用组合或聚合来组合对象。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象结构型模式比类结构型模式具有更大的灵活性。 结构型模式分为以下 7 种: • 代理模式 • 适配器模式 • 装饰者模式 • 桥接模式 • 外观模式 • 组合模式 • 享元模式
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
2天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
创建型模式的主要关注点是“怎样创建对象?”,它的主要特点是"将对象的创建与使用分离”。这样可以降低系统的耦合度,使用者不需要关注对象的创建细节。创建型模式分为5种:单例模式、工厂方法模式抽象工厂式、原型模式、建造者模式。
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
25天前
|
缓存 监控 Java
Java线程池提交任务流程底层源码与源码解析
【11月更文挑战第30天】嘿,各位技术爱好者们,今天咱们来聊聊Java线程池提交任务的底层源码与源码解析。作为一个资深的Java开发者,我相信你一定对线程池并不陌生。线程池作为并发编程中的一大利器,其重要性不言而喻。今天,我将以对话的方式,带你一步步深入线程池的奥秘,从概述到功能点,再到背景和业务点,最后到底层原理和示例,让你对线程池有一个全新的认识。
53 12
|
21天前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
3天前
|
安全 搜索推荐 数据挖掘
陪玩系统源码开发流程解析,成品陪玩系统源码的优点
我们自主开发的多客陪玩系统源码,整合了市面上主流陪玩APP功能,支持二次开发。该系统适用于线上游戏陪玩、语音视频聊天、心理咨询等场景,提供用户注册管理、陪玩者资料库、预约匹配、实时通讯、支付结算、安全隐私保护、客户服务及数据分析等功能,打造综合性社交平台。随着互联网技术发展,陪玩系统正成为游戏爱好者的新宠,改变游戏体验并带来新的商业模式。
|
存储 缓存 NoSQL
跟着源码学IM(十一):一套基于Netty的分布式高可用IM详细设计与实现(有源码)
本文将要分享的是如何从零实现一套基于Netty框架的分布式高可用IM系统,它将支持长连接网关管理、单聊、群聊、聊天记录查询、离线消息存储、消息推送、心跳、分布式唯一ID、红包、消息同步等功能,并且还支持集群部署。
13531 1
|
7月前
|
消息中间件 Oracle Dubbo
Netty 源码共读(一)如何阅读JDK下sun包的源码
Netty 源码共读(一)如何阅读JDK下sun包的源码
144 1
|
NoSQL Java Redis
跟着源码学IM(十二):基于Netty打造一款高性能的IM即时通讯程序
关于Netty网络框架的内容,前面已经讲了两个章节,但总归来说难以真正掌握,毕竟只是对其中一个个组件进行讲解,很难让诸位将其串起来形成一条线,所以本章中则会结合实战案例,对Netty进行更深层次的学习与掌握,实战案例也并不难,一个非常朴素的IM聊天程序。 原本打算做个多人斗地主练习程序,但那需要织入过多的业务逻辑,因此一方面会带来不必要的理解难度,让案例更为复杂化,另一方面代码量也会偏多,所以最终依旧选择实现基本的IM聊天程序,既简单,又能加深对Netty的理解。
176 1

推荐镜像

更多