Netty权威指南

TCP粘包/拆包

TCP是个流协议,所谓流,就是没有界限的一串数据。大家可以想想河流里的流水,它们是连成一片的,其间并没有分界线。TCP底层并不了解上层业务数据的具体含义,它会根据TCP缓冲区的实际情况进行包的划分,所以在业务上认为,一个完整的包可能会被TCP拆分成多个包进行发送,也有可能把多个小的包封装成一个大的数据包发送,这就是所谓的TCP的拆包和粘包问题。

TCP粘包和拆包发生的原因

问题产生的原因主要有三个,分别如下:

  • 应用程序write写入的字节大小大于套接字发送缓冲区大小
  • 进行MSS大小的TCP分段
  • 以太网帧payload大于MTU进行IP分片

cause.png

粘包问题的解决策略

由于底层的TCP无法理解上层的业务数据,所以在底层是无法保证数据包不被拆分和重组的,这个问题只能通过上层的应用层协议栈设计来解决,根据业界的主流协议的解决方案,可以归纳如下:

  • 消息定长,例如每个报文的大小为固定长度200字节,如果不够,空位补空格;
  • 在包尾增加回车换行符进行分割,例如FTP协议;
  • 将消息分为消息头和消息体,消息头中包含表示消息总长度(或者消息体长度)的字段,通常设计思路为消息头的第一个字段使用int32来表示消息的总长度;
  • 更复杂的应用层协议。

为了解决TCP粘包/拆包导致的半包读写问题,Netty默认提供了多种编解码器用于处理半包,只要能熟练掌握这些类库的使用,TCP粘包问题从此变得非常容易,甚至不需要去关心它们,这也是其他NIO框架和JDK原生的NIO API所无法匹敌的。

TCP以流的方式进行数据传输,上层的应用协议为了对消息进行区分,往往采用如下4种方式:

  • 消息长度固定,累计读取到长度总和为定长LEN的报文后,就认为读取了一个完整的消息;将计数器置位,重新开始读取下一个数据报;
  • 将回车换行符作为消息结束符,例如FTP协议,这种方式在文本协议中应用比较广泛;
  • 将特殊的分隔符作为消息的结束标志,回车换行符就是一种特殊的结束分隔符;
  • 通过在消息头中定义长度字段来标示消息的总长度。

UDP不发生粘包的原因

UDP不存在粘包的原因是因为UDP发送的时候,没有经过Negal算法的优化,不会将多个小包合并成一个大包发送出去。另外,在UDP协议的接收端,采用了链式结构来记录每一个到达的UDP包,这样接收端应用程序一次recv只能从socket接收缓冲区中读出一个数据包。也就是说,发送端send了几次,接收端必须recv几次。

WebSocket协议开发

长期以来存在着各种技术让服务器得知有新数据可用时,立即将数据发送给客户端。这些技术种类繁多,例如“推送”或Comet。最常见的一种黑客手段是对服务器发起连接创建假象,被称为长轮询。利用长轮询,客户端可以打开指向服务器的HTTP连接,而服务器一直保持连接打开,直到发送响应。服务器只要实际拥有新数据,就会发送响应。长轮询和其他技术都非常好用,在Gmail聊天应用中会经常使用它们。但是,这些解决方案都存在一个共同的问题:由于HTTP协议的开销,导致它们不适合用于低延迟应用。

为了解决这些问题,WebSocket将网络套接字引入到了客户端和服务器,浏览器和服务器之间可以通过套接字建立持久的连接,双方随时都可以互发数据给对方,而不是之前由客户端控制的请求——应答模式。

HTTP协议的主要弊端总结如下:

  • HTTP协议为半双工协议。半双工协议指数据可以在客户端和服务器端两个方向上传输,但是不能同时传输。它意味着在同一时刻,只有一个方向上的数据传送;
  • HTTP消息冗长而繁琐。HTTP消息包含消息头、消息体、换行符等,通常情况下采用文本方式传输,相比与其他的二进制通信协议,冗长而繁琐。
  • 针对服务器推送的黑客攻击。例如长时间轮询。

传统的轮询模式需要浏览器不断向服务器发出请求,然而HTTP请求的请求头冗长,可用数据非常低,会占用很多的带宽和服务器资源。比较新的一种轮询技术是Comet,使用了AJAX。这种技术虽然可达到双向通信,但依然需要发出请求,而且在Comet中,普遍采用了长连接,这也会大量消耗服务器带宽和资源。

为了解决HTTP协议效率低下的问题,HTML5定义了WebSocket协议,能更好的节省服务器资源和带宽并达到实时通信。

在WebSocket API中,浏览器和服务器只需要做一个握手的动作,然后,浏览器和服务器之间就形成了一条快速通道,两者可以直接互相传送数据。WebSocket基于TCP双向全双工进行消息传递,在同一时刻,既可以发送消息,也可以接收消息,相比HTTP的半双工协议,性能得到很大提升。

WebSocket的特点:

  • 单一的TCP连接,采用全双工模式通信;
  • 对代理、防火墙和路由器透明;
  • 无头部信息、Cookie和身份验证;
  • 无安全开销;
  • 通过“ping/pong”帧保持链路激活;
  • 服务器可以主动传递消息给客户端,不再需要客户端轮询。

Netty私有协议栈可靠性设计

  • 心跳机制

在凌晨等业务低谷期时段,如果发生网络闪断、连接被Hang住等网络问题时,由于没有业务消息,应用进程很难发现。到了白天业务高峰期时,会发生大量的网络通信失败,严重的会导致一段时间进程内无法处理业务消息。为了解决这个问题,在网络空闲时采用心跳机制来检测链路的互通性,一旦发现网络故障,立即关闭链路,主动重连。具体的设计思路如下:

A.当网络处于空闲状态持续时间达到T(连续周期T没有读写消息)时,客户端主动发送Ping心跳消息给服务端;
B.如果在下一个周期T到来时客户端没有收到对方发送的Pong心跳应答消息或者读取到服务端发送的其他业务消息,则心跳失败计数器加1;
C.每当客户端接收到服务的业务消息或者Pong应答消息时,将心跳失败计数器清零;连续N次没有接收到服务端的Pong消息或者业务消息,则关闭链路,间隔INTERVAL时间后发起重连操作;
D.服务端网络空闲状态持续时间达到T后,服务端将心跳失败计数器加1;只要接收到客户端发送的Ping消息或者其他业务消息,计数器清零;
E.服务端连续N次没有接收到客户端的Ping消息或者其他业务消息,则关闭链路,释放资源,等待客户端重连;

通过Ping-Pong双向心跳机制,可以保证无论通信哪一方出现网络故障,都能被及时的检测出来。为了防止对方短时间内繁忙没有及时返回应答造成的误判,只有连续N次心跳检测都失败时才认定链路已经损害,需要关闭链路并重建链路。

当读或者写心跳消息发生I/O异常的时候,说明链路已经中断,此时需要立即关闭链路,如果是客户端,需要重新发起连接。如果是服务端,需要清空缓存的半包信息,等待客户端重连。

  • 重连机制

如果链路中断,等待INTERVAL时间后,由客户端发起重连操作,如果重连失败,间隔周期INTERVAL后再次发起重连,直到重连成功;
为了保证服务端能够有充足的时间释放句柄资源,在首次断连时客户端需要等待INTERVAL时间后再发起重连,而不是失败后立即重连;
为了保证句柄资源能够及时释放,无论什么场景下的重连失败,客户端都必须保证自己的资源能够被及时释放,包括但不限于SocketChannel、Socket等;
重连失败后,需要打印异常堆栈信息,方便后续的问题定位。

  • 重复登录保护

当客户端握手成功之后,在链路处于正常状态下,不允许客户端重复登录,以防止客户端在异常状态下反复重连导致句柄资源被耗尽。

服务端接收到客户端的握手请求消息之后,首先对IP地址进行合法性检验,如果校验成功,在缓存的地址表中查看客户端是否已经登录,如果已经登录,则拒绝重复登录,返回错误码-1,同时关闭TCP链路,并在服务端的日志中打印握手失败的原因。

客户端接收到握手失败的应答消息之后,关闭客户端的TCP连接,等待INTERVAL时间之后,再次发起TCP连接,直到认证成功。

为了防止服务端和客户端对链路状态理解不一致导致的客户端无法握手成功的问题,当服务端连续N次心跳超时之后需要主动关闭链路,清空该客户端的地址缓存信息,以保证后续该客户端可以重连成功,防止被重复登录保护机制拒绝掉。

  • 消息缓存重发

无论客户端还是服务端,当发生链路中断之后,在链路恢复之前,缓存在消息队列中待发送的消息不能丢失,等链路恢复以后,重新发送这些消息,保证链路中断期间消息不丢失。

考虑到内存溢出的风险,建议消息队列设置上限,当达到上限之后,应该拒绝继续向消息队列中添加新的消息。

Netty服务端创建

服务端创建时序图

netty_server_seq.png

链路建立的时候创建并初始化ChannelPipeline。ChannelPipeline并不是NIO服务端所必需的,它本质就是一个负责处理网络事件的责任链,负责管理和执行ChannelHandler。网络事件以事件流的形式在ChannelPipeline中流转,由ChannelPipeline根据ChannelHandler的执行策略调度ChannelHandler的执行。典型的网络事件如下:

  • 链路注册;
  • 链路激活;
  • 链路断开;
  • 接收到请求消息;
  • 请求消息接收并处理完毕;
  • 发送应答消息;
  • 链路发生异常;
  • 发生用户自定义事件。

初始化ChannelPipeline完成之后,添加并设置ChannelHandler。ChannelHandler是Netty提供给用户定制和扩展的关键接口。利用ChannelHandler用户可以完成大多数的功能定制,例如消息编解码、心跳、安全认证、TSL/SSL认证、流量控制和流量整形等。Netty同时也提供了大量的系统ChannelHandler供用户使用,比较常用的系统ChannelHandler总结如下:

  • 系统编解码框架——ByteToMessageCodec;
  • 通用基于长度的半包解码器——LengthFieldBasedFrameDecoder;
  • 码流日志打印Handler——LoggingHandler;
  • SSL安全认证Handler——SslHandler;
  • 链路空闲检测Handler——IdleStateHandler;
  • 流量整形Handler——ChannelTrafficShapingHandler;
  • Base64编解码——Base64Decoder和Base64Encoder。

TCP参数设置完成后,用户可以为启动辅助类和其父类分别制定Handler。两类Handler的用途不同:子类中的Handler是NioServerSocketChannel对应的ChannelPipeline的Handler;父类中的Handler是客户端新接入的连接SocketChannel对应的ChannelPipeline的Handler。

ByteBuf功能说明

ByteBuffer完全可以满足NIO编程的需要,但是由于NIO编程的复杂性,ByteBuffer也有其局限性,它的主要缺点如下:

  • ByteBuffer长度固定,一旦分配完成,它的容量不能动态扩展和收缩,当需要编码的POJO对象大于ByteBuffer的容量时,会产生索引越界异常;
  • ByteBuffer只有一个标识位置的指针position,读写的时候需要手工调用flip()和rewind()等,使用者必须小心谨慎的处理这些API,否则很容易导致程序处理失败;
  • ByteBuffer的API功能有限,一些高级和实用的特性它不支持,需要使用者自己编程实现。

ByteBuf的工作原理

ByteBuf依然是个Byte数组的缓冲区,它的基本功能应该与JDK的ByteBuffer一致。ByteBuf通过两个位置指针来协助缓冲区的读写操作,读操作使用readerIndex,写操作使用writerIndex。通常情况下,当我们对ByteBuffer进行put操作的时候,如果缓冲区剩余可写空间不够,就会发生BufferOverflowException异常。为了避免发生这个问题,通常在进行put操作的时候会对剩余可用空间进行校验。如果剩余空间不足,需要重新创建一个新的ByteBuffer,并将之前的ByteBuffer复制到新创建的ByteBuffer中,最后释放老的ByteBuffer。

从内存分配的角度看,ByteBuf可以分为两类:

  • 堆内存(HeapByteBuf)字节缓冲区:特点是内存的分配和回收速度快,可以被JVM自动回收;缺点就是如果进行Socket的IO读写,需要额外做一次内存复制,将堆内存对应的缓冲区复制到内核Channel中,性能会有一定程度的下降;
  • 直接内存(DirectByteBuf)字节缓冲区:非堆内存,它在堆外进行内存分配,相比于堆内存,它的分配和回收速度会慢一些,但是将它写入或者从Socket Channel中读取时,由于少了一次内存复制,速度比堆内存快。

正是因为各有利弊,所以Netty提供了多种ByteBuf供开发者使用,经验表明,ByteBuf的最佳实践是在IO通信线程的读写缓冲区使用DirectByteBuffer,后端业务消息的编解码模块使用HeapByteBuf,这样组合可以达到性能最优。

从内存回收角度看,ByteBuf也分为两类:基于对象池的ByteBuf和普通ByteBuf。两者的主要区别就是基于对象池的ByteBuf可以重用ByteBuf对象,它自己维护了一个内存池,可以循环利用创建的ByteBuf,提升内存的使用效率,降低由于高负载导致的频繁GC。测试表明使用内存池后的Netty在高负载、大并发的冲击下内存和GC更加平稳

尽管推荐使用基于内存池的ByteBuf,但是内存池的管理和维护更加复杂,使用起来也需要更加谨慎,因此,Netty提供了灵活的策略供使用者来做选择。

Channel的工作原理

Channel是Netty抽象出来的网路IO读写相关的接口,为什么不使用JDK NIO原生的Channel而要另起炉灶呢,主要原因如下:

  • JDK的SocketChannel和ServerSocketChannel没有统一的Channel接口供业务开发者使用,对于用户而言,没有统一的操作视图,使用起来并不方便。
  • JDK的SocketChannel和ServerSocketChannel的主要职责就是网络IO操作,由于它们是SPI类接口,由具体的虚拟机厂家来提供,所以通过继承SPI功能类来扩展其功能的难度很大;直接实现ServerSocketChannel和SocketChannel抽象类,其工作量和重新开发一个新的CHannel功能类是差不多的;
  • Netty的Channel需要能够跟Netty的整体架构融合在一起,例如IO模型、基于ChannelPipeline的定制模型,以及基于元数据描述配置化的TCP参数等,这些JDK的SocketChannel和ServerSocketChannel都没有提供,需要重新封装;
  • 自定义的Channel,功能实现更加灵活。

基于上述四个原因,Netty重新设计了Channel接口,并且给予了很多不同的实现。它的设计原理比较简单,但是功能却比较复杂,主要的设计理念如下:

  • 在Channel接口层,采用门面模式进行统一封装,将网络IO操作、网络IO相关联的其他操作封装起来,统一对外提供;
  • Channel接口的定义尽量大而全,为SocketChannel和ServerSocketChannel提供统一的视图,由不同子类实现不同的功能,公共功能在抽象父类中实现,最大程度的实现功能和接口的重用;
  • 具体实现采用聚合而非包含的方式,将相关的功能类聚合在Channel中,由Channel统一负责分配和调度,功能实现更加灵活。

Reactor单线程模型

Reactor单线程模型,是指所有的IO操作都在同一个NIO线程上面完成。NIO线程的职责如下:

  • 作为NIO服务端,接收客户端的TCP连接;
  • 作为NIO客户端,向服务端发起TCP连接;
  • 读取通信对端的请求或者应答信息;
  • 向通信对端发送消息请求或者应答消息。

Reactor单线程模型如下图所示:

单线程模型

由于Reactor模式使用的是同步非阻塞IO,所有的IO操作都不会导致阻塞,理论上一个线程可以独立处理所有IO相关的操作。从架构层面看,一个NIO线程确实可以完成其承担的职责。例如,通过Acceptor类接收客户端的TCP连接请求消息,当链路建立成功之后,通过Dispatcher将对应的ByteBuffer派发到指定的Handler上,进行消息解码。用户线程消息编码后通过NIO线程将消息发送给客户端。

在一些小容量应用场景下,可以使用单线程模型。但是这对于高负载、大并发的应用场景却不适合,主要原因如下:

  • 一个NIO线程同时处理成百上千个的链路,性能无法支撑,即便NIO线程的CPU负荷达到100%,也无法满足海量消息的编码、解码、读取和发送;
  • 当NIO线程负载过重之后,处理速度将变慢,这会导致大量客户端连接超时,超时之后往往会选择重发,这更加重了NIO线程的负载,最终会导致大量消息积压和处理超时,成为系统的性能瓶颈;
  • 可靠性问题,一旦NIO线程意外跑飞,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障。

为了解决这些问题,演进出了Reactor多线程模型。

Reactor多线程模型

多线程模型

Reactor多线程模型的特点如下:

  • 有专门一个NIO线程——Acceptor线程用于监听服务端,接收客户端的TCP连接请求;
  • 网络IO操作——读、写等由一个NIO线程池负责,线程池可以采用标准的JDK线程池实现,它包含一个任务队列和N个可用的线程,由这些NIO线程负责消息的读取、解码、编码和发送;
  • 一个NIO线程可以同时处理N条链路,但是一个链路只对应一个NIO线程,防止发生并发操作问题。

在绝大多数场景下,Reactor多线程模型可以满足性能需求。但是,在个别特殊场景中,一个NIO线程负责监听和处理所有的客户端连接可能会存在性能问题。例如并发百万客户端连接,或者服务端需要对客户端进行安全认证,但是认证本身非常损耗性能。在这种场景下,单独一个Acceptor线程可能会存在性能不足的问题,为了解决性能问题,产生了第三种Reactor线程模型——主从Reactor多线程模型。

主从Reactor多线程模型

主从线程模型

主从Reactor线程模型的特点是:服务端用于接收客户端连接的不再是一个单独的NIO线程,而是一个独立的NIO线程池。Acceptor接收到客户端TCP连接请求并处理完成后(可能包含接入认证等),将新创建的SocketChannel注册到IO线程池(sub reactor线程池)的某个IO线程上,由它负责SocketChannel的读写和编码工作。Acceptor线程池仅仅用于客户端的登录、握手和安全认证,一旦链路建立成功,就将链路注册到后端subReactor线程池的IO线程上,由IO线程负责后续的IO操作。

利用主从NIO线程模型,可以解决一个服务端监听线程无法有效处理客户端连接的性能不足问题。因此,在Netty的官方Demo中,推荐使用该线程模型

Netty的线程模型

Netty的线程模型并不是一成不变的,它实际取决于用户的启动参数配置。通过设置不同的启动参数,Netty可以同时支持Reactor单线程模型、多线程模型和主从Reactor多线程模型。

Netty线程模型

可以通过如下代码来了解它的线程模型:

EventLoopGroup bossGroup = new NioEventLoopGroup();
EventLoopGroup workerGroup = new NioEventLoopGroup();
ServerBootstrap b = new ServerBootstrap();
b.group(bossGroup, workerGroup).channel(NioServerSocketChannel.class)
.option(ChannelOption.SO_BACKLOG, 100)
.handler(new LoggingHandler(LogLevel.INFO))
.childHandler(new ChannelInitializer<SocketChannel>() {})

服务端启动的时候,创建了两个NioEventLoopGroup,它们实际是两个独立的Reactor线程池。一个用于接收客户端的TCP连接,另一个用于处理IO相关的读写操作,或者执行系统Task,定时任务Task等。

Netty用于接收客户端请求的线程池职责如下:

  • 接收客户端TCP连接,初始化Channel参数;
  • 将链路状态变更时间通知给ChannelPipeline;

Netty处理IO操作的Reactor线程池职责如下:

  • 异步读写通信对端的数据报,发送读事件到ChannelPipeline;
  • 异步发送消息通信对端,调用ChannelPipeline的消息发送接口;
  • 执行系统调用Task;
  • 执行定时任务Task,例如链路空闲状态监测定时任务。

最佳实践

Netty的多线程编程最佳实践如下:

  • 创建两个NioEventLoopGroup,用于逻辑隔离NIO Acceptor和NIO IO线程;
  • 尽量不要在ChannelHandler中启动用户线程(解码后用于将POJO消息派发到后端业务线程的除外);
  • 解码要放在NIO线程调用的解码Handler中进行,不要切换到用户线程中完成消息的解码;
  • 如果业务逻辑操作非常简单,没有复杂的业务逻辑计算,没有可能会导致线程被阻塞的磁盘操作、数据库操作、网络操作等,可以直接在NIO线程上完成业务逻辑编写,不需要切换到用户线程;
  • 如果业务逻辑处理复杂,不要在NIO线程上完成,建议将编码后的POJO消息封装成Task,派发到业务线程池中由业务线程执行,以保证NIO线程尽快被释放,处理其他的IO操作。

推荐的线程数量计算公式有以下两种:

公式一:线程数量=(线程总时间/瓶颈资源时间)×瓶颈资源的线程并行数

公式二:QPS=1000/线程总时间×线程数

NioEventLoop

NioEventLoop继承关系类图如下:

NioEventLoop继承关系类图

Future和Promise

在Netty中,所有的IO操作都是异步的,这意味着任何IO调用都会立即返回,而不是像传统的BIO那样同步等待操作完成。异步操作带来一个问题:调用者如何获取异步操作的结果?ChannelFuture就是为了解决这个问题而专门设计的。

ChannelFuture有两种状态:uncompleted和completed。当开始一个IO操作时,一个新的ChannelFuture被创建,此时它处于uncompleted状态——非失败、非成功、非取消,因为IO操作此时还没有完成。一旦IO操作完成,ChannelFuture将会被设置成completed,它的结果有如下三种可能:

  • 操作成功;
  • 操作失败;
  • 操作被取消。

ChannelFuture的状态迁移图如下所示:

ChannelFuture状态迁移图

Netty强烈建议直接通过添加监听器的方式获取IO操作结果,或者进行后续的相关操作。需要注意的是:不要在ChannelHandler中调用ChannelFuture的await()方法,这会导致死锁。原因是发起IO操作之后,由IO线程负责异步通知发起IO操作的用户线程,如果IO线程和用户线程是同一个线程,就会导致IO线程等待自己通知操作完成,这就导致了死锁,这跟经典的两个线程互等待死锁不同,属于自己把自己挂死。

Promise是可写的Future,Future自身并没有写操作相关的接口,Netty通过Promise对Future进行扩展,用于设置IO操作的结果。

Netty架构剖析

Netty采用典型的三层网络架构进行设计和开发,逻辑架构如下图所示:

Netty架构图

Reactor通信调度层

它由一系列辅助类完成,包括Reactor线程NioEventLoop及其父类,NioSocketChannel/NioServerSocketChannel及其父类,ByteByffer以及由其衍生出来的各种Buffer,Unsafe以及其衍生出来的各种内部类等。该层的主要职责就是监听网络的读写和连接操作,负责将网络层的数据读取到内存缓冲区中,然后触发各种网络事件,例如连接建立、连接激活、读事件、写事件等,将这些事件触发到Pipeline中,由Pipeline管理的责任链来进行后续的处理。

责任链ChannelPipeline

它负责事件在职责链中的有序传播,同时负责动态的编排责任链。职责链可以选择监听和处理自己关心的事件,它可以拦截处理和向后/向前传播事件。不同应用的Handler节点的功能也不同,通常情况下,往往会开发编解码Handler用于消息的编解码,它可以将外部的协议消息转换成内部的POJO对象,这样上层业务则只需要关心处理业务逻辑即可,不需要感知底层的协议差异和线程模型差异,实现了架构层面的分层隔离。

业务逻辑层(Service ChannelHandler)

业务逻辑编排层通常有两类:一类是纯粹的业务逻辑编排,还有一类是其他的应用层协议插件,用于特定协议相关的会话和链路管理。例如CMPP协议,用于管理和中国移动短信系统的对接。

架构的不同层面,需要关心和处理的对象都不同,通常情况下,对于业务开发者,只需要关心责任链的拦截与业务Handler的编排。因为应用层协议栈往往开发一次,到处运行所以实际上对于业务开发者来说,只需要关心服务层的业务逻辑开发即可。各种应用协议以插件的形式提供,只有协议开发人员需要关注这些协议插件,对于其他业务开发人员来说,只需要关心业务逻辑定制。这种分层的架构设计理念实现了NIO框架各层之间的解耦,便于上层协议栈的开发和业务逻辑的定制。

高性能

Netty的架构设计通过如下方式实现高性能:

  • 采用异步非阻塞IO类库,基于Reactor模式实现,解决了传统同步阻塞IO模式写一个服务端无法平滑的处理线性正常的客户端的问题;
  • TCP接收和发送缓冲区使用直接内存代替堆内存,避免了内存复制,提升了IO读取和写入的性能;
  • 支持通过内存池的形式循环利用ByteBuf,避免了频繁创建和销毁ByteBuf带来的性能损耗;
  • 可配置的IO线程数、TCP参数等,为不同的用户场景提供定制化的调优参数,满足不同的性能场景;
  • 采用环形数组缓冲区实现无锁化并发编程,代替传统的线程安全容器或者锁;
  • 合理的使用线程安全容器、原子类等,提升系统的并发处理能力;
  • 关键资源的处理使用单线程串行化的方式,避免多线程并发访问带来的锁竞争和额外的CPU资源消耗问题;
  • 通过引用计数及时的申请释放不再被引用的对象,细粒度的内存管理降低了GC的频率,减少了频繁GC带来的时延和CPU损耗。

可靠性

  • 链路有效性检测:周期性心跳;
  • 内存保护机制
  • 优雅停机:优雅停机功能指的是当系统退出时,JVM通过注册的关闭钩子拦截到退出信号,然后执行退出操作,释放相关模块的资源占用,将缓冲区的消息处理完成或者清空,将待刷新的数据持久化到磁盘或者数据库中,等到资源回收和缓冲区消息处理完成之后,再退出。

可定制性

  • 责任链模式:ChannelPipeline基于责任链模式开发,便于业务逻辑的拦截、定制和扩展;
  • 基于接口的开发:关键的类库都提供了接口或者抽象类,如果Netty自身的实现无法满足用户的需求,可以由用户自定义实现相关接口;
  • 提供了大量工厂类,通过重载这些工厂类可以按需创建用户实现的对象;
  • 提供了大量的系统参数供系统按需设置,增强系统的场景定制性。

可扩展性

基于Netty的基础NIO框架,可以方便的进行应用层协议定制,例如HTTP协议栈、Thrift协议栈、FTP协议栈。这些扩展不需要修改Netty的源码,直接基于Netty的二进制类库即可实现协议的扩展和定制。目前,业界大量存在的基于Netty框架开发的协议,例如基于Netty的HTTP协议、Dubbo协议、RocketMQ内部私有协议等。

评论

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×