Day470.Netty概述&Netty高性能架构设计 -netty
Posted 阿昌喜欢吃黄桃
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Day470.Netty概述&Netty高性能架构设计 -netty相关的知识,希望对你有一定的参考价值。
Netty概述
一、原生 NIO 存在的问题
NIO 的类库和 API 繁杂
,使用麻烦:需要熟练掌握 Selector、ServerSocketChannel、SocketChannel、ByteBuffer等。需要具备其他的额外技能
:要熟悉 Java 多线程编程,因为 NIO 编程涉及到 Reactor 模式,你必须对多线程和网络编程非常熟悉,才能编写出高质量的 NIO 程序。开发工作量和难度都非常大
:例如客户端面临断连重连、网络闪断、半包读写、失败缓存、网络拥塞和异常流的处理等等。- JDK NIO 的
Bug
:例如臭名昭著的 Epoll Bug,它会导致 Selector 空轮询,最终导致 CPU 100%。直到 JDK 1.7版本该问题仍旧存在,没有被根本解决。
二、Netty 官网说明
官网:https://netty.io/
Netty is an asynchronous event-driven network application framework for rapid development of maintainable high performance protocol servers & clients
三、Netty 的优点
Netty 对 JDK 自带的 NIO 的 API 进行了封装,解决了上述问题。
设计优雅
:适用于各种传输类型的统一 API 阻塞和非阻塞 Socket;基于灵活且可扩展的事件模型,可以清晰地分离关注点;高度可定制的线程模型 - 单线程,一个或多个线程池.使用方便
:详细记录的 Javadoc,用户指南和示例;没有其他依赖项,JDK 5(Netty 3.x)或 6(Netty 4.x)就足够了。高性能、吞吐量更高:延迟更低
;减少资源消耗
;最小化不必要的内存复制
。安全
:完整的 SSL/TLS 和 StartTLS 支持。社区活跃
、不断更新:社区活跃,版本迭代周期短,发现的 Bug 可以被及时修复,同时,更多的新功能会被加入
四、Netty 版本说明
- netty 版本分为 netty3.x 和 netty4.x、netty5.x
- 因为 Netty5 出现重大 bug,已经被官网废弃了,
目前推荐使用的是 Netty4.x 的稳定版本
- 目前在官网可下载的版本 netty3.x netty4.0.x 和 netty4.1.x
- netty下载地址: https://bintray.com/netty/downloads/netty/
Netty 高性能架构设计
一、线程模型基本介绍
-
不同的线程模式,对程序的性能有很大影响,为了搞清 Netty 线程模式,我们来系统的讲解下 各个线程模式,最后看看 Netty 线程模型有什么优越性.
-
目前存在的线程模型有:
- 传统阻塞 I/O 服务模型
- Reactor 模式
- 根据 Reactor 的数量和处理资源池线程的数量不同,有 3 种典型的实现
- 单 Reactor 单线程;
- 单 Reactor 多线程;
- 主从 Reactor 多线程
- Netty 线程模式
(Netty
主要基于主从 Reactor 多线程模型
做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor)
二、传统阻塞 I/O 服务模型
1、工作原理图
- 黄色的框表示对象, 蓝色的框表示线程
- 白色的框表示方法(API)
2、模型特点
- 采用阻塞 IO 模式获取输入的数据
- 每个连接都需要独立的线程完成数据的输入,业务处理,数据返回
3、问题分析
- 当并发数很大,就会创建大量的线程,
占用很大系统资源
- 连接创建后,如果当前线程暂时没有数据可读,该线程会阻塞在 read 操作,造成线程资源浪费
三、Reactor 模式
1、针对传统阻塞 I/O 服务模型的 2 个缺点,解决方案:
基于I/O 复用模型
:
多个连接共用一个阻塞对象,应用程序只需要在一个阻塞对象等待,无需阻塞等待所有连接。
当某个连接有新的数据可以处理时,操作系统通知应用程序,线程从阻塞状态返回,开始进行业务处理Reactor 对应的叫法:
- 反应器模式
- 分发者模式(Dispatcher)
- 通知者模式(notifier)
基于线程池复用线程资源:
不必再为每个连接创建线程,将连接完成后的业务处理任务分配给线程进行处理,一个线程可以处理多个连接的业务
。
2、I/O 复用结合线程池, Reactor 模式基本设计思想
对上图说明:
- Reactor 模式,通过一个或多个输入同时传递给服务处理器的模式(
基于事件驱动
)- 服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程, 因此
Reactor 模式
也叫Dispatcher模式
- Reactor 模式使用
IO 复用监听事件
, 收到事件后,分发给某个线程(进程)
, 这点就是网络服务器高并发处理关键
3、Reactor 模式中核心组成
- Reactor:
Reactor 在一个单独的线程中运行,
负责监听和分发事件
,分发给适当的处理程序来对 IO 事件做出反应。它就像公司的电话接线员,它接听来自客户的电话并将线路转移到适当的联系人;
- Handlers:
处理程序执行 I/O 事件要完成的实际事件
,类似于客户想要与之交谈的公司中的实际官员。Reactor通过调度适当的处理程序来响应 I/O 事件,处理程序执行非阻塞操作。
4、Reactor 模式分类
根据 Reactor 的数量和处理资源池线程的数量不同,有 3 种典型的实现
- 单 Reactor 单线程
- 单 Reactor 多线程
- 主从 Reactor 多线程
四、单 Reactor 单线程
原理图,并使用 NIO 群聊系统验证
1、方案说明
- Select 是前面 I/O 复用模型介绍的标准网络编程 API,可以实现应用程序通过一个阻塞对象监听多路连接请求
- Reactor 对象通过 Select 监控客户端请求事件,收到事件后通过 Dispatch 进行分发
- 如果是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler 对象处理连接完成后的后续业务处理
- 如果不是建立连接事件,则 Reactor 会分发调用连接对应的 Handler 来响应
- Handler 会完成 Read→业务处理→Send 的完整业务流程 →再返回给Client
结合实例:
服务器端用一个线程通过多路复用搞定所有的 IO 操作(包括连接,读、写等),编码简单,清晰明了,但是如果客户端连接数量较多,将无法支撑,前面的 NIO 案例就属于这种模型。
2、方案优缺点分析
-
优点:
模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成
-
缺点:
性能问题
,只有一个线程,无法完全发挥多核 CPU 的性能。Handler 在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈可靠性问题
,线程意外终止,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障
-
使用场景:
客户端的数量有限,业务处理非常快速,比如 Redis 在业务处理的时间复杂度 O(1) 的情况
五、单 Reactor 多线程
1、原理图
Handler将具体的业务处理Worker线程池分层出去,并通过开辟新的线程去完成
2、小结
- Reactor 对象通过 select 监控客户端请求事件, 收到事件后,通过 dispatch 进行分发
- 如果建立连接请求, 则右 Acceptor 通过accept 处理连接请求, 然后创建一个 Handler 对象处理完成连接后的各种事件
- 如果不是连接请求,则由 reactor 分发调用连接对应的 handler 来处理
- handler 只负责响应事件,不做具体的业务处理, 通过 read 读取数据后,会分发给后面的 worker 线程池的某个线程处理业务
- worker 线程池会分配独立线程完成真正的业务,并将结果返回给 handler
- handler 收到响应后,通过 send 将结果返回给 client
3、方案优缺点
-
优点:
- 可以
充分的利用
多核 cpu 的处理能力
- 可以
-
缺点:
-
多线程数据共享和访问比较
复杂
, reactor 处理所有的事件的监听和响应 -
在
单线程运行
, 在高并发场景容易出现性能瓶颈
.
-
六、主从 Reactor 多线程
1、工作原理图
多加了一层派发层并采用新开线程(Reactor子线程,SubReactor),分为了3层,独立开
针对单 Reactor 多线程模型中,Reactor 在单线程中运行,高并发场景下容易成为性能瓶颈,可以让 Reactor 在多线程中运行
2、上图的小结
- Reactor 主线程 MainReactor 对象通过 select 监听连接事件, 收到事件后,通过 Acceptor 处理连接事件
- 当 Acceptor 处理连接事件后,MainReactor 将连接分配给 SubReactor
- subreactor 将连接加入到连接队列进行监听,并创建 handler 进行各种事件处理
- 当有新事件发生时, subreactor 就会调用对应的 handler 处理
- handler 通过 read 读取数据,分发给后面的 worker 线程处理
- worker 线程池分配独立的 worker 线程进行业务处理,并返回结果
- handler 收到响应的结果后,再通过 send 将结果返回给 client
- Reactor 主线程可以对应多个 Reactor 子线程, 即 MainRecator 可以关联多个 SubReactor
3、Scalable IO in Java 对 Multiple Reactors 的原理图解
4、方案优缺点
优点:
-
父线程与子线程的数据交互简单
职责明确
- 父线程只需要接收新连接
- 子线程完成后续的业务处理。
-
父线程与子线程的数据
交互简单
,Reactor 主线程只需要把新连接传给子线程,子线程无需返回数据。
缺点:
编程复杂
度较高
结合实例:
- 这种模型在许多项目中广泛使用,包括 nginx 主从 Reactor 多进程模型,Memcached 主从多线程,Netty 主从多线程模型的支持
七、Reactor 模式小结
1、3种模式用生活案例来理解
- 单 Reactor 单线程
前台接待员和服务员是同一个人,全程为顾客服
- 单 Reactor 多线程
1 个前台接待员,多个服务员,接待员只负责接待
- 主从 Reactor 多线程
多个前台接待员,多个服务生
2、Reactor 模式的优点
响应快
,不必为单个同步时间所阻塞,虽然 Reactor 本身依然是同步的- 可以最大程度的
避免复杂的多线程及同步问题
避免了多线程/进程的切换开销
扩展性好
,可以方便的通过增加 Reactor 实例个数来充分利用 CPU 资源复用性好
,Reactor 模型本身与具体事件处理逻辑无关,具有很高的复用性
八、Netty 模型
1、工作原理-简单版
Netty 主要基于主从 Reactors 多线程模型(如图)做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor
- BossGroup 线程维护 Selector , 只关注 Accecpt
- 当接收到 Accept 事件,获取到对应的 SocketChannel, 封装成 NioscoketChannel 并注册到 Worker 线程(事件循环), 并进行维护
- 当 Worker 线程监听到 selector 中通道发生自己感兴趣的事件后,就进行处理(就由handler), 注意 handler 已经加入到通道
2、工作原理-进阶版
3、工作原理-详细版
- Netty 抽象出两组线程池
- BossGroup 专门负责接收客户端的连接
- WorkerGroup 专门负责网络的读写
- BossGroup 和 WorkerGroup 类型都是 NioEventLoopGroup
- NioEventLoopGroup 相当于一个事件循环组, 这个组中含有多个事件循环 ,每一个事件循环是 NioEventLoop
- NioEventLoop 表示一个不断循环的执行处理任务的线程, 每个 NioEventLoop 都有一个selector , 用于监听绑定在其上的 socket 的网络通讯
- NioEventLoopGroup 可以有多个线程, 即可以含有多个 NioEventLoop
- 每个 Boss NioEventLoop 循环执行的步骤有 3 步
- 轮询 accept 事件
- 处理 accept 事件 , 与 client 建立连接 , 生成 NioScocketChannel , 并将其注册到某个 worker NIOEventLoop 上的 selector
- 处理任务队列的任务 , 即 runAllTasks
- 每个 Worker NIOEventLoop 循环执行的步骤
- 轮询 read, write 事件
- 处理 i/o 事件, 即 read , write 事件,在对应 NioScocketChannel 处理
- 处理任务队列的任务 , 即 runAllTasks
- 每个Worker NIOEventLoop 处理业务时,会使用pipeline(管道), pipeline 中包含了 channel , 即通过pipeline可以获取到对应通道, 管道中维护了很多的 处理器
4、Netty实例-TCP 服务
- 引入netty依赖
<dependency>
<groupId>io.netty</groupId>
<artifactId>netty-all</artifactId>
<version>4.1.20.Final</version>
</dependency>
- NettyClientHandler客户端处理器
/******
@author 阿昌
@create 2021-12-05 21:11
******* 客户端处理器,自定义handler需要继承netty规定好的某个HandlerAdapter适配器才能生效
*/
public class NettyClientHandler extends ChannelInboundHandlerAdapter
//通道就绪就会触发该方法
@Override
public void channelActive(ChannelHandlerContext ctx) throws Exception
System.out.println("client:"+ctx);
ctx.writeAndFlush(Unpooled.copiedBuffer("我是客户端~", CharsetUtil.UTF_8));
//接受服务端返回的消息,当通道有读取事件时就触发
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception
ByteBuf buf = (ByteBuf)msg;
System.out.println("服务端回复的消息:"+buf.toString(CharsetUtil.UTF_8));
System.out.println("服务端地址:"+ctx.channel().remoteAddress());
//异常处理
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception
//关闭通道
cause.printStackTrace();
ctx.channel().close();
- NettyServerHandler服务端处理器
/******
@author 阿昌
@create 2021-12-05 20:47
******* 服务端处理器,自定义handler需要继承netty规定好的某个HandlerAdapter适配器才能生效
*/
public class NettyServerHandler extends ChannelInboundHandlerAdapter
/*
读取数据事件(这里可以读取客户端发送来的消息)
1、ChannelHandlerContext ctx:上下文对象。含有管道pipeline、通道channel、地址等
2、Object msg:客户端发送来的数据
*/
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception
System.out.println("server ctx:"+ctx);
//将msg转为ByteBuffer(这个ByteBuf和nio的ByteBuffer是有区别的)
ByteBuf buf=(ByteBuf)msg;
System.out.println("客户端发送消息是:"+buf.toString(CharsetUtil.UTF_8));
System.out.println("客户端地址为:"+ctx.channel().remoteAddress());
//数据读取完毕事件
@Override
public void channelReadComplete(ChannelHandlerContext ctx) throws Exception
/*
1、writeAndFlush是 write+Flush方法的合并
2、将数据写入缓存并刷新
3、对发送的数据进行编码
*/
ctx.writeAndFlush(Unpooled.copiedBuffer("我是服务端~",CharsetUtil.UTF_8));
//发送异常事件,一般是关闭通道
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception
ctx.channel().close();
- 客户端NettyClient
/******
@author 阿昌
@create 2021-12-05 21:04
*******
*/
public class NettyClient
public static void main(String[] args) throws InterruptedException
//客户端需要一个时间循环组
EventLoopGroup eventExecutors = new NioEventLoopGroup();
try
//创建客户端的启动对象
Bootstrap bootstrap = new Bootstrap();
//设置启动参数
bootstrap.group(eventExecutors)//设置线程组
.channel(NioSocketChannel.class)//设置客户端通道实现类
.handler(new ChannelInitializer<SocketChannel>() //创建一个通道初始化对象
protected void initChannel(SocketChannel socketChannel) throws Exception
socketChannel.pipeline().addLast(new NettyClientHandler());//加入自己的处理器
);
System.out.println("【客户端】准备完毕....");
//指定客户端连接的服务器地址
ChannelFuture cf = bootstrap.connect("127.0.0.1", 6668).sync();
//对关闭通道进行监听
cf.channel().closeFuture().sync();
finally
//优雅关闭
eventExecutors.shutdownGracefully();
- 服务端NettyServer
/******
@author 阿昌
@create 2021-12-05 19:49
******* netty服务器
*/
public class NettyServer
public static void main(String[] args) throws InterruptedException
/*
创建BoosGroup 和 WorkerGroup
说明:
1、创建两个线程组 BoosGroup 和 WorkerGroup
2、 BoosGroup:只处理连接请求
WorkerGroup: 处理和客户端业务处理
3、两个现场组都是自旋
*/
EventLoopGroup boosGroup = new NioEventLoopGroup();
EventLoopGroup workerGroup = new NioEventLoopGroup();
try
//创建服务器端启动的对象,配置启动参数
ServerBootstrap bootstrap = new ServerBootstrap();
//使用链式编程进行配置设置
bootstrap.group(boosGroup,workerGroup)//设置两个线程组
.channel(NioServerSocketChannel.class)//设置服务器使用哪个通道
.option(ChannelOption.SO_BACKLOG,128)//设置线程队列等待连接个数
.childOption(ChannelOption.SO_KEEPALIVE,true)//设置保持活动连接状态
.childHandler(new ChannelInitializer<SocketChannel>() //创建一个通道初始化对象
//给pipeline设置处理器
protected void initChannel(SocketChannel socketChannel) throws Exception
socketChannel.pipeline().addLast(new NettyServerHandler());
);//设置WorkerGroup的EventLoop对应的管道设置处理器
System.out.println("【服务端】准备完毕.......");
//绑定端口并同步处理,生成ChannelFuture对象
//启动服务器
ChannelFuture cf = bootstrap.bind(6668).sync();
//对关闭通道进行监听
cf.channel().closeFuture().sync();
finally
//优雅关闭
boosGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
- 测试
5、任务队列中的 Task 有 3 种典型使用场景
明天继续!!!
以上是关于Day470.Netty概述&Netty高性能架构设计 -netty的主要内容,如果未能解决你的问题,请参考以下文章
Day477&478&479.Netty核心源码 -netty
Day472&473&474.Netty 核心模块组件 -netty
Day475.GoogleProtobuf&Netty编解码器和handler 的调用机制 -netty