百度百科描述
Netty是由JBOSS提供的一个java开源框架,现为 Github上的独立项目。Netty提供异步的、事件驱动的网络应用程序框架和工具,用以快速开发高性能、高可靠性的网络服务器和客户端程序。
也就是说,Netty 是一个基于NIO的客户、服务器端的编程框架,使用Netty 可以确保你快速和简单的开发出一个网络应用,例如实现了某种协议的客户、服务端应用。Netty 相当于简化和流线化了网络应用的编程开发过程,例如:基于 TCP 和 UDP 的 socket 服务开发。
如上摘录自百度百科的描述。
Netty 算是目前最为主流的 NIO 框架了,目前我们也在用 NIO。在 Netty 之前还有另外一个 NIO 框架—Mina,Mina 算是早起的作品,Netty 的基础架构跟Mina非常相似,使用时的思想也差不多,两者还有一些微妙的关系,类似于log4j 跟 logback,Netty 和 Mina 均出自 Trustin Lee 之手。
关于Mina跟Netty的区别不是本文重点,我们继续回到Netty上。
需求场景描述
完成对红酒窖的室内温度采集及监控功能。由本地应用程序+温度传感器定时采集室内温度上报至服务器,如果温度 >20 °C 则由服务器下发重启空调指令,如果本地应用长时间不上传温度给服务器,则给户主手机发送一条预警短信。
需求是瞎编的,但分析还是要分析的,在没有接触socker网络编程之前我们可能会这么做:你本地写一个定时器,然后将采集到的温度数据调一下服务器上的某个接口,服务器拿到数据判断一下,如果过高则返回一个带有重启空调的字段,至于本地断线的情况,在数据库维护一个时间字段,如果长时间没有被更新则调用短信发送接口。
这样分析起来,感觉也没啥问题,就是觉得怪怪的,也不能说不行,就是本地设备多了对服务器负载是个问题。
咱先不采用这种方式,上边描述的场景主要是想模拟双方通信,实现双全工操作「客户端发送数据给服务端,服务端下发指令给客户端」,一提到双方通信,我们首先先到的就是Socket吧,来吧,简单回顾一下Socker通信。
服务端
/**
* 服务端
*/
public class Server {
public static void main(String[] args) {
InputStreamReader isr;
BufferedReader br;
OutputStreamWriter osw;
BufferedWriter bw;
String str;
Scanner in = new Scanner(System.in);
try {
/* 在本机的 8899 端口开放Server */
ServerSocket server = new ServerSocket(8899);
/* 只要产生连接,socket便可以代表所连接的那个物体,同时这个server.accept()只有产生了连接才会进行下一步操作。*/
Socket socket = server.accept();
/* 输出连接者的IP。*/
System.out.println(socket.getInetAddress());
System.out.println("建立了一个连接!");
while (true) {
isr = new InputStreamReader(socket.getInputStream());
br = new BufferedReader(isr);
System.out.println("客户端回复:" + br.readLine());
osw = new OutputStreamWriter(socket.getOutputStream());
bw = new BufferedWriter(osw);
System.out.print("服务端回复:");
str = in.nextLine();
bw.write(str + "\n");
bw.flush();
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
简单看一下 Server 端流程,首先创建了一个ServerSocket
来监听 8899 端口,然后调用阻塞方法 accept();
获取新的连接,当获取到新的连接之后,然后进入了while循环体,从该连接中读取数据,读取数据是以字节流的方式。
客户端
public class Client {
public static void main(String[] args) {
InputStreamReader isr;
BufferedReader br;
OutputStreamWriter osw;
BufferedWriter bw;
String str;
Scanner in = new Scanner(System.in);
try {
Socket socket = new Socket("127.0.0.1", 8899);
System.out.println("成功连接服务器");
while (true) {
osw = new OutputStreamWriter(socket.getOutputStream());
bw = new BufferedWriter(osw);
System.out.print("客户端发送:");
str = in.nextLine();
bw.write(str + "\n");
bw.flush();
isr = new InputStreamReader(socket.getInputStream());
br = new BufferedReader(isr);
System.out.println("服务端回复:" + br.readLine());
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
客户端连接上服务端 8899 端口之后,进入 while 循环体,从连接中读取数据,如下是效果图:
上方代码为了省事直接在主线程操作了,但即便是将代码移植到子线程中处理,还是存在大量问题,尤其是 while 死循环。
如果将代码放在子线程完成,那么一个连接需要一个线程来维护,一个线程包含一个死循环,一万个线程就包含一万个死循环.... 再就是这些 while 循环并不是每一个都能读出数据来的,所以就会造成资源浪费,消耗性能。
总之,Socket 就是典型的传统 IO 模型操作,IO 读写是面向流的,一次性只能从流中读取一个或者多个字节,并且读完之后流无法再读取,你需要自己缓存数据。 而 NIO 的读写是面向 Buffer 的,你可以随意读取里面任何一个字节数据,不需要你自己缓存数据,这一切只需要移动读写指针即可,关于 IO 与 NIO 的区别请移步:NIO与IO的区别
Netty实现双向通信
既然是写netty,自然是要拿netty来实现上方红酒窖的案例了,注:简单的demo,这次咱先实现双向通信,后续再根据这个系列不断完善,今天就当入个门了。
开发环境
- IDEA
- maven
- netty版本:4.1.6
首先导入如下 Maven 依赖:
io.netty
netty-all
4.1.6.Final
服务端:
import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.nio.NioServerSocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
public class NettyServer {
private static NioEventLoopGroup bossGroup = new NioEventLoopGroup();
private static NioEventLoopGroup workerGroup = new NioEventLoopGroup();
public static void main(String[] args) {
ServerBootstrap serverBootstrap = new ServerBootstrap();
serverBootstrap
.group(bossGroup, workerGroup)
// 指定Channel
.channel(NioServerSocketChannel.class)
//服务端可连接队列数,对应TCP/IP协议listen函数中backlog参数
.option(ChannelOption.SO_BACKLOG, 1024)
//设置TCP长连接,一般如果两个小时内没有数据的通信时,TCP会自动发送一个活动探测数据报文
.childOption(ChannelOption.SO_KEEPALIVE, true)
//将小的数据包包装成更大的帧进行传送,提高网络的负载
.childOption(ChannelOption.TCP_NODELAY, true)
.childHandler(new ChannelInitializer() {
@Override
protected void initChannel(NioSocketChannel ch) {
ch.pipeline().addLast(new NettyServerHandler());
}
});
serverBootstrap.bind(8070);
}
@PreDestroy
public void destory() throws InterruptedException {
bossGroup.shutdownGracefully().sync();
workerGroup.shutdownGracefully().sync();
}
}
简单说一下,首先创建了两个NioEventLoopGroup
对象,我们可以把它看做传统IO模型中的两大线程组,bossGroup
主要用来负责创建新连接「监听端口,接收新连接的线程组」,workerGroup
主要用于读取数据以及业务逻辑处理「处理每一条连接的数据读写的线程组」,再生动一点就是:一个是对外的销售员,一个是负责单子落地的工人。
然后我们创建了ServerBootstrap
,这个类是用来引导我们进行服务端的启动工作,接收两个 NioEventLoopGroup 对象,把干活的两个安排的明明白白。
通过.channel(NioServerSocketChannel.class)
来指定 IO 模型,NioServerSocketChannel.class
表示指定的是 NIO,可供的 IO模型 选择无非就 NIO,BIO,BIO肯定是不能选择的了。
通过.childOption()
可以给每条连接设置一些TCP底层相关的属性,比如上面,我们设置了两种TCP属性,其中
ChannelOption.SO_KEEPALIVE
表示是否开启TCP底层心跳机制,true为开启ChannelOption.TCP_NODELAY
表示是否开启Nagle算法,true表示关闭,false表示开启,通俗地说,如果要求高实时性,有数据发送时就马上发送,就关闭,如果需要减少发送次数减少网络交互,就开启。
接着,我们调用childHandler()
方法,给这个引导类创建一个ChannelInitializer
,这里主要就是定义后续每条连接的数据读写,业务处理逻辑,不理解没关系,在后面我们会详细分析。ChannelInitializer
这个类中,我们注意到有一个泛型参数NioSocketChannel
,这个类呢,就是 Netty 对 NIO 类型的连接的抽象,而我们前面NioServerSocketChannel
也是对 NIO 类型的连接的抽象,NioServerSocketChannel
和NioSocketChannel
的概念可以和 BIO 编程模型中的ServerSocket
以及Socket
两个概念对应上。还没完,我们需要在ChannelInitializer
中的initChannel()
方法里面给客户端添加一个逻辑处理器,这个处理器的作用就是负责向服务端写数据,也就是代码中的如下部分:
@Override
protected void initChannel(NioSocketChannel ch) {
ch.pipeline().addLast(new NettyServerHandler());
}
我们简单看一下这段代码,其中ch.pipeline()
返回的是和这条连接相关的逻辑处理链,采用了责任链模式,类似于之前文章中提到的Spring Security过滤器链一样,这里不理解没关系,后面再细说。
然后再调用 addLast()
方法 添加一个逻辑处理器,这个逻辑处理器为的就是在客户端建立连接成功之后,向服务端写数据,下面是这个逻辑处理器相关的代码:
import io.netty.buffer.ByteBuf;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
import java.nio.charset.Charset;
import java.util.Date;
public class NettyServerHandler extends ChannelInboundHandlerAdapter {
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) {
// 1. 获取数据
ByteBuf byteBuf = (ByteBuf) msg;
System.out.println(new Date() + ": 服务端读到数据 -> " + byteBuf.toString(Charset.forName("utf-8")));
System.out.println(new Date() + ": 服务端写出数据");
// 2. 写数据
ByteBuf out = getByteBuf(ctx);
ctx.channel().writeAndFlush(out);
}
private ByteBuf getByteBuf(ChannelHandlerContext ctx) {
byte[] bytes = "我是发送给客户端的数据:请重启冰箱!".getBytes(Charset.forName("utf-8"));
ByteBuf buffer = ctx.alloc().buffer();
buffer.writeBytes(bytes);
return buffer;
}
}
继续如上这段代码,这个逻辑处理器继承自 ChannelInboundHandlerAdapter
,然后覆盖了 channelRead()
方法,这个方法在接收到客户端发来的数据之后被回调。
这里的 msg
参数指的就是 Netty 里面数据读写的载体,然后需要我们强转一下为ByteBuf
类型,然后调用 byteBuf.toString()
就能够拿到我们客户端发过来的字符串数据。
ok,至此服务端创建完了,我们再看客户端。
客户端
import io.netty.bootstrap.Bootstrap;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
import io.netty.handler.codec.string.StringDecoder;
import io.netty.handler.codec.string.StringEncoder;
import io.netty.handler.timeout.IdleStateHandler;
import java.util.Date;
import java.util.concurrent.TimeUnit;
public class NettyClient {
private static String host = "127.0.0.1";
private static int MAX_RETRY = 5;
public static void main(String[] args) {
NioEventLoopGroup workerGroup = new NioEventLoopGroup();
Bootstrap bootstrap = new Bootstrap();
bootstrap
// 1.指定线程模型
.group(workerGroup)
// 2.指定 IO 类型为 NIO
.channel(NioSocketChannel.class)
.option(ChannelOption.SO_KEEPALIVE, true)
.option(ChannelOption.TCP_NODELAY, true)
// 3.IO 处理逻辑
.handler(new ChannelInitializer() {
@Override
public void initChannel(SocketChannel ch) {
ch.pipeline()
.addLast(new IdleStateHandler(0, 10, 0))
.addLast(new StringDecoder())
.addLast(new StringEncoder())
.addLast(new NettyClientHandler());
}
});
// 4.建立连接
bootstrap.connect(host, 8070).addListener(future -> {
if (future.isSuccess()) {
System.out.println("连接成功!");
} else {
System.err.println("连接失败!");
connect(bootstrap, host, 80, MAX_RETRY);
}
});
}
/**
* 用于失败重连
*/
private static void connect(Bootstrap bootstrap, String host, int port, int retry) {
bootstrap.connect(host, port).addListener(future -> {
if (future.isSuccess()) {
System.out.println("连接成功!");
} else if (retry == 0) {
System.err.println("重试次数已用完,放弃连接!");
} else {
// 第几次重连
int order = (MAX_RETRY - retry) + 1;
// 本次重连的间隔
int delay = 1 << order;
System.err.println(new Date() + ": 连接失败,第" + order + "次重连……");
bootstrap.config().group().schedule(() -> connect(bootstrap, host, port, retry - 1), delay, TimeUnit
.SECONDS);
}
});
}
}
我们可以看到客户端的引导类不再是ServerBootstrap
了,而是换成了Bootstrap
,这个类负责客户端以及连接服务端,跟服务端属性大差不差,channel、option、handle等,然后同样指定了IO模型,同时还增加了连接监听 bootstrap.connect(host, 8070).addListener
,其中future.isSuccess()
属性值表示了连接结果,如果连接失败则跳入 connect
进行重连,重连尝试5次之后不再进行尝试,这块我们后面文章再细讲「其中包含客户端、服务端的长连接,断线重试等」,我们先来看看客户端指定的业务处理类:NettyClientHandler
import io.netty.buffer.ByteBuf;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
import java.nio.charset.Charset;
import java.util.Date;
import java.util.Random;
public class NettyClientHandler extends ChannelInboundHandlerAdapter {
@Override
public void channelActive(ChannelHandlerContext ctx) {
System.out.println(new Date() + ": 客户端写出数据");
// 1. 获取数据
ByteBuf buffer = getByteBuf(ctx);
// 2. 写数据
ctx.channel().writeAndFlush(buffer);
}
/**
* 数据解析
*/
private ByteBuf getByteBuf(ChannelHandlerContext ctx) {
// 1. 获取二进制抽象 ByteBuf
ByteBuf buffer = ctx.alloc().buffer();
Random random = new Random();
double value = random.nextDouble() * 14 + 8;
String temp = "获取室内温度:" + value;
// 2. 准备数据,指定字符串的字符集为 utf-8
byte[] bytes = temp.getBytes(Charset.forName("utf-8"));
// 3. 填充数据到 ByteBuf
buffer.writeBytes(bytes);
return buffer;
}
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) {
System.out.println(new Date() + ": 客户端读到数据 -> " + msg.toString());
}
}
这个逻辑处理器同样继承自 ChannelInboundHandlerAdapter
,不同于服务端,客户端逻辑处理器这次使用到了 channelActive()
方法,这个方法会在客户端连接建立成功之后被调用,所以我们在这个方法里完成写数据的操作「读取室内温度」。
我们简单看一下这个channelActive()
方法,首先获取传递的 ByteBuf
对象,这个对象怎么来的呢,我们进入 getByteBuf()
方法,我们可以看到通过调用ctx.alloc()
获取到一个 ByteBuf
,然后我们把字符串的二进制数据填充进了 ByteBuf
,这样我们就获取到了 Netty 需要的一个数据格式,最后我们调用 ctx.channel().writeAndFlush()
把数据写到服务端,至此整个客户端的写操作就完成了。
接下来就是读数据量,channelRead()
方法,这个方法我们在服务端代码中已经了解过了就不再阐述了。
测试服务端客户端代码
首先运行服务端 main()
方法,然后再运行客户端 main()
方法,执行效果如下:
客户端
服务端
至此,通过这个小demo,客户端与服务端可以完成双向通信了。还不急着技术文章,但毕竟是局域网吗,如果服务端的代码部署在外网服务端效果会怎样呢?
测试服务端在外网服务器
我们把服务端代码部署在外网环境中试一下看看效果会怎样。
首先我们修改一下客户端的host地址为外网ip地址,然后本地起一下客户端试试:
我们可以看到返回结果没问题,那说明服务端也是没问题的:
至此,外网服务端与局域网客户端的双向通信时没问题了,测试具体细节就不展示了,后面章节我会一步一步将代码迁移到SpringBoot Web项目中的,但是眼下这代码还是有点问题,我们先在本地继续完善一下。
最新红酒窖进度请查看:https://www.cnblogs.com/niceyoo/category/1802223.html
我创建了一个java相关的公众号,用来记录自己的学习之路,感兴趣的小伙伴可以关注一下:niceyoo