CategoryResourceRepost/极客时间专栏/深入浅出gRPC/03 | gRPC 线程模型分析.md
louzefeng d3828a7aee mod
2024-07-11 05:50:32 +00:00

30 KiB
Raw Permalink Blame History

RPC线程模型

1.1 BIO线程模型

在JDK 1.4推出Java NIO之前基于Java的所有Socket通信都采用了同步阻塞模式BIO这种一请求一应答的通信模型简化了上层的应用开发但是在性能和可靠性方面却存在着巨大的瓶颈。

因此在很长一段时间里大型的应用服务器都采用C或者C++语言开发因为它们可以直接使用操作系统提供的异步I/O或者AIO能力。

当并发访问量增大、响应时间延迟增大之后采用Java BIO开发的服务端软件只有通过硬件的不断扩容来满足高并发和低时延。

它极大地增加了企业的成本,并且随着集群规模的不断膨胀,系统的可维护性也面临巨大的挑战,只能通过采购性能更高的硬件服务器来解决问题,这会导致恶性循环。

传统采用BIO的Java Web服务器如下所示典型的如Tomcat的BIO模式

采用该线程模型的服务器调度特点如下:

  • 服务端监听线程Acceptor负责客户端连接的接入每当有新的客户端接入就会创建一个新的I/O线程负责处理Socket
  • 客户端请求消息的读取和应答的发送都有I/O线程负责
  • 除了I/O读写操作默认情况下业务的逻辑处理例如DB操作等也都在I/O线程处理
  • I/O操作采用同步阻塞操作读写没有完成I/O线程会同步阻塞。

BIO线程模型主要存在如下三个问题

  1. **性能问题:**一连接一线程模型导致服务端的并发接入数和系统吞吐量受到极大限制;
  2. **可靠性问题:**由于I/O操作采用同步阻塞模式当网络拥塞或者通信对端处理缓慢会导致I/O线程被挂住阻塞时间无法预测
  3. **可维护性问题:**I/O线程数无法有效控制、资源无法有效共享多线程并发问题系统可维护性差。

为了解决同步阻塞I/O面临的一个链路需要一个线程处理的问题通常会对它的线程模型进行优化后端通过一个线程池来处理多个客户端的请求接入形成客户端个数"M"与线程池最大线程数"N"的比例关系其中M可以远远大于N通过线程池可以灵活的调配线程资源设置线程的最大值防止由于海量并发接入导致线程耗尽它的工作原理如下所示

优化之后的BIO模型采用了线程池实现因此避免了为每个请求都创建一个独立线程造成的线程资源耗尽问题。但是由于它底层的通信依然采用同步阻塞模型阻塞的时间取决于对方I/O线程的处理速度和网络I/O的传输速度。

本质上来讲无法保证生产环境的网络状况和对端的应用程序能足够快如果应用程序依赖对方的处理速度它的可靠性就非常差优化之后的BIO线程模型仍然无法从根本上解决性能线性扩展问题。

1.2 异步非阻塞线程模型

从JDK1.0到JDK1.3Java的I/O类库都非常原始很多UNIX网络编程中的概念或者接口在I/O类库中都没有体现例如Pipe、Channel、Buffer和Selector等。2002年发布JDK1.4时NIO以JSR-51的身份正式随JDK发布。它新增了个java.nio包提供了很多进行异步I/O开发的API和类库主要的类和接口如下

  • 进行异步I/O操作的缓冲区ByteBuffer等
  • 进行异步I/O操作的管道Pipe
  • 进行各种I/O操作异步或者同步的Channel包括ServerSocketChannel和SocketChannel
  • 多种字符集的编码能力和解码能力;
  • 实现非阻塞I/O操作的多路复用器selector
  • 基于流行的Perl实现的正则表达式类库
  • 文件通道FileChannel。

新的NIO类库的提供极大地促进了基于Java的异步非阻塞编程的发展和应用,也诞生了很多优秀的Java NIO框架例如Apache的Mina、以及当前非常流行的Netty。

Java NIO类库的工作原理如下所示

在Java NIO类库中最重要的就是多路复用器Selector它是Java NIO编程的基础熟练地掌握Selector对于掌握NIO编程至关重要。多路复用器提供选择已经就绪的任务的能力。

简单来讲Selector会不断地轮询注册在其上的Channel如果某个Channel上面有新的TCP连接接入、读和写事件这个Channel就处于就绪状态会被Selector轮询出来然后通过SelectionKey可以获取就绪Channel的集合进行后续的I/O操作。

通常一个I/O线程会聚合一个Selector一个Selector可以同时注册N个Channel,这样单个I/O线程就可以同时并发处理多个客户端连接。另外由于I/O操作是非阻塞的因此也不会受限于网络速度和对方端点的处理时延可靠性和效率都得到了很大提升。

典型的NIO线程模型Reactor模式如下所示

1.3 RPC性能三原则

影响RPC框架性能的三个核心要素如下

  1. **I/O模型**用什么样的通道将数据发送给对方BIO、NIO或者AIOIO模型在很大程度上决定了框架的性能
  2. **协议:**采用什么样的通信协议Rest+ JSON或者基于TCP的私有二进制协议协议的选择不同性能模型也不同相比于公有协议内部私有二进制协议的性能通常可以被设计的更优
  3. **线程:**数据报如何读取?读取之后的编解码在哪个线程进行,编解码后的消息如何派发,通信线程模型的不同,对性能的影响也非常大。

在以上三个要素中线程模型对性能的影响非常大。随着硬件性能的提升CPU的核数越来越越多很多服务器标配已经达到32或64核。

通过多线程并发编程可以充分利用多核CPU的处理能力提升系统的处理效率和并发性能。但是如果线程创建或者管理不当频繁发生线程上下文切换或者锁竞争反而会影响系统的性能。

线程模型的优劣直接影响了RPC框架的性能和并发能力它也是大家选型时比较关心的技术细节之一。下面我们一起来分析和学习下gRPC的线程模型。

2. gRPC线程模型分析

gRPC的线程模型主要包括服务端线程模型和客户端线程模型其中服务端线程模型主要包括

  • 服务端监听和客户端接入线程HTTP /2 Acceptor
  • 网络I/O读写线程
  • 服务接口调用线程

客户端线程模型主要包括:

  • 客户端连接线程HTTP/2 Connector
  • 网络I/O读写线程
  • 接口调用线程
  • 响应回调通知线程

2.1 服务端线程模型

gRPC服务端线程模型整体上可以分为两大类

  • 网络通信相关的线程模型基于Netty4.1的线程模型实现
  • 服务接口调用线程模型基于JDK线程池实现

2.1.1 服务端线程模型概述

gRPC服务端线程模型和交互图如下所示

其中HTTP/2服务端创建、HTTP/2请求消息的接入和响应发送都由Netty负责gRPC消息的序列化和反序列化、以及应用服务接口的调用由gRPC的SerializingExecutor线程池负责。

2.1.2 I/O通信线程模型

gRPC的做法是服务端监听线程和I/O线程分离的Reactor多线程模型它的代码如下所示NettyServer类

public void start(ServerListener serverListener) throws IOException {
    listener = checkNotNull(serverListener, "serverListener");
    allocateSharedGroups();
    ServerBootstrap b = new ServerBootstrap();
    b.group(bossGroup, workerGroup);
    b.channel(channelType);
    if (NioServerSocketChannel.class.isAssignableFrom(channelType)) {
      b.option(SO_BACKLOG, 128);
      b.childOption(SO_KEEPALIVE, true);

它的工作原理如下:

流程如下:

**步骤1**业务线程发起创建服务端操作在创建服务端的时候实例化了2个EventLoopGroup1个EventLoopGroup实际就是一个EventLoop线程组负责管理EventLoop的申请和释放。

EventLoopGroup管理的线程数可以通过构造函数设置如果没有设置默认取-Dio.netty.eventLoopThreads如果该系统参数也没有指定则为“可用的CPU内核 * 2”。

bossGroup线程组实际就是Acceptor线程池负责处理客户端的TCP连接请求如果系统只有一个服务端端口需要监听则建议bossGroup线程组线程数设置为1。workerGroup是真正负责I/O读写操作的线程组通过ServerBootstrap的group方法进行设置用于后续的Channel绑定。

**步骤2**服务端Selector轮询监听客户端连接代码示例如下NioEventLoop类

int selectedKeys = selector.select(timeoutMillis);
 selectCnt ++;

**步骤3**如果监听到客户端连接则创建客户端SocketChannel连接从workerGroup中随机选择一个NioEventLoop线程将SocketChannel注册到该线程持有的Selector代码示例如下NioServerSocketChannel类

protected int doReadMessages(List<Object> buf) throws Exception {
        SocketChannel ch = SocketUtils.accept(javaChannel());
        try {
            if (ch != null) {
                buf.add(new NioSocketChannel(this, ch));
                return 1;
            }

**步骤4**通过调用EventLoopGroup的next()获取一个EventLoopNioEventLoop用于处理网络I/O事件。

Netty线程模型的核心是NioEventLoop它的职责如下

  1. 作为服务端Acceptor线程负责处理客户端的请求接入
  2. 作为I/O线程监听网络读操作位负责从SocketChannel中读取报文
  3. 作为I/O线程负责向SocketChannel写入报文发送给对方如果发生写半包会自动注册监听写事件用于后续继续发送半包数据直到数据全部发送完成
  4. 作为定时任务线程,可以执行定时任务,例如链路空闲检测和发送心跳消息等
  5. 作为线程执行器可以执行普通的任务线程RunnableNioEventLoop处理网络I/O操作的相关代码如下
try {
            int readyOps = k.readyOps();
            if ((readyOps & SelectionKey.OP_CONNECT) != 0) {
                int ops = k.interestOps();
                ops &= ~SelectionKey.OP_CONNECT;
                k.interestOps(ops);

                unsafe.finishConnect();
            }
            if ((readyOps & SelectionKey.OP_WRITE) != 0) {
                              ch.unsafe().forceFlush();
            }
            if ((readyOps & (SelectionKey.OP_READ | SelectionKey.OP_ACCEPT)) != 0 || readyOps == 0) {
                unsafe.read();
            }

除了处理I/O操作NioEventLoop也可以执行Runnable和定时任务。NioEventLoop继承SingleThreadEventExecutor这就意味着它实际上是一个线程个数为1的线程池类继承关系如下所示

SingleThreadEventExecutor聚合了JDK的java.util.concurrent.Executor和消息队列Queue自定义提供线程池功能相关代码如下SingleThreadEventExecutor类

private final Queue<Runnable> taskQueue;
    private volatile Thread thread;
    @SuppressWarnings("unused")
    private volatile ThreadProperties threadProperties;
    private final Executor executor;
    private volatile boolean interrupted;


直接调用NioEventLoop的execute(Runnable task)方法即可执行自定义的Task代码示例如下SingleThreadEventExecutor类

public void execute(Runnable task) {
        if (task == null) {
            throw new NullPointerException("task");
        }
        boolean inEventLoop = inEventLoop();
        if (inEventLoop) {
            addTask(task);
        } else {
            startThread();
            addTask(task);
            if (isShutdown() && removeTask(task)) {
                reject();
            }

除了SingleThreadEventExecutorNioEventLoop同时实现了ScheduledExecutorService接口这意味着它也可以执行定时任务相关接口定义如下

为了防止大量Runnable和定时任务执行影响网络I/O的处理效率Netty提供了一个配置项ioRatio用于设置I/O操作和其它任务执行的时间比例默认为50%相关代码示例如下NioEventLoop类

final long ioTime = System.nanoTime() - ioStartTime;
runAllTasks(ioTime * (100 - ioRatio) / ioRatio);

NioEventLoop同时支持I/O操作和Runnable执行的原因如下避免锁竞争例如心跳检测往往需要周期性的执行如果NioEventLoop不支持定时任务执行则用户需要自己创建一个类似ScheduledExecutorService的定时任务线程池或者定时任务线程周期性的发送心跳发送心跳需要网络操作就要跟I/O线程所持有的资源进行交互例如Handler、ByteBuf、NioSocketChannel等这样就会产生锁竞争需要考虑并发安全问题。原理如下

2.1.3. 服务调度线程模型

gRPC服务调度线程主要职责如下

  • 请求消息的反序列化主要包括HTTP/2 Header的反序列化以及将PB(Body)反序列化为请求对象;
  • 服务接口的调用method.invoke(非反射机制)
  • 将响应消息封装成WriteQueue.QueuedCommand写入到Netty Channel中同时对响应Header和Body对象做序列化
    服务端调度的核心是SerializingExecutor它同时实现了JDK的Executor和Runnable接口既是一个线程池同时也是一个Task。
  • SerializingExecutor聚合了JDK的Executor由Executor负责Runnable的执行代码示例如下SerializingExecutor类

    public final class SerializingExecutor implements Executor, Runnable {
      private static final Logger log =
          Logger.getLogger(SerializingExecutor.class.getName());
    private final Executor executor;
      private final Queue<Runnable> runQueue = new ConcurrentLinkedQueue<Runnable>();
    
    

    其中Executor默认使用的是JDK的CachedThreadPool在构建ServerImpl的时候进行初始化代码如下

    当服务端接收到客户端HTTP/2请求消息时由Netty的NioEventLoop线程切换到gRPC的SerializingExecutor进行消息的反序列化、以及服务接口的调用代码示例如下ServerTransportListenerImpl类

    final Context.CancellableContext context = createContext(stream, headers, statsTraceCtx);
          final Executor wrappedExecutor;
          if (executor == directExecutor()) {
            wrappedExecutor = new SerializeReentrantCallsDirectExecutor();
          } else {
            wrappedExecutor = new SerializingExecutor(executor);
          }
          final JumpToApplicationThreadServerStreamListener jumpListener
              = new JumpToApplicationThreadServerStreamListener(wrappedExecutor, stream, context);
          stream.setListener(jumpListener);
          wrappedExecutor.execute(new ContextRunnable(context) {
              @Override
              public void runInContext() {
                ServerStreamListener listener = NOOP_LISTENER;
                try {
                  ServerMethodDefinition<?, ?> method = registry.lookupMethod(methodName);
    ...
    
    

    相关的调用堆栈,示例如下:

    响应消息的发送由SerializingExecutor发起将响应消息头和消息体序列化然后分别封装成SendResponseHeadersCommand和SendGrpcFrameCommand调用Netty NioSocketChannle的write方法发送到Netty的ChannelPipeline中由gRPC的NettyServerHandler拦截之后真正写入到SocketChannel中代码如下所示NettyServerHandler类

    public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise)
          throws Exception {
        if (msg instanceof SendGrpcFrameCommand) {
          sendGrpcFrame(ctx, (SendGrpcFrameCommand) msg, promise);
        } else if (msg instanceof SendResponseHeadersCommand) {
          sendResponseHeaders(ctx, (SendResponseHeadersCommand) msg, promise);
        } else if (msg instanceof CancelServerStreamCommand) {
          cancelStream(ctx, (CancelServerStreamCommand) msg, promise);
        } else if (msg instanceof ForcefulCloseCommand) {
          forcefulClose(ctx, (ForcefulCloseCommand) msg, promise);
        } else {
          AssertionError e =
              new AssertionError("Write called for unexpected type: " + msg.getClass().getName());
          ReferenceCountUtil.release(msg);
    
    

    响应消息体的发送堆栈如下所示:

    Netty I/O线程和服务调度线程的运行分工界面以及切换点如下所示

    事实上在实际服务接口调用过程中NIO线程和服务调用线程切换次数远远超过4次频繁的线程切换对gRPC的性能带来了一定的损耗。

    2.2 客户端线程模型

    gRPC客户端的线程主要分为三类

    1. 业务调用线程
    2. 客户端连接和I/O读写线程
    3. 请求消息业务处理和响应回调线程

    2.2.1 客户端线程模型概述

    gRPC客户端线程模型工作原理如下图所示同步阻塞调用为例

    客户端调用主要涉及的线程包括:

    • 应用线程负责调用gRPC服务端并获取响应其中请求消息的序列化由该线程负责
    • 客户端负载均衡以及Netty Client创建由grpc-default-executor线程池负责
    • HTTP/2客户端链路创建、网络I/O数据的读写由Netty NioEventLoop线程负责
    • 响应消息的反序列化由SerializingExecutor负责与服务端不同的是客户端使用的是ThreadlessExecutor并非JDK线程池
    • SerializingExecutor通过调用responseFuture的set(value)唤醒阻塞的应用线程完成一次RPC调用。

    2.2.2 I/O通信线程模型

    相比于服务端,客户端的线程模型简单一些,它的工作原理如下:

    第1步由grpc-default-executor发起客户端连接示例代码如下NettyClientTransport类

    Bootstrap b = new Bootstrap();
        b.group(eventLoop);
        b.channel(channelType);
        if (NioSocketChannel.class.isAssignableFrom(channelType)) {
          b.option(SO_KEEPALIVE, true);
        }
        for (Map.Entry<ChannelOption<?>, ?> entry : channelOptions.entrySet()) {
          b.option((ChannelOption<Object>) entry.getKey(), entry.getValue());
        }
    
    
    

    相比于服务端客户端只需要创建一个NioEventLoop因为它不需要独立的线程去监听客户端连接也没必要通过一个单独的客户端线程去连接服务端。

    Netty是异步事件驱动的NIO框架它的连接和所有I/O操作都是非阻塞的因此不需要创建单独的连接线程。

    另外客户端使用的work线程组并非通常意义的EventLoopGroup而是一个EventLoop即HTTP/2客户端使用的work线程并非一组线程默认线程数为CPU内核 * 2而是一个EventLoop线程。

    这个其实也很容易理解一个NioEventLoop线程可以同时处理多个HTTP/2客户端连接它是多路复用的对于单个HTTP/2客户端如果默认独占一个work线程组将造成极大的资源浪费同时也可能会导致句柄溢出并发启动大量HTTP/2客户端

    第2步发起连接操作判断连接结果判断连接结果如果没有连接成功则监听连接网络操作位SelectionKey.OP_CONNECT。如果连接成功则调用pipeline().fireChannelActive()将监听位修改为READ。代码如下NioSocketChannel类

    protected boolean doConnect(SocketAddress remoteAddress, SocketAddress localAddress) throws Exception {
            if (localAddress != null) {
                doBind0(localAddress);
            }
            boolean success = false;
            try {
                boolean connected = SocketUtils.connect(javaChannel(), remoteAddress);
                if (!connected) {
                    selectionKey().interestOps(SelectionKey.OP_CONNECT);
                }
                success = true;
                return connected;
    
    

    第3步由NioEventLoop的多路复用器轮询连接操作结果判断连接结果如果或连接成功重新设置监听位为READAbstractNioChannel类

    protected void doBeginRead() throws Exception {
            final SelectionKey selectionKey = this.selectionKey;
            if (!selectionKey.isValid()) {
                return;
            }
            readPending = true;
            final int interestOps = selectionKey.interestOps();
            if ((interestOps & readInterestOp) == 0) {
                selectionKey.interestOps(interestOps | readInterestOp);
            }
    
    

    第4步由NioEventLoop线程负责I/O读写同服务端。

    2.2.3 客户端调用线程模型

    客户端调用线程交互流程如下所示:

    请求消息的发送由用户线程发起相关代码示例如下GreeterBlockingStub类

    public io.grpc.examples.helloworld.HelloReply sayHello(io.grpc.examples.helloworld.HelloRequest request) {
          return blockingUnaryCall(
              getChannel(), METHOD_SAY_HELLO, getCallOptions(), request);
        }
    
    

    HTTP/2 Header的创建、以及请求参数反序列化为Protobuf均由用户线程负责完成相关代码示例如下ClientCallImpl类

    public void sendMessage(ReqT message) {
        Preconditions.checkState(stream != null, "Not started");
        Preconditions.checkState(!cancelCalled, "call was cancelled");
        Preconditions.checkState(!halfCloseCalled, "call was half-closed");
        try {
          InputStream messageIs = method.streamRequest(message);
          stream.writeMessage(messageIs);
    ...
    
    

    用户线程将请求消息封装成CreateStreamCommand和SendGrpcFrameCommand发送到Netty的ChannelPipeline中然后返回完成线程切换。后续操作由Netty NIO线程负责相关代码示例如下NettyClientHandler类

    public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise)
              throws Exception {
        if (msg instanceof CreateStreamCommand) {
          createStream((CreateStreamCommand) msg, promise);
        } else if (msg instanceof SendGrpcFrameCommand) {
          sendGrpcFrame(ctx, (SendGrpcFrameCommand) msg, promise);
        } else if (msg instanceof CancelClientStreamCommand) {
          cancelStream(ctx, (CancelClientStreamCommand) msg, promise);
        } else if (msg instanceof SendPingCommand) {
          sendPingFrame(ctx, (SendPingCommand) msg, promise);
        } else if (msg instanceof GracefulCloseCommand) {
          gracefulClose(ctx, (GracefulCloseCommand) msg, promise);
        } else if (msg instanceof ForcefulCloseCommand) {
          forcefulClose(ctx, (ForcefulCloseCommand) msg, promise);
        } else if (msg == NOOP_MESSAGE) {
          ctx.write(Unpooled.EMPTY_BUFFER, promise);
    ...
    
    

    客户端响应消息的接收由gRPC的NettyClientHandler负责相关代码如下所示

    接收到HTTP/2响应之后Netty将消息投递到SerializingExecutor由SerializingExecutor的ThreadlessExecutor负责响应的反序列化以及responseFuture的设值相关代码示例如下UnaryStreamToFuture类

    public void onClose(Status status, Metadata trailers) {
          if (status.isOk()) {
            if (value == null) {
              // No value received so mark the future as an error
              responseFuture.setException(
                  Status.INTERNAL.withDescription("No value received for unary call")
                      .asRuntimeException(trailers));
            }
            responseFuture.set(value);
          } else {
            responseFuture.setException(status.asRuntimeException(trailers));
          }
    
    

    线程模型总结

    3.1 优点

    3.1.1 Netty线程模型

    Netty4之后对线程模型进行了优化通过串行化的设计避免线程竞争当系统在运行过程中如果频繁的进行线程上下文切换会带来额外的性能损耗。

    多线程并发执行某个业务流程,业务开发者还需要时刻对线程安全保持警惕,哪些数据可能会被并发修改,如何保护?这不仅降低了开发效率,也会带来额外的性能损耗。

    为了解决上述问题Netty采用了串行化设计理念从消息的读取、编码以及后续Handler的执行始终都由I/O线程NioEventLoop负责这就意外着整个流程不会进行线程上下文的切换数据也不会面临被并发修改的风险对于用户而言甚至不需要了解Netty的线程细节这确实是个非常好的设计理念它的工作原理图如下

    一个NioEventLoop聚合了一个多路复用器Selector因此可以处理成百上千的客户端连接Netty的处理策略是每当有一个新的客户端接入则从NioEventLoop线程组中顺序获取一个可用的NioEventLoop当到达数组上限之后重新返回到0通过这种方式可以基本保证各个NioEventLoop的负载均衡。一个客户端连接只注册到一个NioEventLoop上这样就避免了多个I/O线程去并发操作它。

    Netty通过串行化设计理念降低了用户的开发难度提升了处理性能。利用线程组实现了多个串行化线程水平并行执行线程之间并没有交集这样既可以充分利用多核提升并行处理能力同时避免了线程上下文的切换和并发保护带来的额外性能损耗。

    Netty 3的I/O事件处理流程如下

    Netty 4的I/O消息处理流程如下所示

    Netty 4修改了Netty 3的线程模型在Netty 3的时候upstream是在I/O线程里执行的而downstream是在业务线程里执行。

    当Netty从网络读取一个数据报投递给业务handler的时候handler是在I/O线程里执行而当我们在业务线程中调用write和writeAndFlush向网络发送消息的时候handler是在业务线程里执行直到最后一个Header handler将消息写入到发送队列中业务线程才返回。

    Netty4修改了这一模型在Netty 4里inbound(对应Netty 3的upstream)和outbound(对应Netty 3的downstream)都是在NioEventLoop(I/O线程)中执行。

    当我们在业务线程里通过ChannelHandlerContext.write发送消息的时候Netty 4在将消息发送事件调度到ChannelPipeline的时候首先将待发送的消息封装成一个Task然后放到NioEventLoop的任务队列中由NioEventLoop线程异步执行。

    后续所有handler的调度和执行包括消息的发送、I/O事件的通知都由NioEventLoop线程负责处理。

    3.1.2 gRPC线程模型

    消息的序列化和反序列化均由gRPC线程负责而没有在Netty的Handler中做CodeC原因如下Netty4优化了线程模型所有业务Handler都由Netty的I/O线程负责通过串行化的方式消除锁竞争原理如下所示

    如果大量的Handler都在Netty I/O线程中执行一旦某些Handler执行比较耗时则可能会反向影响I/O操作的执行像序列化和反序列化操作都是CPU密集型操作更适合在业务应用线程池中执行提升并发处理能力。因此gRPC并没有在I/O线程中做消息的序列化和反序列化。

    3.2 改进点思考

    3.2.1 时间可控的接口调用直接在I/O线程上处理

    gRPC采用的是网络I/O线程和业务调用线程分离的策略大部分场景下该策略是最优的。但是对于那些接口逻辑非常简单执行时间很短不需要与外部网元交互、访问数据库和磁盘也不需要等待其它资源的则建议接口调用直接在Netty /O线程中执行不需要再投递到后端的服务线程池。避免线程上下文切换同时也消除了线程并发问题。

    例如提供配置项或者接口系统默认将消息投递到后端服务调度线程但是也支持短路策略直接在Netty的NioEventLoop中执行消息的序列化和反序列化、以及服务接口调用。

    3.2.2 减少锁竞争

    当前gRPC的线程切换策略如下

    优化之后的gRPC线程切换策略

    通过线程绑定技术例如采用一致性hash做映射,将Netty的I/O线程与后端的服务调度线程做绑定1个I/O线程绑定一个或者多个服务调用线程降低锁竞争提升性能。

    3.2.3 关键点总结

    RPC调用涉及的主要队列如下

    • Netty的消息发送队列客户端和服务端都涉及
    • gRPC SerializingExecutor的消息队列JDK的BlockingQueue
    • gRPC消息发送任务队列WriteQueue。

    源代码下载地址:

    链接: https://github.com/geektime-geekbang/gRPC_LLF/tree/master