dubbo

duboo

一、SOP前述

1、垂直架构:

根据业务把项目垂直切割成多个项目

​ 优点:

​ 系统拆分,流量分担,解决并发问题

​ 不同系统进行优化

​ 水平扩展、负载均衡、容错提高

​ 系统独立,互不影响、迭代下频率高

​ 缺点:

​ 服务系统之间接口调用硬编码

​ 搭建集群之后,实现负载均衡比较复杂

​ 服务系统接口调用监控不到位 调用方式不统一

​ 数据库资源浪费,充斥慢查询,主从同步延迟大

2、分布式sop:

​ 即面向服务的架构 。它是在垂直划分的基础上,将每个项目 拆分出多个具备松耦合的服务

duboo核心功能

​ 接口的远程方法调用,

​ 智能容错和负载均衡,

​ 服务自动注册和发 现。

分层

应用层:

​ 距离用户最近的一层 , 使用tomcat 作为web容器 接收用户请求 ,使 用下游的dubbo提供的接口来返回数据 并且该层禁止访问数据库

业务服务层:

​ 根据具体的业务场景 演变而来的模块

基础业务层:

基础服务层:

​ 这一层 是与业务无关的模块 是一些通用的服务

存储层:

分级:

​ 按照业务性质分层 同一层的业务也要做好分级 依据业务的重要性进行分级 按照二八定律 网站80%的流量 都在核心功能上面 要优先保证核心业务的稳定。

隔离:

​ 不同性质 不同重要性的业务做好隔离 包括 业务 缓存 DB 中间件 都要做好隔离 比如 核 心业务的数据库 要和活动相关的数据库隔离

调用 :

​ 总体上调用要单向 可以跨层调用 但不能出现逆向调用

优点

​ 1、服务以接口为粒度,为开发者屏蔽远程调用底层细节 使用Dubbo 面向接口远程方法调用 ,屏蔽了底层调用细节

​ 2、业务分层以后架构更加清晰 并且每个业务模块职责单一 扩展性更强

​ 3、数据隔离,权限回收,数据访问都通过接口 让系统更加稳定 安全服务应用本身无状态化 这里的无状态化指的是应用本身不做内存级缓存 而是把数据存入 db

​ 4、服务责任易确定 每个服务可以确定责任人 这样更容易保证服务质量和稳定

缺点

​ 1、粒度控制复杂 如果没有控制好服务的粒度 服务的模块就会越来越多 就会引发 超时 分布 式事务等问题

​ 2、服务接口数量不宜控制 容易引发接口爆炸 所以服务接口建议以业务场景进行单位划分 并对 相近的业务做抽象 防止接口爆炸

​ 3、版本升级兼容困难 尽量不要删除方法 字段 枚举类型的新增字段也可能不兼容

​ 4、调用链路长 服务质量不可监控 调用链路变长 下游抖动可能会影响到上游业务 最终形成连 锁反应 服务质量不稳定 同时链路的变成使得服务质量的监控变得困难

3、微服务架构

微服务是在SOA上做的升华 , 粒度更加细致,微服务架构强调的一个重点是“业务需要彻底的组件化和服

务化”。

二、duboo

#### 1、 服务治理 

​ 服务治理指的是用来管理SOA的采用和实现的过程。

dubbo_第1张图片

Provider 暴露服务的服务提供方
Consumer 调用远程服务的服务消费方
Registry 服务注册与发现的注册中心
Monitor 统计服务的调用次数和调用时间的监控中心
Container 服务运行容器 负责启动 加载 运行服务提供者

调用关系说明:

虚线 代表异步调用 实线代表同步访问

蓝色虚线 是在启动时完成的功能

红色虚线 是程序运行中执行的功能

2、服务注册中心Zookeeper

3、 实战案例介绍

程序实现分为以下几步骤:

  1. 建立maven工程 并且 创建API模块: 用于规范双方接口协定
  2. 提供provider模块,引入API模块,并且对其中的服务进行实现。将其注册到注册中心上,对外来

统一提供服务。

  1. 提供consumer模块,引入API模块,并且引入与提供者相同的注册中心。再进行服务调用。

主工程(依赖)


<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0modelVersion>

    <groupId>com.lagougroupId>
    <artifactId>demo-baseartifactId>
    <packaging>pompackaging>
    <version>1.0-SNAPSHOTversion>
    <modules>
    //引入的项目
        <module>service-apimodule>
        <module>service-providermodule>
    modules>
    <properties>
    //这里冲突版本 注意和JDK版本
        <dubbo.version>2.7.1dubbo.version>
    properties>

    <dependencyManagement>
        <dependencies>
            <dependency>
                <groupId>org.apache.dubbogroupId>
                <artifactId>dubboartifactId>
                <version>${dubbo.version}version>
            dependency>
            <dependency>
                <groupId>org.apache.dubbogroupId>
                <artifactId>dubbo-commonartifactId>
                <version>${dubbo.version}version>
            dependency>
            <dependency>
                <groupId>org.apache.dubbogroupId>
                <artifactId>dubbo-registry-zookeeperartifactId>
                <version>${dubbo.version}version>
                <exclusions>
                    <exclusion>
                        <groupId>org.apache.dubbogroupId>
                        <artifactId>dubbo-remoting-apiartifactId>
                    exclusion>
                    <exclusion>
                        <groupId>org.apache.dubbogroupId>
                        <artifactId>dubbo-commonartifactId>
                    exclusion>
                exclusions>
            dependency>
            <dependency>
                <groupId>org.apache.dubbogroupId>
                <artifactId>dubbo-registry-nacosartifactId>
                <version>${dubbo.version}version>
            dependency>
            <dependency>
                <groupId>org.apache.dubbogroupId>
                <artifactId>dubbo-rpc-dubboartifactId>
                <version>${dubbo.version}version>
                <exclusions>
                    <exclusion>
                        <groupId>org.apache.dubbogroupId>
                        <artifactId>dubbo-remoting-apiartifactId>
                    exclusion>
                    <exclusion>
                        <groupId>org.apache.dubbogroupId>
                        <artifactId>dubbo-commonartifactId>
                    exclusion>
                exclusions>
            dependency>
            <dependency>
                <groupId>org.apache.dubbogroupId>
                <artifactId>dubbo-remoting-netty4artifactId>
                <version>${dubbo.version}version>
                <exclusions>
                    <exclusion>
                        <groupId>org.apache.dubbogroupId>
                        <artifactId>dubbo-remoting-apiartifactId>
                    exclusion>
                exclusions>
            dependency>
            <dependency>
                <groupId>org.apache.dubbogroupId>
                <artifactId>dubbo-serialization-hessian2artifactId>
                <version>${dubbo.version}version>
                <exclusions>
                    <exclusion>
                        <groupId>org.apache.dubbogroupId>
                        <artifactId>dubbo-commonartifactId>
                    exclusion>
                exclusions>
            dependency>
        dependencies>
    dependencyManagement>

    <dependencies>
        
        <dependency>
            <groupId>log4jgroupId>
            <artifactId>log4jartifactId>
            <version>1.2.16version>
        dependency>
        <dependency>
            <groupId>org.slf4jgroupId>
            <artifactId>slf4j-apiartifactId>
            <version>1.7.5version>
        dependency>
        <dependency>
            <groupId>org.slf4jgroupId>
            <artifactId>slf4j-log4j12artifactId>
            <version>1.7.5version>
        dependency>

        
        <dependency>
            <groupId>com.alibabagroupId>
            <artifactId>fastjsonartifactId>
            <version>1.2.62version>
        dependency>
    dependencies>


    <build>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.pluginsgroupId>
                <artifactId>maven-compiler-pluginartifactId>
                <version>3.3version>
                <configuration>
                    <source>1.8source>
                    <target>1.8target>
                configuration>
            plugin>
        plugins>
    build>

project>

api项目依赖

  <dependencies>
        <dependency>
            <groupId>org.apache.dubbogroupId>
            <artifactId>dubboartifactId>
        dependency>
    dependencies>

service-provider 项目依赖

<dependencies>
        <dependency>//引入服务的API
            <groupId>com.lagougroupId>
            <artifactId>service-apiartifactId>
            <version>1.0-SNAPSHOTversion>
        dependency>
        <dependency>
            <groupId>org.apache.dubbogroupId>
            <artifactId>dubboartifactId>
        dependency>
        <dependency>
            <groupId>org.apache.dubbogroupId>
            <artifactId>dubbo-registry-zookeeperartifactId>
        dependency>
        <dependency>
            <groupId>org.apache.dubbogroupId>
            <artifactId>dubbo-rpc-dubboartifactId>
        dependency>
        <dependency>
            <groupId>org.apache.dubbogroupId>
            <artifactId>dubbo-remoting-netty4artifactId>
        dependency>
        <dependency>
            <groupId>org.apache.dubbogroupId>
            <artifactId>dubbo-serialization-hessian2artifactId>
        dependency>
    dependencies>

服务提供者演示

dubbo.application.name=service-provider
dubbo.protocol.name=dubbo
dubbo.protocol.port=20889

代码:

public class DubboPureMain {
    public static void main(String[] args) throws  Exception{
        AnnotationConfigApplicationContext context = new AnnotationConfigApplicationContext(ProviderConfiguration.class);
        context.start();
        System.in.read();//阻止住进程结束
    }
    
    @Configuration
    @EnableDubbo(scanBasePackages = "com.lagou.service.Impl")
    @PropertySource("classpath:/dubbo-provider.properties")
    static  class  ProviderConfiguration{//配置类
        @Bean
        public RegistryConfig   registryConfig(){//注册中心
            RegistryConfig  registryConfig  = new RegistryConfig();
            registryConfig.setAddress("zookeeper://127.0.0.1:2181?timeout=10000");
            //registryConfig.setTimeout(10000);
            return   registryConfig;
        }
    }

}

sonsumer 项目

dubbo.application.name=service-consumer
dubbo.registry.address=zookeeper://127.0.0.1:2181
dubbo.consumer.timeout=4000
@Component //spring容器管理
public class ConsumerComponet {
    @Reference //springboot 引入
    HellowService hellowService;
    public String  say(String name){
        return  hellowService.say(name);
    }
}

public class ConsumerMain {
    public static void main(String[] args) throws  Exception {
        System.out.println("-------------");
        AnnotationConfigApplicationContext context = new AnnotationConfigApplicationContext(ConsumerConfiguration.class);
        context.start();
        // 获取消费者组件
        ConsumerComponet service = context.getBean(ConsumerComponet.class);
        while(true){
            System.in.read();
            String  hello = service.say("world");
            System.out.println("result:"+hello);
        }
    }
    @Configuration
    @PropertySource("classpath:/dubbo-consumer.properties")
    @ComponentScan(basePackages = "com.lagou.bean")
    @EnableDubbo
    static  class  ConsumerConfiguration{

    }
}

4、dubbo管理控制台dubbo-admin

主要包含:

​ 服务管理 、 路由规则、动态配置、服务降级、访问控制、权重调整、负载均衡等管理功能

安装步骤

1.从git 上下载项目 https://github.com/apache/dubbo-admin 
2.修改项目下的dubbo.properties文件 
注意dubbo.registry.address对应的值需要对应当前使用的Zookeeper的ip地址和端口号 
• dubbo.registry.address=zookeeper://zk所在机器ip:zk端口 
• dubbo.admin.root.password=root • dubbo.admin.guest.password=guest 
3.切换到项目所在的路径 使用mvn 打包 mvn clean package -Dmaven.test.skip=true 
4.java 命令运行 java -jar 对应的jar包

5、Dubbo配置项说明 官网有详细说明

dubbo.application.name=service-consumer
dubbo.registry.address=zookeeper://127.0.0.1:2181
dubbo.consumer.timeout=4000

dubbo.application.name=service-provider4
dubbo.protocol.name=rmi
dubbo.protocol.port=20889
dubbo.application.owner=zimu
1、dubbo:application

org.apache.dubbo.confifig.ApplicationConfifig 代表当前应用的信息

1. name: 当前应用程序的名称,在dubbo-admin中我们也可以看到,这个代表这个应用名称。我们 在真正时是时也会根据这个参数来进行聚合应用请求。 
2. owner: 当前应用程序的负责人,可以通过这个负责人找到其相关的应用列表,用于快速定位到责 任人。 
3. qosEnable : 是否启动QoS 默认true 
4. qosPort : 启动QoS绑定的端口 默认22222 
5. qosAcceptForeignIp: 是否允许远程访问 默认是false  
2、dubbo:registry

org.apache.dubbo.confifig.RegistryConfifig, , 代表该模块所使用的注册中心。

1. id : 当当前服务中provider或者consumer中存在多个注册中心时,则使用需要增加该配置。在一些公司,会通过业务线的不同选择不同的注册中心,所以一般都会配置该值。
2. address : 当前注册中心的访问地址。
3. protocol : 当前注册中心所使用的协议是什么。也可以直接在 address 中写入,比如使用
zookeeper,就可以写成 zookeeper://xx.xx.xx.xx:2181 
4. timeout : 当与注册中心不再同一个机房时,大多会把该参数延长。
3、dubbo:protocol

org.apache.dubbo.confifig.ProtocolConfifig, 指定服务在进行数据传输所使用的协议

1. id : 在大公司,可能因为各个部门技术栈不同,所以可能会选择使用不同的协议进行交互。这里在多个协议使用时,需要指定。
2. name : 指定协议名称。默认使用 dubbo 。
4、 dubbo:service

org.apache.dubbo.confifig.ServiceConfifig, 用于指定当前需要对外暴露的服务信息,后面也会具体讲 解。和 dubbo:reference 大致相同

1. interface : 指定当前需要进行对外暴露的接口是什么。
2. ref : 具体实现对象的引用,一般我们在生产级别都是使用Spring去进行Bean托管的,所以这里面一般也指的是Spring中的BeanId。 
3. version : 对外暴露的版本号。不同的版本号,消费者在消费的时候只会根据固定的版本号进行消费
5、dubbo:reference

org.apache.dubbo.confifig.ReferenceConfifig, 消费者的配置,这里只做简单说明,后面会具体讲解。

1. id : 指定该Bean在注册到Spring中的id。 
2. interface: 服务接口名
3. version : 指定当前服务版本,与服务提供者的版本一致。
4. registry : 指定所具体使用的注册中心地址。这里面也就是使用上面在 dubbo:registry 中所声
明的id。
6、dubbo:method

org.apache.dubbo.confifig.MethodConfifig, 用于在制定的 dubbo:service 或者 dubbo:reference 中的 更具体一个层级,指定具体方法级别在进行RPC操作时候的配置,可以理解为对这上面层级中的配置针 对于具体方法的特殊处理。

1. name : 指定方法名称,用于对这个方法名称的RPC调用进行特殊配置。
2. async: 是否异步 默认false
7、dubbo:service和dubbo:reference详解
1. mock: 用于在方法调用出现错误时,当做服务降级来统一对外返回结果,后面我们也会对这个方法做更多的介绍。
2. timeout: 用于指定当前方法或者接口中所有方法的超时时间。我们一般都会根据提供者的时长来具体规定。比如我们在进行第三方服务依赖时可能会对接口的时长做放宽,防止第三方服务不稳定导致服务受损。
3. check: 用于在启动时,检查生产者是否有该服务。我们一般都会将这个值设置为false,不让其进行检查。因为如果出现模块之间循环引用的话,那么则可能会出现相互依赖,都进行check的话,那么这两个服务永远也启动不起来。
4. retries: 用于指定当前服务在执行时出现错误或者超时时的重试机制。
	1. 注意提供者是否有幂等,否则可能出现数据一致性问题
	2. 注意提供者是否有类似缓存机制,如出现大面积错误时,可能因为不停重试导致雪崩
5. executes: 用于在提供者做配置,来确保最大的并行度。
	1. 可能导致集群功能无法充分利用或者堵塞
	2. 但是也可以启动部分对应用的保护功能
	3. 可以不做配置,结合后面的熔断限流使用

注意遇到 问题:

1、No application config found or it’s not a valid config! Please add

1.jdk1.8+dubbo版本是2.7.5版本是没有问题

2.jdk11+dubbo版本是2.7.1版本是没有问题的

2、 qos-server can not bind localhost:22222, dubbo version: 2.7.1, current host: 192.168.1.3

dubbo.application.qosEnable=true
dubbo.application.qosPort=33333
dubbo.application.qosAcceptForeignIp=false

三、Dubbo高级实战

1、JDK中的SPI

dubbo_第2张图片

SPI遵循如下约定:
1、当服务提供者提供了接口的一种具体实现后,在META-INF/services目录下创建一个以“接口全
限定名”为命名的文件,内容为实现类的全限定名;
2、接口实现类所在的jar包放在主程序的classpath中;
3、主程序通过java.util.ServiceLoader动态装载实现模块,它通过扫描META-INF/services目录下
的配置文件找到实现类的全限定名,把类加载到JVM; 4、SPI的实现类必须携带一个无参构造方法;

2、 Dubbo中的SPI

实现方式

api项目创建
(1)导入坐标 dubbo
(2)创建接口
 在接口上 使用@SPI
 
 
 impl项目创建
(1)导入 api项目 的依赖
(2)建立实现类,为了表达支持多个实现的目的,这里分别创建两个实现。分别为
HumanHelloService 和 DogHelloService 。 (3)SPI进行声明操作,在 resources 目录下创建目录 META-INF/dubbo 目录,在目录下创建名称为
com.lagou.dubbo.study.spi.demo.api.HelloService的文件,文件内部配置两个实现类名称和对应的全
限定名:
main项目创建
(1)导入坐标 接口项目 和 实现类项目
(2)创建DubboSpiMain
和原先调用的方式不太相同, dubbo 有对其进行自我重新实现 需要借助ExtensionLoader,创建新的运
行项目。这里demo中的示例和java中的功能相同,查询出所有的已知实现,并且调用

dubbo自己做SPI原因

1. JDK 标准的 SPI 会一次性实例化扩展点所有实现,如果有扩展实现初始化很耗时,但如果没用上也加 载,会很浪费资源
2. 如果有扩展点加载失败,则所有扩展点无法使用 
3. 提供了对扩展点包装的功能(Adaptive),并且还支持通过set的方式对其他的扩展点进行注入

3、Dubbo SPI中的Adaptive功能

Dubbo中的Adaptive功能,主要解决的问题是如何动态的选择具体的扩展点。通过 getAdaptiveExtension 统一对指定接口对应的所有扩展点进行封装,通过URL的方式对扩展点来进行 动态选择。 (dubbo中所有的注册信息都是通过URL的形式进行处理的。)这里同样采用相同的方式进行实现

方式:

(1)创建接口

human=com.lagou.service.impl.HumanHelloService

dog=com.lagou.service.impl.DogHelloService

  1. JDK 标准的 SPI 会一次性实例化扩展点所有实现,如果有扩展实现初始化很耗时,但如果没用上也加

载,会很浪费资源

  1. 如果有扩展点加载失败,则所有扩展点无法使用
  2. 提供了对扩展点包装的功能(Adaptive),并且还支持通过set的方式对其他的扩展点进行注入api中的 HelloService 扩展如下方法, 与原先类似,在sayHello中增加 Adaptive 注解,并且在参数中

提供URL参数.注意这里的URL参数的类为 org.apache.dubbo.common.URL

其中@SP可以指定一个字符串参数,用于指明该SPI的默认实现。

(2)创建实现类

与上面Service实现类代码相似,只需增加URL形参即可

(3)编写DubboAdaptiveMain

最后在获取的时候方式有所改变,需要传入URL参数,并且在参数中指定具体的实现类参数

如:

public class DubboAdaptiveMain { public static void main(String[] args) { URL url = URL.valueOf("test://localhost/hello?hello.service=dog"); final HelloService adaptiveExtension = ExtensionLoader.getExtensionLoader(HelloService.class).getAdaptiveExtension(); adaptiveExtension.sayHello(url); } }
注意:
因为在这里只是临时测试,所以为了保证URL规范,前面的信息均为测试值即可,关键的点在于
hello.service 参数,这个参数的值指定的就是具体的实现方式。关于为什么叫
hello.service 是因为这个接口的名称,其中后面的大写部分被dubbo自动转码为 . 分割。
通过 getAdaptiveExtension 来提供一个统一的类来对所有的扩展点提供支持(底层对所有的扩展
点进行封装)。
调用时通过参数中增加 URL 对象来实现动态的扩展点使用。
如果URL没有提供该参数,则该方法会使用默认在 SPI 注解中声明的实现。

4、 Dubbo调用时拦截操作

步骤如下:

(1)实现 org.apache.dubbo.rpc.Filter 接口

(2)使用 org.apache.dubbo.common.extension.Activate 接口进行对类进行注册 通过group 可以

指定生产端 消费端 如:

@Activate(group = {CommonConstants.CONSUMER)

(3)计算方法运行时间的代码实现

(4)在 META-INF.dubbo 中新建 org.apache.dubbo.rpc.Filter 文件,并将当前类的全名写入

timerFilter=包名.过滤器的名字

注意:一般类似于这样的功能都是单独开发依赖的,所以再使用方的项目中只需要引入依赖,在调用接

口时,该方法便会自动拦截。

5、负载均衡策略

负载均衡基本配置

//在服务消费者一方配置负载均衡策略
@Reference(check = false,loadbalance = "random")


//在服务提供者一方配置负载均衡 
@Service(loadbalance = "random")
public class HelloServiceImpl implements HelloService { 
    public String sayHello(String name) { return "hello " + name; }
}

自定义负载均衡器

负载均衡器在Dubbo中的SPI接口是 org.apache.dubbo.rpc.cluster.LoadBalance , 可以通过实现这

个接口来实现自定义的负载均衡规则。

(1)自定义负载均衡器

在上一节的案例基础上创建名称为dubbo-spi-loadbalance的Maven模块,并创建负载均衡器

OnlyFirstLoadbalancer。这里功能只是简单的选取所有机器中的第一个(按照字母排序 + 端口排序)。

(2)配置负载均衡器

在dubbo-spi-loadbalance工程的 META-INF/dubbo 目录下新建

org.apache.dubbo.rpc.cluster.LoadBalance 文件,并将当前类的全名写入

onlyFirst=包名.负载均衡器

(3)在服务提供者工程实现类中编写用于测试负载均衡效果的方法 启动不同端口时 方法返回的信息

不同

(4)启动多个服务 要求他们使用同一个接口注册到同一个注册中心 但是他们的dubbo通信端口不同

timerFilter=包名.过滤器的名字

//在服务消费者一方配置负载均衡策略 
@Reference(check = false,loadbalance = "random") 
//在服务提供者一方配置负载均衡 
@Service(loadbalance = "random") 
public class HelloServiceImpl implements HelloService { 
    public String sayHello(String name) { 
   	 return "hello " + name; 
	} 
}

onlyFirst=包名.负载均衡器(5)在服务消费方指定自定义负载均衡器 onlyFirst

(6)测试自定义负载均衡的效果

6、异步调用

6-1 异步调用实现

(1)为了能够模拟等待,通过 int timeToWait参数,标明需要休眠多少毫秒后才会进行返回。

String sayHello(String name, int timeToWait);

(2)接口实现 为了模拟调用耗时 可以让线程等待一段时间

(3)在消费者端,配置异步调用 注意消费端默认超时时间1000毫秒 如果提供端耗时大于1000毫秒会

出现超时

可以通过改变消费端的超时时间 通过timeout属性设置即可单位毫秒

<dubbo:reference id="helloService" interface="com.lagou.service.HelloService"> 		         <dubbo:method name="sayHello" async="true" /> 
dubbo:reference>

(4)测试,我们休眠100毫秒,然后再去进行获取结果。方法在同步调用时的返回值是空,我们可以通

过 RpcContext.getContext().getFuture() 来进行获取Future对象来进行后续的结果等待操作。

6-2、注意 异步获取返回结果为null

异步调用 时 获取结果为null 这时候应该使用RpcContext 来获取结果

RpcContext:试一次请求的零时的上下文记录器,内部的实现是一个 ThreadLocal,我们看一下内部实现

来获取

private static final ThreadLocal<RpcContext> LOCAL = new ThreadLocal<RpcContext>() {
        @Override
        protected RpcContext initialValue() {
            return new RpcContext();
        }
    };
6-3异步 不能直接获取数据 原因:

在ConsumerContextFilter中,我们会创建RpcContext并且初始化一些数据,然后在后续的业务中我们可以给RpcContext里面添加attachments属性,进行属性的传递,在ContextFilter中接收设置的attachments属性值。

RpcContext.getContext()
                .setInvoker(invoker)
                .setInvocation(invocation)
                .setLocalAddress(NetUtils.getLocalHost(), 0)
                .setRemoteAddress(invoker.getUrl().getHost(),
                        invoker.getUrl().getPort());

在调用provider时,会经过ContextFilter,在这里我们就可以获取到consumer传过来的参数,然后依然是设置到自己的RpcContext,在后续业务中使用

Map<String, String> attachments = invocation.getAttachments();
RpcContext.getContext()
                .setInvoker(invoker)
                .setInvocation(invocation)
                .setLocalAddress(invoker.getUrl().getHost(),
                        invoker.getUrl().getPort());
 
        // mreged from dubbox
        // we may already added some attachments into RpcContext before this filter (e.g. in rest protocol)
        if (attachments != null) {
            if (RpcContext.getContext().getAttachments() != null) {
                RpcContext.getContext().getAttachments().putAll(attachments);
            } else {
                RpcContext.getContext().setAttachments(attachments);
            }
        }

这里我们为什么会在invocation中拿到数据呢?我们看一下在调用DubboInvoker的时候,其实是走的抽象类AbstractInvoker中的invoke方法,这里会拿到之前设置的RpcContext的Attachments的值,设置到invocation的attachm

if (attachment != null && attachment.size() > 0) {
            invocation.addAttachmentsIfAbsent(attachment);
        }
        Map<String, String> context = RpcContext.getContext().getAttachments();
        if (context != null) {
            invocation.addAttachmentsIfAbsent(context);
        }

而且这里是可以实现异步调用的

if (getUrl().getMethodParameter(invocation.getMethodName(), Constants.ASYNC_KEY, false)) {
            invocation.setAttachment(Constants.ASYNC_KEY, Boolean.TRUE.toString());
        }

这里通过获取async参数,如果配置了这个参数,我们会设置invocation中为异步

然后在DubboInvoker中,判断是不是异步,如果是异步设置setFuture,然后直接相应,后续通过RpcContext获取值

boolean isAsync = RpcUtils.isAsync(getUrl(), invocation);
else if (isAsync) {
                ResponseFuture future = currentClient.request(inv, timeout);
                RpcContext.getContext().setFuture(new FutureAdapter<Object>(future));
                return new RpcResult();
            }

7、线程池

1、实现

public class WachingThreadPool  extends FixedThreadPool  implements  Runnable{
    private  static  final Logger  LOGGER = LoggerFactory.getLogger(WachingThreadPool.class);
    // 定义线程池使用的阀值
    private  static  final  double  ALARM_PERCENT = 0.90;
    private  final Map<URL, ThreadPoolExecutor>    THREAD_POOLS = new ConcurrentHashMap<>();
    public  WachingThreadPool(){
        // 每隔3秒打印线程使用情况
        Executors.newSingleThreadScheduledExecutor().scheduleWithFixedDelay(this,1,3, TimeUnit.SECONDS);
    }
    // 通过父类创建线程池
    @Override
    public Executor getExecutor(URL url) {
         final  Executor executor = super.getExecutor(url);
         if(executor instanceof  ThreadPoolExecutor){
             THREAD_POOLS.put(url,(ThreadPoolExecutor)executor);
         }
         return  executor;
    }

    @Override
    public void run() {
         // 遍历线程池
         for (Map.Entry<URL,ThreadPoolExecutor> entry: THREAD_POOLS.entrySet()){
              final   URL  url = entry.getKey();
              final   ThreadPoolExecutor  executor = entry.getValue();
              // 计算相关指标
              final  int  activeCount  = executor.getActiveCount();
              final  int  poolSize = executor.getCorePoolSize();
              double  usedPercent = activeCount / (poolSize*1.0);
              LOGGER.info("线程池执行状态:[{}/{}:{}%]",activeCount,poolSize,usedPercent*100);
              if (usedPercent > ALARM_PERCENT){
                  LOGGER.error("超出警戒线! host:{} 当前使用率是:{},URL:{}",url.getIp(),usedPercent*100,url);
              }

         }
    }
}

2、声明

SPI声明,创建文件 META-INF/dubbo/org.apache.dubbo.common.threadpool.ThreadPool

3、在服务提供方项目引入该依赖

4、在服务提供方项目中设置使用该线程池生成器

5、接下来需要做的就是模拟整个流程,因为该线程当前是每1秒抓一次数据,所以我们需要对该方法

的提供者超过1秒的时间(比如这里用休眠 Thread.sleep ),消费者则需要启动多个线程来并行执行,来

模拟整个并发情况。

6、在调用方则尝试简单通过for循环启动多个线程来执行 查看服务提供方的监控情况

8、路由

1、我们通过ipconfifig来查询到我们的IP地址,并且单独启动一个客户端,来进行如下配置(这里假设

我们希望隔离掉本机的请求,都发送到另外一台机器上)。

public class DubboRouterMain { 
public static void main(String[] args) { 
     RegistryFactory registryFactory = 	     ExtensionLoader.getExtensionLoader(RegistryFactory.class).getAdaptiveExtension() ; Registry registry =      registryFactory.getRegistry(URL.valueOf("zookeeper://127.0.0.1:2181")); registry.register(URL.valueOf("condition://0.0.0.0/com.lagou.service.HelloService?category=routers&force=true&dynamic=true&rule=" + URL.encode("=> host != 你的 机器ip不能是127.0.0.1"))); 
     } 
 }

2、通过这个程序执行后,我们就通过消费端不停的发起请求,看到真实的请求都发到了除去本机以

外的另外一台机器上。

3、路由器详解

route:// 表示路由规则的类型,支持条件路由规则和脚本路由规则,可扩展,必填。
0.0.0.0 表示对所有 IP 地址生效,如果只想对某个 IP 的生效,请填入具体 IP,必填。 com.lagou.service.HelloService 表示只对指定服务生效,必填。
category=routers 表示该数据为动态配置类型,必填。 
dynamic : 是否为持久数据,当指定服务重启时是否继续生效。必填。
runtime : 是否在设置规则时自动缓存规则,如果设置为true则会影响部分性能。
rule : 是整个路由最关键的配置,用于配置路由规则。
... => ... 在这里 => 前面的就是表示消费者方的匹配规则,可以不填(代表全部)。 => 后方则必
须填写,表示当请求过来时,如果选择提供者的配置。官方这块儿也给出了详细的示例,可以按照
那里来讲。
其中使用最多的便是 host 参数。 必填。

4、思路

1.利用zookeeper的路径感知能力,在服务准备进行重启之前将当前机器的IP地址和应用名写入 zookeeper。 
2.服务消费者监听该目录,读取其中需要进行关闭的应用名和机器IP列表并且保存到内存中。
3.当前请求过来时,判断是否是请求该应用,如果是请求重启应用,则将该提供者从服务列表中移除。

(1)引入 Curator 框架,用于方便操作Zookeeper

(2)编写Zookeeper的操作类,用于方便进行zookeeper处理

(3)编写需要进行预发布的路径管理器,用于缓存和监听所有的待灰度机器信息列表。

(4)编写路由类(实现 org.apache.dubbo.rpc.cluster.Router ),主要目的在于对

ReadyRestartInstances 中的数据进行处理,并且移除路由调用列表中正在重启中的服务。

(5)由于 Router 机制比较特殊,所以需要利用一个专门的 RouterFactory 来生成,原因在于并不是

所有的都需要添加路由,所以需要利用 @Activate 来锁定具体哪些服务才需要生成使用。

@Activate public class RestartingInstanceRouterFactory implements RouterFactory { @Override 
  public Router getRouter(URL url) {
    return new RestartingInstanceRouter(url); 
	} 
}

(6)对 RouterFactory 进行注册,同样放入到

META-INF/dubbo/org.apache.dubbo.rpc.cluster.RouterFactory 文件中。

restartInstances=com.lagou.router.RestartingInstanceRouterFactory

(7)将dubbo-spi-router项目引入至 consumer 项目的依赖中。

(8)这时直接启动程序,还是利用上面中所写好的 consumer 程序进行执行,确认各个 provider 可以

正常执行。

(9)单独写一个 main 函数来进行将某台实例设置为启动中的状态,比如这里我们认定为当前这台机器

中的 service-provider 这个提供者需要进行重启操作。

ReadyRestartInstances.create().addRestartingInstance("service-provider", "正在 重新启动的机器IP");

(10)执行完成后,再次进行尝试通过 consumer 进行调用,即可看到当前这台机器没有再发送任何请

(11)一般情况下,当机器重启到一定时间后,我们可以再通过 removeRestartingInstance 方法对

这个机器设定为既可以继续执行。

(12)调用完成后,我们再次通过 consumer 去调用,即可看到已经再次恢当前机器的请求参数。

9、服务降级

dubbo 服务降级实现方式

第一种 在 dubbo 管理控制台配置服务降级

屏蔽和容错

mock=force:return+null

表示消费方对该服务的方法调用都直接返回 null 值,不发起远程调用。用来屏蔽不重要服务不可

用时对调用方的影响。

mock=fail:return+null

表示消费方对该服务的方法调用在失败后,再返回 null 值,不抛异常。用来容忍不重要服务不稳

定时对调用方的影响。

dubbo_第3张图片

第二种 指定返回简单值或者null

 

如果是标注 则使用@Reference(mock=“return null”) @Reference(mock=“return 简单值”)

也支持 @Reference(mock=“force:return null”)

第三种 使用java代码 动态写入配置中心

RegistryFactory registryFactory = ExtensionLoader.getExtensionLoader(RegistryFactory.class).getAdaptiveExtension() ;Registry registry = registryFactory.getRegistry(URL.valueOf("zookeeper://IP:端 口")); registry.register(URL.valueOf("override://0.0.0.0/com.foo.BarService? category=configurators&dynamic=false&application=foo&mock=force:return+null"));

第四种 整合整合 hystrix 会在后期SpringCloud课程中详细讲解

四、源码

1、调用链

dubbo_第4张图片

说明 淡绿色代表了 服务生产者的范围 淡蓝色 代表了服务消费者的范围 红色箭头代表了调用的方

业务逻辑层 RPC层(远程过程调用) Remoting (远程数据传输)

整体链路调用的流程:

  1. 消费者通过Interface进行方法调用 统一交由消费者端的 Proxy 通过ProxyFactory 来进行代理

对象的创建 使用到了 jdk javassist技术

2.交给Filter 这个模块 做一个统一的过滤请求 在SPI案例中涉及过

3.接下来会进入最主要的Invoker调用逻辑

通过Directory 去配置中新读取信息 最终通过list方法获取所有的Invoker

通过Cluster模块 根据选择的具体路由规则 来选取Invoker列表

通过LoadBalance模块 根据负载均衡策略 选择一个具体的Invoker 来处理我们的请求

如果执行中出现错误 并且Consumer阶段配置了重试机制 则会重新尝试执行

  1. 继续经过Filter 进行执行功能的前后封装 Invoker 选择具体的执行协议

  2. 客户端 进行编码和序列化 然后发送数据

  3. 到达Consumer中的 Server 在这里进行 反编码 和 反序列化的接收数据

  4. 使用Exporter选择执行器

  5. 交给Filter 进行一个提供者端的过滤 到达 Invoker 执行器

  6. 通过Invoker 调用接口的具体实现 然后返回

2、Dubbo源码整体设计

dubbo_第5张图片

图例说明:

图中左边淡蓝背景的为服务消费方使用的接口,右边淡绿色背景的为服务提供方使用的接口,位于

中轴线上的为双方都用到的接口。图中从下至上分为十层,各层均为单向依赖,右边的黑色箭头代表层之间的依赖关系,每一层都可

以剥离上层被复用,其中,Service 和 Confifig 层为 API,其它各层均为 SPI。

图中绿色小块的为扩展接口,蓝色小块为实现类,图中只显示用于关联各层的实现类。

图中蓝色虚线为初始化过程,即启动时组装链,红色实线为方法调用过程,即运行时调时链,紫色

三角箭头为继承,可以把子类看作父类的同一个节点,线上的文字为调用的方法。

Dubbo源码整体设计与调用链路十分相似。只不过这里可以看到接口的一些具体实现以及左侧也

有更为详细的层次划分,我们在后面的源码解析时也会着重介绍其中比较重要的模块实现。

分层介绍***

Business 业务逻辑层

service 业务层 包括我们的业务代码 比如 接口 实现类 直接面向开发者

RPC层 远程过程调用层

confifig 配置层 对外提供配置 以ServiceConfifig ReferenceConfifig 为核心 可以直接初始化配置

类 也可以解析配置文件生成

proxy 服务代理层 无论是生产者 还是消费者 框架都会产生一个代理类 整个过程对上层透明 就是

业务层对远程调用无感

registry 注册中心层 封装服务地址的注册与发现 以服务的URL为中心

cluster 路由层 (集群容错层) 提供了多个提供者的路由和负载均衡 并且它桥接注册中心 以

Invoker为核心

monitor 监控层 RPC调用相关的信息 如 调用次数 成功失败的情况 调用时间等 在这一层完成

protocol 远程调用层 封装RPC调用 无论是服务的暴露 还是 服务的引用 都是在Protocol中作为主

功能入口 负责Invoker的整个生命周期 Dubbo中所有的模型都向Invoker靠拢

Remoting层 远程数据传输层

exchange 信息交换层 封装请求和响应的模式 如把请求由同步 转换成异步

transport 网络传输层 统一网络传输的接口 比如 netty 和 mina 统一为一个网络传输接口

serialize 数据序列化层 负责管理整个框架中的数据传输的序列化 和反序列化

3、服务注册与消费源码剖析

1、接口服务

只有一个提供者和消费者。 com.lagou.service.HelloService 为我们所提供的服务。

public interface HelloService { String sayHello(String name); }

dubbo_第6张图片

可以在这里看到所有的都是在dubbo层级下的

dubbo跟节点下面是当前所拥有的接口名称,如果有多个接口,则会以多个子节点的形式展开

每个服务下面又分别有四个配置项

​ consumers: 当前服务下面所有的消费者列表(URL)

​ providers: 当前服务下面所有的提供者列表(URL)

​ confifiguration: 当前服务下面的配置信息信息,provider或者consumer会通过读取这里的配

置信息来获取配置

​ routers: 当消费者在进行获取提供者的时,会通过这里配置好的路由来进行适配匹配规则。

可以看到,dubbo基本上很多时候都是通过URL的形式来进行交互获取数据的,在URL中也会保存

很多的信息。后面也会对URL的规则做详细介绍。
dubbo_第7张图片

提供者会在 providers 目录下进行自身的进行注册。

消费者会在 consumers 目录下进行自身注册,并且监听 provider 目录,以此通过监听提供者增

加或者减少,实现服务发现。

Monitor模块会对整个服务级别做监听,用来得知整体的服务情况。以此就能更多的对整体情况做

监控。

4、服务的注册过程分析

dubbo_第8张图片

首先 ServiceConfig 类拿到对外提供服务的实际类 ref(如:HelloServiceImpl),然后通过

ProxyFactory 接口实现类中的 getInvoker 方法使用 ref 生成一个 AbstractProxyInvoker 实例,

到这一步就完成具体服务到 Invoker 的转化。接下来就是 Invoker 转换到 Exporter 的过程。

查看ServiceConfifig 类

重点查看 ProxyFactory 和 Protocol 类型的属性 以及 ref

下面我们就看一下Invoker 转换成 Exporter的过程

其中会涉及到 RegistryService接口 RegistryFactory 接口 和 注册provider到注册中心流程的过程

(1)RegistryService代码解读,这块儿的代码比较简单,主要是对指定的路径进行注册,解绑,监听和

取消监听,查询操作。也是注册中心中最为基础的类。

public interface RegistryService { 
/*** 进行对URL的注册操作,比如 provider,consumer,routers等 */ 
void register(URL url);
/*** 解除对指定URL的注册,比如provider,consumer,routers等 */ 
void unregister(URL url);
/*** 增加对指定URL的路径监听,当有变化的时候进行通知操作 */ 
void subscribe(URL url, NotifyListener listener);
/*** 解除对指定URL的路径监听,取消指定的listener */
void unsubscribe(URL url, NotifyListener listener); 
/*** 查询指定URL下面的URL列表,比如查询指定服务下面的consumer列表 */ List<URL> lookup(URL url); 
}

(2)我们再来看 RegistryFactory ,是通过他来生成真实的注册中心。通过这种方式,也可以保证一

个应用中可以使用多个注册中心。可以看到这里也是通过不同的protocol参数,来选择不同的协议。

@SPI("dubbo") 
public interface RegistryFactory { 
/*** 获取注册中心地址 */
    @Adaptive({"protocol"}) 
    Registry getRegistry(URL url);
}

(3)一个服务是如何注册到注册中心上去的。其中比较关键的一个类是

RegistryProtocol ,他负责管理整个注册中心相关协议。并且统一对外提供服务。这里我们主要以

RegistryProtocol.export 方法作为入口,这个方法主要的作用就是将我们需要执行的信息注册并且

导出。

(4) register 方法, 这里面做的比较简单,主要是从 RegistoryFactory 中获取注

册中心,并且进行地址注册。

 public void register(URL registryUrl, URL registeredProviderUrl) {
        // 获取注册中心 
        Registry registry = registryFactory.getRegistry(registryUrl);
        // 对当前的服务进行注册 
        registry.register(registeredProviderUrl);
        // ProviderModel 表示服务提供者模型,此对象中存储了与服务提供者相关的信息。 
        // 比如服务的配置信息,服务实例等。每个被导出的服务对应一个 ProviderModel。 
        ProviderModel model = ApplicationModel.getProviderModel(registeredProviderUrl.getServiceKey());
        model.addStatedUrl(new ProviderModel.RegisterStatedURL(registeredProviderUrl, registryUrl, true));
    }

(5)这里我们再跟里面的register方法之前,先来介绍一下Registry中的类目录结构

+- RegistryService 
| +- Registry 
| | +- AbstractRegistry 
| | | +- FailbackRegistry 
| | | | +- ZookeeperRegistry 
| | | | +- NacosRegistry 
| | | | +- ...

目录结构描述如下:

在这里每个层级代表继承自父级

​ 这里面 RegistryService 就是我们之前所讲对外提供注册机制的接口。

​ 其下面 Registry 也同样是一个接口,是对 RegistryService 的集成,并且继承了 Node 接口,

​ 说明注册中心也是基于URL去做的。

​ AbstractRegistry 是对注册中心的封装,其主要会对本地注册地址的封装,主要功能在于远程

​ 注册中心不可用的时候,可以采用本地的注册中心来使用。

​ FailbackRegistry 从名字中可以看出来,失败自动恢复,后台记录失败请求,定时重发功能。

​ 最深的一层则更多是真实的第三方渠道实现。

(6)下面我们来看一下在 FailbackRegistry 中的实现, 可以在这里看到他的主要作用是调用第三方的

实现方式,并且在出现错误时增加重试机制。

 public void register(URL url) {
// 上层调用 // 主要用于保存已经注册的地址列表
        super.register(url);
// 将一些错误的信息移除(确保当前地址可以在出现一些错误的地址时可以被删除) removeFailedRegistered(url);
        removeFailedUnregistered(url);
        try {
// 发送给第三方渠道进行注册操作 
            doRegister(url);
        } catch (Exception e) {
            Throwable t = e;
// 记录日志 
            boolean check = getUrl().getParameter(Constants.CHECK_KEY, true) && url.getParameter(Constants.CHECK_KEY, true) && !CONSUMER_PROTOCOL.equals(url.getProtocol());
            boolean skipFailback = t instanceof SkipFailbackWrapperException;
            if (check || skipFailback) {
                if (skipFailback) {
                    t = t.getCause();
                }
                throw new IllegalStateException("Failed to register " + url + " to registry " + getUrl().getAddress() + ", cause: " + t.getMessage(), t);
            } else {
                logger.error("Failed to register " + url + ", waiting for retry, cause: " + t.getMessage(), t);
            }// 后台异步进行重试,也是Failback比较关键的代码
            addFailedRegistered(url);
        }
    }

(7)下面我们再来看看Zookeeper中 doRegister 方法的实现, 可以看到这里的实现也比较简单,关键

在于 toUrlPath 方法的实现。关于 dynamic 的值,我们也在上面有看到,他的URL也是true的。

    public void doRegister(URL url) {
        try {
// 进行创建地址 
            zkClient.create(toUrlPath(url), url.getParameter(DYNAMIC_KEY, true));
        } catch (Throwable e) {
            throw new RpcException("Failed to register " + url + " to zookeeper " + getUrl() + ", cause: " + e.getMessage(), e); }
    }

(8)解读 toUrlPath 方法。可以看到这里的实现也是比较简单,也验证了我们之前的路径规则。

 private String toUrlPath(URL url) {
// 分类地址 + url字符串
        return toCategoryPath(url) + PATH_SEPARATOR + URL.encode(url.toFullString());
    }

    private String toCategoryPath(URL url) {
// 服务名称 + category(在当前的例子中是providers)
        return toServicePath(url) + PATH_SEPARATOR + url.getParameter(CATEGORY_KEY, DEFAULT_CATEGORY);
    }

    private String toServicePath(URL url) {
// 接口地址 
        String name = url.getServiceInterface();
        if (ANY_VALUE.equals(name)) {
            return toRootPath();
        }
// 根节点 + 接口地址
        return toRootDir() + URL.encode(name);
    }

5、URL规则详解 和 服务本地缓存

protocol://host:port/path?key=value&key=value provider://192.168.20.1:20883/com.lagou.service.HelloService? anyhost=true&application=service- provider2&bind.ip=192.168.20.1&bind.port=20883&category=configurators&check=fals e&deprecated=false&dubbo=2.0.2&dynamic=true&generic=false&interface=com.lagou.se rvice

URL主要有以下几部分组成:

protocol: 协议,一般像我们的 provider 或者 consumer 在这里都是人为具体的协议

host: 当前 provider 或者其他协议所具体针对的地址,比较特殊的像 override 协议所指定的

host就是 0.0.0.0 代表所有的机器都生效

port: 和上面相同,代表所处理的端口号

path: 服务路径,在 provider 或者 consumer 等其他中代表着我们真实的业务接口

key=value: 这些则代表具体的参数,这里我们可以理解为对这个地址的配置。比如我们 provider

中需要具体机器的服务应用名,就可以是一个配置的方式设置上去。

注意:Dubbo中的URL与java中的URL是有一些区别的,如下:

这里提供了针对于参数的 parameter 的增加和减少(支持动态更改)

提供缓存功能,对一些基础的数据做缓存.

6、本地缓存

(1)首先从构造方法讲起, 这里方法比较简单,主要用于确定需要保存的文件信息。并且从系统中读取

已有的配置信息。

    public AbstractRegistry(URL url) {
        setUrl(url);
// Start file save timer 
        syncSaveFile = url.getParameter(REGISTRY_FILESAVE_SYNC_KEY, false);
// 默认保存路径(home/.dubbo/dubbo-registry-appName-address-port.cache) 
        String defaultFilename = System.getProperty("user.home") + "/.dubbo/dubbo- registry-" + url.getParameter(APPLICATION_KEY) + "-" + url.getAddress().replaceAll(":", "-") + ".cache";
        String filename = url.getParameter(FILE_KEY, defaultFilename);
// 创建文件 
        File file = null; if (ConfigUtils.isNotEmpty(filename)) {
            file = new File(filename);
            if (!file.exists() && file.getParentFile() != null && !file.getParentFile().exists()) { if (!file.getParentFile().mkdirs()) {
                throw new IllegalArgumentException("Invalid registry cache file " + file + ", cause: Failed to create directory " + file.getParentFile() + "!"); }
            }
        }this.file = file;
// 加载已有的配置文件
        loadProperties(); notify(url.getBackupUrls()); }

(2)我们可以看到这个类中最为关键的一个属性为 properties ,我们可以通过寻找,得知这个属性

的设置值只有在一个地方: saveProperties ,我们来看一下这个方法。这里也有一个我们值得关注的

点,就是基于版本号的的更改。

private void saveProperties(URL url) {
        if (file null){
            return;
        }
        try {
            StringBuilder buf = new StringBuilder();
// 获取所有通知到的地址 
            Map<String, List<URL>> categoryNotified = notified.get(url);
            if (categoryNotified != null) {
                for (List<URL> us : categoryNotified.values()) {
                    for (URL u : us) {
// 多个地址进行拼接
                        if (buf.length() > 0) {
                            buf.append(URL_SEPARATOR);
                        }
                        buf.append(u.toFullString());
                    }
                }
            }
// 保存数据
            properties.setProperty(url.getServiceKey(), buf.toString());
// 保存为一个新的版本号 
// 通过这种机制可以保证后面保存的记录,在重试的时候,不会重试之前的版本 
            long version = lastCacheChanged.incrementAndGet();
// 需要同步保存则进行保存 if (syncSaveFile) { doSaveProperties(version); } else {
// 否则则异步去进行处理
            registryCacheExecutor.execute(new SaveProperties(version));
        }
    } catch(
    Throwable t)

    {
        logger.warn(t.getMessage(), t);
    }
}

(3)下面我们再来看看是如何进行保存文件的。这里的实现也比较简单,主要比较关键的代码在于利

用文件级锁来保证同一时间只会有一个线程执行。

public void doSaveProperties(long version) {
        if (version < lastCacheChanged.get()) {
            return;
        }
        if (file null){
            return;
        }// Save try {
// 使用文件级别所,来保证同一段时间只会有一个线程进行读取操作 
        File lockfile = new File(file.getAbsolutePath() + ".lock");
        if (!lockfile.exists()) {
            lockfile.createNewFile();
        }
        try (RandomAccessFile raf = new RandomAccessFile(lockfile, "rw"); FileChannel channel = raf.getChannel()) {
// 利用文件锁来保证并发的执行的情况下,只会有一个线程执行成功(原因在于可能是跨 VM的) 
            FileLock lock = channel.tryLock();
            if (lock null){
                throw new IOException("Can not lock the registry cache file " + file.getAbsolutePath() + ", ignore and retry later, maybe multi java process use the file, please config: dubbo.registry.file=xxx.properties");
            }
// Save 
            try {
                if (!file.exists()) {
                    file.createNewFile();
                }
// 将配置的文件信息保存到文件中
                try (FileOutputStream outputFile = new FileOutputStream(file)) {
                    properties.store(outputFile, "Dubbo Registry Cache");
                }
            } finally {
// 解开文件锁 
                lock.release();
            }
        }
    } catch(
    Throwable e)

    {
// 执行出现错误时,则交给专门的线程去进行重试
        savePropertiesRetryTimes.incrementAndGet();
        if (savePropertiesRetryTimes.get() >= MAX_RETRY_TIMES_SAVE_PROPERTIES) {
            logger.warn("Failed to save registry cache file after retrying " + MAX_RETRY_TIMES_SAVE_PROPERTIES + " times, cause: " + e.getMessage(), e);
            savePropertiesRetryTimes.set(0);
            return;
        }
        if (version < lastCacheChanged.get()) {
            savePropertiesRetryTimes.set(0);
            return;
        } else {
            registryCacheExecutor.execute(new SaveProperties(lastCacheChanged.incrementAndGet()));
        }
        logger.warn("Failed to save registry cache file, will retry, cause: " + e.getMessage(), e);
    }
}

7、 Dubbo 消费过程分析

dubbo_第9张图片

首先 ReferenceConfig 类的 init 方法调用 createProxy() ,期间 使用 Protocol 调用 refer 方法生

成 Invoker 实例(如上图中的红色部分),这是服务消费的关键。接下来使用ProxyFactory把 Invoker

转换为客户端需要的接口(如:HelloService)。

8、SPI源码剖析

(1)SPI在之前都有使用过,其中最重要的类就是 ExtensionLoader ,它是所有Dubbo中SPI的入口。

我们通过分析源码来学习 ExtensionLoader 是怎么加载的。这里会具体介绍

org.apache.dubbo.common.extension.ExtensionLoader.getExtensionLoader 和

org.apache.dubbo.common.extension.ExtensionLoader.getExtension 方法。

getExtensionLoader 获取扩展点加载器 并加载所对应的所有的扩展点实现

getExtension 根据name 获取扩展的指定实现

getExtensionLoader 加载过程

private static <T> boolean withExtensionAnnotation(Class<T> type) {
// 包含`@SPI`注解在接口上
        return type.isAnnotationPresent(SPI.class);
    }

    public static <T> ExtensionLoader<T> getExtensionLoader(Class<T> type) {
        @SuppressWarnings("unchecked")
// 必须传入类型 
        if (type == null) {
            throw new IllegalArgumentException("Extension type null");
        }
// 必须是接口类型 
        if (!type.isInterface()) {
            throw new IllegalArgumentException("Extension type (" + type + ") is not an interface!");
        }
// 必须包含SPI的注解
        if (!withExtensionAnnotation(type)) {
            throw new IllegalArgumentException("Extension type (" + type + ") is not an extension, because it is NOT annotated with @" + SPI.class.getSimpleName() + "!");
        }
// 尝试从已经加载过的数据中去读取(缓存功能)
        ExtensionLoader<T> loader = (ExtensionLoader<T>) EXTENSION_LOADERS.get(type);
        if (loader == null) {
// 如果没有的话,才会进行初始化,并且放入到缓存汇总
            EXTENSION_LOADERS.putIfAbsent(type, new ExtensionLoader<T>(type));
            loader = (ExtensionLoader<T>) EXTENSION_LOADERS.get(type);
        }
        return loader;
    }

(2)具体看一下 ExtensionLoader 的构造器函数, 这里他的实现比较简单,并没有做太多的操作。主

要是对type进行赋值操作,然后获取 ExtensionFactory 对象。

private ExtensionLoader(Class type) { 
this.type = type; 
// 这里需要对对象的工厂做额外的创建,可以看到扩展的工厂也是一个扩展点
objectFactory = (type == ExtensionFactory.class ? null : ExtensionLoader.getExtensionLoader(ExtensionFactory.class).getAdaptiveExtension( )); 
}

(3)具体再来关注一下 ExtensionFactory 是做什么用的, 从这里我们可以大概的看出来,他是通过传

入扩展点类型和真正的名称来获取扩展的。这里就和我们SPI中的具体名称实现相挂钩。

@SPI public interface ExtensionFactory {
/*** Get extension. 
** @param type object type. 
* @param name object name. 
* @return object instance.
*/ 
 T getExtension(Class type, String name);
}

(4)可以在 dubbo-common/src/main/resources/META-

INF/dubbo/internal/org.apache.dubbo.common.extension.ExtensionFactory 中看到,他默认

有三个实现的提供

spring=org.apache.dubbo.config.spring.extension.SpringExtensionFactory adaptive=org.apache.dubbo.common.extension.factory.AdaptiveExtensionFactory spi=org.apache.dubbo.common.extension.factory.SpiExtensionFactory

(5)可以看到在 AdaptiveExtensionFactory 中是使用 @Adaptive 标记的。这里可以通过类名基本

看出来,他其实最主要的作用是进行代理其他的ExtensionFactory。其中比较重要的方法在于

getSupportedExtensions 方法,获取所有支持的扩展信息实现。

 @Adaptive
    public class AdaptiveExtensionFactory implements ExtensionFactory {
        private final List<ExtensionFactory> factories;

        public AdaptiveExtensionFactory() {
// 获取针对ExtensionFactory扩展加载器 
            ExtensionLoader<ExtensionFactory> loader = ExtensionLoader.getExtensionLoader(ExtensionFactory.class);
            List<ExtensionFactory> list = new ArrayList<ExtensionFactory>();
// 获取支持的扩展
            for (String name : loader.getSupportedExtensions()) {
// 将所有的ExtensionFactory进行缓存 
                list.add(loader.getExtension(name));
            }
            factories = Collections.unmodifiableList(list);
        }

        @Override
        public <T> T getExtension(Class<T> type, String name) {
            for (ExtensionFactory factory : factories) {
// 交给每个真实的ExtensionFactory来处理
                T extension = factory.getExtension(type, name);
                if (extension != null) {
                    return extension;
                }
            }
            return null;
        }
    }

(6)获取所有支持的扩展信息实现: ExtensionLoader.getSupportedExtensions ,这里可以看到,

其实比较关键的方法在于 getExtensionClasses 方法

public Set getSupportedExtensions() { 
// 获取所有的扩展类信息 
Map> clazzes = getExtensionClasses(); 
// 返回所有的扩展点名称
return Collections.unmodifiableSet(new TreeSet<>(clazzes.keySet()));
}

(7)观察 getExtensionClasses 的实现,可以看到这里其实主要做的就是一件事情,防止重复被加

载,所以真正的的实现还需要专门去查看 loadExtensionClasses 方法

在我们通过名称获取扩展类之前,首先需要根据配置文件解析出扩展类名称到扩展类的映射关系表

classes

之后再根据扩展项名称 从映射关系表中获取取对应的扩展类即可。相关过程代码分析如下

private Map> getExtensionClasses() { 
// 从缓存中获取已加载的扩展类 
Map> classes = cachedClasses.get(); 
// 双重检查 if (classes == null) {
// 为空的话,则锁住,标识只会被执行一次
synchronized (cachedClasses) { 
classes = cachedClasses.get(); if (classes == null) {
// 进行加载信息 加载扩展类 
classes = loadExtensionClasses(); cachedClasses.set(classes); }
} 
}return classes;
}

(8)观察 loadExtensionClasses 方法实现。这里主要做了两件事情。1: 加载当前SPI的默认实现。2:

加载这个类的所有扩展点实现,并且按照name和Class对象的形式存储,下面会专门针对于

cacheDefaultExtensionName 和 loadDirectory 方法做说明

    private Map<String, Class<?>> loadExtensionClasses() {
// 加载默认扩展的实现名称 cacheDefaultExtensionName();
// 获取其中每一种实现的名称和对应的classes
// 具体的目录请参照下面的所有目录
        Map<String, Class<?>> extensionClasses = new HashMap<>();
// internal extension load from ExtensionLoader's ClassLoader first 
loadDirectory(extensionClasses, DUBBO_INTERNAL_DIRECTORY, type.getName(), true);
        loadDirectory(extensionClasses, DUBBO_INTERNAL_DIRECTORY, type.getName().replace("org.apache", "com.alibaba"), true);
        loadDirectory(extensionClasses, DUBBO_DIRECTORY, type.getName());
        loadDirectory(extensionClasses, DUBBO_DIRECTORY, type.getName().replace("org.apache", "com.alibaba"));
        loadDirectory(extensionClasses, SERVICES_DIRECTORY, type.getName());
        loadDirectory(extensionClasses, SERVICES_DIRECTORY, type.getName().replace("org.apache", "com.alibaba"));
        return extensionClasses;
    }

观察 cacheDefaultExtensionName 方法实现。这里面的是实现比较简单,主要用于读取注解中value

值来获取到默认的名称。

    private void cacheDefaultExtensionName() {
// 获取当前类是否包含SPI注解,一般走到这里都是拥有这个注解的 
        final SPI defaultAnnotation = type.getAnnotation(SPI.class);
        if (defaultAnnotation == null) {
            return;
        }
// 来获取其的value值,这个值主要的作用是设置这个SPI中的默认扩展名
// 比如LoadBalance的默认实现就是random。就是通过这里进行的设置 
        String value = defaultAnnotation.value();
        if ((value = value.trim()).length() > 0) {
            String[] names = NAME_SEPARATOR.split(value);
            if (names.length > 1) {
                throw new IllegalStateException("More than 1 default extension name on extension " + type.getName() + ": " + Arrays.toString(names));
            }
            if (names.length 1){
                cachedDefaultName = names[0];
            }
        }
    }

观察 loadDirectory 方法实现。这里的主要功能是从这个文件夹中寻找真正的文件列表,并且对其中

的文件内容解析并且放入到 extensionClasses Map中,具体解析文件的内容实现,还要参考

loadResource 实现。

 private void loadDirectory(Map> extensionClasses, String dir, String type, boolean extensionLoaderClassLoaderFirst) {
// 文件名称规则: 路径/包名.接口名 String fileName = dir + type; try {
// 寻找classloader和url列表 Enumeration urls = null; ClassLoader classLoader = findClassLoader(); // try to load from ExtensionLoader's ClassLoader first 
// 如果需要的话, 需要先从当前类的ClassLoader中寻找 
        if (extensionLoaderClassLoaderFirst) {
            ClassLoader extensionLoaderClassLoader = ExtensionLoader.class.getClassLoader();
            if (ClassLoader.getSystemClassLoader() != extensionLoaderClassLoader) {
                urls = extensionLoaderClassLoader.getResources(fileName);
            }
        }
// 如果找不到任何的URL列表,则继续尝试去其当前线程的ClassLoader中寻找 
        if (urls == null || !urls.hasMoreElements()) {
            if (classLoader != null) {
                urls = classLoader.getResources(fileName);
            } else {
                urls = ClassLoader.getSystemResources(fileName);
            }
        }
// 如果存在文件的话 
        if (urls != null) {
            while (urls.hasMoreElements()) {
// 遍历每一个资源文件,并且进行加载资源信息到extensionClasses, 主要功能 是读取文件内容 java.net.URL resourceURL = urls.nextElement(); 
                loadResource(extensionClasses, classLoader, resourceURL);
            }
        }
    } catch(
    Throwable t)

    {
        logger.error("Exception occurred when loading extension class (interface: " + type + ", description file: " + fileName + ").", t);
    }
}

(9)进行观察 loadResource 实现,主要是用于读取文件操作,并且将方法交由 loadClass 来加载类

信息。加载类信息也是最重要的方法所在。

 private void loadResource(Map> extensionClasses, ClassLoader classLoader, java.net.URL resourceURL) {
        try {
            // 读取文件
            try (BufferedReader reader = new BufferedReader(new InputStreamReader(resourceURL.openStream(), StandardCharsets.UTF_8))) {
                String line;
                while ((line = reader.readLine()) != null) {
                    // 截取文件#前面的内容
                    final int ci = line.indexOf('#');
                    if (ci >= 0) {
                        line = line.substring(0, ci);
                    }
                    line = line.trim();
                    // 如果有内容的话
                    if (line.length() > 0) {
                        try {
                            // 则进行加载key=value的形式数据
                            String name = null;
                            int i = line.indexOf('=');
                            if (i > 0) {
                                name = line.substring(0, i).trim();
                                line = line.substring(i + 1).trim();
                            }
                            if (line.length() > 0) {
                                // 对类信息进行加载操作
                                loadClass(extensionClasses, resourceURL, Class.forName(line, true, classLoader), name);
                            }
                        } catch (Throwable t) {
                            IllegalStateException e = new IllegalStateException("Failed to load extension class (interface: " + type + ", class line: " + line + ") in " + resourceURL + ", cause: " + t.getMessage(), t);
                            exceptions.put(line, e);
                        }
                    }
                }
            }
        } catch (Throwable t) {
            logger.error("Exception occurred when loading extension class (interface: " + type + ", class file: " + resourceURL + ") in " + resourceURL, t);
        }
    }

(10)观察 loadClass 类的实现,可以看到这里是最终进行完成类映射的地方。关于Adaptive中的类

实现原理,我们放在这个章节中的偏后面进行细讲

 private void loadClass(Map> extensionClasses, java.net.URL resourceURL, Class clazz, String name) throws NoSuchMethodException {
// 当前扩展点的实现,必须是当前扩展接口的实现才可以
        if (!type.isAssignableFrom(clazz)) {
            throw new IllegalStateException("Error occurred when loading extension class (interface: " + type + ", class line: " + clazz.getName() + "), class " + clazz.getName() + " is not subtype of interface.");
        }
// 如果是包含了Adaptive注解,则认为是需要对扩展点包装的方法,这里只做了存储操作,存储至 cachedAdaptiveClass中

        if (clazz.isAnnotationPresent(Adaptive.class)) {
            cacheAdaptiveClass(clazz);
        } else if (isWrapperClass(clazz)) {
// 判断是否是wapper类型, 是否构造函数中有该接口类型的传入
// wrapper类型的意思是,对当前的扩展点实现封装功能处理 
            cacheWrapperClass(clazz);
        } else {
            clazz.getConstructor();
// 寻找他是否已经定义过了名称, 这里就不继续往里面细看了,主要是获取当前类的 org.apache.dubbo.common.Extension注解,如果有的话就使用这个名称,否则的话就是用当前类的 简单名称
            if (StringUtils.isEmpty(name)) {
                name = findAnnotationName(clazz);
                if (name.length() == 0) {
                    throw new IllegalStateException("No such extension name for the class " + clazz.getName() + " in the config " + resourceURL);
                }
            }
// 否则的话,就对这个名称和class做映射关系
            String[] names = NAME_SEPARATOR.split(name);
            if (ArrayUtils.isNotEmpty(names)) {
// 如果当前类拥有Activate注解,则将其进行添加到cachedActivates对象中,意味 着需要执行 
                cacheActivateClass(clazz, names[0]);
// 进行名称映射保存
                for (String n : names) {
                    cacheName(clazz, n);
                    saveInExtensionClass(extensionClasses, clazz, n);
                }
            }
        }
    }

当执行完这几个方法之后,会对一下几个字段进行更新:

cachedAdaptiveClass: 当前Extension类型对应的AdaptiveExtension类型(只能一个)

cachedWrapperClasses: 当前Extension类型对应的所有Wrapper实现类型(无顺序)

cachedActivates: 当前Extension实现自动激活实现缓存(map,无序)

cachedNames: 扩展点实现类对应的名称(如配置多个名称则值为第一个)

根据name获取扩展点的方法 getExtension

(1) getExtension 方法实现。这里面同样主要作用是根据name对扩展点进行处理和进行加锁来创建

真实的引用,其中都是有使用缓存来处理。

public T getExtension(String name) { 
if (StringUtils.isEmpty(name)) { throw new IllegalArgumentException("Extension name null"); }
// 获取当前SPi的默认扩展实现类 
if ("true".equals(name)) { return getDefaultExtension(); }
// 获取当前类的holder,实现原理和cachedClasses的方式相同,都是建立同一个引用后再进行 加锁
final Holder holder = getOrCreateHolder(name); 
Object instance = holder.get(); 
if (instance == null) { 
synchronized (holder) {
instance = holder.get(); 
if (instance == null) {
// 真正进行创建实例 
instance = createExtension(name); holder.set(instance); 
} 
} 
}
return (T) instance;
}

(2)下面来看看 getOrCreateHolder 是如何保证缓存的。

private Holder getOrCreateHolder(String name) {
// 获取当前名称的和对象Holder的映射关系 
Holder holder = cachedInstances.get(name); if (holder == null) {
// 如果不存在的话,则使用putIfAbsent的原子操作来设置值,这个值可以保证多线程的额情 况下有值的时候不处理,没有值进行保存 
cachedInstances.putIfAbsent(name, new Holder<>());
// 获取真实的holder处理器 
holder = cachedInstances.get(name); 
}
return holder; }

(3)然后我们再来看看 createExtension 的实现,他是具体根据扩展的class名称来进行创建实例的

类。这里也是创建扩展点类的主要实现。下面我们也对其他扩展点注册的方法做说明。

private T createExtension(String name) { 
// 从配置文件中加载所有的扩展类 可以得到配置项名称 到配置类的映射关系
Class clazz = getExtensionClasses().get(name); if (clazz == null) { throw findException(name); }try {
// 获取是否已经有实例了 
T instance = (T) EXTENSION_INSTANCES.get(clazz);
if (instance == null) { 
// 没有的话,同样适用putIfAbsent的方式来保证只会创建一个对象并且保存 EXTENSION_INSTANCES.putIfAbsent(clazz, clazz.newInstance()); 
instance = (T) EXTENSION_INSTANCES.get(clazz); }
// 注入其他扩展点的实体,用于扩展点和其他的扩展点相互打通 
injectExtension(instance); 
// 进行遍历所有的包装类信息,分别对包装的类进行包装实例化,并且返回自身引用 
Set> wrapperClasses = cachedWrapperClasses;
if (CollectionUtils.isNotEmpty(wrapperClasses)) { for (Class wrapperClass : wrapperClasses) {
// 同样进行注册其他扩展点的功能
instance = injectExtension((T) wrapperClass.getConstructor(type).newInstance(instance)); } }
// 对扩展点进行初始化操作 i
nitExtension(instance); return instance; } catch (Throwable t) { throw new IllegalStateException("Extension instance (name: " + name + ", class: " + type + ") couldn't be instantiated: " + t.getMessage(), t); } }

(4) injectExtension 方法观察

 private T injectExtension(T instance) {
        if (objectFactory null){
            return instance;
        }
        try {
// 遍历其中的所有方法
            for (Method method : instance.getClass().getMethods()) {
// 是否是set方法 // 1. 以"set"开头 // 2. 参数长度为1 // 3. 是公开的方法 
                if (!isSetter(method)) {
                    continue;
                }
/*** Check {@link DisableInject} to see if we need auto injection for this property*/
// 如果设置了取消注册,则不进行处理
                if (method.getAnnotation(DisableInject.class) != null) {
                    continue;
                }
// 获取参数类型,并且非基础类型(String, Integer等类型) 
                Class pt = method.getParameterTypes()[0];
                if (ReflectUtils.isPrimitives(pt)) {
                    continue;
                }
                try {
// 获取需要set的扩展点名称 
                    String property = getSetterProperty(method);
// 从ExtensionLoader中加载指定的扩展点 
// 比如有一个方法为setRandom(LoadBalance loadBalance),那么则以为着需 要加载负载均衡中名为random的扩展点
                    Object object = objectFactory.getExtension(pt, property);
                    if (object != null) {
                        method.invoke(instance, object);
                    }
                } catch (Exception e) {
                    logger.error("Failed to inject via method " + method.getName() + " of interface " + type.getName() + ": " + e.getMessage(), e);
                }
            }
        } catch (Exception e) {
            logger.error(e.getMessage(), e);
        }
        return instance;
    }

Adaptive功能实现原理

Adaptive的主要功能是对所有的扩展点进行封装为一个类,通过URL传入参数的时动态选择需要使用的

扩展点。其底层的实现原理就是动态代理,这里我们会通过源码的形式告诉大家,他是如何通过动态代

理进行加载的。

(1)这里我们 getAdaptiveExtension 方法讲起,这个里面就是真正获取该类。这里可以看到,

ExtentionLoader 中大量的使用了Holder和加锁的方式去进行唯一创建。

public T getAdaptiveExtension() {
// 和原先是用相同的方式,进行Holder和加锁的方式来保证只会被创建一次
        Object instance = cachedAdaptiveInstance.get();
        if (instance == null) {
// 如果直接已经有创建并且错误的情况,则直接返回错误信息,防止重复没必要的创建 if (createAdaptiveInstanceError != null) {
            throw new IllegalStateException("Failed to create adaptive instance: " + createAdaptiveInstanceError.toString(), createAdaptiveInstanceError);
        }
        synchronized (cachedAdaptiveInstance) {
            instance = cachedAdaptiveInstance.get();
            if (instance == null) {
                try {// 这里真实的进行创建操作 
                    instance = createAdaptiveExtension();
                    cachedAdaptiveInstance.set(instance);
                } catch (Throwable t) {
                    createAdaptiveInstanceError = t;
                    throw new IllegalStateException("Failed to create adaptive instance: " + t.toString(), t);
                }
            }
        }
    }return(T)instance;
}

(2)这里我们继续从 createAdaptiveExtension 来去查看实现。这里主要是进行了一些方法封装。

private T createAdaptiveExtension() { 

try {

// 这里使用`getAdaptiveExtensionClass`方法进行构建类并且执行实例化 

// 然后和普通的其他class相同,依旧使用injectExtension进行扩展 

return injectExtension((T) getAdaptiveExtensionClass().newInstance()); 

} catch (Exception e) { 

throw new IllegalStateException("Can't create adaptive extension " + 

type + ", cause: " + e.getMessage(), e); 

} 

}

private Class getAdaptiveExtensionClass() { 

// 确保已经加载了所有的扩展类信息 

getExtensionClasses(); 

// 如果已经加载过了,则直接返回 

if (cachedAdaptiveClass != null) { 

return cachedAdaptiveClass; 

}

// 否则进行构建操作 

return cachedAdaptiveClass = createAdaptiveExtensionClass(); 

} 

(3)具体再来看 createAdaptiveExtensionClass 方法。这里主要是进行生成Adaptive的代码,并且

进行编译生成class。

private Class createAdaptiveExtensionClass() { 

// 实例化一个新的Adaptive的代码生成器,并且进行代码生成 

String code = new AdaptiveClassCodeGenerator(type, 

cachedDefaultName).generate(); 

// 获取类加载器 

ClassLoader classLoader = findClassLoader(); 

// 通过扩展点,寻找编译器, 目前有Java自带的编译器和Javassist的编译器,这里不做细展开 

org.apache.dubbo.common.compiler.Compiler compiler = 

ExtensionLoader.getExtensionLoader(org.apache.dubbo.common.compiler.Compiler.cla 

ss).getAdaptiveExtension(); 

// 编译并且生成class 

return compiler.compile(code, classLoader); 

} 

(4)具体通过 AdaptiveClassLoaderCodeGenerator.generate 方法来进行实现真正的代码生成。

public String generate() { 

// 如果没有任何方法标记为Adaptive,则不做处理 

if (!hasAdaptiveMethod()) { 

throw new IllegalStateException("No adaptive method exist on extension " 

\+ type.getName() + ", refuse to create the adaptive class!"); 

}

// 进行编写代码 

StringBuilder code = new StringBuilder(); 

// 生成包信息 

code.append(generatePackageInfo()); 

// 生成引用信息 

code.append(generateImports()); 

// 生成类声明code.append(generateClassDeclaration()); 

// 生成每一个方法 

Method[] methods = type.getMethods(); 

for (Method method : methods) { 

code.append(generateMethod(method)); 

}

// 输出最后的一个"}"来结束当前类 

code.append("}"); 

if (logger.isDebugEnabled()) { 

logger.debug(code.toString()); 

}

return code.toString(); 

} 

(5)这里主要对其中的每一个方法来做处理。具体主要观看 generateMethod 方法。这里的很多方法

主要是依赖反射机制去进行方法封装,最终拼接为一个最终字符串。其中最关键的方法在于

generateMethodContent 方法来生成代理功能。

private String generateMethod(Method method) { 

// 方法返回类型 

String methodReturnType = method.getReturnType().getCanonicalName(); 

// 方法名称 

String methodName = method.getName(); 

// 生成方法内容 

String methodContent = generateMethodContent(method); 

// 生辰参数列表 

String methodArgs = generateMethodArguments(method); 

// 方法抛出的异常 

String methodThrows = generateMethodThrows(method); 

// 格式化为一个字符串 

// public %s %s(%s) %s { 

// %s 

// } 

return String.format(CODE_METHOD_DECLARATION, methodReturnType, methodName, 

methodArgs, methodThrows, methodContent); 

}

(6) generateMethodContent 方法解读。这块儿更推荐通过debug的形式走进来, 看代码也更直接了

当(就可以直接按照常用功能中的SPI章节来debug)。这部分也是整个Adaptive中最为核心的代码,包括

获取扩展点名称并且执行。

private String generateMethodContent(Method method) { 

// 获取Adaptive注解,只支持含有Adaptive注解方法处理 

Adaptive adaptiveAnnotation = method.getAnnotation(Adaptive.class); 

StringBuilder code = new StringBuilder(512); 

if (adaptiveAnnotation == null) { 

// 没有该注解,直接抛出异常 

// throw new UnsupportedOperationException 

return generateUnsupported(method); 

} else { 

// 获取URL参数的所在位置 

int urlTypeIndex = getUrlTypeIndex(method);

if (urlTypeIndex != -1) { 

// 增加判断url不为空的代码 

code.append(generateUrlNullCheck(urlTypeIndex)); 

} else { 

// 获取这个方法中的所有参数列表 

// 寻找每个参数中是否有"get"开头的方法,并且返回值是URL的 

// 如果有则同样认定为找到,否则抛出异常 

code.append(generateUrlAssignmentIndirectly(method)); 

}

// 获取扩展点的适配名称 

String[] value = getMethodAdaptiveValue(adaptiveAnnotation); 

// 判断是否有参数是Invocation类 

// 这里判断的主要目的在于,拥有Invocation时,则获取扩展名称的方式发生改变 

// 存在Invocation时,通过getMethodParameter,否则通过getParameter来执行 

// getMethodParameter是dubboURL中特有的,用于将"test.a"转换为"testA"的形式 

boolean hasInvocation = hasInvocationArgument(method); 

// 增加有Invocation类时的不为空判断 

code.append(generateInvocationArgumentNullCheck(method)); 

// 生成获取扩展点名称的方法 

code.append(generateExtNameAssignment(value, hasInvocation)); 

// 检查扩展点不能为空 

code.append(generateExtNameNullCheck(value)); 

// 获取扩展点实现 

code.append(generateExtensionAssignment()); 

// 返回扩展点中的真实调用 

code.append(generateReturnAndInvocation(method)); 

}

return code.toString(); 

}

9、集群容错源码剖析

dubbo_第10张图片

集群工作过程可分为两个阶段,第一个阶段是在服务消费者初始化期间,集群 Cluster 实现类为服务消

费者创建 Cluster Invoker 实例,即上图中的 merge 操作。第二个阶段是在服务消费者进行远程调用

时。以 FailoverClusterInvoker 为例,该类型 Cluster Invoker 首先会调用 Directory 的 list 方法列举

Invoker 列表(可将 Invoker 简单理解为服务提供者)。Directory 的用途是保存 Invoker列表,可简单

类比为 List。其实现类 RegistryDirectory 是一个动态服务目录,可感知注册中心配置的变化,它所持

有的 Invoker 列表会随着注册中心内容的变化而变化。每次变化后,RegistryDirectory 会动态增删

Invoker,并调用 Router 的 route 方法进行路由,过滤掉不符合路由规则的 Invoker。当

FailoverClusterInvoker 拿到 Directory 返回的 Invoker 列表后,它会通过 LoadBalance 从 Invoker 列

表中选择一个 Invoker。最后 FailoverClusterInvoker 会将参数传给 LoadBalance 选择出的 Invoker

实例的 invoke 方法,进行真正的远程调用。

Dubbo 主要提供了这样几种容错方式:

Failover Cluster - 失败自动切换 失败时会重试其它服务器 

Failfast Cluster - 快速失败 请求失败后快速返回异常结果 不重试 

Failsafe Cluster - 失败安全 出现异常 直接忽略 会对请求做负载均衡 

Failback Cluster - 失败自动恢复 请求失败后 会自动记录请求到失败队列中 

Forking Cluster - 并行调用多个服务提供者 其中有一个返回 则立即返回结果 

信息缓存接口Directory

Directory是Dubbo中的一个接口,主要用于缓存当前可以被调用的提供者列表信息。我们在消费者进

行调用时都会通过这个接口来获取所有的提供者列表,再进行后续处理。

(1)我们先来看看 Directory 接口,这里比较简单,我们可以通过 Directory 来找到指定服务中的提

供者信息列表。

public interface Directory extends Node { 

// 获取服务的类型,也就是我们demo中所使用的HelloService 

Class getInterface(); 

// 根据本次调用的信息来获取所有可以被执行的提供者信息 

List> list(Invocation invocation) throws RpcException; 

// 获取所有的提供者信息 

List> getAllInvokers(); 

}

(2) Directory 中有一个基础的实现类,主要是对一些通用的方法封装,主要还是依靠真正的实现。

其中可以看看 AbstractDirectory中的list 方法。通过这个方式我们能知道,真正实现还是依靠于真

正子类汇总的 doList 方法。

public List> list(Invocation invocation) throws RpcException { 

if (destroyed) { 

throw new RpcException("Directory already destroyed .url: " + getUrl()); 

}

// 交给子类进行处理 

return doList(invocation); 

}

protected abstract List> doList(Invocation invocation) throws 

RpcException;

(3)我们可以继续往下看,他的实现子类是 RegistryDirectory#doList 方法。我们可以看到这里的

实现也相对比较简单,主要依靠routerChain去决定真实返回的提供者列表。

public List> doList(Invocation invocation) { 

// 当没有提供者的时候会直接抛出异常 

if (forbidden) { 

// 1. No service provider 2. Service providers are disabled 

throw new RpcException(RpcException.FORBIDDEN_EXCEPTION, "No provider 

available from registry " + 

getUrl().getAddress() + " for service " + 

getConsumerUrl().getServiceKey() + " on consumer " + 

NetUtils.getLocalHost() + " use dubbo version " + 

Version.getVersion() + 

", please check status of providers(disabled, not registered or 

in blacklist)."); 

}

List> invokers = null; 

try {

// 交给路由chain去处理并且获取所有的invokers 

invokers = routerChain.route(getConsumerUrl(), invocation); 

} catch (Throwable t) { 

logger.error("Failed to execute router: " + getUrl() + ", cause: " + 

t.getMessage(), t); 

}

return invokers == null ? Collections.emptyList() : invokers; 

} 

(4)路由是如何获取Invoker 列表的呢? 我们观察这个方法: RegistryProtocol.refer ,这里面也是

Invoker 生成的部分关键代码。

// url: registry://127.0.0.1:2181/org.apache.dubbo.registry.RegistryService? 

application=dubbo-demo-annotation- 

consumer&dubbo=2.0.2&pid=7170&refer=application%3Ddubbo-demo-annotation- 

consumer%26dubbo%3D2.0.2%26init%3Dfalse%26interface%3Dcom.lagou.service.HelloSer 

vice%26methods%3DsayHello%2CsayHelloWithPrint%2CsayHelloWithTransmission%2CsayHe 

lloWithException%26pid%3D7170%26register.ip%3D192.168.1.102%26release%3D2.7.5%26 

side%3Dconsumer%26sticky%3Dfalse%26timestamp%3D1583995964957®istry=zookeeper& 

release=2.7.5×tamp=1583995964996 

public  Invoker refer(Class type, URL url) throws RpcException { 

// 获取注册中心的地址URL(主要用于转换协议),比如我们是使用的zookeeper,那么他就会转换 

为zookeeper:// 

url = getRegistryUrl(url); 

// 获取注册中心配置信息 

Registry registry = registryFactory.getRegistry(url); 

if (RegistryService.class.equals(type)) { 

return proxyFactory.getInvoker((T) registry, type, url); 

}

// 适用于多个分组时使用 

Map qs = 

StringUtils.parseQueryString(url.getParameterAndDecoded(REFER_KEY)); 

String group = qs.get(GROUP_KEY); 

if (group != null && group.length() > 0) { 

if ((COMMA_SPLIT_PATTERN.split(group)).length > 1 || "*".equals(group)) 

{ 

return doRefer(getMergeableCluster(), registry, type, url); 

} 

}

// 真正进行构建invoker和我们上面的Directory 

return doRefer(cluster, registry, type, url); 

} 

(5)下面我们再来仔细跟踪 doRefer 方法, 这里面就是最主要产生Directory并且注册和监听的主要代

码逻辑。我们所需要的 routerChain 也是在这里产生的。

private  Invoker doRefer(Cluster cluster, Registry registry, Class 

type, URL url) { 

// 实例化Directory 

RegistryDirectory directory = new RegistryDirectory(type, url); 

// 设置注册中心和所使用的协议 

directory.setRegistry(registry); 

directory.setProtocol(protocol); 

// all attributes of REFER_KEY 

// 生成监听路径URL 

Map parameters = new HashMap 

(directory.getUrl().getParameters()); 

URL subscribeUrl = new URL(CONSUMER_PROTOCOL, 

parameters.remove(REGISTER_IP_KEY), 0, type.getName(), parameters); 

if (!ANY_VALUE.equals(url.getServiceInterface()) && 

url.getParameter(REGISTER_KEY, true)) { 

// 在Directory中设置监听的consumerurl地址 

directory.setRegisteredConsumerUrl(getRegisteredConsumerUrl(subscribeUrl, 

url)); 

// 在注册中心中注册消费者URL 

// 也就是我们之前的Zookeeper的node中看到的consumer://

registry.register(directory.getRegisteredConsumerUrl()); 

}

// 构建路由链 

directory.buildRouterChain(subscribeUrl); 

// 进行监听所有的的provider 

directory.subscribe(subscribeUrl.addParameter(CATEGORY_KEY, 

PROVIDERS_CATEGORY + "," + CONFIGURATORS_CATEGORY + "," + 

ROUTERS_CATEGORY)); 

// 加入到集群中 

Invoker invoker = cluster.join(directory); 

return invoker; 

}

(6)回到 RouterChain#route 方法。这里所做的就是依次遍历所有的路由,然后分别执行并返回。这

也就是整体的路由规则的实现。

public List> route(URL url, Invocation invocation) { 

// 所有的invoker列表 

List> finalInvokers = invokers; 

// 依次交给所有的路由规则进行选取路由列表 

for (Router router : routers) { 

finalInvokers = router.route(finalInvokers, url, invocation); 

}

return finalInvokers; 

}

路由规则实现原理

这里我们具体来讲解一下 RouterChain 中的 Router 是如何实现的。这里我们主要对

ConditionRouter 的实现来做说明。

(1)可以看到这个类中有两个属性比较关键,这两个属性也是判断的关键。

// 是否满足判断条件。
protected Map whenCondition; 
// 当满足判断条件时如何选择
invokers protected Map thenCondition;

(2)我们可以看到每一个 MatchPair 都有这两个属性,分别表示满足的条件和不满足的具体条件。

final Set matches = new HashSet();
final Set mismatches = new HashSet();

(3)下面我们先跳过生成规则的代码,先从如何选择Invoker入手。可以看到整体的流程也比较简单,

主要在于判断( matchWhen )和选择( matchThen )的逻辑。

public  List> route(List> invokers, URL url, Invocation 

invocation) throws RpcException { 

// 不启用的时,则直接返回提供者的列表 

if (!enabled) { 

return invokers; 

}

// 如果不存在任何invoker则直接返回 

if (CollectionUtils.isEmpty(invokers)) { 

return invokers; 

}

try {

// 判断是否满足判断条件,不满足直接返回列表 

if (!matchWhen(url, invocation)) { 

return invokers; 

}

List> result = new ArrayList>(); 

if (thenCondition == null) { 

logger.warn("The current consumer in the service blacklist. 

consumer: " + NetUtils.getLocalHost() + ", service: " + url.getServiceKey()); 

return result; 

}

// 依次判断每一个invoker的url是否满足条件 

for (Invoker invoker : invokers) { 

if (matchThen(invoker.getUrl(), url)) { 

result.add(invoker); 

} 

}

// 如果不为空则直接返回 

if (!result.isEmpty()) { 

return result; 

} else if (force) { 

// 如果为空,并且必须要走这个条件时,则直接返回空 

logger.warn("The route result is empty and force execute. consumer: 

" + NetUtils.getLocalHost() + ", service: " + url.getServiceKey() + ", router: " 

\+ url.getParameterAndDecoded(RULE_KEY)); 

return result; 

} 

} catch (Throwable t) { 

logger.error("Failed to execute condition router rule: " + getUrl() + ", 

invokers: " + invokers + ", cause: " + t.getMessage(), t); 

}

return invokers; 

} 

(4)可以看到这里判断条件是尽量的简单,甚至可以为空,主要在于判定when 以及是否匹配then规

则。两者最终底层都是调用的 matchCondition 方法,我们在看他实现逻辑之前,先来确定一下

condition 中都存储了什么样的信息。

boolean matchWhen(URL url, Invocation invocation) {

// 1. 如果判断条件为空则直接认定为匹配 

// 2. 如果条件匹配则认定为匹配 

return CollectionUtils.isEmptyMap(whenCondition) || 

matchCondition(whenCondition, url, null, invocation); 

}

private boolean matchThen(URL url, URL param) { 

// 判断条件不能为空并且匹配条件规则时才返回 

return CollectionUtils.isNotEmptyMap(thenCondition) && 

matchCondition(thenCondition, url, param, null); 

} 

(5)最后我们再来看看他是如何生成整个路由规则的。我们跟进 ConditionRouter#init 方法,其中

比较关键的方法为 parseRule , when 和 then 的规则都是相同的。

public void init(String rule) { 

try {

// 必须包含规则配置 

if (rule == null || rule.trim().length() == 0) { 

throw new IllegalArgumentException("Illegal route rule!"); 

}

rule = rule.replace("consumer.", "").replace("provider.", ""); 

// 根据"=>"来判断when或者then条件 

int i = rule.indexOf("=>"); 

String whenRule = i < 0 ? null : rule.substring(0, i).trim(); 

String thenRule = i < 0 ? rule.trim() : rule.substring(i + 2).trim(); 

// 分别根据"=>"来生成前后的规则 

Map when = StringUtils.isBlank(whenRule) || 

"true".equals(whenRule) ? new HashMap() : 

parseRule(whenRule); 

Map then = StringUtils.isBlank(thenRule) || 

"false".equals(thenRule) ? null : parseRule(thenRule); 

this.whenCondition = when; 

this.thenCondition = then; 

} catch (ParseException e) { 

throw new IllegalStateException(e.getMessage(), e); 

} 

} 

(6) parseRule 方法实现。

private static Map parseRule(String rule) throws 

ParseException { 

Map condition = new HashMap(); 

if (StringUtils.isBlank(rule)) { 

return condition; 

}

// 当前所操作的数据 

// 用于后面循环中使用,标识上一次循环中所操作的信息 

MatchPair pair = null; 

Set values = null; 

// 转化每一个条件 

// 这里分别会对每一次的分割做匹配 

// host = 1.1.1.* & host != 1.1.1.2 & method=sayHello// 1. "" host 

// 2. "=" 1.1.1.x 

// 3. "&" host 

// 4. "!=" 1.1.1.2 

// .... 

final Matcher matcher = ROUTE_PATTERN.matcher(rule); 

while (matcher.find()) { // Try to match one by one 

// 分隔符 

String separator = matcher.group(1); 

// 内容 

String content = matcher.group(2); 

// 如果不存在分隔符 

// 则认为是首个判断 

if (StringUtils.isEmpty(separator)) { 

pair = new MatchPair(); 

// 则直接放入当前condition 

condition.put(content, pair); 

}

// 如果是"&"则代表并且 

else if ("&".equals(separator)) { 

// 如果当前的when或者then中不包含该判定条件则添加则放入 

// 否则当前的condition就需要拿出来 

if (condition.get(content) null) { 

pair = new MatchPair(); 

condition.put(content, pair); 

} else { 

pair = condition.get(content); 

} 

}

// The Value in the KV part. 

else if ("=".equals(separator)) { 

if (pair == null) { 

throw new ParseException("Illegal route rule \"" 

\+ rule + "\", The error char '" + separator 

\+ "' at index " + matcher.start() + " before \"" 

\+ content + "\".", matcher.start()); 

}

// 如果是等于的比较,则需要将值放入matches中 

values = pair.matches; 

values.add(content); 

}

// The Value in the KV part. 

else if ("!=".equals(separator)) { 

if (pair null) { 

throw new ParseException("Illegal route rule \"" 

\+ rule + "\", The error char '" + separator 

\+ "' at index " + matcher.start() + " before \"" 

\+ content + "\".", matcher.start()); 

}

// 如果为不等于,则需要放入到不等于中 

values = pair.mismatches; 

values.add(content); 

}

// 如果values是多个的话 

else if (",".equals(separator)) { // Should be separated by ','

if (values == null || values.isEmpty()) { 

throw new ParseException("Illegal route rule \"" 

\+ rule + "\", The error char '" + separator 

\+ "' at index " + matcher.start() + " before \"" 

\+ content + "\".", matcher.start()); 

}

// 则分别加入到values列表中 

values.add(content); 

} else { 

throw new ParseException("Illegal route rule \"" + rule 

\+ "\", The error char '" + separator + "' at index " 

\+ matcher.start() + " before \"" + content + "\".", 

matcher.start()); 

} 

}

return condition; 

}

Cluster组件

下面我们再来看看再Dubbo中也是很关键的组件: Cluster 。它主要用于代理真正的Invoker执行时做

处理,提供了多种容错方案。

(1)我们首先来看一下他的接口定义。这里我们在之前也有见到过( doRefer ),那里也是真正调用它来

生成的位置。

// 默认使用failover作为实现 

@SPI(FailoverCluster.NAME) 

public interface Cluster { 

// 生成一个新的invoker 

@Adaptive 

 Invoker join(Directory directory) throws RpcException; 

}

(2)下面我们再来看一下他提供的几种实现,Cluster和 Registry 采用了相同的类方式,都提供了

Abstract 类来进行统一的封装。

public  Invoker join(Directory directory) throws RpcException { 

// 使用子类doJoin来真正生成Invoker 

// 并且使用拦截器的方式进行一层封装 

return buildClusterInterceptors(doJoin(directory), 

directory.getUrl().getParameter(REFERENCE_INTERCEPTOR_KEY)); 

}

// 对invoker进行封装 

private  Invoker buildClusterInterceptors(AbstractClusterInvoker 

clusterInvoker, String key) { 

AbstractClusterInvoker last = clusterInvoker; 

// 获取所有的拦截器 

List interceptors = 

ExtensionLoader.getExtensionLoader(ClusterInterceptor.class).getActivateExtensio 

n(clusterInvoker.getUrl(), key);if (!interceptors.isEmpty()) { 

for (int i = interceptors.size() - 1; i >= 0; i--) { 

// 对拦截器进行一层封装 

final ClusterInterceptor interceptor = interceptors.get(i); 

final AbstractClusterInvoker next = last; 

last = new InterceptorInvokerNode<>(clusterInvoker, interceptor, 

next); 

} 

}

return last; 

} 

(3)下面我们看看 failover 里面都做了些什么。这里面比较简单,只是进行new了一个新的

Invoker。

public class FailoverCluster extends AbstractCluster { 

public final static String NAME = "failover"; 

@Override 

public  AbstractClusterInvoker doJoin(Directory directory) throws 

RpcException { 

return new FailoverClusterInvoker<>(directory); 

} 

}

(4)我们通过观察Invoker接口得知,其中最关键的方式是 invoke 方法。我们也可以看到,他也是通

过 Abstract 进行了一层封装。其中我们来看看他的 invoke 方法实现。

( AbstractClusterInvoker.invoke )

public Result invoke(final Invocation invocation) throws RpcException { 

// 检查是否已经关闭了 

checkWhetherDestroyed(); 

// 拷贝当前RPCContext中的附加信息到当前的invocation中 

Map contextAttachments = 

RpcContext.getContext().getAttachments(); 

if (contextAttachments != null && contextAttachments.size() != 0) { 

((RpcInvocation) invocation).addAttachments(contextAttachments); 

}

// 找寻出所有支持的invoker,已经路由过的 

List> invokers = list(invocation); 

// 初始化负载均衡器 

LoadBalance loadbalance = initLoadBalance(invokers, invocation); 

// 用于适配异步请求使用 

RpcUtils.attachInvocationIdIfAsync(getUrl(), invocation); 

// 交给子类进行真正处理请求 

return doInvoke(invocation, invokers, loadbalance); 

}

(5)我们再来细关注一下 FailoverClusterInvoker 中的 doInvoke 方法是怎么做的。这里的方法也

是很简单,主要是通过for循环的形式来达到重试次数的目的,并且每次重试否会重新走一遍路由等规

public Result doInvoke(Invocation invocation, final List> invokers, 

LoadBalance loadbalance) throws RpcException { 

// 如果没有任何的invoker则抛出异常 

List> copyInvokers = invokers; 

checkInvokers(copyInvokers, invocation); 

// 获取这个方法最大的重试次数 

String methodName = RpcUtils.getMethodName(invocation); 

int len = getUrl().getMethodParameter(methodName, RETRIES_KEY, 

DEFAULT_RETRIES) + 1; 

if (len <= 0) { 

len = 1; 

}

// 通过for循环的形式表示可以重试的次数 

RpcException le = null; // last exception. 

List> invoked = new ArrayList>(copyInvokers.size()); 

// invoked invokers. 

Set providers = new HashSet(len); 

for (int i = 0; i < len; i++) { 

if (i > 0) { 

// 每次都执行一次是否关闭当前consumer的判断 

checkWhetherDestroyed(); 

// 重新获取一遍invoker列表 

copyInvokers = list(invocation); 

// 再次进行一次存在invoker的检查 

checkInvokers(copyInvokers, invocation); 

}

// 选择具体的invoker(交给负载均衡) 

Invoker invoker = select(loadbalance, invocation, copyInvokers, 

invoked);

// 增加到已经执行过得invoker列表中 

invoked.add(invoker); 

RpcContext.getContext().setInvokers((List) invoked); 

try {

// 让其真正的去进行执行操作 

Result result = invoker.invoke(invocation); 

if (le != null && logger.isWarnEnabled()) { 

logger.warn("Although retry the method " + methodName 

\+ " in the service " + getInterface().getName() 

\+ " was successful by the provider " + 

invoker.getUrl().getAddress() 

\+ ", but there have been failed providers " + providers 

\+ " (" + providers.size() + "/" + copyInvokers.size() 

\+ ") from the registry " + 

directory.getUrl().getAddress() 

\+ " on the consumer " + NetUtils.getLocalHost() 

\+ " using the dubbo version " + Version.getVersion() + 

". Last error is: " 

\+ le.getMessage(), le); 

}

return result; 

} catch (RpcException e) { 

// 如果是业务异常则直接抛出 

if (e.isBiz()) {

throw e; 

}

le = e; 

} catch (Throwable e) { 

le = new RpcException(e.getMessage(), e); 

} finally { 

providers.add(invoker.getUrl().getAddress()); 

} 

}

// 如果重试了指定次数后依旧失败,则直接认定为失败 

throw new RpcException(le.getCode(), "Failed to invoke the method " 

+ methodName + " in the service " + getInterface().getName() 

+ ". Tried " + len + " times of the providers " + providers 

+ " (" + providers.size() + "/" + copyInvokers.size() 

+ ") from the registry " + directory.getUrl().getAddress() 

+ " on the consumer " + NetUtils.getLocalHost() + " using the dubbo 

version " 

+ Version.getVersion() + ". Last error is: " 

+ le.getMessage(), le.getCause() != null ? le.getCause() : le); 

}

负载均衡实现原理

(1)再次来看看 LoadBalance 接口定义。这里默认选择了随机算法。

// 默认使用随机算法

@SPI(RandomLoadBalance.NAME) 

public interface LoadBalance { 

// 进行选择真正的invoker 

@Adaptive("loadbalance") 

 Invoker select(List> invokers, URL url, Invocation 

invocation) throws RpcException; 

}

(2) LoadBalance 依旧选择了 AbstractLoadBalance 作为基础的实现类。我们来关注一下 select

方法。这里的方法也比较简单,主要就是处理只有一个invoker的情况。

public  Invoker select(List> invokers, URL url, Invocation 

invocation) { 

// 如果不存在任何的invoker则直接返回 

if (CollectionUtils.isEmpty(invokers)) { 

return null; 

}

// 如果还有一个invoker则直接返回,不需要执行负载均衡 

if (invokers.size() == 1) { 

return invokers.get(0); 

}

// 交给子类进行实现 

return doSelect(invokers, url, invocation); 

}	

(3)我们来看看默认的随机算法是如何实现的。这里主要比较关键在于权重的概念。通过权重选取了

不同的机器。

protected  Invoker doSelect(List> invokers, URL url, Invocation 

invocation) { 

// 总计的invoker列表数量 

int length = invokers.size(); 

// 默认每个invoker的权重都是相同的 

boolean sameWeight = true; 

// 所有的权重列表 

int[] weights = new int[length]; 

// 首个invoker的权重信息 

int firstWeight = getWeight(invokers.get(0), invocation); 

weights[0] = firstWeight; 

// 计算总共的权重,并且吧每一个invoker的权重进行设置到列表中 

int totalWeight = firstWeight; 

for (int i = 1; i < length; i++) { 

int weight = getWeight(invokers.get(i), invocation); 

// save for later use 

weights[i] = weight; 

// Sum 

totalWeight += weight; 

if (sameWeight && weight != firstWeight) { 

sameWeight = false; 

} 

}

// 如果权重不相同 

if (totalWeight > 0 && !sameWeight) { 

// 通过总共的权重来随机分配 

int offset = ThreadLocalRandom.current().nextInt(totalWeight); 

// 看看最终落到哪一个机器上去 

for (int i = 0; i < length; i++) { 

offset -= weights[i]; 

if (offset < 0) { 

return invokers.get(i); 

} 

} 

}

// 如果权重都是相同的话,则随机选取一个即可 

return invokers.get(ThreadLocalRandom.current().nextInt(length)); 

}

Invoker执行逻辑

(1)我们依旧先来看一下接口定义:

public interface Invoker extends Node { 

// 当前执行器的服务接口是哪一个 

Class getInterface(); 

// 执行请求操作 

Result invoke(Invocation invocation) throws RpcException; 

}

(2) Invoker 同样具有 AbstractInvoker ,其中我们重点关注一下 invoke 方法。这里同样主要做的

是基础信息封装,并且将请求真正的子类。这里面的子类主要是 DubboInvoker

public Result invoke(Invocation inv) throws RpcException { 

// 判断系统是否已经关闭 

if (destroyed.get()) { 

logger.warn("Invoker for service " + this + " on consumer " + 

NetUtils.getLocalHost() + " is destroyed, " 

\+ ", dubbo version is " + Version.getVersion() + ", this invoker 

should not be used any longer"); 

}

RpcInvocation invocation = (RpcInvocation) inv; 

invocation.setInvoker(this); 

// 设置所有的RPCContext中的附加信息 

if (CollectionUtils.isNotEmptyMap(attachment)) { 

invocation.addAttachmentsIfAbsent(attachment); 

}

Map contextAttachments = 

RpcContext.getContext().getAttachments(); 

if (CollectionUtils.isNotEmptyMap(contextAttachments)) { 

invocation.addAttachments(contextAttachments); 

}

// 获取执行的模式 

invocation.setInvokeMode(RpcUtils.getInvokeMode(url, invocation)); 

// 设置执行id,主要用于适配异步模式使用 

RpcUtils.attachInvocationIdIfAsync(getUrl(), invocation); 

// 交给子类进行真正的执行 

AsyncRpcResult asyncResult; 

try {

asyncResult = (AsyncRpcResult) doInvoke(invocation); 

} catch (InvocationTargetException e) { 

// 业务异常 

Throwable te = e.getTargetException(); 

if (te == null) {asyncResult = AsyncRpcResult.newDefaultAsyncResult(null, e, 

invocation); 

} else { 

if (te instanceof RpcException) { 

((RpcException) te).setCode(RpcException.BIZ_EXCEPTION); 

}

asyncResult = AsyncRpcResult.newDefaultAsyncResult(null, te, 

invocation); 

} 

} catch (RpcException e) { 

// RPC阶段出现了异常 

if (e.isBiz()) { 

asyncResult = AsyncRpcResult.newDefaultAsyncResult(null, e, 

invocation); 

} else { 

throw e; 

} 

} catch (Throwable e) { 

asyncResult = AsyncRpcResult.newDefaultAsyncResult(null, e, invocation); 

}

// 设置执行的结果信息 

RpcContext.getContext().setFuture(new 

FutureAdapter(asyncResult.getResponseFuture())); 

// 返回结果 

return asyncResult; 

}

(3)我们再来看看 DubboInvoker 中的 doInvoke 方法。这里看到,他其实底层更多的是依赖底层真

正的客户端实现。

protected Result doInvoke(final Invocation invocation) throws Throwable { 

RpcInvocation inv = (RpcInvocation) invocation; 

final String methodName = RpcUtils.getMethodName(invocation); 

inv.setAttachment(PATH_KEY, getUrl().getPath()); 

inv.setAttachment(VERSION_KEY, version); 

// 传输的客户端 

ExchangeClient currentClient; 

if (clients.length == 1) { 

currentClient = clients[0]; 

} else { 

currentClient = clients[index.getAndIncrement() % clients.length]; 

}

try {

// 是否返回值,也就是相当于发送了一个指令,不在乎服务端的返回 

// 通常适用于异步请求 

boolean isOneway = RpcUtils.isOneway(getUrl(), invocation); 

// 获取超时的配置 

int timeout = getUrl().getMethodPositiveParameter(methodName, 

TIMEOUT_KEY, DEFAULT_TIMEOUT); 

if (isOneway) { 

// 如果不需要返回值信息(异步) 

boolean isSent = getUrl().getMethodParameter(methodName, 

Constants.SENT_KEY, false);// 发送命令 

currentClient.send(inv, isSent); 

// 告知为异步的结果 

return AsyncRpcResult.newDefaultAsyncResult(invocation); 

} else { 

// 获取真正执行的线程池(ThreadPool中的SPI) 

ExecutorService executor = getCallbackExecutor(getUrl(), inv); 

// 发送请求并且等待结果 

CompletableFuture appResponseFuture = 

currentClient.request(inv, timeout, executor).thenApply(obj 

-> (AppResponse) obj); 

// 在2.6.x中使用,设置完成的额结果信息 

FutureContext.getContext().setCompatibleFuture(appResponseFuture); 

// 创建新的结果信息并且返回 

AsyncRpcResult result = new AsyncRpcResult(appResponseFuture, inv); 

result.setExecutor(executor); 

return result; 

} 

} catch (TimeoutException e) { 

throw new RpcException(RpcException.TIMEOUT_EXCEPTION, "Invoke remote 

method timeout. method: " + invocation.getMethodName() + ", provider: " + 

getUrl() + ", cause: " + e.getMessage(), e); 

} catch (RemotingException e) { 

throw new RpcException(RpcException.NETWORK_EXCEPTION, "Failed to invoke 

remote method: " + invocation.getMethodName() + ", provider: " + getUrl() + ", 

cause: " + e.getMessage(), e); 

} 

} 

(4)我们再来详细追踪一下 ExchangeClient 接口,发现他有一个最关键的方法。位于

ExchangeChannel 接口中。

// 真实的发送请求信息 // 
request: RPCInvocation 
// timeout: 超时 
//executor: 业务线程池
CompletableFuture request(Object request, int timeout, ExecutorService executor) throws RemotingException;

(5)他底层真实的实现方式是 HeaderExchangeClient 来进行处理的。可以看到他只是交给了真实的

渠道 channel 进行数据处理。

public CompletableFuture request(Object request, int timeout, 

ExecutorService executor) throws RemotingException { 

return channel.request(request, timeout, executor); 

}

(6)这里的 channel 会交 HeaderExchangeChannel 来进行封装。我们来看看他的实现。这里我们需

要细看一下Request对象的组成和DefaultFuture里面了做了些什么。这里的 Channle 对象是通过

Transporter 这个SPI进行创建的。这里我们先不细跟了。我们所熟知的Netty协议就是在这里创建

的。

public CompletableFuture request(Object request, int timeout, 

ExecutorService executor) throws RemotingException { 

if (closed) {

throw new RemotingException(this.getLocalAddress(), null, "Failed to 

send request " + request + ", cause: The channel " + this + " is closed!"); 

}

// 创建一个新的request对象 

Request req = new Request(); 

req.setVersion(Version.getProtocolVersion()); 

req.setTwoWay(true); 

req.setData(request); 

// 创建一个执行结果的回调信息处理 

DefaultFuture future = DefaultFuture.newFuture(channel, req, timeout, 

executor); 

try {

// 交给真正的业务渠道进行处理 

// 这里的渠道是交给Transporter这个SPI进行创建的,其中我们的NettyChannel就是在这 

里产生的 

channel.send(req); 

} catch (RemotingException e) { 

// 请求出现异常则取消当前的请求封装 

future.cancel(); 

throw e; 

}

return future; 

}

10、网络通信原理剖析

数据包结构讲解

dubbo_第11张图片

协议详情

1、Magic - Magic High & Magic Low (16 bits)

标识协议版本号,Dubbo 协议:0xdabb

2、Serialization ID (5 bit)

标识序列化类型:比如 fastjson 的值为6。

3、Event (1 bit)

标识是否是事件消息,例如,心跳事件。如果这是一个事件,则设置为1。

4、2 Way (1 bit)

仅在 Req/Res 为1(请求)时才有用,标记是否期望从服务器返回值。如果需要来自服务器

的返回值,则设置为1。

5、Req/Res (1 bit)

标识是请求或响应。请求: 1; 响应: 0。

6、Status (8 bits)

仅在 Req/Res 为0(响应)时有用,用于标识响应的状态。

​ 20 - OK

​ 30 - CLIENT_TIMEOUT

​ 31 - SERVER_TIMEOUT

​ 40 - BAD_REQUEST

​ 50 - BAD_RESPONSE

​ 60 - SERVICE_NOT_FOUND

​ 70 - SERVICE_ERROR

​ 80 - SERVER_ERROR

​ 90 - CLIENT_ERROR

​ 100 - SERVER_THREADPOOL_EXHAUSTED_ERROR

7、Request ID (64 bits)标识唯一请求。类型为long。

8、Data Length (32 bits)

序列化后的内容长度(可变部分),按字节计数。int类型。

9、Variable Part

被特定的序列化类型(由序列化 ID 标识)序列化后,每个部分都是一个 byte [] 或者 byte

​ 1、如果是请求包 ( Req/Res = 1),则每个部分依次为:

​ Dubbo version

​ Service name

​ Service version

​ Method name

​ Method parameter types

​ Method arguments

​ Attachments

​ 2、如果是响应包(Req/Res = 0),则每个部分依次为:

​ 返回值类型(byte),标识从服务器端返回的值类型:

​ 返回空值:RESPONSE_NULL_VALUE 2

​ 正常响应值: RESPONSE_VALUE 1

​ 异常:RESPONSE_WITH_EXCEPTION 0

​ 返回值:从服务端返回的响应bytes

注意:

对于(Variable Part)变长部分,当前版本的Dubbo 框架使用json序列化时,在每部分内容间

额外增加了换行符作为分隔,请在Variable Part的每个part后额外增加换行符, 如:

优点

协议设计上很紧凑,能用 1 个 bit 表示的,不会用一个 byte 来表示,比如 boolean 类型的标识。

请求、响应的 header 一致,通过序列化器对 content 组装特定的内容,代码实现起来简单。

可以改进的点

1、类似于 http 请求,通过 header 就可以确定要访问的资源,而 Dubbo 需要涉及到用特定序列化

协议才可以将服务名、方法、方法签名解析出来,并且这些资源定位符是 string 类型或者 string

数组,很容易转成 bytes,因此可以组装到 header 中。类似于 http2 的 header 压缩,对于 rpc

调用的资源也可以协商出来一个int来标识,从而提升性能,如果在 header 上组装资源定位符的

话,该功能则更易实现。

2、通过 req/res 是否是请求后,可以精细定制协议,去掉一些不需要的标识和添加一些特定的标识。

比如 status , twoWay 标识可以严格定制,去掉冗余标识。还有超时时间是作为 Dubbo 的

attachment 进行传输的,理论上应该放到请求协议的header中,因为超时是网络请求中必不可

少的。提到 attachment ,通过实现可以看到 attachment 中有一些是跟协议 content 中已有

的字段是重复的,比如 path 和 version 等字段,这些会增大协议尺寸。

3、Dubbo 会将服务名

com.alibaba.middleware.hsf.guide.api.param.ModifyOrderPriceParam ,转换为

Dubbo version bytes (换行符)

Service name bytes (换行符)

…Lcom/alibaba/middleware/hsf/guide/api/param/ModifyOrderPriceParam; ,理论上是不必

要的,最后追加一个 ; 即可。

4、Dubbo 协议没有预留扩展字段,没法新增标识,扩展性不太好,比如新增 响应上下文 的功能,只

有改协议版本号的方式,但是这样要求客户端和服务端的版本都进行升级,对于分布式场景很不友

好。

数据协议ExchangeCodec详解

(1)我们先来看看他的常量定义。

// 消息头的长度 

protected static final int HEADER_LENGTH = 16; 

// 标示为0-15位 

protected static final short MAGIC = (short) 0xdabb; 

protected static final byte MAGIC_HIGH = Bytes.short2bytes(MAGIC)[0]; 

protected static final byte MAGIC_LOW = Bytes.short2bytes(MAGIC)[1]; 

// 消息头中的内容 

protected static final byte FLAG_REQUEST = (byte) 0x80; 

protected static final byte FLAG_TWOWAY = (byte) 0x40; 

protected static final byte FLAG_EVENT = (byte) 0x20; 

protected static final int SERIALIZATION_MASK = 0x1f;

(2)这个类中 encode 和 decode 分别用于将数据发送到 ByteBuffer 中,还有就是将其反向的转换为

对象。encode中的Request就是我们之前所讲的Request对象。

public void encode(Channel channel, ChannelBuffer buffer, Object msg) throws 

IOException { 

// 处理请求对象 

if (msg instanceof Request) { 

encodeRequest(channel, buffer, (Request) msg); 

} else if (msg instanceof Response) { 

// 处理响应 

encodeResponse(channel, buffer, (Response) msg); 

} else { 

// 其他的交给上级处理,用于telnet模式 

super.encode(channel, buffer, msg); 

} 

}

(3)查看 encodeRequest 方法。这里也验证了我们之前所讲的header内容。

protected void encodeRequest(Channel channel, ChannelBuffer buffer, Request req) 

throws IOException { 

// 请求的序列化类型 

Serialization serialization = getSerialization(channel); 

// 写入header信息 

byte[] header = new byte[HEADER_LENGTH]; 

// 模数0-15位 

Bytes.short2bytes(MAGIC, header); 

// 标记为请求 

header[2] = (byte) (FLAG_REQUEST | serialization.getContentTypeId());// 是否是单向还是双向的(异步) 

if (req.isTwoWay()) { 

header[2] |= FLAG_TWOWAY; 

}

// 是否为事件(心跳) 

if (req.isEvent()) { 

header[2] |= FLAG_EVENT; 

}

// 写入当前的请求ID 

Bytes.long2bytes(req.getId(), header, 4); 

// 保存当前写入的位置,将其写入的位置往后面偏移,保留出写入内容大小的位置,先进行写入body 

内容 

int savedWriteIndex = buffer.writerIndex(); 

buffer.writerIndex(savedWriteIndex + HEADER_LENGTH); 

ChannelBufferOutputStream bos = new ChannelBufferOutputStream(buffer); 

ObjectOutput out = serialization.serialize(channel.getUrl(), bos); 

// 按照数据内容的不同,来写入不同的内容 

if (req.isEvent()) { 

encodeEventData(channel, out, req.getData()); 

} else { 

encodeRequestData(channel, out, req.getData(), req.getVersion()); 

}

out.flushBuffer(); 

if (out instanceof Cleanable) { 

((Cleanable) out).cleanup(); 

}

bos.flush(); 

bos.close(); 

// 记录body中写入的长度 

int len = bos.writtenBytes(); 

checkPayload(channel, len); 

// 将其写入到header中的位置中 

Bytes.int2bytes(len, header, 12); 

// 发送到buffer中 

buffer.writerIndex(savedWriteIndex); 

buffer.writeBytes(header); // write header. 

buffer.writerIndex(savedWriteIndex + HEADER_LENGTH + len); 

} 

(4)真正的 encodeRequestData 在子类 DubboCodec 中

protected void encodeRequestData(Channel channel, ObjectOutput out, Object data, 

String version) throws IOException { 

RpcInvocation inv = (RpcInvocation) data; 

// 写入版本 

out.writeUTF(version); 

// 接口全名称 

out.writeUTF(inv.getAttachment(PATH_KEY)); 

// 接口版本号 

out.writeUTF(inv.getAttachment(VERSION_KEY)); 

// 写入方法名称out.writeUTF(inv.getMethodName()); 

// 调用参数描述信息 

out.writeUTF(inv.getParameterTypesDesc()); 

// 所有的请求参数写入 

Object[] args = inv.getArguments(); 

if (args != null) { 

for (int i = 0; i < args.length; i++) { 

out.writeObject(encodeInvocationArgument(channel, inv, i)); 

} 

}

// 写入所有的附加信息 

out.writeAttachments(inv.getAttachments()); 

} 

(5)下面我们再来看看 encodeResponse 方法实现。一样的,这里可以看到和写入request相似

protected void encodeResponse(Channel channel, ChannelBuffer buffer, Response 

res) throws IOException { 

int savedWriteIndex = buffer.writerIndex(); 

try {

Serialization serialization = getSerialization(channel); 

// 和之前的参数一致 

byte[] header = new byte[HEADER_LENGTH]; 

Bytes.short2bytes(MAGIC, header); 

header[2] = serialization.getContentTypeId(); 

if (res.isHeartbeat()) { 

header[2] |= FLAG_EVENT; 

}

// 写入状态码 

byte status = res.getStatus(); 

header[3] = status; 

// 写入内容 

Bytes.long2bytes(res.getId(), header, 4); 

// 和Request一样的内容写入方式,先写入内容,再写入长度 

buffer.writerIndex(savedWriteIndex + HEADER_LENGTH); 

ChannelBufferOutputStream bos = new ChannelBufferOutputStream(buffer); 

ObjectOutput out = serialization.serialize(channel.getUrl(), bos); 

// encode response data or error message. 

if (status Response.OK) { 

if (res.isHeartbeat()) { 

encodeEventData(channel, out, res.getResult()); 

} else { 

encodeResponseData(channel, out, res.getResult(), 

res.getVersion()); 

} 

} else { 

// 这里不太一样的地方在于,如果错误的时候,则直接将错误信息写入,不需要再交由序 

列化 

out.writeUTF(res.getErrorMessage()); 

}

out.flushBuffer(); 

if (out instanceof Cleanable) { 

((Cleanable) out).cleanup();}

bos.flush(); 

bos.close(); 

// 一样的写入模式 

int len = bos.writtenBytes(); 

checkPayload(channel, len); 

Bytes.int2bytes(len, header, 12); 

buffer.writerIndex(savedWriteIndex); 

buffer.writeBytes(header); // write header. 

buffer.writerIndex(savedWriteIndex + HEADER_LENGTH + len); 

} catch (Throwable t) { 

// 写入出现异常 

buffer.writerIndex(savedWriteIndex); 

// send error message to Consumer, otherwise, Consumer will wait till 

timeout.

if (!res.isEvent() && res.getStatus() != Response.BAD_RESPONSE) { 

Response r = new Response(res.getId(), res.getVersion()); 

r.setStatus(Response.BAD_RESPONSE); 

// 如果是超过内容长度则重新设置内容大小并写入 

if (t instanceof ExceedPayloadLimitException) { 

logger.warn(t.getMessage(), t); 

try {

r.setErrorMessage(t.getMessage()); 

channel.send(r); 

return; 

} catch (RemotingException e) { 

logger.warn("Failed to send bad_response info back: " + 

t.getMessage() + ", cause: " + e.getMessage(), e); 

} 

} 

}

// 其他的则抛出异常,省去代码 

} 

} 

(6)在encode中我们再来看看真正encode的内容。 encodeResponseData 同样位于 DubboCodec

中。

protected void encodeResponseData(Channel channel, ObjectOutput out, Object 

data, String version) throws IOException { 

Result result = (Result) data; 

// 是否支持返回attachment参数 

boolean attach = Version.isSupportResponseAttachment(version); 

Throwable th = result.getException(); 

if (th == null) { 

// 如果没有异常信息,则直接写入内容 

Object ret = result.getValue(); 

if (ret == null) { 

out.writeByte(attach ? RESPONSE_NULL_VALUE_WITH_ATTACHMENTS : 

RESPONSE_NULL_VALUE); 

} else { 

out.writeByte(attach ? RESPONSE_VALUE_WITH_ATTACHMENTS : 

RESPONSE_VALUE); 

out.writeObject(ret); 

}} else { 

// 否则的话则将异常信息序列化 

out.writeByte(attach ? RESPONSE_WITH_EXCEPTION_WITH_ATTACHMENTS : 

RESPONSE_WITH_EXCEPTION); 

out.writeThrowable(th); 

}

// 支持写入attachment,则写入 

if (attach) { 

// returns current version of Response to consumer side. 

result.getAttachments().put(DUBBO_VERSION_KEY, 

Version.getProtocolVersion()); 

out.writeAttachments(result.getAttachments()); 

} 

} 

(7) 解码 decode

@Override 

public Object decode(Channel channel, ChannelBuffer buffer) throws 

IOException { 

// 可读字节数 

int readable = buffer.readableBytes(); 

// 选取可读字节数 和 HEADER_LENGTH 中小的 

byte[] header = new byte[Math.min(readable, HEADER_LENGTH)]; 

buffer.readBytes(header); 

return decode(channel, buffer, readable, header); 

}

@Override 

protected Object decode(Channel channel, ChannelBuffer buffer, int readable, 

byte[] header) throws IOException { 

// 检查魔数 

if (readable > 0 && header[0] != MAGIC_HIGH 

|| readable > 1 && header[1] != MAGIC_LOW) { 

int length = header.length; 

if (header.length < readable) { 

header = Bytes.copyOf(header, readable); 

buffer.readBytes(header, length, readable - length); 

}

for (int i = 1; i < header.length - 1; i++) { 

if (header[i] == MAGIC_HIGH && header[i + 1] == MAGIC_LOW) { 

buffer.readerIndex(buffer.readerIndex() - header.length + 

i); 

header = Bytes.copyOf(header, i); 

break; 

} 

}

return super.decode(channel, buffer, readable, header); 

}

// check length. 不完整的包 需要继续读取 

if (readable < HEADER_LENGTH) { 

return DecodeResult.NEED_MORE_INPUT; 

}

// 获取数据长度 

int len = Bytes.bytes2int(header, 12);checkPayload(channel, len); 

int tt = len + HEADER_LENGTH; 

// 需要继续读取 

if (readable < tt) { 

return DecodeResult.NEED_MORE_INPUT; 

}

// limit input stream. 

ChannelBufferInputStream is = new ChannelBufferInputStream(buffer, len); 

try {

// 解码数据 

return decodeBody(channel, is, header); 

} finally { 

if (is.available() > 0) { 

try {

if (logger.isWarnEnabled()) { 

logger.warn("Skip input stream " + is.available()); 

}

StreamUtils.skipUnusedStream(is); 

} catch (IOException e) { 

logger.warn(e.getMessage(), e); 

} 

} 

} 

} 

(8)这时候我们再来看看解析响应中的信息处理

protected Object decodeBody(Channel channel, InputStream is, byte[] header) 

throws IOException { 

byte flag = header[2], proto = (byte) (flag & SERIALIZATION_MASK); 

// 获取请求ID 

long id = Bytes.bytes2long(header, 4); 

// 判断是请求还是响应 

if ((flag & FLAG_REQUEST) == 0) { 

// 说明是响应 

Response res = new Response(id); 

// 是否是event事件 

if ((flag & FLAG_EVENT) != 0) { 

res.setEvent(true); 

}

// 获取请求的状态码 

byte status = header[3]; 

res.setStatus(status); 

try {

// 进行数据内容解析 

ObjectInput in = CodecSupport.deserialize(channel.getUrl(), is, 

proto); 

if (status == Response.OK) { 

Object data; 

// 根据不同的类型来进行解析 

if (res.isHeartbeat()) { 

data = decodeHeartbeatData(channel, in); 

} else if (res.isEvent()) { 

data = decodeEventData(channel, in);

} else { 

data = decodeResponseData(channel, in, getRequestData(id)); 

}

res.setResult(data); 

} else { 

res.setErrorMessage(in.readUTF()); 

} 

} catch (Throwable t) { 

res.setStatus(Response.CLIENT_ERROR); 

res.setErrorMessage(StringUtils.toString(t)); 

}

return res; 

} else { 

// 解析为请求 

Request req = new Request(id); 

req.setVersion(Version.getProtocolVersion()); 

req.setTwoWay((flag & FLAG_TWOWAY) != 0); 

if ((flag & FLAG_EVENT) != 0) { 

req.setEvent(true); 

}

try {

// 与响应相同,进行内容解析 

ObjectInput in = CodecSupport.deserialize(channel.getUrl(), is, 

proto); 

Object data; 

if (req.isHeartbeat()) { 

data = decodeHeartbeatData(channel, in); 

} else if (req.isEvent()) { 

data = decodeEventData(channel, in); 

} else { 

data = decodeRequestData(channel, in); 

}

req.setData(data); 

} catch (Throwable t) { 

// bad request 

req.setBroken(true); 

req.setData(t); 

}

return req; 

} 

}

处理粘包和拆包问题

当发生TCP拆包问题时候 这里假设之前还没有发生过任何数据交互,系统刚刚初始化好,那么这个时候在 

InternalDecoder里面的buffer属性会是EMPTY_BUFFER。当发生第一次inbound数据的时候,第一次 

在InternalDecoder里面接收的肯定是dubbo消息头的部分(这个由TCP协议保证),由于发生了拆包情 

况,那么此时接收的inbound消息可能存在一下几种情况 

1、当前inbound消息只包含dubbo协议头的一部分 

2、当前inbound消息只包含dubbo的协议头 

3、当前inbound消息只包含dubbo消息头和部分payload消息 

通过上面的讨论,我们知道发生上面三种情况,都会触发ExchangeCodec返回NEED_MORE_INPUT,由于 

在DubboCountCodec对于返回NEED_MORE_INPUT会回滚读索引,所以此时的buffer里面的数据可以当作 

并没有发生过读取操作,并且DubboCountCodec的decode也会返回NEED_MORE_INPUT,在 

InternalDecoder对于当判断返回NEED_MORE_INPUT,也会进行读索引回滚,并且退出循环,最后会执 

行finally内容,这里会判断inbound消息是否还有可读的,由于在DubboCountCodec里面进行了读索引 

回滚,所以此时的buffer里面不是完整的inbound消息,等待第二次的inbound消息的到来,当第二次 

inbound消息过来的时候,再次经过上面的判断。 
@Override 

protected Object decode(Channel channel, ChannelBuffer buffer, int readable, 

byte[] header) throws IOException { 

// 检查魔数 

if (readable > 0 && header[0] != MAGIC_HIGH 

|| readable > 1 && header[1] != MAGIC_LOW) { 

int length = header.length; 

if (header.length < readable) { 

header = Bytes.copyOf(header, readable); 

buffer.readBytes(header, length, readable - length); 

}

for (int i = 1; i < header.length - 1; i++) { 

if (header[i] == MAGIC_HIGH && header[i + 1] == MAGIC_LOW) { 

buffer.readerIndex(buffer.readerIndex() - header.length + 

i); 

header = Bytes.copyOf(header, i); 

break; 

} 

}

return super.decode(channel, buffer, readable, header); 

}

// check length. 不完整的包 需要继续读取 

if (readable < HEADER_LENGTH) { 

return DecodeResult.NEED_MORE_INPUT; 

}

// 获取数据长度 

int len = Bytes.bytes2int(header, 12); 

checkPayload(channel, len); 

int tt = len + HEADER_LENGTH; 

// 需要继续读取 

if (readable < tt) { 

return DecodeResult.NEED_MORE_INPUT; 

}

// limit input stream. 

ChannelBufferInputStream is = new ChannelBufferInputStream(buffer, len);try {

// 解码数据 

return decodeBody(channel, is, header); 

} finally { 

if (is.available() > 0) { 

try {

if (logger.isWarnEnabled()) { 

logger.warn("Skip input stream " + is.available()); 

}

StreamUtils.skipUnusedStream(is); 

} catch (IOException e) { 

logger.warn(e.getMessage(), e); 

} 

} 

} 

}
@Override

public void messageReceived(ChannelHandlerContext ctx, MessageEvent 

event) 

throws Exception { 

Object o = event.getMessage(); 

if (!(o instanceof ChannelBuffer)) { 

ctx.sendUpstream(event); 

return; 

}

ChannelBuffer input = (ChannelBuffer) o; 

int readable = input.readableBytes(); 

if (readable <= 0) { 

return; 

}

org.apache.dubbo.remoting.buffer.ChannelBuffer message; 

if (buffer.readable()) { 

if (buffer instanceof DynamicChannelBuffer) { 

buffer.writeBytes(input.toByteBuffer()); 

message = buffer; 

} else { 

int size = buffer.readableBytes() + input.readableBytes(); 

message = 

org.apache.dubbo.remoting.buffer.ChannelBuffers.dynamicBuffer( 

size > bufferSize ? size : bufferSize); 

message.writeBytes(buffer, buffer.readableBytes()); 

message.writeBytes(input.toByteBuffer()); 

} 

} else { 

message = 

org.apache.dubbo.remoting.buffer.ChannelBuffers.wrappedBuffer( 

input.toByteBuffer()); 

}

NettyChannel channel = 

NettyChannel.getOrAddChannel(ctx.getChannel(), 

url, handler);Object msg; 

int saveReaderIndex; 

try {

// decode object. 

do {

saveReaderIndex = message.readerIndex(); 

try {

msg = codec.decode(channel, message); 

} catch (IOException e) { 

buffer = 

org.apache.dubbo.remoting.buffer.ChannelBuffers.EMPTY_BUFFER; 

throw e; 

}

if (msg == Codec2.DecodeResult.NEED_MORE_INPUT) { 

// 读索引 

message.readerIndex(saveReaderIndex); 

break; 

} else { 

if (saveReaderIndex == message.readerIndex()) { 

buffer = 

org.apache.dubbo.remoting.buffer.ChannelBuffers.EMPTY_BUFFER; 

throw new IOException("Decode without read data."); 

}

if (msg != null) { 

Channels.fireMessageReceived(ctx, msg, 

event.getRemoteAddress()); 

} 

} 

} while (message.readable()); 

} finally { 

// 判断消息是否可读 

if (message.readable()) { 

message.discardReadBytes(); 

buffer = message; 

} else { 

buffer

= 

org.apache.dubbo.remoting.buffer.ChannelBuffers.EMPTY_BUFFER; 

}

NettyChannel.removeChannelIfDisconnected(ctx.getChannel()); 

} 

}
当发生TCP粘包的时候 是tcp将一个dubbo协议栈放在一个tcp包中,那么有可能发生下面几种情况 

1、当前inbound消息只包含一个dubbo协议栈 

2、当前inbound消息包含一个dubbo协议栈,同时包含部分另一个或者多个dubbo协议栈内容 

如果发生只包含一个协议栈,那么当前buffer通过ExchangeCodec解析协议之后,当前的buffer的 

readeIndex位置应该是buffer尾部,那么在返回到InternalDecoder中message的方法readable返回 

的是false,那么就会对buffer重新赋予EMPTY_BUFFER实体,而针对包含一个以上的dubbo协议栈,当然 

也会解析出其中一个dubbo协议栈,但是经过ExchangeCodec解析之后,message的readIndex不在 

message尾部,所以message的readable方法返回的是true。那么则会继续遍历message,读取下面的 

信息。最终要么message刚好整数倍包含完整的dubbo协议栈,要不ExchangeCodec返回 

NEED_MORE_INPUT,最后将未读完的数据缓存到buffer中,等待下次inbound事件,将buffer中的消息合 

并到下次的inbound消息中,种类又回到了拆包的问题上。 

dubbo在处理tcp的粘包和拆包时是借助InternalDecoder的buffer缓存对象来缓存不完整的dubbo协议 

栈数据,等待下次inbound事件,合并进去。所以说在dubbo中解决TCP拆包和粘包的时候是通过buffer 

变量来解决的。

你可能感兴趣的:(dubbo,dubbo)