记一次maven项目中Hadoop 2.7.2 和Hbase-client以及hbase server 1.2.6 依赖的guava jar 包冲突解决办法

问题描述

总的项目模块中依赖com.google.guava:guava:jar:的有Phoenix,Spring, Hbase-client, Hbase-server, hadoop-common. 而出问题的子模块,对此jar 包的依赖的有Spring, Hbase-client, hadoop-common.

刚开始的时候,由于adoop-common.Sparing-clond,依赖的版本如下:

com.google.guava:guava:jar:18.0:compile

导致了整个子模块,最终引入的是18.0 的版本。

而hbase-client 依赖的版本如下:

com.google.guava:guava:jar:12.0.1:compile

所以这两个是明显的冲突。

解决探究

问题1,hbase 数据库插入异常

问题发现的时候,是我们往Hbase 数据库里面进行数据插入的时候。报guava 中的某个类找不到。

于是我们把guava 在子模块的pom问案件里面指定为12.0.1 解决了往Hbase 数据库里面插入的问题。

问题2,Spring Clond 启动不成功。

解决了问题1后,但是由于Spring Clond 依赖的guava jar 包版本是18.0, 所以Spring Clond 启动不成功。

针对问题2,我们最终的思路是:

利用maven-shade-plugin 把Hbase-server以及Hbase-client 的jar 包重新shade 成一个胖包。

大致类似的pom 定义如下:(我们之前用这个办法解决了,Spark 和elasticsearch 中netty 包冲突的问题。)



    
        rlsb
        com.hzgc
        2.1.0
    
    4.0.0
    elasticsearch
    1.0

    
        
            org.elasticsearch.client
            transport
            ${es.version}
        
        
            io.netty
            netty-common
            4.1.11.Final
        
    
    
        
            
                org.apache.maven.plugins
                maven-shade-plugin
                2.4.1
                
                    false
                
                
                    
                        package
                        
                            shade
                        
                        
                            
                                
                                    io.netty
                                    hzgc.io.netty.common
                                
                            
                            
                                
                                
                            
                        
                    
                
            
        
    
        

俗话也说,车到山前必有路

最终,我们发现网上有一博客说。guava 16.0 可以适应hadoop 2.7.2  hbase 1.2.6, 我们尝试了一下,把guava 换成16.0, 问题得到完美解决。

你可能感兴趣的:(maven)