hadoop eclipse plugin 编译安装,问题总结

插件名称:hadoop2x-eclipse-plugin
插件地址:https://github.com/winghc/hadoop2x-eclipse-plugin

 
 1.下载并解压hadoop2.x,下载地址http://hadoop.apache.org/releases.html#Download(我下载的是编译好的包)
 2.下载并解压eclipse(我的是4.4.1版本,其他的版本类似)
 3.下载hadoop2x-eclipse-plugin插件并解压自己喜欢的目录,为了方便表达,我暂时叫他"H2EP_HOME"
 4.插件编译需要ant工具,下载地址http://ant.apache.org/bindownload.cgi
    配置好ANT_HOME环境变量,指向ant解压地址,配置PATH环境变量,增加%ANT_HOME%\bin(linux环境类似)
 5.打开命令行工具,进入“H2EP_HOME”目录;
 6.执行ant jar -Dversion=2.x.x -Dhadoop.version=2.x.x -Declipse.home=/opt/eclipse -Dhadoop.home=/usr/share/hadoop
   eclipse.home配置成eclipse安装目录
   hadoop.home配置成hadoop的解压目录
   将2.x.x修改成对应的hadoop的版本号
  
 7.命令行在ivy-resolve-common处卡了
   原因是找不到几个依赖包,那几个依赖包可能是换路径了,其实不需要这几个依赖包也可以
   解决方案:
   修改"H2EP_HOME"\src\contrib\eclipse-plugin\build.xml
   找到:


    去掉depends修改为

 8.再次执行第6步的编译命令,会提示copy不到相关jar包的错误,
    解决方案:
    修改"H2EP_HOME"\ivy\libraries.properties文件,
    将报错的jar包版本号跟换成与"HADOOP_HOME"\share\hadoop\common\lib下面jar对应的版本号
    此步可能会有多个jar包版本不匹配,需要多次修改
 9.再次执行第6步的编译命令,执行成功
    在"H2EP_HOME"\build\contrib\eclipse-plugin下生成hadoop-eclipse-plugin-2.x.x.jar插件
 10.将hadoop-eclipse-plugin-2.x.x.jar放到eclipse的plugins目录下,启动eclipse
 11.打开window===>prefernces,找到Hadoop Map/Reduce选项卡
  配置hadoop installation directory目录,指向hadoop的安装目录
 12.打开window====>show view====>other,找到Map/Reduce Locations,使其显示
 13.在Map/Reduce Locations中右键=====>new hadoop locations,
  此时没反应,查看eclipse日志(工作空间\.metadata\.log),发现报错:

java.lang.ClassNotFoundException: org.apache.commons.collections.map.UnmodifiableMap  

  解决方案:
  修改"H2EP_HOME"\src\contrib\eclipse-plugin\build.xml
  增加:

   标签增加

lib/commons-collections-${commons-collections.version}.jar,

 14.执行 eclipse.exe -clean(清理一下缓存,不然有可能还是出现13步的问题)启动eclipse


 完整的build.xml如下("H2EP_HOME"\src\contrib\eclipse-plugin\build.xml)







  

  
    
      
      
      
      
      
      
      
      

      
      
     
  

  
    
      
     
    
      
     
    
      
     
  



  
  
    
    
    
    
  

  
  
    
    
  

 
 
 
    
    
     
    
  

  
  
    
    
          
           
          
    
    
          
           
          
    
    
          
           
          
    
    
          
           
          
    

    
          
           
          
    



    
    
    
    
    
	
	
	
    
    
    
    
    
    
    

    
      
	 
	 
      
      
      
    
  


 
   
 


 

你可能感兴趣的:(BigData)