启动HDFS

配置的修改

pom文件

hdfs代码在hadoop-hdfs-project/hadoop-hdfs中,pom中关于依赖的其他hadoop模块的scope都设置为了provided,但我们需要在IDEA里启动hdfs,所以,要把这些provided都注释掉。


  org.apache.hadoop
  hadoop-annotations
  


  org.apache.hadoop
  hadoop-auth
  


  org.apache.hadoop
  hadoop-common
  

hdfs配置文件

core-site.xml

在hadoop-common工程里的src/main/conf/目录下找到 core-site.xml
配置内容如下


    
        fs.defaultFS
        hdfs://localhost:9000
    

然后把这个文件复制一份,放到该工程的target/classes/目录里。

hdfs-site.xml

在hadoop-hdfs-project工程里的hadoop-hdfs模块下的src/main/conf目录里找到hdfs-site.xml,配置内容如下


    
        dfs.replication
        1
    
    
        dfs.namenode.name.dir
        /opt/xxxxxxxx/dfs/name
    
    
        dfs.datanode.data.dir
        /opt/xxxxxxxx/hadoop-2.7.3-src/dfs/data
    

然后把这个文件复制一份,放到该工程的target/classes目录下

关于webapps

hadoop内部有web应用对外提供服务,比如我们常用的50070之类的端口。这部分web应用在namenode和datanode启动的时候都需要加载,编译完毕的hadoop中,hdfs的web程序放在了 hadoop-hdfs-project/hadoop-hdfs/target/webapps目录下。在IDEA里,classpath被指定到了hadoop-hdfs/target/classes目录下,代码里启动的时候是到classpath里加载webapps的资源的,找不到就会报错。我的解决办法是:把hadoop-hdfs-project/hadoop-hdfs/target/webapps目录完整复制到hadoop-hdfs-project/hadoop-hdfs/target/classes下。

如果有人知道如何在IDEA里给classpath添加目录,可以在评论里留言,多谢各位。

尝试启动

namenode和datanode是两个独立的进程,说明他们有独立的main函数启动。namenode的main函数在hadoop-hdfs模块下的org.apache.hadoop.hdfs.server.namenode.NameNode类里。datanode的main函数在org.apache.hadoop.hdfs.server.datanode.DataNode类里。 分别右键debug一下。datanode启动没有报错,namenode报了一个我们非常熟悉的错误,告诉我们没有给NameNode做格式化。

java.io.IOException: NameNode is not formatted.
    at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:225)
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:976)
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFromDisk(FSNamesystem.java:681)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.loadNamesystem(NameNode.java:585)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:645)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:812)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:796)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1493)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1559)

hdfs在启动的时候,需要从磁盘上读取fsimage和editlog,然后把他们加载到内存里来,如果磁盘上没有这些信息,hdfs启动就会报这个错误,提示我们hdfs没有format。那我们要做的事情就是,去看下namenode 的format动作是如何被调起执行的。这个操作是hdfs的指令,所以,这个操作应该在hdfs的shell脚本里。在hadoop-hdfs-project/hadoop-hdfs/src /main/bin目录中找到hdfs脚本,我们看到当我们运行 hdfs namenode -format命令的时候,实际上,执行的主类就是NameNode主类,然后把-format参数传了进去。

hdfs文件第134行,解析到传入的command是namenode的时候,指定要执行的class名为org.apache.hadoop.hdfs.server.namenode.NameNode

if [ "$COMMAND" = "namenode" ] ; then
  CLASS='org.apache.hadoop.hdfs.server.namenode.NameNode'
  HADOOP_OPTS="$HADOOP_OPTS $HADOOP_NAMENODE_OPTS"
elif [ "$COMMAND" = "zkfc" ] ; then
  CLASS='org.apache.hadoop.hdfs.tools.DFSZKFailoverController'
  HADOOP_OPTS="$HADOOP_OPTS $HADOOP_ZKFC_OPTS"
......

文件末尾,执行的时候的命令如下

else
  # run it
  exec "$JAVA" -Dproc_$COMMAND $JAVA_HEAP_MAX $HADOOP_OPTS $CLASS "$@"
fi

所以,我们想在IDEA里执行hdfs namenode -format,只需要启动NameNode的main方法的时候,设置好参数就可以了。

namenode设置启动参数: -format

当程序执行完毕后,我们从控制台看到的输出如下

Connected to the target VM, address: '127.0.0.1:49792', transport: 'socket'
log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
Formatting using clusterid: CID-fd99778b-85d1-4b0e-bbbd-4fd9e93a96ac
Disconnected from the target VM, address: '127.0.0.1:49792', transport: 'socket'

Process finished with exit code 0

到我们配置的hdfs的磁盘目录上去看下内容,发现数据都ok了。


fsimage生成完毕

看到网上有人写了hdfs namenode -format整体的执行流程,地址在这里。后续的文章里HDFS的所有常用执行操作我也尽量都去做一下分析。

启动HDFS

查看启动脚本后发现,脚本里是先启动namenode,然后启动datanode的。我们要做的事情就是,在IDEA里分别启动两个进程。namenode和datanode的main函数所在的类前面已经写了,不再重复。启动完毕后,在浏览器里访问50070,就可以看到hdfs已经启动成功了。


hdfs启动成功.png

最后,如果你在虚拟机上启动了HDFS,想从其他机器上访问,别忘了设置防火墙策略,放行HDFS需要的端口,或者干脆关掉防火墙。

你可能感兴趣的:(启动HDFS)