hdfs完全搭建

基本准备工作:

1、安装虚拟机软件 VMwareWorkStation

2、安装系统centOS

3、准备hdfs相关配置:

jdk(建议完全卸载centos自带的openJDK,选择自己需要的版本)

Hadoop(建议使用2.7.1)和eclipse调试使用不错,当然其他版本也没有问题

4、jdk和Hadoop解压路径

(建议放在usr/local下)

5、修改配置文件

/etc/profile

如下内容:

JAVA_HOME=/usr/jdk1.8.0_101

HADOOP_HOME=/usr/local/hadoop-1.2.1

CLASSPATH=.:$JAVA_HOME/lib

PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

export HADOOP_HOME

export JAVA_HOME

export CLASSPATH

export PATH

6、修改Hadoop配置文件:

core-site.xml

hdfs-site.xml

以上两个配置文件的修改内容参照官网

http://hadoop.apache.org/docs/r1.2.1/single_node_setup.html

7、配置namenode到datannode的无秘连接

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

方法如下:

1、namenode先进行秘钥生成,然后保存到日志中(相当于执行上面两行命令)

2、datanode做上面相同的操作

3、把namenode的id_dsa文件复制到datanode上某一目录

4、把id_dsa文件内容复制到datanode的authorized_keys文件中(3步骤的目的是为了完成4)

5.检测是否实现无密码连接  在namenode ssh datanode

8、将namenode进行格式化操作

(需要在Hadoop/bin下执行如下命令:./hadoop namenode -format)

9.start-all.sh或者start-dfs.sh(前者会把mapreduce都启动了)

10.测试是否启动:可以在某台电脑用JPS命令查看

也可以在namenode机器上使用如下命令   hdfs dfsadmin -report

你可能感兴趣的:(hdfs完全搭建)