linux新机器做完raid相关盘后,hadoop的相关设置

PS:(raid做得系统,Hadoop存放数据的盘不做raid,普通盘)
刚才在192(Linux)机器上操作如下:
0:先定hadoop服务
1:使用root用户登录然后 将新增的几个盘的目录设置给hadoop用户 使用如下命令,使用root用户执行
chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /data1
chown -R hadoop:hadoop /data2
2:然后将191上面的hadoop基础文件压缩包弄到192上面 登录191上面进行操作 使用hadoop用户操作
scp /data/BigData_App/hadoop.tar.gz [email protected]:/data/BigData_App/hadoop.tar.gz
scp /data/BigData_App/hadoop.tar.gz [email protected]:/data1/BigData_App/hadoop.tar.gz
scp /data/BigData_App/hadoop.tar.gz [email protected]:/data2/BigData_App/hadoop.tar.gz
然后使用hadoop到192机器上 对hadoop.tar.gz进行解压
3:然后修改hadoop的配置文件/hadoop/etc/hadoop/hdfs-site.xml(cd home/hadoop/hadoop/etc/hadoop/),dfs.datanode.data.dir对应的下面的value值,使用逗号隔开
dfs.datanode.data.dir
/data/BigData_App/hadoop/hdata,/data1/BigData_App/hadoop/hdata,/data2/BigData_App/hadoop/hdata
4:重启hadoop服务;

你可能感兴趣的:(hadoop)