Hadoop2.6.4配置

前言

本集群有两台机器

  • master 172.16.15.18
  • slave1 172.16.15.218

__ 默认已完成JDK的安装 __

准备工作

  • 为两台电脑新建hadoop用户
#添加hadoop用户
useradd hadoop
passwd hadoop
(按照提示输入密码)

并将其加入sudoers,方便后续配置操作,可参考用户不在sudoers文件中的解决方法

  • 下载Hadoop2.6.4
cd ~/
mkdir tools
cd tools
wget http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.6.4/hadoop-2.6.4.tar.gz
tar -xvzf hadoop-2.6.4.tar.gz.1
sudo mv hadoop-2.6.4 /opt
chown -R hadoop:hadoop hadoop-2.6.4

配置hosts

vim /etc/hosts

添加如下两行

172.16.15.18 master
172.16.15.218 slave1

修改hostname

vim /etc/sysconfig/network

对两台电脑分别添加

HOSTNAME=master
HOSTNAME=slave1

互相ping通即为成功

ping master
ping slave1

配置SSH免密码登陆

1. 以hadoop身份登陆电脑

查看/etc/ssh/sshd_config,确保公钥登陆模式被打开

RSAAuthentication yes
PubkeyAuthentication yes
AuthorizedKeysFile      .ssh/authorized_keys
2. 建立公钥私钥对
#若没有先mkdir
cd ~/.ssh 
ssh-kengen -t rsa

一路回车,最终生成id_rsa,id_rsa.pub两个文件

3. 两台主机交换公钥
[hadoop@slave1] scp id_rsa.pub  hadoop@master:~/.ssh/id_rsa.pub_sl
[hadoop@master] cat id_rsa.pub_sl >> authorized_keys 
[hadoop@master] cat id_rsa.pub >> authorized_keys 

将合并后的authorized_keys拷回slave1

scp authorized_keys  hadoop@slave1:~/.ssh/

现在将两台机器 .ssh/ 文件夹权限改为700,authorized_keys文件权限改为600(or 644)

chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys

测试是否能互相ssh登陆

ssh master
ssh slave1

配置hadoop

1 配置hadoop环境变量

编辑/etc/profile
文件,在末尾添加如下两行:

export HADOOP_HOME=/opt/hadoop-2.6.4
export PATH=$PATH:$HADOOP_HOME/bin

重启/etc/profile

source /etc/profile

一共有7个文件要修改:
$HADOOP_HOME/etc/hadoop/core-site.xml

$HADOOP_HOME/etc/hadoop/hdfs-site.xml

$HADOOP_HOME/etc/hadoop/mapred-site.xml

$HADOOP_HOME/etc/hadoop/yarn-site.xml

$HADOOP_HOME/etc/hadoop/slaves

最后将配置好的hadoop拷贝到slave1上:

scp -r hadoop-2.6.4/ hadoop@slave1:~/opt/
配置后工作

格式化namenode

$SPARK_HOME/bin/hadoop namenode -format

启动hdfs

sbin/start-dfs.sh

你可能感兴趣的:(Hadoop2.6.4配置)