Centos7安装hadoop2.7.5(单节点)

1.安装Java JDK

#编辑配置文件
vim /etc/profile   
      
#添加以下内容
export JAVA_HOME=/usr/local/java/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

#使环境变量生效
source /etc/profile

#查看环境变量配置是否成功
java -version

2.创建一个新用户

#新建用户
useradd hadoop

#设置密码
passwd hadoop

3.下载Hadoop

hadoop-2.7.5.tar.gz

#解压tar包
tar xfz hadoop-2.7.5.tar.gz

#移动到/opt目录
mkdir /opt/hadoop
mv hadoop-2.7.5/* /opt/hadoop

#更改目录所有者为hadoop
chown -R hadoop:hadoop /opt/hadoop/

4.配置ssh免密登录

*#登录hadoop用户
su - hadoop

#首先,生成SSH秘钥,生成的私钥文件默认位置是~/.ssh/id_rsa.pub
ssh-keygen -t rsa 

#将私钥写入~/.ssh/authorized_keys
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

#尝试使用ssh登陆localhost,应该不再需要输入密码
ssh localhost

#非root用户设置本地ssh免密登录失败,需要给authorized_keys文件授权
chmod 710 ~/.ssh/authorized_keys
ssh localhost

5.配置hadoop

  • 添加环境变量,编辑/etc/profile文件
vim /etc/profile  
  • 配置hadoop环境变量
export HADOOP_HOME=/opt/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
  • 使环境变量生效
source /etc/profile
  • 编辑hadoop-env.sh文件
cd $HADOOP_HOME/etc/hadoop
vim hadoop-env.sh
  • 将export JAVA_HOME=${JAVA_HOME}改为如下
export JAVA_HOME=/usr/local/java/jdk1.7.0_79
  • 编辑core-site.xml文件,configuration中的内容


  fs.default.name
    hdfs://localhost:9000


  • 编辑hdfs-site.xml文件,configuration中的内容


 dfs.replication
 1

 

  dfs.name.dir
  file:///opt/hadoop/hadoopdata/namenode

 

  dfs.data.dir
  file:///opt/hadoop/hadoopdata/datanode


  • 创建目录
mkdir /opt/hadoop/hadoopdata
mkdir /opt/hadoop/hadoopdata/namenode
mkdir /opt/hadoop/hadoopdata/datanode
  • 创建mapred-site.xml文件
cp mapred-site.xml.template mapred-site.xml
  • 编辑mapred-site.xml文件,configuration中的内容

 
  mapreduce.framework.name
  yarn
 

  • 编辑yarn-site.xml文件,configuration中的内容



  yarn.nodemanager.aux-services
  mapreduce_shuffle
 

  • 初始化HDFS文件系统
hdfs namenode -format

6.启动服务

#进入sbin文件夹
cd /opt/hadoop/sbin

#启动Hadoop服务
start-dfs.sh

#启动yarn
start-yarn.sh

#查看服务运行状态
jps

7.测试

访问主机端口50070或8088查看

你可能感兴趣的:(Centos7安装hadoop2.7.5(单节点))