Hadoop2.7.2完全分布式环境搭建+wordcount简单测试

一、准备环境

1.1安装

1)准备若干台机器
2)安装配置系统:CentOS-7.0-1406-x86_64-DVD.iso
3)安装JAVA环境:jdk-8u131-linux-x64.gz
4)hadoop2.7.2:hadoop-2.7.2.tar.gz

1.2网络配置

ifconfig -a 查看各台机器的ip,相互ping一下,看是否可以ping通。
记录个台机器的ip。

二、配置CentOS

2.1配置hosts

# vi /etc/hosts
编辑内容:
202.196.37.40 master
202.196.37.41 slave1
202.196.37.42 slave2
202.196.37.43 slave3
.......ip地址替换为真实ip

2.2关闭防火墙

# systemctl status firewalld.service  #检查防火墙状态
# systemctl stop firewalld.service  #关闭防火墙
# systemctl disable firewalld.service  #禁止开机启动防火墙

2.3时间同步

# yum install -y ntp  #安装ntp服务
# ntpdate cn.pool.ntp.org  #同步网络时间

2.4安装配置jdk

上传jdk-8u131-linux-x64.gz 安装包到root根目录

# mkdir /usr/java
# tar -zxvf jdk-8u131-linux-x64.gz -C/usr/java/
# rm -rfjdk-8u131-linux-x64.gz

2.5各个主机之间复制jdk

# scp -r /usr/java slave1:/usr
# scp -r /usr/java slave2:/usr
# scp -r /usr/java slave3:/usr
.......

2.6配置各个主机jdk环境变量

# vi /etc/profile

编辑内容

export JAVA_HOME=/usr/java/jdk1.8.0_91
export PATH=$JAVA_HOME/bin:$PATH
exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
# source/etc/profile  #使配置文件生效
# java -version  #查看java版本

2.7配置ssh无密钥访问

分别在各个主机上检查ssh服务状态:

# systemctl status sshd.service  #检查ssh服务状态
# yum install openssh-server openssh-clients  #安装ssh服务,如果已安装,则不用执行该步骤
# systemctl start sshd.service  #启动ssh服务,如果已安装,则不用执行该步骤

分别在各个主机上生成密钥

# ssh-keygen -t rsa  #生成密钥

在slave1上

cp ~/.ssh/id_rsa.pub ~/.ssh/slave1.id_rsa.pub
scp ~/.ssh/slave1.id_rsa.pub master:~/.ssh

在slave2上

cp ~/.ssh/id_rsa.pub ~/.ssh/slave2.id_rsa.pub
scp ~/.ssh/slave2.id_rsa.pub master:~/.ssh

以此类推。
在master上

cd ~/.ssh
cat id_rsa.pub >> authorized_keys
cat slave1.id_rsa.pub >>authorized_keys
cat slave2.id_rsa.pub >>authorized_keys
scp authorized_keys slave1:~/.ssh
scp authorized_keys slave2:~/.ssh
scp authorized_keys slave3:~/.ssh

三、安装配置hadoop

3.1安装hadoop

上传hadoop-2.7.2.tar.gz安装包到root根目录

# tar -zxvf hadoop-2.7.2.tar.gz -C /usr
# rm -rf hadoop-2.7.2.tar.gz
# mkdir /usr/hadoop-2.7.2/tmp
# mkdir /usr/hadoop-2.7.2/logs
# mkdir /usr/hadoop-2.7.2/hdf
# mkdir/usr/hadoop-2.7.2/hdf/data
# mkdir /usr/hadoop-2.7.2/hdf/name

在hadoop-2.7.2/etc/hadoop目录下

配置hadoop

修改hadoop-env.sh文件

增加 export JAVA_HOME=/usr/java/jdk1.8.0_91

修改yarn-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_91

修改slaves

配置内容:
删除:localhost
添加:
slave1
slave2
slave3

修改core-site.xml


  
    fs.default.name
    hdfs://master:9000
  
  
    hadoop.tmp.dir
    file:/data/hadoop/hadoop-2.7.4/tmp
  

修改hdfs-site.xml


  
    dfs.datanode.data.dir
    /data/hadoop/hadoop-2.7.4/hdf/data
    true
  
  
    dfs.namenode.name.dir
    /data/hadoop/hadoop-2.7.4/hdf/name
    true
  

修改mapred-site.xml


  
    mapreduce.framework.name
    yarn
  
  
    mapreduce.jobhistory.address
    master:10020
  
  
    mapreduce.jobhistory.webapp.address
    master:19888
  

修改yarn-site.xml


  
    yarn.nodemanager.aux-services.mapreduce.shuffle.class
    org.apache.mapred.ShuffleHandler
  
  
      yarn.nodemanager.aux-services
      mapreduce_shuffle
  
  
    yarn.resourcemanager.address
    master:8032
  
  
    yarn.resourcemanager.scheduler.address
    master:8030
  
  
    yarn.resourcemanager.resource-tracker.address
    master:8031
  
  
    yarn.resourcemanager.admin.address
    master:8033
  
  
    yarn.resourcemanager.webapp.address
    master:8088
  

各个主机之间复制hadoop

# scp -r /data/hadoop/hadoop-2.7.4 slave1:/data/hadoop
# scp -r /data/hadoop/hadoop-2.7.4 slave2:/data/hadoop
# scp -r /data/hadoop/hadoop-2.7.4 slave3:/data/hadoop

各个主机配置hadoop环境变量

# vi /etc/profile
编辑内容:
export HADOOP_HOME=/data/hadoop/hadoop-2.7.4
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HADOOP_LOG_DIR=/data/hadoop/hadoop-2.7.4/logs
export YARN_LOG_DIR=$HADOOP_LOG_DIR

# source /etc/profile  #使配置文件生效

3.2启动hadoop

格式化namenode

# cd /data/hadoop/hadoop-2.7.4/sbin
# hdfs namenode -format

启动

# cd /data/hadoop/hadoop-2.7.4/sbin
# start-all.sh

检查进程

# jps

master主机包含ResourceManager、SecondaryNameNode、NameNode等,则表示启动成功,例如
2212 ResourceManager
2484 Jps
1917 NameNode
2078 SecondaryNameNode
 
![Uploading image_385194.png . . .]

各个slave主机包含DataNode、NodeManager等,则表示启用成功,例如
17153 DataNode
17334 Jps
17241 NodeManager

运行wordcount

由于hadoop自带wordcount例程所以就可以直接调用了
在启动hadoop之后
我们可以通过一下命令来对hdfs中的文件进行操作

# hadoop fs -mkdir input
# hadoop fs -put input.txt /input
# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /input /output/
Hadoop2.7.2完全分布式环境搭建+wordcount简单测试_第1张图片

出现以上结果就说明已经成功了

查看输出目录

hadoop fs -ls /output

查看输出结果

hadoop fs -cat /output/part-r-00000
Hadoop2.7.2完全分布式环境搭建+wordcount简单测试_第2张图片

出现类似以下结果

部分转自http://blog.csdn.net/sinat_30569973/article/details/52232850

你可能感兴趣的:(Hadoop2.7.2完全分布式环境搭建+wordcount简单测试)