Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装

官方文档:http://hadoop.apache.org/docs/r3.1.1/

1. 安装包准备

  • hadoop3.1 :链接:https://pan.baidu.com/s/13EI77WAG_Y95HqGrqqn9dA 密码:ut43
  • jdk1.8 :链接:https://pan.baidu.com/s/1huUeiQYTpJkZlAClkYIi1w 密码:taih
    在主机端下载后,通过WinSCP软件将两个安装包传输到Redhat上。如图:
    Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第1张图片

2. 安装jdk

命令:

rpm -ivh jdk-8u51-linux-x64.rpm

安装完成后,执行命令如下:
Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第2张图片
发现,java的版本仍然为1.7.0_65。rpm命令查询,系统默认已安装了jdk1.6和1.7。则依次卸载1.6和1.7:

rpm -e java-1.6.0-openjdk-1.6.0.0-11.1.13.4.el6.x86_64
rpm -e java-1.7.0-openjdk-1.7.0.65-2.5.1.2.el6_5.x86_64

并且修改/etc/profile文件,在文件末尾添加:

export JAVA_HOME=/usr/java/jdk1.8.0_51

执行命令,使/etc/profile文件生效:

source /etc/profile

再次查看java版本,安装成功:
在这里插入图片描述

3. 设置免密登录

依次执行命令:

ssh-keygen -t rsa
cat  /root/.ssh/id_rsa.pub  >>  /root/.ssh/authorized_keys
chmod 600 authorized_keys

执行ssh localhost查看系统是否能够免密登录。

4. hadoop安装

解压hadoop-3.1.1:

tar -zxvf hadoop-3.1.1.tar.gz

移动压缩后的文件,并修改名称:

mv hadoop-3.1.1 /usr/local/hadoop

查看hadoop版本:

vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh

在该文件hadoop-env.sh末尾加入:

export JAVA_HOME=/usr/java/jdk1.8.0_51

执行命令查看版本:

cd /usr/local/hadoop/
./bin/hadoop version

Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第3张图片

配置文件:
修改文件~/.bashrc,在文件末尾加入:

export JAVA_HOME=/usr/java/jdk1.8.0_51
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_INSTALL=$HADOOP_HOME 
export HADOOP_MAPRED_HOME=$HADOOP_HOME 
export HADOOP_COMMON_HOME=$HADOOP_HOME 
export HADOOP_HDFS_HOME=$HADOOP_HOME 
export YARN_HOME=$HADOOP_HOME 
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native 
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

5. 单机模式

hostname配置

在/etc/hosts和/etc/sysconfig/network配置如下—两种选择:
添加 127.0.0.1 localhost
2. 添加 10.13.7.72 master(在此将GuYongtao修改为master,可根据自己Linux的主机名进行配置,其中10.13.7.72为eth1的IP地址)
这里选用第二种:
在这里插入图片描述

**重启网络:service network restart

单机模式测试:

依次执行如下命令:

[root@master hadoop]# pwd
/usr/local/hadoop
[root@master hadoop]# 
[root@master hadoop]# mkdir input
[root@master hadoop]# cp etc/hadoop/*.xml  input/
[root@master hadoop]# bin/hadoop  jar  share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar  grep input/  ./output  'dfs[a-z.]+'

效果:
Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第4张图片

查看结果,如下即成功:

在这里插入图片描述

6. 伪分布式搭建

6.1 hadoop配置

6.1.1 在 /usr/local/hadoop/ 创建目录:
Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第5张图片
6.1.2 修改配置文件:
进入路径:
Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第6张图片
修改以下文件内容:

  1. vim core-site.xml
    注:将下列所有配置文件的master修改为自己Redhat的主机名(如下面代码第9行,修改为hdfs://你的主机名:9000)


	

		hadoop.tmp.dir

		file:/usr/local/hadoop/tmp

		注释

	

	

		fs.defaultFS

		hdfs://master:9000

	



  1. vim hdfs-site.xml






	

		dfs.replication

		1

	

	

		dfs.permissions

		false

	

	

		dfs.namenode.name.dir

		file:/usr/local/hadoop/dfs/name

	
	


		dfs.datanode.data.dir

		file:/usr/local/hadoop/dfs/data

	



  1. vim mapred-site.xml

	
		mapreduce.framework.name
		yarn
	
	
		mapreduce.jobtracker.address
		master:9001
	


  1. vim yarn-site.xml



	
		yarn.nodemanager.aux-services
		mapreduce_shuffle
	
	
		yarn.resourcemanager.webapp.address
		master:8099
	



7. 报错处理(可以跳过此步骤,直接进入8. hadoop启动)

由于启动过程发生报错,作出以下修改:
进入路径:

[root@master sbin]# pwd
/usr/local/hadoop/sbin
  1. 修改start-dfs.sh,stop-dfs.sh
    在这两个文件的头部加入:
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
  1. 修改start-yarn.sh,stop-yarn.sh
    在这两个文件的头部加入:
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
  1. 修改文件:
vim /usr/local/hadoop/etc/hadoop/log4j.properties

在文件末尾加入:

log4j.logger.org.apache.hadoop.util.NativeCodeLoader=ERROR

8. hadoop启动(若启动时报错,可以回到7. 报错处理)

修改/etc/profile文件,在文件末尾加入,并执行source /etc/profile:

export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin

格式化namenode节点:
命令:

hdfs namenode -format

效果:
Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第7张图片
启动:

系统能够免密登录后,启动命令(停止命令:stop-all.sh):

  1. 执行
start-dfs.sh

Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第8张图片
在Linux的浏览器查看(hadoop2.x 端口为:50070,3.1为9870):
可查看 NameNode 和 Datanode 信息,也可以在线查看 HDFS 中的文件。
Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第9张图片
2. 执行

start-yarn.sh

Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第10张图片
在Linux的浏览器查看,可查看任务运行情况:
Hadoop+redhat搭建之jdk1.8 + hadoop3.1.1伪分布安装_第11张图片

配置完成

参考链接:

https://blog.csdn.net/cx105200/article/details/78284761
https://blog.csdn.net/u011762604/article/details/72897000
https://blog.csdn.net/mm_bit/article/details/49474709
https://blog.csdn.net/lglglgl/article/details/80553828
https://blog.csdn.net/l1028386804/article/details/51538611

你可能感兴趣的:(Linux,Hadoop)