hadoop3.0 伪分布环境搭建(学习使用)

系统:centos7.0 64位minimal
虚拟机:VmwareWorkstation 14 Pro
master:192.168.1.3
slave:192.168.1.4

安装系统

hadoop3.0 伪分布环境搭建(学习使用)_第1张图片
hadoop3.0 伪分布环境搭建(学习使用)_第2张图片
点开,直接 设置好网络

hadoop3.0 伪分布环境搭建(学习使用)_第3张图片
设置密码
(slave与master同样设置)

安装JDK环境

1>进入/usr/ocal文件夹

[root@localhost master]# cd /usr/local

2>创建tools文件夹

[root@localhost local]# mkdir -p tools

3>进入tools文件夹

[root@localhost local]# cd tools

4>进入oracle jdk下载网页,右键复制下载地址
hadoop3.0 伪分布环境搭建(学习使用)_第4张图片
http://download.oracle.com/otn-pub/java/jdk/8u161-b12/2f38c3b165be4555a1fa6e98c45e0808/jdk-8u161-linux-x64.tar.gz

5>下载JDK

[root@localhost tools]# wget --no-check-certificate --no-cookies --header "Cookie: Oraclelicense=accept-securebackup-cookie" http://download.oracle.com/otn-pub/java/jdk/8u161-b12/2f38c3b165be4555a1fa6e98c45e0808/jdk-8u161-linux-x64.tar.gz

6>发现没有wget 先去下载wget

[root@localhost tools]# yum -y install wget

7>解压缩

[root@localhost tools]# tar -zxvf jdk-8u161-linux-x64.tar.gz 

8>返回上一级并创建jdk文件夹

[root@localhost tools]# cd ..
[root@localhost local]# mkdir -p jdk

9>进入jdk文件夹,将刚才解压的jdk移动到jdk文件夹

[root@localhost local]# cd jdk
[root@localhost jdk]# mv ../tools/jdk1.8.0_161/* .

10>编辑配置文件并添加

[root@localhost jdk]# vi /etc/profile
export JAVA_HOME=/usr/local/jdk
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$JAVA_HOME/bin:$PATH:$JRE_HOME/bin

保存退出,运行配置文件

[root@localhost jdk]# source /etc/profile

11>测试java环境

[root@localhost jdk]# java -version
java version "1.8.0_161"
Java(TM) SE Runtime Environment (build 1.8.0_161-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.161-b12, mixed mode)

12> slave同上

配置免密登录

1>在master上

[root@localhost ~]# ssh-keygen -t rsa

一路回车,最终生成(id_rsa,id_rsa.pub两个文件)
2>把id_rsa.pub 复制到slave上去.

[root@localhost .ssh]# scp ~/.ssh/id_rsa.pub [email protected]:~/.ssh

3>进入slave系统,生成authorized_keys.
如果没有.ssh文件夹则创建

[root@localhost .ssh]# cd ~/.ssh
[root@localhost .ssh]# cat id_rsa.pub >> authorized_keys

4>将生成的文件发送给master系统

[root@localhost .ssh]# scp ~/.ssh/authorized_keys [email protected]:~/.ssh

5>修改配置文件并启动服务(master和slave)

[root@localhost .ssh]# vi /etc/ssh/sshd_config
#禁用root账户登录,如果是用root用户登录请开启
PermitRootLogin yes

保存后启动服务

[root@localhost .ssh]# /bin/systemctl start sshd.service

Hadoop安装与配置

以下皆在master上操作
1>进入/usr/local/tools目录

cd /usr/local/tools
进入hadoop官网,找到hadoop3.0.1下载地址
![这里写图片描述](https://img-blog.csdn.net/20180331184305974?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzI4OTAxMzkx/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-3.0.1/hadoop-3.0.1.tar.gz
下载完成后解压
tar -zxvf hadoop-3.0.1.tar.gz
在/usr/local目录下创建hadoop文件夹,并将解压后的hadoop移动到新文件夹内
cd /usr/local
mkdir -p hadoop
cd hadoop
mv ../tools/hadoop-3.0.1/* .

2>配置环境变量 hadoop-env.sh(/usr/local/hadoop/etc/hadoop)
在文件中找到一行代码:

#export JAVA_HOME=$JAVA_HOME

改为

export JAVA_HOME=/usr/local/jdk

然后保存文件
3>配置核心组件 core-site.xml

<property>
 <name>hadoop.tmp.dirname>
 <value>/usr/local/hadoop/data/tmpvalue>
 property>
 <property>
 <name>fs.defaultFSname>
 <value>hdfs://master:9000value>
 property>

在/usr/local/hadoop目录下创建data文件夹,并在data文件夹下创建tmp文件夹。(略
4>配置核心组件hdfs-site.xml

<property>
 <name>dfs.replicationname>
 <value>1value>
property>
<property>
 <name>dfs.permissionsname>
 <value>falsevalue>
property>

5>配置核心组件yarn-site.xml

<property>
 <name>yarn.nodemanager.aux-servicesname>
 <value>mapreduce_shufflevalue>
property>
<property>
<name>yarn.nodemanager.vmem-check-enabledname>
<value>falsevalue>
property>

6>配置核心组件mapred-site.xml

<property>
 <name>mapreduce.framework.namename>
 <value>yarnvalue>
property>
<property>
<name>yarn.app.mapreduce.am.envname>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoopvalue>
property>
<property>
<name>mapreduce.map.envname>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoopvalue>
property>
<property>
<name>mapreduce.reduce.envname>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoopvalue>
property>

7>配置核心组件workers
添加节点名称(我的一个节点名为 slave)

slave

8>配置环境变量/etc/profile
master与slave都配置
在末尾添加:

export HADOOP_HOME=/usr/local/hadoop
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HDFS_DATANODE_USER=root
export HDFS_DATANODE_SECURE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export HDFS_NAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

保存后,启动配置文件

source /etc/profile

9>将配置完成的hadoop复制到slave上

scp -r /usr/local/hadoop root@192.168.1.4:/usr/local/

改变master与slave的hostname
1>改hosts(master和slave同)

vi /etc/hosts

删除所有内容,添加:

192.168.1.3 master
192.168.1.4 slave

2>改/etc/sysconfig/network(master和slave分别改为不同的名字)

vi /etc/sysconfig/network

添加:

HOSTNAME=master  //命名随主机名改变

最后重启master和slave

参考资料:
1 https://www.linuxidc.com/Linux/2016-06/132678.htm
2 https://blog.csdn.net/rlnLo2pNEfx9c/article/details/78816075

你可能感兴趣的:(hadoop)