Hadoop——更新中

1、添加一个hadoop用户,并为其设置密码:

# 添加hadoop用户
sudo useradd hadoop
# 设置hadoop用户密码
passwd hadoop

2、修改主机名:(需要重启虚拟机才能看见效果)

  方式一:

sudo vim /etc/hostname

     在文件中直接输入主机名,例如:

Master

  方式二:

sudo vim /etc/sysconfig/network

     在文件中输入如下代码:

NETWORKING=yes
HOSTNAME=your_computer_host_name

3、使安装Hadoop的节点之间能够使用主机名进行相互访问:

sudo vim /etc/hosts

  在文件末尾添加如下代码(IP地址根据实际情况而变)

192.168.89.12 Master
192.168.89.14 Slave

  注:若有其他节点,可照例添加。

 4、配置SSH无密码登入节点:

  首先需要关闭防火墙:

systemctl stop firewalld.service
注:
    查看防火墙的状态:
    systemctl status firewalld.service
    开启防火墙:
    systemctl start firewalld.service

   生成SSH公钥(一直回车直至显示了一个图案为止)

cd ~/.ssh           # 若无该目录可先直接创建一个
ssh-keygen -t rsa
cat ./id_rsa.pub >> authorized_keys
注:在cat命令中>意思是创建,>>是追加
ssh Master      
# 可能会遇到提示信息,只要输入yes即可
# 若登入成功即表示配置完成,记得使用exit命令退出登入

  若登入时还是需要输入密码,则是文件权限没有配置好,输入以下代码即可:

chmod 700 ~/.ssh/
chmod 644 ~/.ssh/authorized_keys

   到目前为止我们只能够无密码登入本机,现在来配置无密码登入其他节点:

    将Master节点上的公钥传输到Slave节点上:

      方法一:

scp ~/.ssh/id_rsa.pub hadoop@Slave:/home/hadoop/      # 另一个节点的名称根据具体情况而变

Hadoop——更新中_第1张图片

      接下来进入Slave节点进行操作:

mkdir ~/.ssh       # 如果不存在该文件夹需先创建,若已存在,则忽略本命令
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
rm ~/id_rsa.pub    # 用完以后就可以删掉

      回到Master节点输入:

ssh Slave

Hadoop——更新中_第2张图片

       方法二:

ssh-copy-id -i ~/.ssh/id_rsa.pub bruce@Slave     # 节点名称根据具体实际情况而变
ssh Slave

   注:若登入Slave节点时还是需要输入密码或者显示权限不够,则只需要进入Slave节点中输入以下代码即可:

chmod 700 ~/.ssh/
chmod 644 ~/.ssh/authorized_keys

 5、安装JDK: (推荐使用oracle JDK)

  下载网址:https://www.oracle.com/java/technologies/javase-downloads.html

  百度网盘链接:https://pan.baidu.com/s/1_ATf9IwAl9oGzHiNxVQEvQ      提取码:jskx

查看之前是否安装了jdk
rpm -qa |grep jdk
若安装了,则删除已有的jdk
yum -y remove xxx   # xxx为上一个命令的返回结果

  将JDK安装包移动到/opt文件夹下,执行如下代码:

sudo tar -xzvf jdk-14.0.2_linux-x64_bin.tar.gz
注:
x : 从 tar 包中把文件提取出来
z : 表示 tar 包是被 gzip 压缩过的,所以解压时需要用 gunzip 解压
v : 显示详细信息
f xxx.tar.gz : 指定被处理的文件是 xxx.tar.gz

  配置环境变量:

sudo vim /etc/profile
# 在文件末尾添加如下代码
export JAVA_HOME=/opt/jdk-14.0.2
export PATH=$PATH:$JAVA_HOME/bin

  

source /etc/profile
java -version

  若出现如下显示,则说明安装成功

 6、安装Hadoop:

  官网链接:https://hadoop.apache.org/releases.html

  百度网盘:https://pan.baidu.com/share/init?surl=gbmPBXrJDCxwqPGkfvX5Xg   提取码:lnwl

  将hadoop安装包移动到/opt文件夹下,执行如下代码:

sudo tar -zxvf hadoop-3.1.3

  修改hadoop的配置文件:

sudo mv ./hadoop-3.1.3 ./hadoop   # 重命名
cd /opt/hadoop/etc/hadoop # 进入hadoop配置文件所在的目录

 

export JAVA_HOME=/opt/jdk-14.0.2
export HADOOP_HOME=/opt/hadoop

 

 


        
                fs.default.name
                hdfs://Master:9000
        

 

  

 


        
                dfs.replication                            
                1
       
       
                dfs.name.dir
                /opt/hdfs/name
       
       
                dfs.data.dir                
          /opt/hdfs/data

 

 


        
                mapreduce.framework.name
                yarn
        

 

 


  
    yarn.resourcemanager.address
    Master:8080
  

  
    yarn.resourcemanager.resource-tracker.address
    Master:8082
  

  
    yarn.nodemanager.aux-services
    mapreduce_shuffle
  

  
    yarn.nodemanager.aux-services.mapreduce.shuffle.class
    org.apache.hadoop.mapred.ShuffleHandler
  

 

 

export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin

 

——————待续!

 

你可能感兴趣的:(Hadoop——更新中)