Hadoop3.1.0 伪分布式环境安装部署

前言

刚刚开始学大数据的时候Hadoop最新版还是2.5.0,现在都已经出到3.1.0了,时间好快啊
Hadoop版本:apache-hadoop3.1.0
Linux操作系统:平时工作的时候都是CentOS6,CentOS7,
这将在archLinux系列的manjaro上部署,命令啊,步骤啊什么的都是一样的。
主要是想以后以Manjaro系统作为自己的个人电脑使用,工作得越久越发现自己的工作与Windows没有差点关系

概述

  1. java8是必须的
    所有Hadoop的jar都是利用java8的运行时版本进行编译的
  2. 多个 服务的默认端口号改变
    Hadoop多个端口号已经变了,下面列出主要的
    名称| 2.x 端口号 | 3.x 端口号
  • | :-: | -:
    NameNode | 8020 | 9820
    NameNode HTTP UI | 50070 | 9870
    DataNode | 50010 | 9866
    Secondary NameNode HTTP UI | 50090 | 9868
    DataNode IPC | 50020 | 9867
    DataNode HTTP UI | 50075 | 9864
    DataNode | 50010 | 9866
  1. Hadoop3的启动方式变了
    后面会讲
  2. 其他
    个人习惯使用主机名与IP地址映射,然后直接使用主机名在浏览器上访问,好记嘛
    主机名与IP地址映射 :
cat /etc/hosts
127.0.0.1       localhost
::1     localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
# 添加如下行
192.168.1.101 mo.don.com mo

第一列是IP地址,第二列是主机名,第三列是别名,映射过以后用哪个效果都是一样的,通过Windows远程访问的话Windows下的hosts文件也需要添加IP地址映射,Windows的hosts文件一般在:C:\Windows\System32\drivers\etc
另外记得关闭防火墙

第一步:给安装包添加权限

chmod +x *.tar.gz

第二步:解压

tar -zxf hadoop-3.1.0.tar.gz -C /opt/modules/

第三步:创建快捷方式

我习惯使用软链接指向它,为什么?方便呗

ln -s /opt/modules/hadoop-3.1.0/ /opt/shortcut/hadoop

第四步:设置环境变量

vim /etc/profile
添加如下内容
# Hadoop Environment Available
export HADOOP_HOME=/opt/shortcut/hadoop
export PATH=$PATH:$HADOOP_HOME/sbin
export PATH=$PATH:$HADOOP_HOME/bin

export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

使用root用户source一下使环境变量生效

source /etc/profile

第五步:修改配置文件

hadoop-env.sh,
yarn-env.sh,
mapred-env.sh

# 修改JAVA_HOME路径
export JAVA_HOME=/usr/lib/jvm/default

第六步:修改配置文件:core-site.xml

创建Hadoop本地存储临时数据的目录:

mkdir -p /opt/shortcut/hadoop/data/tmp

修改配置文件

<configuration>
    
    <property>
        <name>fs.defaultFSname>
        <value>hdfs://mo.don.com:9820value>
    property>
    
    <property>
        <name>hadoop.http.staticuser.username>
        <value>dongvalue>
    property>
    
    <property>
        <name>hadoop.tmp.dirname>
        <value>/opt/shortcut/hadoop/data/tmpvalue>
    property>
    
    <property>
      <name>fs.trash.intervalname>
      <value>7200value>
    property>
configuration>

第七步:修改配置文件hdfs-site.xml

创建Hadoop本地存储namenode和datanode数据的目录

mkdir -p /opt/shortcut/hadoop/data/namenode
mkdir -p /opt/shortcut/hadoop/data/datanode
<configuration>
    
    <property>
        <name>dfs.permissions.enabledname>
        <value>falsevalue>
    property>
    
    <property>
        <name>dfs.replicationname>
        <value>2value>
    property>
        
    <property>
        <name>dfs.namenode.name.dirname>
        <value>/opt/shortcut/hadoop/data/namenodevalue>
    property>
        
    <property>
        <name>dfs.datanode.data.dirname>
        <value>/opt/shortcut/hadoop/data/datanodevalue>
    property>
configuration>

第八步:修改配置文件yarn-site.xml

<configuration>
    
    <property>
        <name>yarn.resourcemanager.hostnamename>
        <value>mo.don.comvalue>
    property>
    
    <property>
        <name>yarn.nodemanager.aux-servicesname>
        <value>mapreduce_shufflevalue>
    property>
    
    <property>
        <name>yarn.log-aggregation-enablename>
        <value>truevalue>
    property>
    <property>
        <name>yarn.log-aggregation.retain-secondsname>
        <value>604800value>
    property>
configuration>

第九步:修改配置文件mapred-site.xml

<configuration>
    
    <property>
        <name>mapreduce.framework.namename>
        <value>yarnvalue>
    property>
    <property>
        <name>yarn.app.mapreduce.am.envname>
        <value>HADOOP_MAPRED_HOME=/opt/shortcut/hadoopvalue>
    property>
    <property>
        <name>mapreduce.map.envname>
        <value>HADOOP_MAPRED_HOME=/opt/shortcut/hadoopvalue>
    property>
    <property>
        <name>mapreduce.reduce.envname>
        <value>HADOOP_MAPRED_HOME=/opt/shortcut/hadoopvalue>
    property>
configuration>

第十步:格式化hdfs

hdfs namenode -format

第十一步:启动HDFS、Yarn

hdfs --daemon start namenode

hdfs --daemon start datanode

yarn --daemon start resourcemanager

yarn --daemon start nodemanager

yarn --daemon start timelineserver

原来的启动脚本:

sbin/hadoop-daemon.sh start namenode

sbin/hadoop-daemon.sh start datanode

sbin/yarn-daemon.sh start resourcemanager

sbin/yarn-daemon.sh start nodemanager

sbin/mr-jobhistory-daemon.sh start historyserver

使用原来的脚本也能正常运行,但是会有警告滴

第十二步:验证

查看是否正常启动:

jps

Hadoop3.1.0 伪分布式环境安装部署_第1张图片

浏览器查看:
http://mo.don.com:9870
Hadoop3.1.0 伪分布式环境安装部署_第2张图片

Yarn资源调度系统:
http://mo.don.com:8088
Hadoop3.1.0 伪分布式环境安装部署_第3张图片

OK,至此完成。

你可能感兴趣的:(大数据,Hadoop)