大数据学习02-Hadoop分布式集群部署

操作系统:centos7
软件环境:jdk8、hadoop-2.8.5

一、创建虚拟机

1.下载VMware,建议支持正版
大数据学习02-Hadoop分布式集群部署_第1张图片
2.安装到Widows目录下任意位置即可,安装目录自定义。打开VMware,界面如下:
大数据学习02-Hadoop分布式集群部署_第2张图片
3.创建虚拟机
大数据学习02-Hadoop分布式集群部署_第3张图片
创建虚拟机—>选择自定义
大数据学习02-Hadoop分布式集群部署_第4张图片
这一步按照默认的配置就好
大数据学习02-Hadoop分布式集群部署_第5张图片
选择系统,安装程序光盘映像文件iso,这里需要下载cenos镜像文件
大数据学习02-Hadoop分布式集群部署_第6张图片给虚拟机命名,选择虚拟机安装位置
大数据学习02-Hadoop分布式集群部署_第7张图片处理器配置
大数据学习02-Hadoop分布式集群部署_第8张图片
内存配置
大数据学习02-Hadoop分布式集群部署_第9张图片
配置虚拟机网络连接方式
大数据学习02-Hadoop分布式集群部署_第10张图片

选择I/O控制器
大数据学习02-Hadoop分布式集群部署_第11张图片
创建磁盘
大数据学习02-Hadoop分布式集群部署_第12张图片
大数据学习02-Hadoop分布式集群部署_第13张图片
设置磁盘大小
大数据学习02-Hadoop分布式集群部署_第14张图片
选择虚拟磁盘存放地址
大数据学习02-Hadoop分布式集群部署_第15张图片
检查虚拟机配置,如果没有什么问题,点击完成
大数据学习02-Hadoop分布式集群部署_第16张图片
启动虚拟机,鼠标点击虚拟机屏幕,使用键盘上下键移动光标位置,光标在Install CentOS 7处,按下enter键
大数据学习02-Hadoop分布式集群部署_第17张图片
等待系统进入CentOS安装界面,选择简体中文
大数据学习02-Hadoop分布式集群部署_第18张图片
设置时区,选择亚洲–上海
大数据学习02-Hadoop分布式集群部署_第19张图片软件选择,GNOME桌面
大数据学习02-Hadoop分布式集群部署_第20张图片
选择自动配置分区
大数据学习02-Hadoop分布式集群部署_第21张图片
点击开始安装
大数据学习02-Hadoop分布式集群部署_第22张图片
设置root密码
大数据学习02-Hadoop分布式集群部署_第23张图片
创建用户
大数据学习02-Hadoop分布式集群部署_第24张图片
等待…安装完成,重启虚拟机
大数据学习02-Hadoop分布式集群部署_第25张图片
初始设置,完成授权
大数据学习02-Hadoop分布式集群部署_第26张图片大数据学习02-Hadoop分布式集群部署_第27张图片
进入centos登录界面

二、配置虚拟机网络

编辑—>虚拟机网络编辑器–>NAT模式–>DHCP设置

查看网络信息
大数据学习02-Hadoop分布式集群部署_第28张图片
打开终端面板,进入root模式
大数据学习02-Hadoop分布式集群部署_第29张图片

vi /etc/sysconfig/network-scripts/ifcfg-ens33 

修改网络配置,配置如下:
大数据学习02-Hadoop分布式集群部署_第30张图片
使用wq命令保存,使用下面命令重启网络服务

service network restart

免密登录配置

修改主机名称

vi /etc/hostname

编辑映射文件hosts

vi /etc/hosts

添加如下配置

192.168.245.200 master 
192.168.245.201 slave1
192.168.245.202 slave2
# 生成公钥与私钥(三次回车)
ssh-keygen -t rsa		

将~/.ssh/id_rsa.pub 分发到节点服务器的~/.ssh目录下,并重命名为 authorized_keys

for i in {1..2};do scp -r ~/.ssh/authorized_keys root@slave${i}:~/.ssh/;done

这样便可以实现不同节点服务器免密登录
大数据学习02-Hadoop分布式集群部署_第31张图片
每台服务器都需要配置

三、安装jdk

上传jdk到linux系统,这里使用jdk1.8版本
大数据学习02-Hadoop分布式集群部署_第32张图片
将其解压到指定目录下

tar -zxvf jdk-8u301-linux-x64.tar.gz -C /home/local/

移动至java目录

mv jdk1.8.0_301 java

配置环境

vim /etc/profile

添加如下配置

#java
export JAVA_HOME=/home/local/java
export JRE_HOME=/home/local/java/jre
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
source /etc/profile

在终端输入java -version,出现下面信息,说明配置成功。
大数据学习02-Hadoop分布式集群部署_第33张图片

四、安装hadoop

上传hadoop安装包到linux系统,这里使用hadoop2.8.5版本
大数据学习02-Hadoop分布式集群部署_第34张图片
解压安装包

tar -zxvf hadoop-2.8.5.tar.gz -C /home/local/

移动至hadoop目录

 mv hadoop-2.8.5/ hadoop

配置hadoop环境

vi /etc/profile

添加如下配置

#hadoop
export HADOOP_HOME=/home/local/hadoop
export PATH=$PATH:${HADOOP_HOME}/bin

使用配置的环境变量立即生效

source /etc/profile

配置 hadoop-env.sh 文件,指定java安装目录

cd $HADOOP_HOME/etc/hadoop

修改hadoop-env.sh文件

vi /hadoop-env.sh

配置如下

export JAVA_HOME=/home/local/java

配置Hadoop主要文件

核心配置文件 —— core-site.xml

HDFS 配置文件 —— hdfs-site.xml

YARN 配置文件 —— yarn-site.xml

MapReduce 配置文件 —— mapred-site.xml

1.core-site.xml



   
      fs.defaultFS
      hdfs://master:9000
   

   
      hadoop.tmp.dir
      /opt/hadoop/tmp
   

   
      hadoop.http.staticuser.user
      master
   


2.hdfs-site.xml


    
       dfs.replication
       3
    
    
       dfs.namenode.name.dir
       file:/opt/hadoop/dfs/name
    
    
       dfs.datanode.data.dir
       file:/opt/hadoop/dfs/data
    
    
       dfs.namenode.http-address
       master:9870
    
    
       dfs.namenode.secondary.http-address
       slave2:9871
    

3.yarn-site.xml



   
   
       yarn.nodemanager.aux-services
       mapreduce_shuffle
   

   
       yarn.nodemanager.aux-services.mapreduce.shuffle.class
       org.apache.hadoop.mapred.ShuffleHandler
   
   
   
       yarn.resourcemanager.address
       master:8032
   
   
       yarn.resourcemanager.scheduler.address
       master:8030
   
   
       yarn.resourcemanager.resource-tracker.address
       master:8031
   
   
       yarn.resourcemanager.admin.address
       master:8033
   
   
   
       yarn.resourcemanager.webapp.address
       master:8088
   

   
   
        yarn.nodemanager.env-whitelist
        JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME
   

   
   
   
     yarn.log-aggregation-enable
     true
   
   
   
     yarn.log.server.url
     http://master:19888/jobhistory/logs
   
  
   
     yarn.log-aggregation.retain-seconds
     604800
   

4.mapred-site.xml


    
        mapreduce.framework.name
        yarn
    
    
        mapreduce.jobhistory.address
        master:10020
    
    
        mapreduce.jobhistory.webapp.address
        master:19888
    

五、启动hadoop

将hadoop分发到每个节点,每个节点都要进行格式化,进入$HADOOP_HOME/bin目录下

$HADOOP_HOME/bin/hdfs namenode -format

进入$HADOOP_HOME的sbin目录下,分别启动hdfs和yarn

./start-dfs.sh && ./start-yarn.sh

使用jps命令查看进程
大数据学习02-Hadoop分布式集群部署_第35张图片
六、访问Web UI界面
客户端Web页面
http://192.168.245.200:8088/cluster/nodes
大数据学习02-Hadoop分布式集群部署_第36张图片
hdfs页面
大数据学习02-Hadoop分布式集群部署_第37张图片

你可能感兴趣的:(大数据,大数据,分布式,学习)