大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程

目录

  • 一、安装CentOS8虚拟机
  • 二、克隆虚拟机
  • 三、修改VMnet8的ip
  • 四、修改虚拟机ip(三台机器都做)
  • 五、设置主机名 (三台机器都做)
  • 六、使用Xshell连接虚拟机
  • 七、ssh免密登录(node1做即可)
  • 八、时间同步(三台机器都做)
  • 九、上传并解压安装包(node1做即可)
  • 十、安装JDK(node1做即可)
  • 十一、编辑Hadoop配置文件(node1做即可)
  • 十二、分发配置
  • 十三、启动Hadoop集群
  • 十四、访问Hadoop Web UI页面

前言:本教程仅演示快速搭建Hdoop集群,并不对相关知识点与背景进行详细说明,电脑建议16G及以上内存,需要同时开启3台虚拟机,8G内存有点不够使用。
所需工具(提取码:0620 ):VMware Workstation 16、Centos stream 8、Xshell、nodepad++(尽管运营者很恶心)、jdk8、hadoop3.3.1。

一、安装CentOS8虚拟机

  1. 安装好VMware Workstation 16 后运行并新建虚拟机。
  2. 选择典型,下一步。
  3. 选择“安装程序光盘镜像文件”,选择CentOS8镜像文件(iso)所在路径,下一步。
  4. 设置虚拟机名称为node1,自己设置安装路径,下一步。
  5. 最大磁盘大小60G,选择虚拟磁盘拆分成多个文件,下一步。
  6. 自定义硬件,内存设置2G,点击完成。
  7. 选择第一个,Enter键确认,此时我们在虚拟机内,鼠标无法使用,ctrl+alt返回你的计算机。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第1张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第2张图片
  8. 设置root密码123456,可以理解为管理员密码,点击2次完成。点击安装目的地,直接点击完成。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第3张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第4张图片
  9. 开始安装,过程有点漫长。接受许可信息,安装完成后设置自己的用户名和密码。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第5张图片

二、克隆虚拟机

  1. 关闭虚拟机,鼠标移动到node1标签,右键>管理>克隆
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第6张图片
  2. 选择“克隆虚拟机的当前状态”,“创建完整克隆”。克隆两台,分别命名node2、node3。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第7张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第8张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第9张图片
  3. 现在已有三台虚拟机
    在这里插入图片描述

三、修改VMnet8的ip

  1. 确认好vmnet8生成的网关地址。在VMware Workstation顶部菜单栏点击编辑>虚拟网络编辑器>VMnet8>NAT设置。获取网关ip:192.168.179.2,每个人都不同,记住自己的。点击DHCP设置,获取起始ip与结束ip。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第10张图片

大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第11张图片
2. 在windows任务栏搜索“网络连接”并打开,选择VMnet8,右击>属性>双击Internet协议版本4(tcp/ipv4),IP和DNS都改为手动,默认网关就填上面显示的网关,ip地址前三段与默认网关保持一致,后一段设置为1。DNS填写如图(为了方便)
大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第12张图片
大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第13张图片
大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第14张图片

四、修改虚拟机ip(三台机器都做)

IP规划,IP前三段与你自己的网关前三段相同,最后一段分别为10、20、30后面所有的IP操作都要根据你自己的实际情况设置。

主机名 IP
node1 192.168.179.10
node2 192.168.179.20
node3 192.168.179.30

方式一:命令修改(不太建议)

  1. 以虚拟机node1为例,启动虚拟机,点击左上角活动,然后选择终端,在终端输以下命令,获取mac地址,按右键可以在终端粘贴命令。

    ifconfig
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第15张图片

  2. 输入下列命令,并输入密码,ens160是网卡名称,有的是ens33有的是eth0

    sudo vim /etc/sysconfig/network-scripts/ifcfg-ens160
    
  3. i键进入编辑模式,修改或增加以下内容。此时只能用方向键移动光标。

    修改
    BOOTPROTO=none
    ONBOOT=yes
    
    增加
    HWADDR=你的mac地址
    IPADDR=你想设置的IP地址
    PREFIX=24
    GATEWAY=你的网关
    DNS1=114.114.114.114
    DNS2=8.8.8.8
    
  4. 如图所示
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第16张图片

  5. 修改完毕后先按Esc键,再按英文冒号,输入wq!(英文叹号),强制写入并保存,然后输入reboot重启

  6. 对另外两台虚拟机进行相同操作。

测试是否设置成功:

  1. 输入ifconfig查看IP是否和自己设置的一样。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第17张图片
  2. 查看火狐浏览器是否能正常上网或终端输入sudo ping www.baidu.com,ctrl+c停止ping,丢包率为0%.
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第18张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第19张图片

方式二:图形化界面修改

  1. 点击活动,进入设置
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第20张图片
  2. 找到网络,选择有线
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第21张图片
  3. 点击身份,下拉菜单选择MAC地址
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第22张图片
  4. 点击IPV4,选择手动,地址填:192.168.179.10,子网掩码:255.255.255.0,网关:192.168.179.2,DNS填114.114.114.114,8.8.8.8地址、网关根据你自己的进行设置,最后点击应用。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第23张图片

测试是否成功方法与上述相同

五、设置主机名 (三台机器都做)

  • 主机名设置

    1. node1为例,查看当前主机名,在终端输入hostname
      在这里插入图片描述
    2. 终端输入sudo vim /etc/hostname,按i键进行编辑,删除原内容,添加node1,按Esc键,再按英文冒号,输入wq!,最后按Enter键,重启生效
      在这里插入图片描述
    3. 输入hostname检测
      在这里插入图片描述
  • hosts映射

    1. node1为例,终端输入命令sudo vim /etc/hosts
      在这里插入图片描述
    2. 添加三台机器IP与主机名,保存退出,重启虚拟机使配置生效。(参照下图)
      大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第24张图片
    3. 输入sudo ping node1sudo ping node2sudo ping node3均能pign通。CTRL+C结束。丢包率0%。
      大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第25张图片
  • 关闭防火墙

    1. 关闭防火墙
      systemctl stop firewalld.service   
      
    2. 禁止防火墙开启自启
      systemctl disable firewalld.service 
      
    3. 查看防火墙状态
      systemctl status firewalld
      
      大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第26张图片

六、使用Xshell连接虚拟机

  1. 安装好Xshell过后,打开Xshell,选择新建会话。注意此时确保三台虚拟机都处于开启状态。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第27张图片
  2. 名称输入node1,主机输入node1或者192.168.179.10(你的第一台主机ip),点击用户身份验证,用户名输入root(方便后面操作,学习用无所谓,真实场景慎用),密码123456,并点击连接。接受并保存主机密钥。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第28张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第29张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第30张图片
  3. 连接成功样图,将三台虚拟机都连接上
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第31张图片
  4. 有时会出现找不到刚才配置的会话,点击这里就OK了,完成过后我们的VMware Workstation就可以最小化了,之后的操作都在Xshell上进行。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第32张图片

七、ssh免密登录(node1做即可)

  1. node1为例,在Xshell的node1会话中输入ssh-keygen,敲击四个回车
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第33张图片
  2. 在终端输入ssh-copy-id node1确认,输入yes,第二次输入密码。接着输入ssh-copy-id node2ssh-copy-id node3
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第34张图片
  3. 在终端分别输入ssh node1ssh node2ssh node3,能登录则成功。exit退出登录。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第35张图片

八、时间同步(三台机器都做)

  1. node1为例,在node1会话里先后输入以下命令
    yum install chrony -y   #安装chrony
    timedatectl set-timezone Asia/Shanghai   #修改时区
    vim /etc/chrony.conf   #修改chrony.conf文件
    pool ntp.aliyun.com iburst   #注释第三行,在第四行添加,保存并退出
    
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第36张图片
  2. 重启chrony服务
    systemctl restart chronyd
    
  3. 时间同步
    chronyc sources -v
    
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第37张图片
  4. 查看本机时间
    timedatectl
    
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第38张图片

九、上传并解压安装包(node1做即可)

  1. 集群规划。
主机 IP 运行角色
node1 192.168.179.10 namenode、datanode、resourcemanager 、nodemanager
node2 192.168.179.20 secondarynamenode、datanode、nodemanager
node3 192.168.179.30 datanode、nodemanager
  1. 在Xshell的node1会话里面先后输入以下命令,创建相应文件夹。
    mkdir -p /export/server/    #软件安装路径
    mkdir -p /export/software/  #安装包存放路径
    
  2. 进入到/export/software/目录下,将下载好的 hadoop-3.3.1.tar.gzjdk-8u321-linux-x64.tar.gz上传。输入ll查看是否上传成功,命令如下
    cd /export/software   #进入该目录
    yum -y install lrzsz   #安装lrzsz
    rz -E   #上传安装包
    ll   #查看当前文件夹所包含的文件夹及文件
    
    在这里插入图片描述
  3. 输入下列命令,对包进行解压。
    tar zxvf jdk-8u321-linux-x64.tar.gz -C /export/server/
    tar zxvf hadoop-3.3.1.tar.gz -C /export/server/
    
  4. 输入下列命令,前往目录/export/server/,查看是否解压成功
    cd /export/server
    ll
    
    在这里插入图片描述

十、安装JDK(node1做即可)

  1. 删除原装jdk,如果没有则跳过。
    rpm -qa | grep java  
    
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第39张图片
    rpm -e tzdata-java-2021e-1.el9.noarch javapackages-filesystem-6.0.0-3.el9.noarch java-11-openjdk-headless-11.0.12.0.7-3.el9.x86_64 java-11-openjdk-11.0.12.0.7-3.el9.x86_64 java-11-openjdk-devel-11.0.12.0.7-3.el9.x86_64
    
  2. 配置环境变量
    vim /etc/profile
    
    在最末尾添加
    export JAVA_HOME=/export/server/jdk1.8.0_321
    export PATH=:$JAVA_HOME/bin:$PATH
    
    
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第40张图片
  3. 更新profile,使配置生效
    source /etc/profile
    
  4. 验证。
    java -version
    javac
    
    在这里插入图片描述
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第41张图片

十一、编辑Hadoop配置文件(node1做即可)

  1. Hadoop安装包目录结构
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第42张图片

  2. 在node1中创建用于存放数据的data目录

    mkdir -p /export/server/hadoop-3.3.1/data/namenode   #NameNode数据
    mkdir -p /export/server/hadoop-3.3.1/data/datanode   #DataNode数据
    
  3. 安装好notepad++后打开,在顶部菜单栏点击插件>插件管理>搜索NppFTP并安装,安装好后点击Show NppFTP window,选择小齿轮,点击第二个,添加新连接。连接成功后双击根目录。在里面前往此目录/export/server/hadoop-3.3.1/etc/hadoop
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第43张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第44张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第45张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第46张图片
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第47张图片

  4. 修改hadoop-env.sh文件,在第55行添加下列代码并保存。

    #配置JAVA_HOME
    export JAVA_HOME=/export/server/jdk1.8.0_321
    #设置用户以执行对应角色shell命令
    export HDFS_NAMENODE_USER=root
    export HDFS_DATANODE_USER=root
    export HDFS_SECONDARYNAMENODE_USER=root
    export YARN_RESOURCEMANAGER_USER=root
    export YARN_NODEMANAGER_USER=root 
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第48张图片

  5. 修改core-site.xml(配置NameNode),第19行及后面所有代码替换为下列代码并保存。

    <configuration>
    	
    	
    	
    	<property>
    		<name>fs.defaultFSname>
    		<value>hdfs://node1:8020value>
    	property>
    	 
    	<property>
    		<name>hadoop.http.staticuser.username>
    		<value>rootvalue>
    	property>
    configuration>
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第49张图片

  6. 修改hdfs-site.xml文件(配置HDFS路径),第19行及后面所有代码替换为下列代码并保存。

    <configuration>
    	<property>
    		<name>dfs.namenode.secondary.http-addressname>
    		<value>node2:9868value>
    	property>
    	<property>
    	  <name>dfs.namenode.name.dirname>
    	  <value>/export/server/hadoop-3.3.1/data/namenodevalue>
    	  <description>NameNode存储名称空间和事务日志的本地文件系统上的路径description>
    	property>
    	<property>
    	  <name>dfs.datanode.data.dirname>
    	  <value>/export/server/hadoop-3.3.1/data/datanodevalue>
    	  <description>DataNode存储名称空间和事务日志的本地文件系统上的路径description>
    	property>
    configuration>
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第50张图片

  7. 修改mapred-site.xml文件(配置MapReduce),第19行及后面所有代码替换为下列代码并保存。

    <configuration>
    	
    	<property>
    		<name>mapreduce.framework.namename>
    		<value>yarnvalue>
    	property>
    	
    	<property>
    		<name>yarn.app.mapreduce.am.envname>
    		<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}value>
    	property>
    	
    	<property>
    		<name>mapreduce.map.envname>
    		<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}value>
    	property>
    	
    	<property>
    		<name>mapreduce.reduce.envname>
    		<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}value>
    	property>
    configuration>
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第51张图片

  8. 修改yarn-site.xml文件(配置YARN),第15行及后面所有代码替换为下列代码并保存。

    <configuration>
    	
    	<property>
    		<name>yarn.resourcemanager.hostnamename>
    		<value>node1value>
    	property>
    	
    	<property>
    		<name>yarn.nodemanager.aux-servicesname>
    		<value>mapreduce_shufflevalue>
    	property>
    	
    	<property>
    		<name>yarn.scheduler.minimum-allocation-mbname>
    		<value>512value>
    	property>
    	
    	<property>
    		<name>yarn.scheduler.maximum-allocation-mbname>
    		<value>2048value>
    	property>
    	
    	<property>
    		<name>yarn.nodemanager.vmem-pmem-rationame>
    		<value>4value>
    	property>
    configuration>
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第52张图片

  9. 修改workers文件,删除第一行localhost,然后添加以下三行。

    node1
    node2
    node3
    

    在这里插入图片描述

  10. 关闭notepad++,进入Xshell的node1会话,在node1上配置Hadoop环境变量。

    vim /etc/profile
    在末尾添加以下内容
    export HADOOP_HOME=/export/server/hadoop-3.3.1
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第53张图片

  11. 输入source /etc/profile使配置生效,输入hadoop检验环境变量是否生效。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第54张图片

十二、分发配置

  1. node1会话上面输入下列命令,将所有配置复制给node2和node3。
    scp -r /export node2:/
    scp -r /export node3:/
    scp -r /etc/profile node2:/etc/
    scp -r /etc/profile node3:/etc/
    
  2. 在node2和node3上分别执行source /etc/profile,使配置生效。并输入hadoop检验环境变量是否生效。

十三、启动Hadoop集群

  1. 格式化HDFS,首次启动HDFS时,必须对其进行格式化操作。本质上是一些清理和准备工作,因为此时的HDFS在物理上还是不存在的。

    hdfs namenode -format itcast-hadoop
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第55张图片

  2. node1中输入命令ll /export/server/hadoop-3.3.1/data/namenode/current,查看是否格式化成功。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第56张图片

  3. 一键启动Hadoop集群

    start-all.sh   #启动
    stop-all.sh   #停止
    

    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第57张图片

  4. 检测是否启动成功,在三个节点分别输入命令jps。与下图相同则启动成功,进程分别是5个、4个、3个。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

  5. 输入ll /export/server/hadoop-3.3.1/logs/查看启动日志。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第58张图片

十四、访问Hadoop Web UI页面

  1. 在浏览器访问http://node1:9870,访问Hadoop Web UI页面-HDFS集群,点击顶部菜单栏的Datanodes,会看到三个节点均已启动。
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第59张图片
  2. 在浏览器访问http://node1:8088,访问Hadoop Web UI页面-YARN集群
    大数据Hadoop(一):集群搭建--Hadoop3.3.1、CentOS8、HDFS集群、YARN集群最新保姆级教程_第60张图片

你可能感兴趣的:(big,data,hadoop,big,data,linux)