HDFS(Hadoop Distributed File System),是一个分布式文件系统
内置三种组件,NameNode,DataNode,SecondaryNameNode
YARN(Yet Another Resource Negotiator),是Hadoop的资源管理器
内置四种组件,ResourceManager(RM),NodeManager(NM),ApplicationMaster(AM),Container
MapReduce将计算过程分为两个阶段:Map和Reduce
vim /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE="Ethernet" #网络类型(通常是Ethemet)
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static" #IP的配置方法[none|static|bootp|dhcp](引导时不使用协议|静态分配IP|BOOTP协议|DHCP协议)
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="e83804c1-3257-4584-81bb-660665ac22f6" #随机id
DEVICE="ens33" #接口名(设备,网卡)
ONBOOT="yes" #系统启动的时候网络接口是否有效(yes/no)
#IP地址
IPADDR=192.168.10.100
#网关
GATEWAY=192.168.10.2
#域名解析器
DNS1=192.168.10.2
systemctl restart network
vim /etc/hostname
hadoop100
vim /etc/hosts
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
#重启
reboot
#进入C:\Windows\System32\drivers\etc路径
#打开hosts文件并添加如下内容,然后保存
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
ping www.baidu.com
Extra Packages for Enterprise Linux是为“红帽系”的操作系统提供额外的软件包,适用于RHEL、CentOS和Scientific Linux。相当于是一个软件仓库,大多数rpm包在官方 repository 中是找不到的
#安装epel-release
yum install -y epel-release
#工具包集合
yum install -y net-tools
#vim:编辑器
yum install -y vim
#关闭防火墙
systemctl stop firewalld
#关闭防火墙开机自启
systemctl disable firewalld.service
#在root用户下
useradd hadoop
passwd hadoop
#在root用户下
vim /etc/sudoers
#在%wheel下一行添加
## Allows people in group wheel to run all commands
%wheel ALL=(ALL) ALL
#这行
hadoop ALL=(ALL) NOPASSWD:ALL
#hadoop这一行不要直接放到root行下面,因为所有用户都属于wheel组,你先配置了hadoop具有免密功能,但是程序执行到%wheel行时,该功能又被覆盖回需要密码。所以hadoop要放到%wheel这行下面。
mkdir /opt/module
mkdir /opt/software
#修改module、software文件夹的所有者和所属组均为hadoop用户
chown hadoop:hadoop /opt/module
chown hadoop:hadoop /opt/software
#查看module、software文件夹的所有者和所属组
cd /opt/
ll
rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps
reboot
ls /opt/software/
[hadoop@hadoop100 ~]$ ls /opt/software/
[hadoop@hadoop100 software]$ tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/
[hadoop@hadoop100 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/
sudo vim /etc/profile.d/my_env.sh
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
#注意安装路径路径一定要对
#保存后更新下环境变量
source /etc/profile
java -version
hadoop version
#如果出现版本号则安装成功
#修改主机名
vim /etc/hostname
#hadoop101
#hadoop102
#修改IP地址
vim /etc/sysconfig/network-scripts/ifcfg-ens33
#仅修改IP_ADDR
#IPADDR=192.168.10.101
#IPADDR=192.168.10.102
#(1)bin目录:存放对Hadoop相关服务(hdfs,yarn,mapred)进行操作的脚本
#(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件
#(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)
#(4)sbin目录:存放启动或停止Hadoop相关服务的脚本
#(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例
#进入Hadoop文件,ll看一下用户组是否属于hadoop,如果不是请重新反汇root用户执行用户组变更
Hadoop运行模式包括:本地模式、伪分布式模式以及完全分布式模式。
[hadoop@hadoop100 hadoop-3.1.3]$ mkdir wcinput
[hadoop@hadoop100 hadoop-3.1.3]$ cd wcinput
[hadoop@hadoop100 wcinput]$ vim word.txt
#在文件中输入如下内容
hadoop yarn
hadoop mapreduce
hadoop
hadoop
#保存退出
[hadoop@hadoop100 hadoop-3.1.3]$ cat wcoutput/part-r-00000
hadoop 2
hadoop 2
mapreduce 1
yarn 1