一起重新开始学大数据-hadoop篇-Day44-Hadoop、hdfs概述架构简析,Hadoop集群搭建 |
Hadoop是一个适合海量数据的分布式存储和分布式计算的平台。 |
作者Doug Cutting 受Google三篇论文的启发,开发了hadoop。
hadoop
是一个统称,目前hadoop主要包含三大组件
hdfs
:是一个分布式存储框架,适合海量数据存储
mapreduce
:是一个分布式计算框架,适合海量数据计算
yarn
:是一个资源调度平台,负责给计算框架分配计算资源
三台虚拟机:master、node1、node2
时间同步
1.安装chrony
yum install chrony
2.启用
systemctl start chronyd
systemctl enable chronyd
3.设置时区
timedatectl set-timezone Asia/Shanghai
4.启用NTP同步
timedatectl set-ntp yes
java -version
修改主机名
三台分别执行 vim /etc/hostname 并将内容指定为对应的主机名
关闭防火墙:systemctl stop firewalld
systemctl status firewalld
systemctl disable firewalld
静态IP配置
直接使用图形化界面配置(不推荐)
手动编辑配置文件进行配置
1、编辑网络配置文件
vim /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE=Ethernet
BOOTPROTO=static
HWADDR=00:0C:29:E2:B8:F2
NAME=ens33
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.190.100
GATEWAY=192.168.190.2
NETMASK=255.255.255.0
DNS1=192.168.190.2
DNS2=223.6.6.6
需要修改:HWADDR(mac地址)
IPADDR(根据自己的网段,自定义IP地址)
GATEWAY(根据自己的网段填写对应的网关地址)
2、关闭NetworkManager,并取消开机自启
systemctl stop NetworkManager
systemctl disable NetworkManager
3、重启网络服务
systemctl restart network
免密登录
①生成密钥
ssh-keygen -t rsa
②配置免密登录
ssh-copy-id master
ssh-copy-id node1
ssh-copy-id node2
③测试免密登录
ssh node1
配置好映射文件:/etc/hosts
192.168.190.100 master
192.168.190.101 node1
192.168.190.102 node2
使用xftp上传压缩包至master的/usr/local/soft/packages/
cd /usr/local/soft/packages/
解压
tar -zxvf hadoop-2.7.6.tar.gz -C /usr/local/soft/
vim /etc/profile
JAVA_HOME=/usr/local/soft/jdk1.8.0_171
HADOOP_HOME=/usr/local/soft/hadoop-2.7.6
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
重新加载环境变量
source /etc/profile
cd /usr/local/soft/hadoop-2.7.6/etc/hadoop/
core-site.xml
fs.defaultFS
hdfs://master:9000
hadoop.tmp.dir
/usr/local/soft/hadoop-2.7.6/tmp
fs.trash.interval
1440
hadoop-env.sh
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171
hdfs-site.xml
dfs.replication
1
dfs.permissions
false
mapred-site.xml.template
# 1、重命名文件
cp mapred-site.xml.template mapred-site.xml
# 2、修改
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
master:10020
mapreduce.jobhistory.webapp.address
master:19888
slaves
node1
node2
yarn-site.xml
yarn.resourcemanager.hostname
master
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.log-aggregation-enable
true
yarn.log-aggregation.retain-seconds
604800
cd /usr/local/soft/
scp -r hadoop-2.7.6/ node1:`pwd`
scp -r hadoop-2.7.6/ node2:`pwd`
hdfs namenode -format
start-all.sh
master:
[root@master soft]# jps
2597 NameNode
2793 SecondaryNameNode
2953 ResourceManager
3215 Jps
node1:
[root@node1 jdk1.8.0_171]# jps
11361 DataNode
11459 NodeManager
11559 Jps
node2:
[root@node2 ~]# jps
11384 DataNode
11482 NodeManager
11582 Jps
http://master:50070
http://master:8088
|
|
|
|
上一章-hadoop先导篇-Day43-Redis的主从复制和集群搭建
下一章-hadoop篇-Day45-hdfs解析和zookeeper安装
|
|
|
|
|
听说长按大拇指会发生神奇的事情呢!好像是下面的画面,听说点过的人一个月内就找到了对象的,并且还中了大奖$$$,考试直接拿满分,颜值突然就提升了,虽然对你好像也不需要,是吧,吴彦祖! |