在vSphere ESXI服务器中安装大数据集群,系统镜像为CentOS-7-x86_64-Minimal-1908.iso
版本 |
---|
CentOS-7-x86_64-Minimal-1908.iso |
jdk-8u211-linux-x64 |
apache-phoenix-5.0.0-HBase-2.0-bin |
apache-zookeeper-3.5.5-bin |
hadoop-3.1.2 |
hbase-2.0.5 |
spark-2.3.3-bin-hadoop2.7 |
进程 | |
---|---|
master | NameNode,NodeManager,ResourceManager,journalNode,SecondaryNameNode,QuorumPeerMain,HMaster,HRegionServer |
slave1 | DataNode,NodeManager,QuorumPeerMain,HRegionServer |
slave2 | DataNode,NodeManager,QuorumPeerMain,HRegionServer |
借鉴下面这篇博客完成了分布式安装
大数据环境单点安装(hadoop,hbase,zookeeper,phoenix,spark)_Sword1996的博客-CSDN博客
此次安装过程是安装CentOS-7-x86_64-Minimal后,master节点安装配置,通过vSphere client克隆master服务器节点后更改各个节点配置实现的。
所以在克隆完后需要修改:
/etc/hostname
/etc/hosts
/data/myid
/conf/spark-env.sh
的SPARK_LOCAL_IP
在配置master过程中,注意加入slave1,slave2
此时为root用户
需要注意的是,克隆出来的slave1、slave2需要更改、添加成对应内容
vim /etc/hostname
#将localhost更改为master
vim /etc/hosts
#不建议修改127.0.0.1行,需要在后面添加ip映射
minimal版本的centos没有iptables
systemctl stop firewalld.service
systemctl disable firewalld.service
vim /etc/selinux/config
将SELinux status参数设定为关闭状态
SELinux status: disabled
yum install ntpdate -y
ntpdate cn.ntp.org.cn
crontab -e
59 23 * * * ntpdate cn.ntp.org.cn
解压后放至:/usr/local/java/jdk1.8.0_211
vim /etc/profile
将java目录添加进环境
#java 1.8
JAVA_HOME=/usr/local/java/jdk1.8.0_211
CLASSPATH=.:$JAVA_HOME/lib.tools.jar
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATH
source /etc/profile
useradd -m hadoop
passwd hadoop #一直回车不设置密码,忽略警告
usermod -a -G hadoop hadoop # 将hadoop用户移进hadoop用户组
cat /etc/group #查看用户组
su hadoop
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
ssh master
将下述软件解压直/home/hadoop
版本 |
---|
apache-phoenix-5.0.0-HBase-2.0-bin |
apache-zookeeper-3.5.5-bin |
hadoop-3.1.2 |
hbase-2.0.5 |
spark-2.3.3-bin-hadoop2.7 |
vim ~/.bashrc
# User specific aliases and functions
#java 1.8
JAVA_HOME=/usr/local/java/jdk1.8.0_211
CLASSPATH=.:$JAVA_HOME/lib.tools.jar
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATH
#hadoop
export HADOOP_HOME=/home/hadoop/hadoop-3.1.2
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#zookeeper
export ZOOKEEPER_HOME=/home/hadoop/apache-zookeeper-3.5.5-bin
export PATH=.:$HADOOP_HOME/bin:$ZOOKEEPER_HOME/bin:$JAVA_HOME/bin:$PATH
#hbase
export HBASE_HOME=/home/hadoop/hbase-2.0.5
export PATH=$HBASE_HOME/bin:$PATH
#phoenix
export PHOENIX_HOME=/home/hadoop/apache-phoenix-5.0.0-HBase-2.0-bin
export PHOENIX_CLASSPATH=$PHOENIX_HOME
export PATH=$PATH:$PHOENIX_HOME/bin
#spark
export SPARK_HOME=/home/hadoop/spark-2.3.3-bin-hadoop2.7
export SPARK_CLASSPATH=$SPARK_HOME
export PATH=$PATH:$SPARK_HOME/bin
source ~/.bashrc
在目录/home/hadoop/hadoop-3.1.2/etc/hadoop
下:
<configuration>
<!-- 指定 namenode 的通信地址 默认 8020 端口 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000/</value>
</property>
<!-- 指定 hadoop 运行时产生文件的存储路径 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-3.1.2/tmp</value>
</property>
<!-- 安装zookeeper需要,否则不要-->
<!-- 指定zookeeper地址,clientPort=2181 -->
<property>
<name>ha.zookeeper.quorum</name>
<value>master:2181,slave1:2181,slave2:2181</value>
</property>
</configuration>
添加pid文件生成路径
export HADOOP_PID_DIR=/home/hadoop/hadoop-3.1.2/tmp/pid
<configuration>
<!-- namenode 上存储 hdfs 名字空间元数据-->
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/hadoop-3.1.2/namenode</value>
</property>
<!-- datanode 上数据块的物理存储位置-->
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/hadoop-3.1.2/datanode</value>
</property>
<!-- 设置 hdfs 副本数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
<configuration>
<!-- 指定yarn运行-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=/home/hadoop/hadoop-3.1.2</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=/home/hadoop/hadoop-3.1.2</value>
</property>
<property>
<name>mapreduce.reduce.env</name>
<value>HADOOP_MAPRED_HOME=/home/hadoop/hadoop-3.1.2</value>
</property>
</configuration>
<configuration>
<!-- Site specific YARN configuration properties -->
<!-- 指定ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<!-- reducer取数据的方式是mapreduce_shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 安装zookeeper需要 -->
<!-- 指定zk集群地址 -->
<property>
<name>yarn.resourcemanager.zk-address</name>
<value>master:2181,slave1:2181,slave2:2181</value>
</property>
</configuration>
修改为:
master
slave1
slave2
这两个文件在hadoop-3.1.2/sbin/中,分别在 start-dfs.sh 和 stop-dfs.sh中添加如下内容
HDFS_JOURNALNODE_USER=root
HDFS_ZKFC_USER=hadoop
HDFS_DATANODE_USER=hadoop
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=hadoop
HDFS_SECONDARYNAMENODE_USER=hadoop
这两个文件在 hadoop-3.1.2/sbin/ 中,分别在 start-yarn.sh 和 stop-yarn.sh 中添加如下内容
YARN_RESOURCEMANAGER_USER=hadoop
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=hadoop
需要将 $ZOOKEEPER_HOME/conf目录下的zoo_sample.cfg重命名为 zoo.cfg
cp $ZOOKEEPER_HOME/conf/zoo_sample.cfg $ZOOKEEPER_HOME/conf/zoo.cfg
在zoo.cf里注释dataDir并添加:
dataDir=/home/hadoop/apache-zookeeper-3.5.5-bin/data
dataLogDir=/home/hadoop/apache-zookeeper-3.5.5-bin/logs
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888
zookeeper目录下创建data文件夹,并生成myid在data文件夹中
mkdir data
cd data
echo “1” > myid
slave1中myid为2,slave2中myid为3,注意更改
修改 hbase-2.0.5conf目录下的hbase-env.sh文件
export JAVA_HOME=/usr/local/java/jdk1.8.0_211
export HBASE_MANAGES_ZK=false
其中HBASE_MANAGES_ZK=false表示我们使用自己安装zookeeper集群而不是hbase自带的zookeeper集群
修改hbase-2.0.5/conf目录下的hbase-site.xml文件
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/apache-zookeeper-3.5.5-bin/data</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
</configuration>
修改hbase-2.0.5/conf目录下的regionservers
vim regionservers
将localhost删除,修改为附节点(注意一个节点占一行)
master
slave1
slave2
在安装目录下的conf文件夹中
将spark-env.sh.template修改为spark-env.sh,并编辑
cp spark-env.sh.template spark-env.sh
vim spark-env.sh
在spark-env.sh中添加(不同的slave中SPARK_LOCAL_IP需要对应的修改):
SPARK_LOCAL_IP=master #本机ip或hostname
SPARK_MASTER_IP=master #master节点ip或hostname
export HADOOP_CONF_DIR=/home/hadoop/hadoop-3.1.2 #hadoop的配置路径
export YARN_CONF_DIR=/home/hadoop/hadoop-3.1.2 #yarn路径配置
将slaves.template修改为slaves,并编辑
cp slaves.template slaves
vim slaves
删除原有的localhost,添加:
master
slave1
slave2
复制phoenix的jar包到hbase的lib目录,jar包就在phoenix目录下
cp phoenix-core-5.0.0-HBase-2.0.jar phoenix-5.0.0-HBase-2.0-server.jar /home/hadoop/hbase-2.0.5/lib/
复制hbase安装目录下的conf目录下hbase-site.xml到phoenix安装目录下的bin中:
cp hbase-site.xml /home/hadoop/apache-phoenix-5.0.0-HBase-2.0-bin/bin/
复制 hadoop安装目录即/home/hadoop/hadoop-3.1.2/etc/hadoop目录下的core-site.xml hdfs-site.xml到phoenix安装目录下的bin中:
cp core-site.xml hdfs-site.xml /home/hadoop/apache-phoenix-5.0.0-HBase-2.0-bin/bin/
vSphere Client | 克隆虚拟机_我是一块小石头-CSDN博客
所以在克隆完后需要修改:
/etc/hostname # master,slave1,slave2
/etc/hosts # ip master/ip slave1/ip slave2 之类的
zookeeper目录下的/data/myid # 1,2,3
spark目录下的/conf/spark-env.sh 的SPARK_LOCAL_IP # 改成对应master,slave1,slave2
具体启动后对应的进程详情请看:
Hadoop启动顺序 | jps对应进程 | hadoop | zookeeper | hbase | spark_我是一块小石头-CSDN博客
启动 hadoop 之前在 master 上 format 名称节点(namenode节点,只需要第一次启动时进行)
cd $$HADOOP_HOME//bin
hdfs namenode -format
start-all.sh
安装了zookeeper的所有节点启动zookeeper
zkServer.sh start
start-hbase.sh
cd $SPARK_HOME/sbin
start-all.sh
sqlline.py master,slave1,slave2:2181
可能文章有疏漏,如果有人照着我的博客没法完成部署,请留言。我有时间会修改相应内容,免得误人子弟。