映射(在每个节点操作)
vi /etc/hosts # 进入文件
# 在文件最后面添加以下内容
192.168.88.154 master
192.168.88.156 slave1
192.168.88.155 slave2
设置免密
# 生成公钥(一直回车确认就可以)
ssh-keygen
# 将免密配置到各个节点
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
创建下载文件(用于存储软件包)
mkdir /opt/software
mkdir /opt/module
解压jdk软件包到/opt/module/目录
tar -zxvf jdk-8u202-linux-x64.tar.gz -C /opt/module/
配置环境变量(将以下参数添加到最后)
# 打开配置文件
vi /etc/profile
# 将以下参数添加到文件的最后
export JAVA_HOME=/opt/module/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
验证Java进行是否安装成功
Javac 或者 java -version
向其他节点分发配置
# 分发jdk文件
scp -r /opt/module/jdk1.8.0_202/ root@slave1:/opt/module/
scp -r /opt/module/jdk1.8.0_202/ root@slave2:/opt/module/
# 分发环境变量
scp -r /etc/profile root@slave1:/etc/profile
scp -r /etc/profile root@slave2:/etc/profile
解压Hadoop安装包
tar -zxvf hadoop-2.7.7.tar.gz -C /opt/module
进入配置文件目录
cd /opt/module/hadoop-2.7.7/etc/hadoop
配置hadoop-env.sh文件
vi hadoop-env.sh
将以下内容写到最后
export JAVA_HOME=/opt/module/jdk
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
配置core-site.xml文件
vi core-site.xml
<property>
<name>hadoop.tmp.dirname>
<value>/opt/data/hadoop-2.7.7value>
property>
<property>
<name>io.file.buffer.sizename>
<value>131072value>
property>
<property>
<name>fs.default.namename>
<value>hdfs://master:9000value>
property>
<property>
<name>hadoop.proxyuser.root.hostsname>
<value>*value>
property>
<property>
<name>hadoop.proxyuser.root.groupsname>
<value>*value>
property>
配置hdfs-site.xml文件
vi hdfs-site.xml
<property>
<name>dfs.replicationname>
<value>2value>
property>
<property>
<name>dfs.namenode.name.dirname>
<value>/opt/hdfs/namevalue>
<final>truefinal>
property>
<property>
<name>dfs.datanode.data.dirname>
<value>/opt/hdfs/datavalue>
<final>truefinal>
property>
<property>
<name>dfs.namenode.secondary.http-addressname>
<value>slave1:9001value>
property>
<property>
<name>dfs.webhdfs.enabledname>
<value>truevalue>
property>
<property>
<name>dfs.permissionsname>
<value>falsevalue>
property>
配置mapred-site.xml文件
vi mapred-site.xml
<property>
<name>mapreduce.framework.namename>
<value>yarnvalue>
property>
配置yarn-site.xml文件
vi yarn-site.xml
<property>
<name>yarn.resourcemanager.addressname>
<value>master:8010value>
property>
<property>
<name>yarn.resourcemanager.scheduler.addressname>
<value>master:8011value>
property>
<property>
<name>yarn.resourcemanager.webapp.addressname>
<value>master:8012value>
property>
<property>
<name>yarn.resourcemanager.resource-tracker.addressname>
<value>master:8013value>
property>
<property>
<name>yarn.resourcemanager.admin.addressname>
<value>master:8014value>
property>
<property>
<name>yarn.nodemanager.aux-servicesname>
<value>mapreduce_shufflevalue>
property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.classname>
<value>org.apache.hadoop.mapred.ShuffleHandlervalue>
property>
<property>
<name>yarn.nodemanager.resource.memory-mbname>
<value>2048value>
property>
<property>
<name>yarn.nodemanager.resource.cpu-vcoresname>
<value>1value>
property>
配置workers
vi workers
添加到文件
master
slave1
slave2
可以在每个节点输入Hadoop命令进行验证
分发配置文件
scp -r hadoop-2.7.7 root@slave1:$PWD
scp -r hadoop-2.7.7 root@slave2:$PWD
scp -r /etc/profile root@slave1:/etc/profile
scp -r /etc/profile root@slave2:/etc/profile
卸载Centos7自带的mariadb
rpm -qa|grep mariadb
rpm -e mariadb-libs-5.5.64-1.el7.x86_64 --nodeps
rpm -qa|grep mariadb
安装mysql
mkdir /opt/module/mysql
# 上传并且解压到上述文件夹下
tar xvf mysql-5.7.29-1.el7.x86_64.rpm-bundle.tar
# 执行安装
yum -y install libaio
yum install net-tools
# 进行安装
rpm -ivh mysql-community-common-5.7.29-1.el7.x86_64.rpm mysql-community-libs-5.7.29-1.el7.x86_64.rpm mysql-community-client-5.7.29-1.el7.x86_64.rpm mysql-community-server-5.7.29-1.el7.x86_64.rpm
# 初始化
mysqld --initialize
# 更改所属组
chown mysql:mysql /var/lib/mysql -R
# 启动MySQL
systemctl start mysqld.service
# 查看生成的临时密码
cat /var/log/mysqld.log
# 进入MySQL
mysql -u root -p
输入刚才的临时密码
#更新root密码 设置为123456
alter user user() identified by "123456";
#授权
use mysql;
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'hadoop' WITH GRANT OPTION;
#建议设置为开机自启动服务
systemctl enable mysqld
安装hive
tar zxvf apache-hive-3.1.2-bin.tar.gz
解决Hive与Hadoop之间guava版本差异
cd /opt/module/apache-hive-3.1.2-bin
rm -rf lib/guava-19.0.jar
cp /opt/module/hadoop-2.7.7/share/hadoop/common/lib/guava-27.0-jre.jar ./lib/
修改配置文件
vi hive-env.sh
# 加到文件最后
export HADOOP_HOME=/opt/module/hadoop-2.7.7
export HIVE_CONF_DIR=/opt/module/apache-hive-3.1.2-bin/conf
export HIVE_AUX_JARS_PATH=/opt/module/apache-hive-3.1.2-bin/lib
hive-site.xml
vi hive-site.xml
<configuration>
<property>
<name>javax.jdo.option.ConnectionURLname>
<value>jdbc:mysql://192.168.88.154:3306/hive3?createDatabaseIfNotExist=true&useSSL=false&useUnicode=true&characterEncoding=UTF-8value>
property>
<property>
<name>javax.jdo.option.ConnectionDriverNamename>
<value>com.mysql.jdbc.Drivervalue>
property>
<property>
<name>javax.jdo.option.ConnectionUserNamename>
<value>rootvalue>
property>
<property>
<name>javax.jdo.option.ConnectionPasswordname>
<value>123456value>
property>
<property>
<name>hive.server2.thrift.bind.hostname>
<value>mastervalue>
property>
<property>
<name>hive.metastore.urisname>
<value>thrift://master:9083value>
property>
<property>
<name>hive.metastore.event.db.notification.api.authname>
<value>falsevalue>
property>
<property>
<name>datanucleus.connectionPoolingTypename>
<value>dbcpvalue>
<description>
Expects one of [bonecp, dbcp, hikaricp, none].
Specify connection pool library for datanucleus
description>
property>
上传mysql jdbc驱动到hive安装包lib下
mysql-connector-java-5.1.32.jar
初始化数据
cd /export/server/apache-hive-3.1.2-bin/
bin/schematool -initSchema -dbType mysql -verbos
#初始化成功会在mysql中创建74张表
在hdfs中创建hive存储目录(如果存在则不需要创建)
hadoop fs -mkdir /tmp
hadoop fs -mkdir -p /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse
启动hive
启动metastore服务
/opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore
/opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore --hiveconf hive.root.logger=DEBUG,console
nohup /opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore &
启动hiveserver2服务
nohup /opt/module/apache-hive-3.1.2-bin/bin/hive --service hiveserver2 &
beeline客户端连接
拷贝master安装包到beeline客户端机器上(任意从节点)
测试连接
scp -r /opt/module/apache-hive-3.1.2-bin/ root@slave2 /opt/module
测试连接
/opt/module/apache-hive-3.1.2-bin/bin/beeline
beeline> ! connect jdbc:hive2://node1:10000
beeline> root
beeline> 直接回车
上传安装包文件
spark-2.1.1-bin-hadoop2.7
解压安装包
tar xvf spark-2.1.1-bin-hadoop2.7 -C /opt/module/
修改环境变量
export JAVA_HOME=/opt/module/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export HADOOP_HOME=/opt/module/hadoop-2.7.7
export SPARK_HOME=/opt/module/spark-2.1.1-bin-hadoop2.7
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
vi /root/.bashrc
export JAVA_HOME=/opt/module/jdk1.8.0_202
export PATH=$JAVA_HOME/bin:$PATH
配置文件
cd $SPARK_HOME/conf
# 改名, 去掉后面的.template后缀
mv workers.template workers
# 编辑worker文件
vim workers
# 将里面的localhost删除, 追加
master
slave1
slave2
# 功能: 这个文件就是指示了 当前SparkStandAlone环境下, 有哪些worker
配置spark-env.sh文件
export JAVA_HOME=/opt/module/jdk1.8.0_202
export SPARK_DIST_CLASSPATH=$(/opt/module/hadoop-2.7.7/bin/hadoop classpath)
## HADOOP软件配置文件目录,读取HDFS上文件和运行YARN集群
HADOOP_CONF_DIR=/opt/module/hadoop-2.7.7/etc/hadoop
YARN_CONF_DIR=/opt/module/hadoop-2.7.7/etc/hadoop
## 指定spark老大Master的IP和提交任务的通信端口
# 告知Spark的master运行在哪个机器上
export SPARK_MASTER_HOST=master
# 告知sparkmaster的通讯端口
export SPARK_MASTER_PORT=7077
# 告知spark master的webui端口
SPARK_MASTER_WEBUI_PORT=8080
# worker cpu可用核数
SPARK_WORKER_CORES=1
# worker可用内存
SPARK_WORKER_MEMORY=1g
# worker的工作通讯地址
SPARK_WORKER_PORT=7078
# worker的webui地址
SPARK_WORKER_WEBUI_PORT=8081
## 设置历史服务器
# 配置的意思是 将spark程序运行的历史日志 存到hdfs的/sparklog文件夹中
SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://master:9000/sparklog/ -Dspark.history.fs.cleaner.enabled=true"
在HDFS上创建程序运行历史记录存放的文件夹:(没有不创建的话会报错)
hadoop fs -mkdir /sparklog
hadoop fs -chmod 777 /sparklog
配置spark-defaults.conf文件
# 改名
mv spark-defaults.conf.template spark-defaults.conf
# 开启spark的日期记录功能
spark.eventLog.enabled true
# 设置spark日志记录的路径
spark.eventLog.dir hdfs://master:9000/sparklog/
# 设置spark日志是否启动压缩
spark.eventLog.compress true
配置log4j.properties 文件 [可选配置]
# 1. 改名
mv log4j.properties.template log4j.properties
# 将第19行的INFO 改为WARN
将Spark安装文件夹 分发到其它的服务器上
scp -r /opt/module/spark-2.1.1-bin-hadoop2.7 slave1:/opt/module/
scp -r /opt/module/spark-2.1.1-bin-hadoop2.7 slave2:/opt/module/
检查每台机器的环境变量
sbin/start-history-server.sh
tar -zxvf flink-1.10.2-bin-scala_2.12 -C /opt/module
配置 vi flink-conf.yaml
# 配置Master的机器名(IP地址)
jobmanager.rpc.address: master
# 配置每个taskmanager生成的临时文件夹
taskmanager.tmp.dirs: /opt/module/flink-1.6.0/tmp
vi slaves
master
slave1
slave2
使用scp命令分发flink到其他节点
scp -r /opt/module/flink-1.10.2/ slave1:/opt/module/
scp -r /opt/module/flink-1.10.2/ slave2:/opt/module/
启动Flink集群
bin/start-cluster.sh
Flink web界面
http://192.168.88.154:8081/#/overview