VMware环境配置

文章目录

  • 一、环境配置
    • 1、修改主机名,然后切换到root用户
    • 2、确认主机网关
      • a.确认windows主机网关
      • b.确认虚拟机主机网关
    • 3、修改网络配置
    • 4、设置DNS域名解析的配置文件resolv.conf。
    • 5、修改hosts文件
    • 6、重启网络服务
    • 7、验证网络服务
      • a.虚拟机ping百度
      • b.主机ping虚拟机
  • 二、Hadoop伪分布式安装
    • 1、创建hadoop用户
      • a.新建用户
      • b.添加用户组
      • c.赋予root权限
    • 2、切换到hadoop,创建压缩包上传文件和安装文件目录
    • 3、上传压缩包
    • 4、解压jdk和hadoop
    • 5、配置jdk、hadoop环境变量
    • 6、修改hadoop配置文件
      • core-site.xml
      • hdfs-site.xml
      • hadoop-env.xml
    • 7、执行NameNode的格式化
    • 8、配置免密登录
    • 9、启动hadoop集群
  • 三、hive安装
    • 1、上传安装包
    • 2、上传安装包并解压
    • 3、将hive添加到环境变量
    • 4、修改hive配置文件
      • Hive.env.xml
      • Hive.site.xml ![在这里插入图片描述](https://img-blog.csdnimg.cn/0a869681c8e840e88fa76b7e87760adc.png)
      • hive-log4j2.properties
    • 5、安装mysql
    • 6\配置Hive相关配置文件
    • 7、初始化hive
    • 8、Hive启动
  • 四、redis安装
        • !!!出现的问题!!!
        • !!!解决!!!

一、环境配置

1、修改主机名,然后切换到root用户

sudo hostnamectl set-hostname Master001
su -l root

在这里插入图片描述

2、确认主机网关

a.确认windows主机网关

VMware环境配置_第1张图片

b.确认虚拟机主机网关

VMware环境配置_第2张图片

3、修改网络配置

vi /etc/sysconfig/network-scripts/ifcfg-ens33 
ONBOOT=yes
IPADDR=192.168.241.101
NETWASK=255.255.255.0
PREFIX=24
GATEWAY=192.168.241.2
BOOTPROTO=static

VMware环境配置_第3张图片修改主机名
在这里插入图片描述

4、设置DNS域名解析的配置文件resolv.conf。

vi /etc/resolv.conf

VMware环境配置_第4张图片

5、修改hosts文件

vi /etc/hosts

在这里插入图片描述

6、重启网络服务

nmcli connection reload
nmcli connection up ens33
nmcli d connect ens33

VMware环境配置_第5张图片

7、验证网络服务

a.虚拟机ping百度

VMware环境配置_第6张图片

b.主机ping虚拟机

VMware环境配置_第7张图片

二、Hadoop伪分布式安装

1、创建hadoop用户

a.新建用户

 adduser hadoop
 passwd hadoop

VMware环境配置_第8张图片

b.添加用户组

usermod -a -G hadoop hadoop

在这里插入图片描述

c.赋予root权限

vi /etc/sudoers
hadoop	ALL=(ALL)	ALL

在这里插入图片描述

2、切换到hadoop,创建压缩包上传文件和安装文件目录

VMware环境配置_第9张图片

3、上传压缩包

VMware环境配置_第10张图片

4、解压jdk和hadoop

tar -zxf jdk-8u221-linux-x64.tar.gz -C /home/hadoop/module/
tar -zxf hadoop-3.3.1.tar.gz -C /home/hadoop/module/

在这里插入图片描述

5、配置jdk、hadoop环境变量

vi /etc/profile
#JAVA
export JAVA_HOME=/home/hadoop/module/jdk1.8.0_221
export PATH=$PATH:$JAVA_HOME/bin

#HADOOP
export HADOOP_HOME=/home/hadoop/module/hadoop-3.3.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH

VMware环境配置_第11张图片

6、修改hadoop配置文件

在这里插入图片描述

core-site.xml

        <property>
                <name>hadoop.tmp.dir</name>
                <value>/home/hadoop/module/hadoop-3.3.1/tmp</value>
        </property>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://localhost:9000</value>
        </property>

VMware环境配置_第12张图片

hdfs-site.xml

        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/home/hadoop/module/hadoop-3.3.1/tmp/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/home/hadoop/module/hadoop-3.3.1/tmp/dfs/data</value>
        </property>

hadoop-env.xml

7、执行NameNode的格式化

如果要多次执行格式化,要删除data目录,否则datanode进程无法启动

hdfs namenode -format

VMware环境配置_第13张图片

在这里插入图片描述
格式化成功后name目录多了一个current文件夹

8、配置免密登录

ssh-keygen -t rsa -P ''

VMware环境配置_第14张图片
将密钥传给Master001

ssh-copy-id Master001

VMware环境配置_第15张图片

9、启动hadoop集群

VMware环境配置_第16张图片
hadoop配置安装完成
VMware环境配置_第17张图片

三、hive安装

1、上传安装包

安装包下载:https://hive.apache.org/downloads.html

Hive安装

2、上传安装包并解压

VMware环境配置_第18张图片

3、将hive添加到环境变量

export HIVE_HOME=/home/hadoop/module/hive-3.1.2
export PATH=$PATH:$HIVE_HOME/bin

在这里插入图片描述

4、修改hive配置文件

VMware环境配置_第19张图片

Hive.env.xml

VMware环境配置_第20张图片

Hive.site.xml VMware环境配置_第21张图片

VMware环境配置_第22张图片

hive-log4j2.properties

在这里插入图片描述

5、安装mysql

查看linux系统中是否自带数据库

rpm –qa | grep mysql

安装mysql 数据库

yum install –y mysql-server mysql mysql-devel

VMware环境配置_第23张图片
使mysql开机启动

systemctl enable mysqld.service
在这里插入图片描述
启动mysql服务,查看状态

service mysqld start
Service mysqld status

VMware环境配置_第24张图片
初始化mysql
创建管理员用户密码
在这里插入图片描述
登录mysql数据库

mysql –u root -p

VMware环境配置_第25张图片
创建存放元数据的数据库
在这里插入图片描述

6\配置Hive相关配置文件

下载mysql-connector-java-8.0.26.java,上传到hive安装目录lib目录下

cp mysql-connector-java-8.0.26.jar /home/hadoop/module/hive-3.1.2/lib/

VMware环境配置_第26张图片

7、初始化hive

schematool -dbType mysql -initSchema

在这里插入图片描述

8、Hive启动

VMware环境配置_第27张图片

四、redis安装

!!!出现的问题!!!

1、Master001: ERROR: Unable to write in /home/hadoop/module/hadoop-3.3.1/logs. Aborting.

VMware环境配置_第28张图片

2、Warning: Permanently added ‘localhost’ (ECDSA) to the list of known hosts

VMware环境配置_第29张图片

3、root用户hadoop启动报错:Attempting to operate on hdfs namenode as root

4、执行yum install -y mysql-server mysql mysql-devel报错
为 repo ‘appstream’ 下载元数据失败 : Cannot prepare internal mirrorlist: No URLs in mirrorlist

在这里插入图片描述

5、Underlying cause: java.sql.SQLException : null, message from server: “Host ‘Master001’ is not allowed to connect to this MySQL server”

在这里插入图片描述

!!!解决!!!

1、权限不够,授予权限

sudo chmod 777 /home/hadoop/module/hadoop-3.3.1/logs/

2、设置免密登录
VMware环境配置_第30张图片
3、在环境变量中添加如下几个配置:

vi /etc/profile
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=roo

使环境变量生效

source /etc/profile

4、可以在/etc/yum.repos.d中更新一下源。使用vault.centos.org代替mirror.centos.org。
执行一下两行代码进行修改

sudo sed -i -e "s|mirrorlist=|#mirrorlist=|g" /etc/yum.repos.d/CentOS-*
sudo sed -i -e "s|#baseurl=http://mirror.centos.org|baseurl=http://vault.centos.org|g" /etc/yum.repos.d/CentOS-*

5、进入mysql,更新权限
VMware环境配置_第31张图片VMware环境配置_第32张图片

update user set host ='%' where user ='root';

重启mysql:

service mysqld stop;
service mysqld start;

你可能感兴趣的:(Vmware学习,环境安装,hadoop,大数据,linux)