2.1 在VMware上方菜单栏,文件--新建虚拟机
2.2 默认
2.3 选择稍后安装操作系统
2.4 选择Linux(L),版本 Ubuntu
2.5 定义虚拟机的名称,选择虚拟机的位置,本人选择放在了D盘
2.6 处理器配置根据自己情况自己选择,这里选择了处理器数量2,内核数量2
2.7 虚拟机内存设为2048 MB
2.8 默认
2.9 默认
2.10 默认
2.11 选择创建新虚拟磁盘
2.12 磁盘容量设为40G
然后一直下一步 创建完成
2.13 编辑虚拟机设置
2.14 在CD/DVD(SATAT)--连接--使用ISO映像文件,选择Ubuntu18.04的镜像文件的路径,点击确定,启动虚拟机,进行Ubuntu18.04的安装,一直选择默认的就能安装成功。
3.1 打开Ubuntu系统,在VMware菜单栏里点击虚拟机选项,找到安装VMware tools选项,点击,本人已安装成功,显示重新安装
3.2 然后进入系统,在右边任务栏中找到DVD图标,打开后找到VMware Tools压缩文件,并将其复制到桌面
3.3 点击左侧文件,主文件夹--桌面,单机右键打开终端,可使用命令解压
tar -zxvf VMwareTools-10.2.5-8068393.tar.gz
3.4 进入解压完成的文件夹:cd vmware-tools-distrib
3.5 执行文件夹下的可执行文件,命令:sudo ./vmware-install.pl
第一个[no]输入yes,后面的都按Entre,有Yes输入tes,就安装成功
3.6 安装成功,虚拟机窗口为自动适应
4.1 单击右键,打开命令终端
4.2 创建新用户,首先切换为root用户,添加新用户hadoop
su root
注:若提示“su: Authentication failure”,原因应该是没有设置root账户的密码
参考:(5条消息) su 报错su: Authentication failure_逐鹿艾缇的博客-CSDN博客
adduser hadoop
4.3 由于部门权限规定或安全限制,负责部署hadoop的管理员没有linux root权限,但按照最佳做法,安装时有一些操作需要以root用户身份执行。以下给予该用户root权限:
sudo adduser hadoop sudo
执行visudo命令,修改该文件,在“root ALL=(ALL:ALL) ALL”这一行下面加入一行:
hadoop ALL=(ALL:ALL) ALL
visudo
4.4 更新命令
sudo apt-get update
sudo apt-get upgrade
4.5 部分linux系统会自带vim编辑器,但若在终端无法启动该编辑器,则需要安装以待后续编辑配置文件,接下来跳出的提示回复Y即可:
sudo apt-get install vim
4.6.1 下载SSH,安装SSH server
根据Hadoop分布式系统的特性,在任务计划分发、心跳监测、任务管理、多租户管理等功能上,需要通过SSH(Secure Shell)进行通讯,所以必须安装配置SSH。另因为Hadoop没有提供SSH输入密码登录的形式,因此需要将所有机器配置为NameNode可以无密码登录的状态。
sudo apt-get install openssh-server
4.6.2 连接本地SSH
ssh localhost
4.7 设置无密码登录
4.7.1 进行无密码登录的设置,首先先退出刚刚ssh localhost的连接:
exit
4.7.2 进入SSH对应目录下,该目录包含了几乎所有当前用户SSH配置认证相关的文件:
cd ~/.ssh/
4.7.3 输入生成SSH私钥与公钥的命令,-t用于声明密钥的加密类型,输入Hadoop密码。这一步会提醒设置SSH密码,输入密码时直接回车就表示无密码,第二次输入密码回车确定,最后一次提交:
ssh-keygen -t rsa
4.7.4 将生成的SSH的公钥加入目标机器的SSH目录下,这里采用cat命令与>>,cat file1>>file2的含义为将file1内容append到file2中。
cat ./id_rsa.pub >> ./authorized_keys
4.8.1 下载对应版本的JDK,解压到指定目录下,将文件名换成对应的即可
sudo tar -zxvf jdk-8u212-linux-x64.tar.gz -C /usr/local/jdk1.8
4.8.2 配置环境变量
1.通过vim编辑器打开环境变量的设置文件:
sudo vim ~/.bashrc
2.首先到达文件尾部,按o字母在当前行的下一行添加以下语句:
export JAVA_HOME=/usr/local/jdk1.8
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
3.按Esc键退出,然后输入:wq保存修改。然后使环境变量生效:
source ~/.bashrc
4.9.1 下载hadoop-2.9.2.tar.gz 云盘链接:https://pan.baidu.com/s/1U_Yo4c4xRXh3djIAXkXhJA
提取码:d3nv
4.9.2 在VMware中与电脑进行共享文件
参考链接:(5条消息) 如何在VMWare的Ubuntu虚拟机中设置共享文件夹_Vincent3016的博客-CSDN博客
4.9.3 进入解压包存放的文件夹,右键属性查看压缩包的绝对路径,然后解压至/usr/local目录下:
sudo tar -zxf /home/wangyu/share/hadoop-2.9.2.tar.gz -C /usr/local
4.9.4 进入刚刚解压后存放的目录下:
cd /usr/local/
4.9.5 将该文件夹的名字重命名为hadoop,屏蔽掉版本号的信息,使得后续命令行输入更为简便:
sudo mv ./hadoop-2.9.2/ ./hadoop
4.10.1 将已重命名的该文件夹的拥有者,指定给用户hadoop,缺少这一步,将导致后续操作特别是运行Hadoop时,反复因权限不足而停止:
sudo chmod 777 -R /usr/local/hadoop
R:对目前目录下的所有档案与子目录进行相同的权限变更(即以递回的方式逐个变更)
777:高权限(读、写、执行)
4.10.2 hadoop实际运行时仍会出现找不到java-jdk的现象,故再对hadoop的环境文件进行修改,进入目录:
cd ./hadoop/etc/hadoop
4.10.3 使用vim编辑器,打开环境变量文件:
sudo vim ~/.bashrc
4.10.4 按字母o在当前行的下一行添加该语句:
#HADOOP VARIABLES START
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"
#HADOOP VARIABLES END
4.10.5 按Esc键退出,然后输入:wq保存修改。然后使环境变量生效:
source ~/.bashrc
4.10.6 hadoop框架已经搭建好了,可以通过调用版本号进行测试hadoop是否可用,正确搭建应该能看到hadoop的版本号等信息:
cd /usr/local/hadoop
./bin/hadoop version
1. 打开hadoop文件夹下的hadoop文件中,配置hadoop-env.sh
sudo vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
添加如下代码
# The java implementation to use.
export JAVA_HOME=/usr/local/jdk1.8
export HADOOP=/usr/local/hadoop
export PATH=$PATH:/usr/local/hadoop/bin
2.先打开 core-site.xml文件,将
sudo vim /usr/local/hadoop/etc/hadoop/core-site.xml
hadoop.tmp.dir
file:/usr/local/hadoop/tmp
Abase for other temporary directories.
fs.defaultFS
hdfs://localhost:9000
3.打开hdfs-site.xml文件:hdfs-site.xml进行同样的替换操作
sudo vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
dfs.replication
1
dfs.namenode.name.dir
file:/usr/local/hadoop/tmp/dfs/name
dfs.datanode.data.dir
file:/usr/local/hadoop/tmp/dfs/data
5. 打开yarn-env.sh,配置yarn-env.sh文件,添加以下代码
sudo vim /usr/local/hadoop/etc/hadoop/yarn-env.sh
# export JAVA_HOME
JAVA_HOME=/usr/local/jdk1.8
6.配置yarn-site.xml,将
sudo vim /usr/local/hadoop/etc/hadoop/yarn-site.xml
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.address
127.0.0.1:8032
yarn.resourcemanager.scheduler.address
127.0.0.1:8030
yarn.resourcemanager.resource-tracker.address
127.0.0.1:8031
1. 格式化namenode
hdfs namenode -format
显示信息内若包含以下内容successfully formatted,则说明成功格式化:
2.启动hdfs
start-all.sh
3.显示进程
jps
有6个进程表示正确:
4.打开浏览器,输入http://localhost:50070/,若打不开网址,把localhost换成本机ip地址
输入http://localhost:8088/,显示