tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/server/
安装vim即可;
yum install -y vim
vim /etc/profile
按“o”进入编辑模式;
#JDK环境变量
export JAVA_HOME=/opt/server/jdk1.8.0_221
export PATH=${JAVA_HOME}/bin:$PATH
编辑完内容后,“esc”-->“:”-->"wq"-->回车,执行保存并退出。
source /etc/profile
vim /etc/hosts
点"i"或者"o"进入编辑模式;
编辑完后,点"Esc"-->":"-->"wq",回车,保存退出。
生成公钥和私钥;(一直点下去即可)
ssh-keygen -t rsa
vim hadoop-env.sh
vim core-site.xml
fs.defaultFS
hdfs://server:8020
hadoop.tmp.dir
/home/hadoop/data
vim hdfs-site.xml
dfs.replication
1
vim workers
server
# 查看防火墙状态
sudo firewall-cmd --state
# 关闭防火墙:
sudo systemctl stop firewalld
# 禁止开机启动
sudo systemctl disable firewalld
进入目录“/opt/server/hadoop-3.3.1/sbin”,编辑start-dfs.sh、stop-dfs.sh,在顶部加入以下内容;
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
start-dfs.sh如下:
stop-dfs.sh如下:
./start-dfs.sh
启动成功;
http://192.168.12.100:9870/
#Hadoop环境变量
export HADOOP_HOME=/opt/server/hadoop-3.3.1
export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin;
执行“source /etc/profile”刷新,使其生效。
进入/opt/server/hadoop-3.3.1/etc/hadoop/目录;
vim mapred-site.xml
mapreduce.framework.name
yarn
yarn.app.mapreduce.am.env
HADOOP_MAPRED_HOME=${HADOOP_HOME}
mapreduce.map.env
HADOOP_MAPRED_HOME=${HADOOP_HOME}
mapreduce.reduce.env
HADOOP_MAPRED_HOME=${HADOOP_HOME}
vim yarn-site.xml
yarn.nodemanager.aux-services
mapreduce_shuffle
进入“/opt/server/hadoop-3.3.1/sbin/”目录;
# start-yarn.sh stop-yarn.sh在两个文件顶部添加以下内容
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
vim start-yarn.sh
vim stop-yarn.sh
进入“/opt/server/hadoop-3.3.1/sbin/”目录;
./start-yarn.sh
http://192.168.12.100:8088/
创建目录、上传文件失败。
这里“dr.who”表示的是在网页端访问hdfs时的默认用户名,而真实是不存在的,它的权限很小,为了保证数据安全,无法访问其他用户的数据。修改默认登录用户就可解决此处权限问题。
修改“/opt/server/hadoop-3.3.1/etc/hadoop/”目录下的core-site.xml;
添加下面属性;
hadoop.http.staticuser.user
root
重启hdfs服务即可。
创建目录成功;
原因:客户端web无法解析server域名到指定ip引起的。
解决方法:
在本地win10配置host对虚拟机地址的访问;
192.168.12.100 server