所属专栏:【大数据学习笔记(华为云)】
作 者:我是夜阑的狗
个人简介:一个正在努力学技术的码仔,专注基础和实战分享 ,欢迎咨询!
欢迎大家:这里是CSDN,我总结知识的地方,喜欢的话请三连,有问题请私信
大家好,又见面了,我是夜阑的狗,本文是专栏【大数据学习笔记(华为云)】专栏的第1篇文章,主要讲解是华为云hadoop伪分布式的安装。
专栏地址:【大数据学习笔记(华为云)】, 此专栏是我是夜阑的狗对华为云hadoop的使用,希望能够加深自己的印象,以及帮助到其他的小伙伴。
如果文章有什么需要改进的地方还请大佬不吝赐教。
创建用户:
sudo useradd -m hadoop -s /bin/bash
设置密码,可简单设置为 hadoop,按提示输入两次密码:
sudo passwd hadoop
hadoop 用户增加管理员权限,方便部署:
sudo adduser hadoop sudo
用hadoop用户登录
su - hadoop #切换当前用户为用户hadoop
由于Ubuntu的一些特性,需要随时更新一下apt,不然有时候软件安装不了
sudo apt-get update
更新软件列表
sudo apt-get update
安装 openjdk-8-jdk
sudo apt-get install openjdk-8-jdk
查看Java版本,如下:
java -version
安装好 OpenJDK 后,需要找到相应的安装路径
update-alternatives --config java
我们输出的路径为
/usr/lib/jvm/java-8-openjdk-amd64/jre/bin/java
其中,绝对路径为
/usr/lib/jvm/java-8-openjdk-amd64
接着配置 JAVA_HOME 环境变量,为方便,我们在 ~/.bashrc 中进行设置
sudo vi /etc/profile 在文件最前面添加如下单独一行(注意 = 号前后不能有空格),将“JDK安装路径”改为绝对路径,并保存:
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export JRE_HOME=$JAVA_HOME/jre
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
让该环境变量生效
source /etc/profile
设置好后我们来检验一下是否设置正确:
echo $JAVA_HOME # 检验变量值
java -version
$JAVA_HOME/bin/java -version # 与直接执行 java -version 一样
现在检查您是否可以在没有密码的情况下通过 ssh 连接到本地主机:
$ ssh localhost
如果没有密码就无法 ssh 到 localhost,请执行以下命令:
$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys
wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0-aarch64.tar.gz
sudo tar -zxvf hadoop-3.3.0-aarch64.tar.gz -C /usr/local/
cd /usr/local
sudo mv hadoop-3.3.0 hadoop #重命名为hadoop
sudo chown -R hadoop ./hadoop #修改文件权限
给hadoop配置环境变量,将下面代码添加到.bashrc文件:
export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
同样,执行source ~/.bashrc使设置生效,并查看hadoop是否安装成功
source ~/.bashrc
hadoop-env.sh和yarn-env.sh两个文件
fs.defaultFS
hdfs://localhost:9000
etc/hadoop/hdfs-site.xml:
注意:这里xxx可以填写localhost
dfs.namenode.secondary.http-address
xxx:9001
dfs.replication
2
dfs.webhdfs.enabled
true
etc/hadoop/mapred-site.xml:
注意:这里xxx可以填写localhost
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
xxx:10020
mapreduce.jobhistory.webapp.address
xxx:19888
etc/hadoop/yarn-site.xml:
注意:这里xxx可以填写localhost
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.address
xxx:8032
yarn.resourcemanager.scheduler.address
xxx:8030
yarn.resourcemanager.resource-tracker.address
xxx:8031
yarn.resourcemanager.admin.address
xxx:8033
yarn.resourcemanager.webapp.address
xxx:8088
start-all.sh
浏览Web界面 - http://localhost:9870/
遇到问题:结点挂载上去了,但是web页面访问不了
解决方法:本人使用的华为云,需要在华为云控制台修改一下安全组,把hadoop要用TCP协议的端口添加进去,这里我把全部端口进行设置开放。
访问结果:
sbin/stop-all.sh
感谢观看,如果有帮助到你,请给文章点个赞和收藏,让更多的人看到。
也欢迎你,关注我。
原创不易,还希望各位大佬支持一下,你们的点赞、收藏和留言对我真的很重要!!! 最后,本文仍有许多不足之处,欢迎各位认真读完文章的小伙伴们随时私信交流、批评指正!
更多专栏订阅:
- 【LeetCode题解(持续更新中)】
- 【Java Web项目构建过程】
- 【数字图像处理】
- ⚽ 【JavaScript随手笔记】
- 【大数据学习笔记(华为云)】
- 【程序错误解决方法(建议收藏)】
- 【软件安装教程】
订阅更多,你们将会看到更多的优质内容!!