一、下载hadoop
终端输入:Weget http://archive.apache.org/dist/hadoop/core/hadoop-2.7.2/hadoop-2.7.2.tar.gz
################### hadoop下载地址#################
https://blog.csdn.net/chanson_dog/article/details/78997227
archive.apache.org/dist/hadoop/core/hadoop-2.7.2/
###################################################
二、安装hadoop
参考博文(1)
sudo tar xzf hadoop-2.7.2.tar.gz
sudo mv hadoop-2.7.2 /usr/local/hadoop
sudo chmod 774 /usr/local/hadoop
sudo vim /etc/profile
添加如下:
#java的安装路径(不知到使用which java查看)
export JAVA_HOME=/usr/local/java1/jdk1.8.0_181
export CLASSPATH=".: J A V A H O M E / l i b : JAVA_HOME/lib: JAVAHOME/lib:CLASSPATH"
export PATH=“ J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:PATH”
export HADOOP_PATH=/usr/local/hadoop
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin # 添加hadoop安装路径(也可以使用which hadoop查看)
#使添加环境变量生效
Source /etc/profile (千万别忘记,忘记可能会出错)
成功显示版本号等信息
至此hadoop安装成功,接下来配置hadoop运行环境
三、配置hadoop环境
配置/usr/local/hadoop/etc/hadoop下相关文件(进入以下文件需要线进入/hadoop下)
1.hadoop-env.sh配置如下
终端输入:sudo vim hadoop-env.sh
找到JAVA_HOME变量,修改为java的安装路径
JAVA_HOME = export /usr/local/java1/jdk1.8.0_181/jre (特别注意jre不能掉)
2.core-site.xml 配置如下:
终端输入:sudo vim core-site.xml
其中的hadoop.tmp.dir的路径可以根据自己的习惯进行设置(本人已经修改为自己熟悉的路径)
3.mapred-site.xml.template配置如下:
4.hdfs-site.xml配置如下:
dfs.replication
1
dfs.namenode.name.dir
/usr/local/hadoop/tmp/dfs/name
dfs.datanode.data.dir
/usr/local/hadoop/tmp/dfs/data
其中dfs.namenode.name.dir和dfs.datanode.data.dir的路径可以自由设置,最好在hadoop.tmp.dir的目录下面。(本人已经修改,根据自己需要设置即可)
5.运行Hadoop:
在hadoop的根目录下 (在本例中,为/usr/local/hadoop)
cd /usr/local/hadoop #进入hadoop根目录下
bin/hdfs namenode -format #初始化HDFS系统
sbin/start-dfs.sh #开启NameNode和DataNode守护进程(遇到问题,已解決)stop-all.sh
启动成功后:在浏览器输入http://localhost:50070/ 进行测试
################启动失败解决方法###################
https://blog.csdn.net/haozhao_blog/article/details/50767009
###################################################
在安装好Hadoop后,每次输入命令都会出现下面警告(即提示hadoop不能加载本地库):
解决方法:
1.首先在bashrc中加入如下配置:
vim ~/.bashrc
在后面加入;export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR= H A D O O P H O M E / l i b / n a t i v e e x p o r t H A D O O P O P T S = " − D j a v a . l i b r a r y . p a t h = HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path= HADOOPHOME/lib/nativeexportHADOOPOPTS="−Djava.library.path=HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
添加之后退出:source ~/.bashrc
####解决不能加载本地库的问题#############
博文地址:https://www.jianshu.com/p/f25a0caafcc6
###############################################
jps #查看进程信息
四、关闭hadoop进程
使用stop-all.sh关闭hadoop进程
stop-all.sh