官方文档:http://hadoop.apache.org/docs/r3.1.1/
命令:
rpm -ivh jdk-8u51-linux-x64.rpm
安装完成后,执行命令如下:
发现,java的版本仍然为1.7.0_65。rpm命令查询,系统默认已安装了jdk1.6和1.7。则依次卸载1.6和1.7:
rpm -e java-1.6.0-openjdk-1.6.0.0-11.1.13.4.el6.x86_64
rpm -e java-1.7.0-openjdk-1.7.0.65-2.5.1.2.el6_5.x86_64
并且修改/etc/profile文件,在文件末尾添加:
export JAVA_HOME=/usr/java/jdk1.8.0_51
执行命令,使/etc/profile文件生效:
source /etc/profile
依次执行命令:
ssh-keygen -t rsa
cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys
chmod 600 authorized_keys
执行ssh localhost查看系统是否能够免密登录。
解压hadoop-3.1.1:
tar -zxvf hadoop-3.1.1.tar.gz
移动压缩后的文件,并修改名称:
mv hadoop-3.1.1 /usr/local/hadoop
查看hadoop版本:
vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
在该文件hadoop-env.sh末尾加入:
export JAVA_HOME=/usr/java/jdk1.8.0_51
执行命令查看版本:
cd /usr/local/hadoop/
./bin/hadoop version
配置文件:
修改文件~/.bashrc,在文件末尾加入:
export JAVA_HOME=/usr/java/jdk1.8.0_51
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
在/etc/hosts和/etc/sysconfig/network配置如下—两种选择:
添加 127.0.0.1 localhost
2. 添加 10.13.7.72 master(在此将GuYongtao修改为master,可根据自己Linux的主机名进行配置,其中10.13.7.72为eth1的IP地址)
这里选用第二种:
依次执行如下命令:
[root@master hadoop]# pwd
/usr/local/hadoop
[root@master hadoop]#
[root@master hadoop]# mkdir input
[root@master hadoop]# cp etc/hadoop/*.xml input/
[root@master hadoop]# bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input/ ./output 'dfs[a-z.]+'
查看结果,如下即成功:
6.1.1 在 /usr/local/hadoop/ 创建目录:
6.1.2 修改配置文件:
进入路径:
修改以下文件内容:
hadoop.tmp.dir
file:/usr/local/hadoop/tmp
注释
fs.defaultFS
hdfs://master:9000
dfs.replication
1
dfs.permissions
false
dfs.namenode.name.dir
file:/usr/local/hadoop/dfs/name
dfs.datanode.data.dir
file:/usr/local/hadoop/dfs/data
mapreduce.framework.name
yarn
mapreduce.jobtracker.address
master:9001
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.resourcemanager.webapp.address
master:8099
由于启动过程发生报错,作出以下修改:
进入路径:
[root@master sbin]# pwd
/usr/local/hadoop/sbin
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
vim /usr/local/hadoop/etc/hadoop/log4j.properties
在文件末尾加入:
log4j.logger.org.apache.hadoop.util.NativeCodeLoader=ERROR
修改/etc/profile文件,在文件末尾加入,并执行source /etc/profile:
export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
格式化namenode节点:
命令:
hdfs namenode -format
系统能够免密登录后,启动命令(停止命令:stop-all.sh):
start-dfs.sh
在Linux的浏览器查看(hadoop2.x 端口为:50070,3.1为9870):
可查看 NameNode 和 Datanode 信息,也可以在线查看 HDFS 中的文件。
2. 执行
start-yarn.sh
https://blog.csdn.net/cx105200/article/details/78284761
https://blog.csdn.net/u011762604/article/details/72897000
https://blog.csdn.net/mm_bit/article/details/49474709
https://blog.csdn.net/lglglgl/article/details/80553828
https://blog.csdn.net/l1028386804/article/details/51538611