hadoop环境变量配置及启动

一.环境变量配置
cd /etc/environment

在文件末尾添加如下:
export HADOOP_INSTALL=/usr/local/hadoop #hadoop的安装目录

export PATH=PATH:HADOOP_INSTALL/bin

export PATH=PATH:HADOOP_INSTALL/sbin

export HADOOP_MAPRED_HOME=$HADOOP_INSTALL

export HADOOP_COMMON_HOME=$HADOOP_INSTALL

export HADOOP_HDFS_HOME=$HADOOP_INSTALL

export YARN_HOME=$HADOOP_INSTALL

查看是否配置成功:
cd ~
echo $PATH
注意:在/etc/environment下的环境变量是全局变量,不论是新建用户还是现已有的用户,都会读取到该环境变量。而在/etc/profile下,某些用户是读取不到该环境变量,运行Hadoop时,会因环境变量出现错误。
二.生效环境变量
环境配置好后,需要生效,输入命令:
source /etc/environment
三.启动hadoop
1.ssh登录
(1)查询是否已安装ssh
which ssh
若没有安装,参考如下:
[1]查找ssh
sudo apt-cache search ssh
[2]安装ssh
sudo apt-get install ssh
[3]生成密钥
which ssh-keygen
ssh-keygen -t rsa -P ” -f ~/.ssh/id_rsa
[4]授权ssh
cat id_rsa.pub >> authorized_keys
(2)ssh安装后登录
ssh localhost
(3)启动守护进程
start-all.sh
(4)查看是否配置成功
jps
若出现以下几个进程,则配置成功:
1. SecondaryNameNode
2. Jps
3. NameNode
4. DataNode
5. NodeManager
6. ResourceManager

你可能感兴趣的:(hadoop入门)