本篇博客为学习总结博客,学习字源来自厦门大学数据库实验室,链接为:http://dblab.xmu.edu.cn/blog/install-hadoop/
十分感谢!!!
首先按 ctrl+alt+t 打开终端窗口,输入如下命令创建新用户 :
$ sudo useradd -m hadoop -s /bin/bash
sudo是ubuntu中一种权限管理机制,管理员可以授权给一些普通用户去执行一些需要root权限执行的操作。$ sudo passwd hadoop
$ sudo adduser hadoop sudo
$ sudo apt-get install openssh-server
安装后,可以使用如下命令登陆本机:
$ ssh localhost
但这样登陆是需要每次输入密码的,我们需要配置成SSH无密码登陆比较方便。
首先退出刚才的ssh,就回到了我们原先的终端窗口,然后利用ssh-keygen 生成密钥,并将密钥加入到授权中:
$ exit # 退出刚才的 ssh localhost
$ cd ~/.ssh/ # 若没有该目录,请先执行一次
$ ssh localhost ssh-keygen -t rsa #会有提示,都按回车就可以
$ cat ./id_rsa.pub >> ./authorized_keys # 加入授权
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
创建一个目录/usr/lib/jvm以便于把下载解压后的包放到这个目录下。
$ cd /usr/lib
$ sudo mkdir jvm
解压并把解压后的jdk文件夹放到/usr/lib/jvm目录中
$ sudo tar -zxvf /home/hadoop/Desktop/jdk-8u161-linux-x64.tar.gz -C /usr/lib/jvm/
进入到/usr/lib/jvm目录下
$ cd /usr/lib/jvm
把解压后的jdk文件夹重命名为java1.8
$ sudo mv jdk1.8.0_161/ java1.8
先进入gedit编辑器,
$ sudo gedit ~/.bashrc
在~/.bashrc的底部加入以下段落:
export JAVA_HOME=/usr/lib/jvm/java1.8
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
需要使用命令使环境变量立即生效
$ source ~/.bashrc
验证java安装是否成功
$ java -version
设置好后我们来检验一下是否设置正确:
$ echo $JAVA_HOME
$JAVA_HOME/bin/java -version
$ ./bin/hadoop version
Hadoop 默认模式为非分布式模式(本地模式),无需进行其他配置即可运行。非分布式即单 Java 进程,方便进行调试。
Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 DataNode,同时,读取的是 HDFS 中的文件。
Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。
首先,先设置下hadoop默认的java路径,执行:
$ gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh
修改配置文件 core-site.xml (通过 gedit 编辑会比较方便: gedit ./etc/hadoop/core-site.xml)
同样的,修改配置文件 hdfs-site.xml:
配置完成后,执行 NameNode 的格式化:
$ ./bin/hdfs namenode -format
接着开启 NameNode 和 DataNode 守护进程。
$ ./sbin/start-dfs.sh #start-dfs.sh是个完整的可执行文件,中间没有空格
终端显示上图两个红框内的内容即算设置成功,执行jps命令查看:
$ jps
成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。
以上就是安装的全部过程,再次感谢厦门大学数据库实验室对我学习的帮助!