大数据之安装Hadoop—科多大数据

安装hadoop有三种模式:

本地模式:将需要上传的文件内容统一放在一个本地磁盘的某个文件夹下。

伪分布式:一台的主机,但该主机上有会有文件系统-hadoop的文件系统。

全分布式:多台主机,搭建集群的方式进行文件存储(有一个大型的文件系统)。

1、上传tar.gz的文件到linux上

2、解压: tar -zxvf hadoop-2.6.5.tar.gz

3、配置hadoop

需要进入到:/keduox/hadoop-2.6.5/etc/hadoop

3.1让JDK与HADOOP关联起来

修改hadoop-env.sh在文件中找到export JAVA_HOME值改为环境变量中配置的JAVA_HOME的值.

vi中查找找定指是可以用:/查找的值

n是查找下一个目标

3.2配置core-site.xml

配置该项的目的是为了其它第三方程序需要访问hdfs时,统一的入口地址:默认端口8020

建议采用主机名的方式进行配置。

大数据之安装Hadoop—科多大数据_第1张图片

3.3配置hdfs-site.xml

hdfs复本的原因,但是hdfs默认情况下是有3份。

4、首次使用前准备

需要进行格式化:最好先进行环境变量的配置【参考5】

hdfs namenode -format

执行以后发现

但是目录会默认存储在/tmp目录?

启动起来

配置sbin以后。在任意目录下,输入start-dfs.sh

启动过程需要输入密码,密码为当前用户的登录密码

5、配置环境变量

hadoop有点特殊需要配置bin目录和sbin目录

6、判断是否启动成功

大数据之安装Hadoop—科多大数据_第2张图片

你可能感兴趣的:(大数据之安装Hadoop—科多大数据)