Hadoop伪分布式安装

学习大数据最烦人的是安装,很多人装了几天不成功,我自己摸索前前后后大概有大半个月,终于学会了如何在Linux下去安装hadoop,由于只是学习,没有必要使用集群安装,在这里,给出伪分布式安装的总结性指导。

镜像选择:我使用厦门大学林子雨教授给予的镜像,该镜像集成了应用商店等,比较合适新手使用,并且林教授出了详细的代码教程,可以说是帮助得很到位了。
镜像链接
kylin16.04版本

软件选择:
在这里插入图片描述
在这里插入图片描述

因为林教授已经比较详细地给出了安装的步骤了,源码和指导书在以下,由于第一次写博客,所以写一个大概,后面再根据心情完善。
Hadoop伪分布式安装_第1张图片预安装:
此命令是当我们复制粘贴修改文件的时候,会权限不够,用以下方法即可使得文件路径下所有文件可以操作
常见地方:
MobaXterm文件拖拽复制权限不够
普通用户增删改查权限不够
软件运行权限不够

sudo chmod 777 -R 文件路径

windows下先安装MobaXerm,这个软件方便文件传入传出
这里小技巧在于:修改MobaXerm的粘贴快捷键为自己习惯的,以后代码直接从Windows粘贴过去即可。

安装ssh-openserver,然后可以在MobaXerm登陆虚拟机

①安装JAVA,配置环境变量
此问题在书中是配置了普通用户的环境变量
将包解压到:

/usr/local

改变量:

vim ~/.bashrc

添加一条
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
这个路径需要自己去查看自己的真实解压出来JAVA包的位置来修改

source ~/.bashrc    # 使变量设置生效

实际上为了以后的方便,我们常用root用户来操作,所以应该将环境变量添加在:

vi /etc/profile

注:vim这个软件在使用之前先安装

②Hadoop的安装
与JAVA安装类似,安装成功后注意增加HADOOP_HOME环境变量,教程有。
修改core-site.xml 和 hdfs-site.xml两个文件

格式化namenode

启动,这里可能会出现书本没有讲的下面问题:
问题1:
在这里插入图片描述
解决方案:https://www.cnblogs.com/hmy-blog/p/6500909.html
也有可能是HADOOP_HOME环境变量没弄好
也有可能是ssh不给登陆:
解决方案:
允许以 root 用户通过 ssh 登录:

sudo vi /etc/ssh/sshd_config

找到:PermitRootLogin prohibit-password禁用(或者删掉)
添加:PermitRootLogin yes
重启

sudo service ssh restart

问题2
在这里插入图片描述
JAVA——HOME的配置无法找到,这里如果验证环境变量没有问题的画可以使用终极办法:
解决链接

弄好后启动应该就没问题了。
jps查看正在运行的集群。

你可能感兴趣的:(大数据,linux,hadoop)