sudo useradd -d /home/qingqing -m qingqing
为新账户设置密码,输入及确认密码即可。
sudo passwd qingqing
将qingqing用户权限提升到sudo超级用户级别。
sudo usermod -G sudo qingqing
若出现“sudo”不存在或者xx不在sudoers文件中,此时将被报告。
说明sudoers文件由于某种原因写入失败了
解决方法:vi /etc/sudoers 把root ALL=(ALL) ALL 复制一下,把root改成你自己的用户名即可。
编写完保存后,查看用户是否是sudoer
sudo -l -U username
若出现下图所示结果,则用户可以使用sudo访问运行所有命令。
后续操作切换到qingqing用户下操作。
ssh-keygen -t rsa
此时会有多处提醒输入在冒号后输入文本,这里主要是要求输入ssh密码以及密码的放置位置。在这里,只需要使用默认值,按回车即可。
此时ssh公钥和私钥已经生成完毕,且放置在 ~ /.ssh目录下。
在~/.ssh目录下,创建一个空文本,名为authorized_keys
touch ~/ .ssh/ authorized_keys
将存储公钥文件的id_rsa.pub里的内容,追加到authorized_keys中
cat ~ / .ssh/id_rsa.pub >> ~/ .ssh/authorized_keys
执行ssh localhost测试ssh配置是否正确
ssh localhost
第一次使用ssh访问,会提醒是否继续连接,输入“yes"继续进行,执行完以后退出。后续再执行ssh localhost时,就不用输入密码了。
sudo mkdir / apps
sudo mkdir /data
sudo chown -R qingqing : qingqing /apps
sudo chown -R qingqing : qingqing /data
mkdir /data/hadoop1
tar -zxvf hadoop-2.7.6.tar.gz /apps/
tar -zxvf jdk-8u171-linux-x64.tar.gz /apps
mv /apps/jdk1.8.0_171 /apps/java
mv /apps/hadoop-2.7.6 /apps/hadoop
sudo vim ~/.bashrc
#java
export JAVA_HOME=/apps/java
export PATH=$JAVA_HOME/bin:$PATH
#hadoop
export HADOOP_HOME=/apps/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
source ~/.bashrc
测试java环境是否成功:
java
若出现下图,说明配置成功 。
测试hadoop环境变量是否成功:
hadoop version
若出现hadoop的版本号及相关信息则说明配置成功。
7.修改hadoop本身相关配置。
切换到hadoop配置目录下
cd /apps/hadoop/etc/hadoop
7.1配置hadoop-env.sh:
将export JAVA_HOME=/apps/java 配置到hadoop-env.sh.
按i编辑,编辑完按ESC,:wq退出。
vim /apps/hadoop/etc/hadoop/hadoop-env.sh
7.2配置core-site.xml:
提前创建临时文件的存储位置
mkdir -p /data/tmp/hadoop/tmp
将
<property>
<name>hadoop.tmp.dir</name>
<value>/data/tmp/hadoop/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000
</property>
配置到core-site.xml的与标签之间。编辑操作同上
vim /apps/hadoop/etc/hadoop/core-site.xml
7.3配置hdfs-site.xml:
提前创建/data/tmp/hadoop/hdfs路径
mkdir -p /data/tmp/hadoop/hdfs
将
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/tmp/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data/tmp/hadoop/hdfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
配置解释:
dfs.namenode.name.dir,配置元数据信息存储位置;dfs.datanode.data.dir,配置具体数据存储位置;
dfs.replication,配置每个数据库备份数,由于目前使用1台节点,所以,设置为1
dfs.permissions.enabled,配置hdfs是否启用权限认证
配置到hdfs-site.xml的与标签之间。编辑操作同上
vim /apps/hadoop/etc/hadoop/hdfs-site.xml
7.4配置slaves
将集群中slave角色的节点的主机名,添加进slaves文件中。目前只有一台节点,所以slaves文件内容为:localhost 编辑操作同上
vim /apps/hadoop/etc/hadoop/slaves
格式化HDFS
hadoop namenode -format
切换目录,启动hadoop的hdfs相关进程
cd /apps/hadoop/sbin/
./start-dfs.sh
查看hdfs相关进程是否已经启动
jps
结果如下图:NameNode、DataNode和SecondaryNameNode均已启动。
进一步验证HDFS运行状态,创建一个目录,并查看。
hadoop fs -mkdir /first
hadoop fs -ls /
利用传输工具FIleZillaClient将本地压缩包传输至虚拟机
FileZilla是一个免费开源的FTP软件,分为客户端版本和服务器版本,具备所有的FTP软件功能。
使用FileZilla客户端,将本地windows系统上的文件,传到虚拟机上。
下载地址:https://filezilla-project.org/
安装完打开,输入虚拟机ip(可通过ifconfig查看ip)、用户名、用户密码连接虚拟机。先选好存放的虚拟机路径,再双击要传输的文件,即可传输至虚拟机。
希望能对你有所帮助,感谢观看!