前言:本篇是个人配置环境的总结,基于指导书,补充了许多在配置过程中出现的问题的解决细节。希望能帮到你。
⭐️前期准备① ⭐️前期准备②⭐️前期准备③
打开终端,创建 java 目录
mkdir /usr/lib/jvm #创建jvm文件夹
#如果显示“permission denied”,就用下边这句(之后都同理,就是在前边加sudo)
sudo mkdir /usr/lib/jvm
#如果需要在前边补充sudo,那会需要输密码,输密码时,按键盘在终端不会有显示,这时候不用管,把密码输完,回车就好
解压到目录下
sudo tar zxvf /home/hadoop/jdk-8u321-linux-x64.tar.gz -C /usr/lib/jvm #解压到/usr/lib/jvm目录下
cd /usr/lib/jvm #进入该目录
sudo mv jdk1.8.0_321 java #重命名为java文件名规范
配置 java 环境变量
vim ~/.bashrc
⚠️在~/.bashrc 最后添加下列代码并保存(按Insert键开始修改,最后按esc键,并输入:wq!
保存并退出,别误删了原来代码fi
)
#Java Environment
export JAVA_HOME=/usr/lib/jvm/java
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
更新配置,并测试是否安装成功
source ~/.bashrc #使新配置的环境变量生效
java -version #检测是否安装成功,查看 java 版本
安装 ssh
sudo apt-get install openssh-server #安装 SSH server
登录本机测试
ssh localhost #登陆 SSH,第一次登陆输入 yes
退出登录
exit #退出登录的 ssh localhost
设置免密登录
cd ~/.ssh/ #如果没法进入该目录,执行一次 ssh localhost
ssh-keygen -t rsa
cat ./id_rsa.pub >> ./authorized_keys #加入授权
解压安装Hadoop
sudo tar -zxvf /home/hadoop/hadoop-3.2.2.tar.gz -C /usr/local #解压到/usr/local 目录下
cd /usr/local
sudo mv hadoop-3.2.2 hadoop #重命名为 hadoop,可改可不改,如果修改下边的名字也要对应
sudo chown -R hadoop ./hadoop #修改文件权限
配置环境变量
vim ~/.bashrc
在~/.bashrc 中添加如下代码并保存(方法同上)
#Hadoop Environment
export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
测试安装成功
source ~/.bashrc #使新配置的环境变量生效
hadoop version #测试是否安装成功
在/usr/local/hadoop/etc/hadoop 目录 hadoop-env.sh 添加 Java 路径
cd /usr/local/hadoop/etc/hadoop
vim hadoop-env.sh
⚠️添加Java路径
export JAVA_HOME=/usr/lib/jvm/java
修改配置文件 core-site.xml
cd /usr/local/hadoop/etc/hadoop
vim core-site.xml
⚠️添加以下内容
<configuration>
<property>
<name>hadoop.tmp.dirname>
<value> file:/usr/local/hadoop/tmpvalue>
<description>Abase for other temporary directories.description>
property>
<property>
<name>fs.defaultFSname>
<value>hdfs://localhost:9000value>
property>
configuration>
修改配置文件 hdfs-site.xml
cd /usr/local/hadoop/etc/hadoop
vim hdfs-site.xml
⚠️添加以下内容
<configuration>
<property>
<name>dfs.replicationname>
<value>1value>
property>
<property>
<name>dfs.namenode.name.dirname>
<value>file:/usr/local/hadoop/tmp/dfs/namevalue>
property>
<property>
<name>dfs.datanode.data.dirname>
<value>file:/usr/local/hadoop/tmp/dfs/datavalue>
property>
<property>
<name>dfs.http.addressname>
<value>0.0.0.0:50070value>
property>
configuration>
格式化集群节点hdfs namenode -format
启动 hadoop start-dfs.sh
关闭Hadoopstop-dfs.sh
配置时需要开启 Hadoopstart-dfs.sh
解压到指定文件夹
sudo tar -zxvf /home/hadoop/eclipse-java-2020-03-R-linux-gtk-x86.tar.gz -C /usr/local/
创建eclipse桌面快捷图标
cd /usr/share/applications
sudo nano eclipse.desktop
写入以下文件
[Desktop Entry]
Encoding=UTF-8
Name=Eclipse
Comment=Eclipse
Exec=/usr/local/eclipse/eclipse
Icon=/usr/local/eclipse-installer/icon.xpm
Terminal=false
StartupNotify=true
Type=Application
Categories=Application;Development;
添加完后,先按ctrl x
,再按Y
(会有一个yes询问),最后按回车
,即保存且退出
把Eclipse添加到主页侧栏——在左下角九个点那点开,找到Eclipse(我这边是透明的,但是不影响使用),Add to Favorites
这时候在桌面点开还是打不开的,会有如下报错,需要配置环境
A Java Runtime Environment (JRE) or Java Development Kit (JDK) must be available in order to run Eclipse. No Java virtual machine was found after searching the following locations: /usr/local/eclipse/jre/bin/java java in your current PATH
sudo gedit /etc/profile
添加环境
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/:$PATH
检查jdk是否安装成功
source /etc/profile
java -version
然后添加软连接
sudo ln -s /usr/lib/jvm/java/bin /usr/local/eclipse/jre
安装eclipse对Hadoop的插件,把hadoop-eclipse-kepler-plugin-2.6.0.jar 复制到/usr/local/eclipse/plugins 目录下,重启 eclipse
如果能直接拖入就直接拖入,不行就先把hadoop-eclipse-kepler-plugin-2.6.0.jar拖入home(就之前拖入压缩包的地方),然后终端输入
sudo mv /home/hadoop/hadoop-eclipse-kepler-plugin-2.6.0.jar /usr/local/eclipse/plugins
重启后从 eclipse 的 Windows 菜单栏中找到 preference,看到左边有 Hadoop map/reduce 选项,然后找到 hadoop 的目录(/usr/local/hadoop),点击应用。
从 windows 菜单栏中选择 perspective->open perspective->other,会看到map/reduce 选项,点击确定切换
点击 Eclipse软件右下角的 Map/ReduceLocations 面板,在面板中单击右键,选择 New Hadoop Location。