Windows10安装Hadoop3.1.3环境
https://hadoop.apache.org/release/3.1.3.html
winutils是hadoop在windows上运行的兼容工具,可以去GitHub上下载对应的hadoop对应的版本即可,由于之前在windows10上安装hadoop2.x的的好几个版本,均安装失败,错误是下面这个:
java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.
直接是无解,那就只能去网上查下试下其它的hadoop版本了,这个hadoop3.1.3的版本亲测可行。
链接:https://pan.baidu.com/s/109956kgaarkHoklcARVYgQ
提取码:udy1
略,需要安装JDK>=1.8, jdk64位,不要安装在C盘的默认路径下:C:\Program Files\Java下,否则修改hadoop的修改hadoop-env.cmd文件中的JAVA_HOME路径会不生效,jdk的路径中不要用特殊字符、中文或者是空格,否则配置会无效,如果你的jdk环境默认安装在C:\Program Files\Java下可以将其复制一份到非C盘的盘中,然后去除路径中的空格、中文和特殊字符等符号,然后重新配置下jdk的环境变量即可,我的是之前安装在C:\Program Files\Java下,然后复制到D盘下重新配置jdk环境变量就生效了。
把下载的hadoop-3.1.3.tar.gz压缩包解压到自己要安装的路径下
我的解压安装路径是在D:\hadoop-3.1.3
在Path变量中添加hadoop的bin路径:%HADOOP_HOME%\bin;
进入hadoop的安装目录D:\hadoop-3.1.3下新建data和temp文件夹
进入data目录,创建datanode和namenode文件夹
进入D:\hadoop-3.1.3\etc\hadoop
原来的配置PROGRA~1是 C:\Program Files 目录的dos文件名模式下的缩写
这个是配置的是本地JDK的安装路径,改成自己的JDK的安装路径即可。
添加如下内容:在configuration标签中添加如下的property标签属性内容
fs.defaultFS
hdfs://localhost:9000
添加如下内容:把namenode和datanode的路径改成自己的路径即可
dfs.replication
1
dfs.namenode.name.dir
/D:/hadoop-3.1.3/data/namenode
dfs.datanode.data.dir
/D:/hadoop-3.1.3/data/datanode
添加如下内容:
mapreduce.framework.name
yarn
添加如下内容:
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.nodemanager.resource.memory-mb
1024
yarn.nodemanager.resource.cpu-vcores
1
加压winutils文件复制其bin目录下的所有文件覆盖到hadoop-3.1.3\bin中
搜索命令提示符右键以管理员身份运行:
hdfs namenode -format
复制D:\hadoop-3.1.3\share\hadoop\yarn\timelineservice\hadoop-yarn-server-timelineservice-3.1.3.jar到D:\hadoop-3.1.3\share\hadoop\yarn目录下
cmd命令提示符中执行以下命令:
hadoop version
cmd到D:\hadoop-3.1.3\sbin运行start-all.cmd,或者是点击运行start-all.cmd运行,会弹出4个启动窗口,不要关闭
分别是namenode、datanode、nodemanager、resourcemanager这个4个java进程,并且没有任何报错,如果有报错就你就得排错一下了,可以使用jps命令查看到这4个java进程
浏览器访问
http://localhost:9870/
浏览器访问
http://localhost:8088/
如果访问以上两个地址都可以打开的话,说明已经成功在windows10上安装好了hadoop的环境了
安装hadoop为了后面本地其它工具实验(请启动后面的文章分享,跟这个有关系的)或项目使用hadoop环境,总结记录方面在本地更好更快的搭建使用hadoop环境,也可以使用docker/k8s部署hadoop环境,搭建这个hadoop其实也是踩了好多坑,看了好多坑的文章,后面终于安装成功了,就写了这篇文章分享给大家,希望我的分享能给你带来帮助,请一键三连,么么么哒!