mv: 无法获取“/opt/module/hadoop/logs/hadoop-atguigu-nodemanager-hadoop102.out.1“ 的文件状态(stat): 没有那个文件或目录

最近在回顾之前做过的离线数仓项目,在启动hadoop时出现了如下错误:

hadoop102: mv: 无法获取"/opt/module/hadoop/logs/hadoop-atguigu-nodemanager-hadoop102.out.1" 的文件状态(stat): 没有那个文件或目录
hadoop102: mv: 无法获取"/opt/module/hadoop/logs/hadoop-atguigu-nodemanager-hadoop102.out" 的文件状态(stat): 没有那个文件或目录

经过一些资料搜集发现问题的根本原因在于/opt/module/hadoop/etc/hadoop/目录下的workers文件配置出现错误。

文件内容不能够包含localhost

我原本的文件配置如下:

请添加图片描述

修改后配置如下:
请添加图片描述

我们简单解释一下workers文件的作用:

在workers文件中,每行包含一个工作节点的主机名或IP地址。这些工作节点将被Hadoop集群用于执行MapReduce作业和其他任务。

例如,如果你有一个3节点的Hadoop集群,你可以在workers文件中添加以下内容:

hadoop102
hadoop103
hadoop104

要注意,文件中的主机名必须是已经注册好的,且整个集群中的节点都可以相互访问。如果加入localhost,就意味着每个节点的workers文件不一致,且每个机器中的localhost都不一样,就导致hadoop启动时的初始化工作无法顺利完成。因为某些机器无法访问localhost。

你可能感兴趣的:(hadoop,hadoop,大数据)