hadoop 配置文件中直接使用 ip 地址

    在hadoop系统中,namenode和datanode在进行交互时,缺省是要进行host解析查询的,在当前环境中, 所有配置文件中都直接使用了ip地址,导致系统报错

FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool (Datanode Uuid unassigned) service to hostname/ipaddress:9000. Exiting. 
java.io.IOException: All specified directories are failed to load.

    解决的方法是在所有节点的 core-site.xml 中加入


    dfs.namenode.datanode.registration.ip-hostname-check
    false

你可能感兴趣的:(运维,知识点,分布式系统)