spark 常见问题,命令

免责声明:本文仅代表个人观点,如有错误,请读者自己鉴别;如果本文不小心含有别人的原创内容,请联系我删除;本人心血制作,若转载请注明出处

1、打开 hdfs : start-dfs.sh

2、打开hadoop: start-all.sh

      到 Master 上可以打开所有节点的hadoop

3、切换账户: ping 192.168.0.11 (对方ID)

你可能感兴趣的:(hadoop,spark,大数据,hdfs)