本地sparksql调试遇到的一些问题

本地sparksql调试遇到的一些问题
    1.报错:Hive support is required to CREATE Hive TABLE (AS SELECT)
    解决办法:在spark中添加.enableHiveSupport()

    2.创建hive表时报错:Unable to instantiate SparkSession with Hive support because Hive classes a
    解决方法:需要引入spark-hive依赖
    
    3.本地Sparksql运行中报java.net.UnknownHostException: nodeNA的异常
    解决方法:在本地host文件中加上【远程服务器ip nodeNA】

你可能感兴趣的:(本地sparksql调试遇到的一些问题)