尚硅谷电商数仓6.0,hive on spark,spark启动不了

在datagrip执行分区插入语句时报错

[42000][40000] Error while compiling statement: FAILED: SemanticException Failed to get a spark session: org.apache.hadoop.hive.ql.metadata.HiveException: Failed to create Spark client for Spark session 813afebf-3504-4731-afb3-976270d2d60f

我的问题是电脑性能不够

翻看5.0得知可以修改虚拟机内存

尚硅谷电商数仓6.0,hive on spark,spark启动不了_第1张图片

推荐修改为8 3 3或者 6 4 4

我采用8 3 3,问题解决,spark可以启动

希望我的电脑可以撑过完整项目

(去翻看5.0是因为,以为电脑彻底不行,想买云服务器去看看配置,误打误撞解决了哈哈哈)

你可能感兴趣的:(hive,spark,hadoop)