windows 10 安装 spark 环境(spark 2.2.1 + hadoop2.7)

安装步骤基本参考 Spark在Windows下的环境搭建。不过在安装新版本 spark2.2.1(基于 hadoop2.7)的配置时,略略有一些不同。

1. sqlContext => spark.sqlContext

在启动日志中未出现,SQL context available as sqlContext.也不足为奇,因为在新版本的 spark 中 sqlContext 对象已封装进 Spark session,也即 spark-shell 中的 spark 下。


windows 10 安装 spark 环境(spark 2.2.1 + hadoop2.7)_第1张图片

2. winutils.exe

为虚拟文件夹 /tmp/hive 修改权限时,应使用 winutils.exe 的绝对路径,如:

D:\Program Files\hadoop\bin\winutils.exe chmod 777 /tmp/hive 

你可能感兴趣的:(安装-升级-版本-信息查询)