windows环境下安装spark,winutils.exe 报错

 安装hadoop winutils,下载链接https://github.com/steveloughran/winutils, 选择你要的hadoop版本号,比如2.8.1,你只需要下载winutils.exe,然后拷贝到C:\Hadoop\bin文件夹中。

创建系统变量HADOOP_HOME,为C:\Hadoop,添加%HADOOP_HOME%\bin到PATH变量中

 

管理员身份打开cmd,运行spark-shell,如果遇到访问权限等错误的话,运行 winutils.exe chmod 777 C:\tmp\hive

 

管理员身份打开cmd,运行spark-shell,你应该看到如下界面

你可能感兴趣的:(pySpark)