PySpark安装和测试

简述

先简单把流程过一遍,大家根据自己水平来看就好了。

  1. java的版本一定要安装到java8,高版本也不行,低版本也不行。
  2. 安装Hadoop:http://www.apache.org/dyn/closer.cgi/hadoop/common
  3. 安装Apach Spark:http://spark.apache.org/downloads.html
  4. 安装pyspark:pip install pyspark

理论上这个流程已经可以了,我相信搜索到这篇文章的话,就有可能是下面的这几个细节没有注意:

细节一

java的版本号不是1.8 :https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

细节二

java所在目录中出现空格

这个直接替换下目录就好了

细节三

添加进环境变量时,所有的相关的目录都需要添加新的变量_home,如*,这样的模式
(很难说为什么,但是就是这样)不然会出现找不到目录的情况。

你可能感兴趣的:(Python,技术知识库)