windows系统快速搭建pyspark环境(Anaconda)炒鸡简单

刚开始我尝试在Windows系统和Ubuntu系统单独配置spark hadoop ,发现很是复杂,尤其在环境配置等方面总是出现一些问题不好解决,所以我采用了另一种思路,发现特别快速和简介,相比和我一样想快速使用spark的小伙伴都已经迫不及待了!

总体思路是首先下载anaconda,然后再用anaconda下载pyspark,然后一切就完成了!

1.下载Anaconda

此篇只尝试了windows系统,Ubuntu系统稍后再做尝试

下载地址:https://www.anaconda.com/download/#windows

windows系统快速搭建pyspark环境(Anaconda)炒鸡简单_第1张图片

可以看出最新的anaconda已经更新到3.7了,不妨一试 。

2.安装

傻瓜式安装,点击下载的安装文件之间安装即可

3.打开anaconda安装pyspark

直接下载安装pyspark就可以了

windows系统快速搭建pyspark环境(Anaconda)炒鸡简单_第2张图片

 然后便安装完毕了,有用的话点个赞吧!

你可能感兴趣的:(大数据,spark)