vscode中jupyter插件使用conda环境引入pyspark

1、结合第一篇文章:
https://blog.csdn.net/u012228523/article/details/128067129
这篇文章是在vscode中开发使用但是不涉及到jupyter中使用

2、切换到conda的激活环境,在命令行中执行以下命令

pip install findspark

如下图:
在这里插入图片描述

3、在jupyter中编写如下代码

import findspark
findspark.init(spark_home='/Users/admin/Documents/softwares/spark-2.6.0-bin-2.6.0-cdh5.16.2',python_path='/Users/admin/opt/anaconda3/envs/recommend_data/bin/python')

在初始化的时候指定spark执行所需要的spark所在位置,以及python所在位置

4、测试代码是否能正确执行

from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('test').getOrCreate()
l = [('Alice', 1)]
df = spark.createDataFrame(data=l,schema="a: string, b: int")
df.show()

你可能感兴趣的:(Python机器学习,vscode,jupyter,conda)