scala加载spark MLlib等所有相关jar的问题

1、找到spark安装目录

  E:\spackLearn\spark-2.3.3-bin-hadoop2.7\jars

  里面放的是spark的所有依赖jar包

2、从idea里面javalib导入即可调用里面的function

scala加载spark MLlib等所有相关jar的问题_第1张图片

 

转载于:https://www.cnblogs.com/wuzaipei/p/10974018.html

你可能感兴趣的:(scala加载spark MLlib等所有相关jar的问题)