idea,maven打包spark程序(scala)的jar文件

1.new-->project--->maven 填入GroupId和ArtifactId(相当于给你的项目起名字)
2.在pom.xml中标签中建 立标签
3.在 http://mvnrepository.com/ 中找到你要添加的包 复制到pom.xml中的中,保存
4.删除test 以及main中的java文件夹
5.main中新建scala文件夹
6.右击项目-----》Add Frameworks Support----》选择scala 确定
7.右击scala----》Make Directory As----->Sources Root
4.写程序
5.File--->Project Structure---->Artifacts----》点击+号--》JAR--》From Modules with---》选好主类 确认
6.删除左下框xxx.jar文件除了“xxx compile output”的其他文件---》确认
7.Build---》Build Artifacts----》xxx:jar build---》Build
8.编译完成后在out文件夹中可找到编译好的jar文件
9.上传jar文件到集群
10. spark-submit --class Recommder --master spark://hadoop1:7077 recomm.jar "coinse_sim_du=0.9/"

问题:
1.出现jvm 的问题 可以用如下方法
打开 IDEA 安装目录,看到有一个 bin 目录,其中有两个 vmoptions 文件,需针对不同的JDK进行配置:
32 位:idea.exe.vmoptions
64 位:idea64.exe.vmoptions

调整里面的Xmx 和Xms参数
参考 http://blog.csdn.net/sdujava2011/article/details/50086933

2.出现找不到主类的情况,可以如下解决
(1)解压jar文件看看对应的路径有没有相应的.class文件,如果没有肯定找不到
(2)打包的时候看是不是把其他依赖包打了进去。如果是请重新打包。

你可能感兴趣的:(阿里云)