运行flink官网DataStream API例子报错ClassNotFoundException

今天在运行 flink官网DataStream API例子(一个针对可疑信用卡交易行为的反欺诈检测系统的demo :https://ci.apache.org/projects/flink/flink-docs-release-1.10/getting-started/walkthroughs/datastream_api.html)报错:

java.lang.ClassNotFoundException: org.apache.flink.streaming.api.functions.source.SourceFunction

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/flink/streaming/api/functions/source/SourceFunction
	at spendreport.FraudDetectionJob.main(FraudDetectionJob.scala)
Caused by: java.lang.ClassNotFoundException: org.apache.flink.streaming.api.functions.source.SourceFunction
	at java.net.URLClassLoader.findClass(URLClassLoader.java:382)
	at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
	at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)
	at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
	... 1 more

解决办法是将pom中将scope=provided的依赖改为compile即可。也可以利用maven的profiles标签,针对不同的开发环境,配置不同的环境。

在原来的pom.xml文件中添加如下内容:

 


	
	
	
		
		
			prod
			
				true
			
			
				prod
			
		
		
		
			test
			
				test
			
		
		
		
			dev
			
				
					idea.version
				
			
			
			
			test
		

			
				
				
					org.apache.flink
					flink-streaming-scala_${scala.binary.version}
					${flink.version}
					compile
					
				

			
		
	

下面解释下provided 和compile的区别,

对于compile是默认的scope,设置为scope=compile的依赖jar,项目在编译,测试,运行阶段都需要这个artifact对应的jar包在classpath中。

对于配置了provided的依赖,只影响到编译,测试阶段。在运行阶段如果程序运行的目标容器中没有这个jar包,运行就会报错,找不到这个类,而编译是会通过的。而在实际生产环境中,某些jar包,比如这里的flink-streaming-scala_${scala.binary.version} ,生产环境中肯定存在了,所以设置为provided,不需要将该依赖项,打包到jar文件中。而本地运行环境没有这个jar包,所以需要设置为compile

你可能感兴趣的:(flink)