IDEA导入JAR包引起的错误

所用软件版本:

  spark2.3.0

  kafka 1.10

  IDEA2019.1(spark-streaming-kafka-0-8-2.11-2.3.0)

在用IDEA导入kafka JAR包的时候,一直导入不进去,因为spark-streaming-kafka的jar包和kafka的jar包搞混,把org.apache.kafka.clients.consumer.ConsumerRecord写成org.apache.spark.kafka.clients.consumer.ConsumerRecord,多加了个spark,错误以为kafka是spark包里面的!!!

 

做好记录,供以后参考!!!

 

 

 

你可能感兴趣的:(spark)