spark-streaming整合flume

  1. 安装flume1.6以上版本
  2. spark-streaming-flume-sink_2.11-2.0.2.jar放入到flume的lib目录下
  3. 写flume的agent,注意既然是拉取的方式,那么flume向自己所在的机器上产数据就行
  4. 修改自己的scala-library版本,pom里面什么版本,找到地址传到flume/lib/
    spark-streaming整合flume_第1张图片
    这里我pom是2.11.8,所以传的是该jar包,传完之后把原来的做个备份,mv重命名即可
    spark-streaming整合flume_第2张图片
  5. 编写flume-poll.conf配置文件
a1.sources = r1
a1.sinks = k1
a1.channels = c1
#source
a1.sources.r1.channels = c1
a1.sources.r1.type = spooldir
#读取集群上文件的路径,读取后文件后缀名会发生改变
a1.sources.r1.spoolDir = /root/data
a1.sources.r1.fileHeader = true
#channel
a1.channels.c1.type =memory
a1.channels.c1.capacity = 20000
a1.channels.c1.transactionCapacity=5000
#sinks
a1.sinks.k1.channel = c1
a1.sinks.k1.type = org.apache.spark.streaming.flume.sink.SparkSink
a1.sinks.k1.hostname=hdp-node-01<!—自己的主节点信息-->
a1.sinks.k1.port = 8888
a1.sinks.k1.batchSize= 2000                           
  1. 启动flume
	flume-ng agent -n a1 -c /opt/software/apache-flume-1.7.0-bin/conf -f 
	/opt/software/apache-flume-1.7.0-bin/conf/flume-poll.conf -
	Dflume.root.logger=INFO,console
  1. 服务器上的 /root/data目录下准备数据文件data.txt
    spark-streaming整合flume_第3张图片
  2. 启动spark-streaming应用程序,去flume所在机器拉取数据
  3. 代码片段
    需要添加 pom 依赖
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-streaming-flume_2.10</artifactId>
    <version>2.0.2</version>
</dependency>
  1. 具体代码如下:
import java.net.InetSocketAddress
import org.apache.spark.storage.StorageLevel
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.flume.{FlumeUtils, SparkFlumeEvent}
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext}

/**
  * sparkStreaming整合flume 拉模式Poll
 *
 */
object SparkStreaming_Flume_Poll {
  //newValues 表示当前批次汇总成的(word,1)中相同单词的所有的1
  //runningCount 历史的所有相同key的value总和
  def updateFunction(newValues: Seq[Int], runningCount: Option[Int]): Option[Int] = {
  //getOrElse 有值就get,没有就给一个0
    val newCount =runningCount.getOrElse(0)+newValues.sum
    Some(newCount)
  }


  def main(args: Array[String]): Unit = {
    //配置sparkConf参数
    val sparkConf: SparkConf = new SparkConf().setAppName("SparkStreaming_Flume_Poll").setMaster("local[2]")
    //构建sparkContext对象
    val sc: SparkContext = new SparkContext(sparkConf)
    //构建StreamingContext对象,每个批处理的时间间隔
    val scc: StreamingContext = new StreamingContext(sc, Seconds(5))
    //设置checkpoint
    //checkpoint是一个内部事件,这个事件激活以后会触发数据库写进程(DBWR)
    // 将数据缓冲(DATABUFFER CACHE)中的脏数据块写出到数据文件中。
    scc.checkpoint("./")
    //设置flume的地址,可以设置多台
    val address=Seq(new InetSocketAddress("192.168.174.127",8888))
    // 从flume中拉取数据
    val flumeStream: ReceiverInputDStream[SparkFlumeEvent] = FlumeUtils.createPollingStream(scc,address,StorageLevel.MEMORY_AND_DISK)

    //获取flume中数据,数据存在event的body中,转化为String
    val lineStream: DStream[String] = flumeStream.map(x=>new String(x.event.getBody.array()))
    //实现单词汇总
    val result: DStream[(String, Int)] = lineStream.flatMap(_.split(" ")).map((_,1))
      //操作允许您在使用新的信息持续更新时保持任意状态。
      //updateStateByKey操作,要求必须开启Checkpoint机制。
      .updateStateByKey(updateFunction)

    result.print()
    scc.start()
    //是阻塞的,返回结果是线程池是否已停止(true/false)
    scc.awaitTermination()
  }

}
  1. 观察IDEA控制台输出spark-streaming整合flume_第4张图片
  2. 如果两边运行都没有问题,而且/root/data/data.txt名称改变为data.txt.COMPLETED, 那么需要这样操作:mv /root/data/data.txt.COMPLETED /root/data/data.txt
    再去看(8)步骤是否输出

你可能感兴趣的:(spark)