Spark Streaming(四)——输出

输出操作如下:

1)print():在运行流程序的驱动结点上打印 DStream 中每一批次数据的最开始 10 个元素。这

用于开发和调试。

2)saveAsTextFiles(prefix, [suffix]):以 text 文件形式存储这个 DStream 的内容。每一批次的存

储文件名基于参数中的 prefix 和 suffix。”prefix-Time_IN_MS[.suffix]”。

3)saveAsObjectFiles(prefix, [suffix]):以 Java 对象序列化的方式将 Stream 中的数据保存为

SequenceFiles . 每一批次的存储文件名基于参数中的为"prefix-TIME_IN_MS[.suffix]"。

4)saveAsHadoopFiles(prefix, [suffix]):将 Stream 中的数据保存为 Hadoop files. 每一批次的存

储文件名基于参数中的为"prefix-TIME_IN_MS[.suffix]"。

5)foreachRDD(func):这是最通用的输出操作,即将函数 func 用于产生于 stream 的每一个

RDD。其中参数传入的函数 func 应该实现将每一个 RDD 中数据推送到外部系统,如将 RDD 存

入文件或者通过网络将其写入数据库。注意:函数 func 在运行流应用的驱动中被执行,同时其中

一般函数 RDD 操作从而强制其对于流 RDD 的运算。

你可能感兴趣的:(spark,streaming,spark,大数据,big,data)