Spark架构,运行原理,任务调度和资源调度分析,内存管理分析,SparkSQL,SparkSreaming与kafaka,数据倾斜的解决,调优。
Spark是美国加州大学伯克利分校的AMP实验室(主要创始人lester和Matei)开发的通用的大数据处理框架。
Apache Spark™ is a fast and general engine for large-scale data processing.
Apache Spark is an open source cluster computing system that aims to make data analytics fast,both fast to run and fast to wrtie
Spark应用程序可以使用R语言、Java、Scala和Python进行编写,极少使用R语言编写Spark程序,Java和Scala语言编写的Spark程序的执行效率是相同的,但Java语言写的代码量多,Scala简洁优雅,但可读性不如Java,Python语言编写的Spark程序的执行效率不如Java和Scala。
Spark有4中运行模式:
Spark比MapReduce快的原因
DAG计算模型在迭代计算上还是比MR的更有效率。
在图论中,如果一个有向图无法从某个顶点出发经过若干条边回到该点,则这个图是一个有向无环图(DAG)
DAG计算模型在Spark任务调度中详解!
Spark计算比MapReduce快的根本原因在于DAG计算模型。一般而言,DAG相比MapReduce在大多数情况下可以减少shuffle次数。Spark的DAGScheduler相当于一个改进版的MapReduce,如果计算不涉及与其他节点进行数据交换,Spark可以在内存中一次性完成这些操作,也就是中间结果无须落盘,减少了磁盘IO的操作。但是,如果计算过程中涉及数据交换,Spark也是会把shuffle的数据写磁盘的!有一个误区,Spark是基于内存的计算,所以快,这不是主要原因,要对数据做计算,必然得加载到内存,Hadoop也是如此,只不过Spark支持将需要反复用到的数据给Cache到内存中,减少数据加载耗时,所以Spark跑机器学习算法比较在行(需要对数据进行反复迭代)。Spark基于磁盘的计算也是比Hadoop快。刚刚提到了Spark的DAGScheduler是个改进版的MapReduce,所以Spark天生适合做批处理的任务。Hadoop的MapReduce虽然不如spark性能好,但是HDFS仍然是业界的大数据存储标准。
RDD(Resilient Distributed Dataset )-弹性分布式数据集
A list of partitions
A function for computing each partition
A list of dependencies on other RDDs
Optionally, a Partitioner for key-value RDDs
Optionally, a list of preferred locations to compute each split on
Spark任务执行流程
写一个Spark应用程序的流程
1.加载数据集(获得RDD)
可以从HDFS,NoSQL数据库中加载数据集
2.使用transformations算子对RDD进行操作
transformations算子是一系列懒执行的函数
3.使用actions算子触发执行
transformations算子对RDD的操作会被先记录,当actions算子触发后才会真正执行
伪代码示例:
1 2 3 4 5 |
lines = sc.textFile(“hdfs://...”) //加载数据集 errors = lines.filter(_.startsWith(“ERROR”)) //transformations算子 lines.filter(x=>{x.startsWith(“ERROR”)}) //transformations算子 Mysql_errors = errors.filter(_.contain(“MySQL”)).count //count是actions算子 http_errors = errors.filter(_.contain(“Http”)).count |
Actions
count:统计RDD中元素的个数
1 2 3 4 5 |
val rdd = sc.makeRDD(Array("hello","hello","hello","world")) val num = rdd.count() println(num) 结果: 4 |
foreach:遍历RDD中的元素
1 2 3 4 5 6 7 |
val rdd = sc.makeRDD(Array("hello","hello","hello","world")) rdd.foreach(println) 结果: hello hello hello world |
foreachPartition
foreach以一条记录为单位来遍历RDD
foreachPartition以分区为单位遍历RDD
foreach和foreachPartition都是actions算子
map和mapPartition可以与它们做类比,但map和mapPartitions是transformations算子
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
//设置rdd的分区数为2 val rdd = sc.parallelize(1 to 6, 2) rdd.foreachPartition(x => { println("data from a partition:") while(x.hasNext) { println(x.next()) } }) 结果: data from a partition: 1 2 3 data from a partition: 4 5 6 |
collect:把运行结果拉回到Driver端
1 2 3 4 5 6 7 8 9 10 11 |
val rdd = sc.makeRDD(Array( (5,"Tom"),(10,"Jed"),(3,"Tony"),(2,"Jack") )) val resultRDD = rdd.sortByKey() val list = resultRDD.collect() list.foreach(println) 结果: (2,Jack) (3,Tony) (5,Tom) (10,Jed) |
take(n):取RDD中的前n个元素
1 2 3 4 5 |
val rdd = sc.makeRDD(Array("hello","hello","hello","world")) rdd.take(2).foreach(println) 结果: hello hello |
first :相当于take(1)
1 2 3 4 |
val rdd = sc.makeRDD(Array("hello","hello","hello","world")) println(rdd.first) 结果: Hello |
reduce:按照指定规则聚合RDD中的元素
1 2 3 4 5 6 |
val numArr = Array(1,2,3,4,5) val rdd = sc.parallelize(numArr) val sum = rdd.reduce(_+_) println(sum) 结果: 15 |
countByKey:统计出KV格式的RDD中相同的K的个数
1 2 3 4 5 6 7 8 9 10 11 12 13 |
val rdd = sc.parallelize(Array( ("销售部","Tom"), ("销售部","Jack"),("销售部","Bob"),("销售部","Terry"), ("后勤部","Jack"),("后勤部","Selina"),("后勤部","Hebe"), ("人力部","Ella"),("人力部","Harry"), ("开发部","Allen") )) val result = rdd.countByKey(); result.foreach(println) 结果: (后勤部,3) (开发部,1) (销售部,4) (人力部,2) |
countByValue:统计出RDD中每个元素的个数
1 2 3 4 5 6 7 8 9 10 11 |
val rdd = sc.parallelize(Array( "Tom","Jed","Tom", "Tom","Jed","Jed", "Tom","Tony","Jed" )) val result = rdd.countByValue(); result.foreach(println) 结果: (Tom,4) (Tony,1) (Jed,4) |
Transformations
filter:过滤
1 2 3 4 |
val rdd = sc.makeRDD(Array("hello","hello","hello","world")) rdd.filter(!_.contains("hello")).foreach(println) 结果: world |
map 和flatMap
sample :随机抽样
sample(withReplacement: Boolean, fraction: Double, seed: Long)
withReplacement : 是否是放回式抽样
true代表如果抽中A元素,之后还可以抽取A元素
false代表如果抽住了A元素,之后都不在抽取A元素
fraction : 抽样的比例
seed : 抽样算法的初始值
1 2 3 4 5 6 7 8 9 |
val rdd = sc.makeRDD(Array( "hello1","hello2","hello3","hello4","hello5","hello6", "world1","world2","world3","world4" )) rdd.sample(false, 0.3).foreach(println) 结果: hello4 world1 在数据量不大的时候,不会很准确 |
groupByKey和reduceByKey
sortByKey:按key进行排序
1 2 3 4 5 6 7 8 9 10 11 |
val rdd = sc.makeRDD(Array( (5,"Tom"),(10,"Jed"),(3,"Tony"),(2,"Jack") )) rdd.sortByKey().foreach(println) 结果: (2,Jack) (3,Tony) (5,Tom) (10,Jed) 说明: sortByKey(fasle):倒序 |
sortBy:自定义排序规则
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 |
object SortByOperator { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("TestSortBy").setMaster("local") val sc = new SparkContext(conf) val arr = Array( Tuple3(190,100,"Jed"), Tuple3(100,202,"Tom"), Tuple3(90,111,"Tony") ) val rdd = sc.parallelize(arr) rdd.sortBy(_._1).foreach(println) /* (90,111,Tony) (100,202,Tom) (190,100,Jed) */ rdd.sortBy(_._2).foreach(println) /*(190,100,Jed) (90,111,Tony) (100,202,Tom) */ rdd.sortBy(_._3).foreach(println) /* (190,100,Jed) (100,202,Tom) (90,111,Tony) */ sc.stop(); } } |
distinct:去掉重复数据
1 2 3 4 5 6 7 8 9 10 11 12 13 |
val rdd = sc.makeRDD(Array( "hello", "hello", "hello", "world" )) val distinctRDD = rdd .map {(_,1)} .reduceByKey(_+_) .map(_._1) distinctRDD.foreach {println} 等价于: rdd.distinct().foreach {println} |
join
先看看SQL中的join
假设有如下两张表:table A是左表,table B是右表
不同join方式会有不同的结果
1.Inner join
1 2 3 |
SELECT * FROM TableA INNER JOIN TableB ON TableA.name = TableB.name |
2.Left outer join
产生表A的完全集,而B表中匹配的则有值,没有匹配的则以null值取代
执行SQL:
1 2 3 |
SELECT * FROM TableA LEFT OUTER JOIN TableB ON TableA.name = TableB.name |
3.Right outer join
产生表B的完全集,而A表中匹配的则有值,没有匹配的则以null值取代
执行SQL:
1 2 3 |
SELECT * FROM TableA RIGHT OUTER JOIN TableB ON TableA.name = TableB.name |
4.Full outer join(MySQL不支持)
产生A和B的并集,但是需要注意的是,对于没有匹配的记录,则会以null做为值
执行SQL:
1 2 3 |
SELECT * FROM TableA FULL OUTER JOIN TableB ON TableA.name = TableB.name |
在Spark的算子中,对两个RDD进行join有着类似的作用
假设有两个RDD:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 |
val nameList = List( (1,"Jed"), (2,"Tom"), (3,"Bob"), (4,"Tony") )
val salaryArr = Array( (1,8000), (2,6000), (3,5000) ) /* * parallelize(Seq[T],Int num) * 使用指定的集合(可以是List、Array等)来创建RDD * num 指定RDD的分区数,默认为1 * 这个方法经常用于测试环境 * join产生的RDD的分区数由分区数最多的父RDD决定 */ val nameRDD = sc.parallelize(nameList,2) val salaryRDD = sc.parallelize(salaryArr,3) |
分别对4种join做测试:
1 2 3 4 5 6 7 |
val joinRDD = nameRDD.join(salaryRDD) joinRDD.foreach( x => { val id = x._1 val name = x._2._1 val salary = x._2._2 println(id + "\t" + name + "\t" + salary) }) |
结果:
1 Jed 8000
2 Tom 6000
3 Bob 5000
1 2 3 4 5 6 7 |
val leftOuterJoinRDD = nameRDD.leftOuterJoin(salaryRDD) leftOuterJoinRDD.foreach( x => { val id = x._1 val name = x._2._1 val salary = x._2._2 println(id + "\t" + name + "\t" + salary) }) |
结果:
1 Jed Some(8000)
2 Tom Some(6000)
3 Bob Some(5000)
4 Tony None
1 2 3 4 5 6 7 |
val rightOuterJoinRDD = nameRDD.rightOuterJoin(salaryRDD) rightOuterJoinRDD.foreach( x => { val id = x._1 val name = x._2._1 val salary = x._2._2 println(id + "\t" + name + "\t" + salary) }) |
结果:
1 Some(Jed) 8000
2 Some(Tom) 6000
3 Some(Bob) 5000
1 2 3 4 5 6 7 |
val fullOuterJoinRDD = nameRDD.fullOuterJoin(salaryRDD) fullOuterJoinRDD.foreach( x => { val id = x._1 val name = x._2._1 val salary = x._2._2 println(id + "\t" + name + "\t" + salary) }) |
结果:
1 Some(Jed) Some(8000)
2 Some(Tom) Some(6000)
3 Some(Bob) Some(5000)
4 Some(Tony) None
union:把两个RDD进行逻辑上的合并
union这个算子关联的两个RDD必须类型一致
1 2 3 |
val rdd1 =sc.makeRDD(1 to 10) val rdd2 = sc.parallelize(11 until 20) rdd1.union(rdd2).foreach {println} |
map和mapPartitions
map()会一条记录为单位进行操作
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 |
val arr = Array("Tom","Bob","Tony","Jerry") //把4条数据分到两个分区中 val rdd = sc.parallelize(arr,2)
/* * 模拟把RDD中的元素写入数据库的过程 */ rdd.map(x => { println("创建数据库连接...") println("写入数据库...") println("关闭数据库连接...") println() }).count() 结果: 创建数据库连接... 写入数据库... 关闭数据库连接... 创建数据库连接... 写入数据库... 关闭数据库连接... 创建数据库连接... 写入数据库... 关闭数据库连接... 创建数据库连接... 写入数据库... 关闭数据库连接... |
mapPartitions以分区为单位进行操作
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 |
/* * 将RDD中的数据写入到数据库中,绝大部分使用mapPartitions算子来实现 */ rdd.mapPartitions(x => { println("创建数据库") val list = new ListBuffer[String]() while(x.hasNext){ //写入数据库 list += x.next()+":写入数据库" } //执行SQL语句 批量插入 list.iterator })foreach(println) 结果: 创建数据库 Tom:写入数据库 Bob:写入数据库 创建数据库 Tony:写入数据库 Jerry:写入数据库 |
mapPartitionsWithIndex
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 |
val dataArr = Array("Tom01","Tom02","Tom03" ,"Tom04","Tom05","Tom06" ,"Tom07","Tom08","Tom09" ,"Tom10","Tom11","Tom12") val rdd = sc.parallelize(dataArr, 3); val result = rdd.mapPartitionsWithIndex((index,x) => { val list = ListBuffer[String]() while (x.hasNext) { list += "partition:"+ index + " content:" + x.next } list.iterator }) println("分区数量:" + result.partitions.size) val resultArr = result.collect() for(x <- resultArr){ println(x) } 结果: 分区数量:3 partition:0 content:Tom01 partition:0 content:Tom02 partition:0 content:Tom03 partition:0 content:Tom04 partition:1 content:Tom05 partition:1 content:Tom06 partition:1 content:Tom07 partition:1 content:Tom08 partition:2 content:Tom09 partition:2 content:Tom10 partition:2 content:Tom11 partition:2 content:Tom12 |
coalesce:改变RDD的分区数
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 |
/* * false:不产生shuffle * true:产生shuffle * 如果重分区的数量大于原来的分区数量,必须设置为true,否则分区数不变 * 增加分区会把原来的分区中的数据随机分配给设置的分区个数 */ val coalesceRdd = result.coalesce(6,true)
val results = coalesceRdd.mapPartitionsWithIndex((index,x) => { val list = ListBuffer[String]() while (x.hasNext) { list += "partition:"+ index + " content:[" + x.next + "]" } list.iterator })
println("分区数量:" + results.partitions.size) val resultArr = results.collect() for(x <- resultArr){ println(x) } 结果: 分区数量:6 partition:0 content:[partition:1 content:Tom07] partition:0 content:[partition:2 content:Tom10] partition:1 content:[partition:0 content:Tom01] partition:1 content:[partition:1 content:Tom08] partition:1 content:[partition:2 content:Tom11] partition:2 content:[partition:0 content:Tom02] partition:2 content:[partition:2 content:Tom12] partition:3 content:[partition:0 content:Tom03] partition:4 content:[partition:0 content:Tom04] partition:4 content:[partition:1 content:Tom05] partition:5 content:[partition:1 content:Tom06] partition:5 content:[partition:2 content:Tom09] val coalesceRdd = result.coalesce(6,fasle)的结果是: 分区数量:3 partition:0 content:[partition:0 content:Tom01] partition:0 content:[partition:0 content:Tom02] partition:0 content:[partition:0 content:Tom03] partition:0 content:[partition:0 content:Tom04] partition:1 content:[partition:1 content:Tom05] partition:1 content:[partition:1 content:Tom06] partition:1 content:[partition:1 content:Tom07] partition:1 content:[partition:1 content:Tom08] partition:2 content:[partition:2 content:Tom09] partition:2 content:[partition:2 content:Tom10] partition:2 content:[partition:2 content:Tom11] partition:2 content:[partition:2 content:Tom12] val coalesceRdd = result.coalesce(2,fasle)的结果是: 分区数量:2 partition:0 content:[partition:0 content:Tom01] partition:0 content:[partition:0 content:Tom02] partition:0 content:[partition:0 content:Tom03] partition:0 content:[partition:0 content:Tom04] partition:1 content:[partition:1 content:Tom05] partition:1 content:[partition:1 content:Tom06] partition:1 content:[partition:1 content:Tom07] partition:1 content:[partition:1 content:Tom08] partition:1 content:[partition:2 content:Tom09] partition:1 content:[partition:2 content:Tom10] partition:1 content:[partition:2 content:Tom11] partition:1 content:[partition:2 content:Tom12] val coalesceRdd = result.coalesce(2,true)的结果是: 分区数量:2 partition:0 content:[partition:0 content:Tom01] partition:0 content:[partition:0 content:Tom03] partition:0 content:[partition:1 content:Tom05] partition:0 content:[partition:1 content:Tom07] partition:0 content:[partition:2 content:Tom09] partition:0 content:[partition:2 content:Tom11] partition:1 content:[partition:0 content:Tom02] partition:1 content:[partition:0 content:Tom04] partition:1 content:[partition:1 content:Tom06] partition:1 content:[partition:1 content:Tom08] partition:1 content:[partition:2 content:Tom10] partition:1 content:[partition:2 content:Tom12] |
repartition:改变RDD分区数
repartition(int n) = coalesce(int n, true)
partitionBy:通过自定义分区器改变RDD分区数
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 |
JavaPairRDD
private static final long serialVersionUID = 1L;
//分区数2 @Override public int numPartitions() { return 2; } //分区逻辑 @Override public int getPartition(Object obj) { int i = (int)obj; if(i % 2 == 0){ return 0; }else{ return 1; } } }); ```
##### glom:把分区中的元素封装到数组中 ```scala val rdd = sc.parallelize(1 to 10,2) /** * rdd有两个分区 * partition0分区里面的所有元素封装到一个数组 * partition1分区里面的所有元素封装到一个数组 */ val glomRDD = rdd.glom() glomRDD.foreach(x => { println("============") x.foreach(println) println("============") }) println(glomRDD.count()) 结果: ============ 1 2 3 4 5 ============ ============ 6 7 8 9 10 ============ 2 |
randomSplit:拆分RDD
1 2 3 4 5 6 7 8 9 10 11 12 13 |
/** * randomSplit: * 根据传入的 Array中每个元素的权重将rdd拆分成Array.size个RDD * 拆分后的RDD中元素数量由权重来决定,数据量不大时不一定准确 */ val rdd = sc.parallelize(1 to 10) rdd.randomSplit(Array(0.1,0.2,0.3,0.4)).foreach(x => {println(x.count)}) 理论结果: 1 2 3 4 实际结果不一定准确 |
zip
WordCount-Java版
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 |
/** * 文件中的数据 : * Spark Core * Spark Streaming * Spark SQL * @author root */ public class WordCount {
public static void main(String[] args) { /* * SparkConf对象主要用于设置Spark运行时的环境参数 : * 1.运行模式 * 2.Application Name * 3.运行时的资源需求 */ SparkConf conf = new SparkConf(); conf.setMaster("local").setAppName("WordCount"); /* * SparkContext是Spark运行的上下文,是通往Spark集群的唯一通道 */ JavaSparkContext jsc = new JavaSparkContext(conf);
String path = "cs"; JavaRDD
//================== wordcount start ================= flatMapRDD.mapToPair(new PairFunction /** * */ private static final long serialVersionUID = 1L; @Override public Tuple2 throws Exception { return new Tuple2 } }).reduceByKey(new Function2
/** * */ private static final long serialVersionUID = 1L; @Override public Integer call(Integer v1, Integer v2) throws Exception { return v1 + v2; } }).mapToPair(new PairFunction Integer, String>() { /** * */ private static final long serialVersionUID = 1L; @Override public Tuple2 Tuple2 return new Tuple2 } }).sortByKey(false) //fasle : 降序 .mapToPair(new PairFunction String, Integer>() { /** * */ private static final long serialVersionUID = 1L; @Override public Tuple2 Tuple2 return new Tuple2 } }).foreach(new VoidFunction
/** * */ private static final long serialVersionUID = 1L; @Override public void call(Tuple2 throws Exception { System.out.println(tuple); } });; //================= wordcount end ================== jsc.stop(); } } 结果: (Spark,3) (SQL,1) (Streaming,1) (Core,1) |
过滤掉出现次数最多的数据-Scala版
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 |
/** * 文件中的数据 : * hello java * hello java * hello java * hello java * hello java * hello hadoop * hello hadoop * hello hadoop * hello hive * hello hive * hello world * hello spark * @author root */ object FilterMost { def main(args: Array[String]): Unit = { val conf = new SparkConf() .setMaster("local") .setAppName("FilterMost") val sc = new SparkContext(conf)
val rdd : RDD[String] = sc.textFile("test") val sampleRDD : RDD[String] = rdd.sample(false, 0.9) val result = sampleRDD .map { x => (x.split(" ")(1),1) } .reduceByKey(_+_) .map { x => {(x._2,x._1)}} .sortByKey(false) .first() ._2 rdd .filter {(!_.contains(result))} .foreach(println)
sc.stop(); } } 结果: hello hadoop hello hadoop hello hadoop hello hive hello hive hello world hello spark |
统计每个页面的UV
部分数据如下:
日期 时间戳 用户ID pageID 模块 用户事件
2017-05-13 1494643577030 null 54 Kafka View
2017-05-13 1494643577031 8 70 Kafka Register
2017-05-13 1494643577031 9 12 Storm View
2017-05-13 1494643577031 9 1 Scala View
2017-05-13 1494643577032 7 73 Scala Register
2017-05-13 1494643577032 16 23 Storm Register
scala代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 |
object CountUV { def main(args: Array[String]): Unit = { val conf = new SparkConf() conf.setMaster("local") conf.setAppName("CountUV")
val sc = new SparkContext(conf)
val rdd = sc.textFile("userLog") val result = rdd.filter(!_.split("\t")(2).contains("null")) .map(x => { (x.split("\t")(3), x.split("\t")(2)) }) .distinct().countByKey()
result.foreach(x => { println("PageId: " + x._1 + "\tUV: " + x._2) })
sc.stop(); } } |
Java代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 |
public class CountUV {
public static void main(String[] args) { SparkConf sparkConf = new SparkConf() .setMaster("local") .setAppName("CountUV"); final JavaSparkContext jsc = new JavaSparkContext(sparkConf);
JavaRDD
JavaRDD rdd.filter(new Function /** * */ private static final long serialVersionUID = 1L; @Override public Boolean call(String v1) throws Exception { return !"null".equals(v1.split("\t")[2]); } });
JavaPairRDD filteredRDD.mapToPair(new PairFunction /** * */ private static final long serialVersionUID = 1L; @Override public Tuple2 throws Exception { String[] splits = t.split("\t"); return new Tuple2 } });
JavaPairRDD
Map
for(Entry System.out.println("pageId:"+ entry.getKey() + " UV:" + entry.getValue()); }
jsc.stop(); } } |
部分结果:
pageId:45 UV:20
pageId:98 UV:20
pageId:34 UV:18
pageId:67 UV:20
pageId:93 UV:20
二次排序-scala版
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 |
object SecondSort {
def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local").setAppName("SecondSort") val sc = new SparkContext(sparkConf)
val rdd = sc.textFile("secondSort.txt")
val mapRDD = rdd.map(x => { (new SecondSortKey(x.split(" ")(0).toInt, x.split(" ")(1).toInt), null) })
val sortedRDD = mapRDD.sortByKey(false) //val sortedRDD = mapRDD.sortBy(_._1, false)
sortedRDD.map(_._1).foreach(println)
sc.stop() } } class SecondSortKey(val first:Int, val second:Int) extends Ordered[SecondSortKey] with Serializable{ def compare(ssk:SecondSortKey): Int = { if(this.first - ssk.first == 0) { this.second - ssk.second }else{ this.first - ssk.first } } override def toString(): String = { this.first + " " + this.second } } |
分组取TopN问题:找出每个班级中排名前三的分数-Java版
部分数据:
class1 100
class2 85
class3 70
class1 102
class2 65
class1 45
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 |
/** 思路: java:mapToPair/scala:map (class1,100),(class2,80)... groupByKey class1 [100,101,88,99...] 如果把[100,101,88,99....]封装成List,然后进行Collections.sort(list) 会有问题: 大数据级别的value放到list里排序可能会造成OOM 解决办法: 定义一个定长的数组,通过一个简单的算法解决 * @author root * */ public class GroupTopN {
private final static Integer N = 3;
public static void main(String[] args) { SparkConf sparkConf = new SparkConf() .setMaster("local") .setAppName("GroupTopN"); JavaSparkContext jsc = new JavaSparkContext(sparkConf); JavaRDD
JavaPairRDD rdd.mapToPair(new PairFunction /** * */ private static final long serialVersionUID = 1L; @Override public Tuple2 throws Exception { String className = t.split("\t")[0]; Integer score = Integer.valueOf(t.split("\t")[1]); return new Tuple2 } });
pairRDD.groupByKey().foreach( new VoidFunction
/** * */ private static final long serialVersionUID = 1L; @Override public void call(Tuple2 throws Exception { String className = t._1; Iterator
Integer[] nums = new Integer[N];
while(iter.hasNext()) { Integer score = iter.next(); for(int i=0; i if(nums[i] == null) { nums[i] = score;//给数组的前三个元素赋值 break; }else if(score > nums[i]) { for (int j = 2; j > i; j--) { nums[j] = nums[j-1]; } nums[i] = score; break; } } } System.out.println(className); for(Integer i : nums) { System.out.println(i); } } }); jsc.stop(); } } 结果: class1 102 100 99 class2 88 85 85 class3 98 70 70 |
有如下伪代码:
1 2 3 4 |
var rdd = sc.textFile(path) val blackName = “Tom” val fliterRDD = rdd.fliter(_.equals(blackName)) filterRDD.count() |
blackName是RDD外部的变量,当把task发送到其他节点执行,需要使用这个变量时,必须给每个task发送这个变量,假如这个变量占用的内存很大,而且task数量也有很多,那么导致集群资源紧张。
广播变量可以解决这个问题:
把这个变量定义为广播变量,发送到每个executor中,每个在executor中执行的task都可以使用这个广播变量,而一个executor可以包含多个task,task数一般是executor数的好几倍,这样就减少了集群的资源负荷。
注意:
有如下伪代码:
1 2 3 4 5 6 7 |
//统计RDD中元素的个数 var rdd = sc.textFile(path) var count = 0 //这是定义在Driver端的变量 rdd.map(x => { count += 1 //这个计算在Executor端执行 }) println(count) |
在spark应用程序中,我们经常会有这样的需求,如异常监控,调试,记录符合某特性的数据的数目,这种需求都需要用到计数器,如果一个变量不被声明为一个累加器,那么它将在被改变时不会再driver端进行全局汇总,即在分布式运行时每个task运行的知识原始变量的一个副本,并不能改变原始变量的值,但是当这个变量被声明为累加器后,该变量就会有分布式计数的功能。
注意:
累加器(Accumulator)陷阱及解决办法
计数器的测试代码
1 2 3 4 5 6 7 8 9 |
//在driver中定义 val accum = sc.accumulator(0, "Example Accumulator") //在task中进行累加 sc.parallelize(1 to 10).foreach(x=> accum += 1) //在driver中输出 accum.value //结果将返回10 res: 10 |
累加器的错误用法
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
val accum= sc.accumulator(0, "Error Accumulator") val data = sc.parallelize(1 to 10) //用accumulator统计偶数出现的次数,同时偶数返回0,奇数返回1 val newData = data.map{x => { if(x%2 == 0){ accum += 1 0 }else 1 }} //使用action操作触发执行 newData.count //此时accum的值为5,是我们要的结果 accum.value //继续操作,查看刚才变动的数据,foreach也是action操作 newData.foreach(println) //上个步骤没有进行累计器操作,可是累加器此时的结果已经是10了 //这并不是我们想要的结果 accum.value |
原因分析
我们都知道,spark中的一系列transform操作会构成一串长的任务链,此时需要通过一个action操作来触发,accumulator也是一样。因此在一个action操作之前,你调用value方法查看其数值,肯定是没有任何变化的。
所以在第一次count(action操作)之后,我们发现累加器的数值变成了5,是我们要的答案。
之后又对新产生的的newData进行了一次foreach(action操作),其实这个时候又执行了一次map(transform)操作,所以累加器又增加了5。最终获得的结果变成了10。
解决办法
For accumulator updates performed inside actions only, Spark guarantees that each task’s update to the accumulator will only be applied once, i.e. restarted tasks will not update the value. In transformations, users should be aware of that each task’s update may be applied more than once if tasks or job stages are re-executed.
看了上面的分析,大家都有这种印象了,那就是使用累加器的过程中只能使用一次action的操作才能保证结果的准确性。
事实上,还是有解决方案的,只要将任务之间的依赖关系切断就可以了。什么方法有这种功能呢?你们肯定都想到了,cache,persist。调用这个方法的时候会将之前的依赖切除,后续的累加器就不会再被之前的transfrom操作影响到了。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
object AccumulatorTest { def main(args: Array[String]): Unit = { val sc = new SparkContext(new SparkConf().setAppName("MapPartitionsOperator").setMaster("local")) val accum= sc.accumulator(0, "Error Accumulator") val data = sc.parallelize(1 to 10) //用accumulator统计偶数出现的次数,同时偶数返回0,奇数返回1 val newData = data.map{x => { if(x%2 == 0){ accum += 1 0 }else 1 }} newData.cache.count //使用action操作触发执行 // newData.count //此时accum的值为5,是我们要的结果 println(accum.value) println("test") //继续操作,查看刚才变动的数据,foreach也是action操作 newData.foreach(println) //上个步骤没有进行累计器操作,可是累加器此时的结果已经是10了 //这并不是我们想要的结果 println("test") println(accum.value) } } |
自定义累加器
所以在第一次count(action操作)之后,我们发现累加器的数值变成了5,是我们要的答案。
之后又对新产生的的newData进行了一次foreach(action操作),其实这个时候又执行了一次map(transform)操作,所以累加器又增加了5。最终获得的结果变成了10。
总结
使用Accumulator时,为了保证准确性,只使用一次action操作。如果需要使用多次则使用cache或persist操作切断依赖。
RDD持久化
这段伪代码的瑕疵:
1 2 3 4 |
lines = sc.textFile(“hdfs://...”) errors = lines.filter(_.startsWith(“ERROR”)) mysql_errors = errors.filter(_.contain(“MySQL”)).count http_errors = errors.filter(_.contain(“Http”)).count |
errors是一个RDD,mysql_errors这个RDD执行时,会先读文件,然后获取数据,通过计算errors,把数据传给mysql_errors,再进行计算,因为RDD中是不存储数据的,所以http_errors计算的时候会重新读数据,计算errors后把数据传给http_errors进行计算,重复使用errors这个RDD很有必须,这就需要把errors这个RDD持久化,以便其他RDD使用。
RDD持久化有三个算子:cache、persist、checkpoint
cache:把RDD持久化到内存
使用方法:
1 2 3 |
var rdd = sc.textFile("test") rdd = rdd.cache() val count = rdd.count() //或者其他操作 |
查看源码,可以发现其实cahce
就是persist(StorageLevel.MEMORY_ONLY)
1 2 3 4 5 |
/** Persist this RDD with the default storage level (`MEMORY_ONLY`). */ def persist(): this.type = persist(StorageLevel.MEMORY_ONLY) /** Persist this RDD with the default storage level (`MEMORY_ONLY`). */ def cache(): this.type = persist() |
persist:可以选择多种持久化方式
使用方法:
1 2 3 |
var rdd = sc.textFile("test") rdd = rdd.persist(StorageLevel.MEMORY_ONLY) val count = rdd.count() //或者其他操作 |
Persist StorageLevel说明:
1 2 3 4 5 6 |
class StorageLevel private( private var _useDisk: Boolean, private var _useMemory: Boolean, private var _useOffHeap: Boolean, private var _deserialized: Boolean, private var _replication: Int = 1) |
初始化StorageLevel可以传入5个参数,分别对应是否存入磁盘、是否存入内存、是否使用堆外内存、是否不进行序列化,副本数(默认为1)
使用不同参数的组合构造的实例被预先定义为一些值,比如MEMORY_ONLY代表着不存入磁盘,存入内存,不使用堆外内存,不进行序列化,副本数为1,使用persisit()方法时把这些持久化的级别作为参数传入即可,cache()与persist(StorageLevel.MEMORY_ONLY)是等价的。
cache和persist的注意事项
cache 和 persist算子后不能立即紧跟action类算子,比如count算子,但是在下一行可以有action类算子
`error : rdd = cache().count()`
`right : rdd = rdd.cache()`
`rdd.count()****`
cache() = persist(StorageLevel.MEMORY_ONLY)
checkpoint : 可以把RDD持久化到HDFS,同时切断RDD之间的依赖
使用方法:
1 2 3 4 |
sc.setCheckpointDir("hdfs://...") var rdd = sc.textFile("test") rdd.checkpoint() val count = rdd.count() //或者其他操作 |
对于切断RDD之间的依赖的说明:
当业务逻辑很复杂时,RDD之间频繁转换,RDD的血统很长,如果中间某个RDD的数据丢失,还需要重新从头计算,如果对中间某个RDD调用了checkpoint()方法,把这个RDD上传到HDFS,同时让后面的RDD不再依赖于这个RDD,而是依赖于HDFS上的数据,那么下次计算会方便很多。
checkpoint()执行原理:
一些术语
Master(standalone):资源管理的主节点(进程)
Cluster Manager:在集群上获取资源的外部服务(例如standalone,Mesos,Yarn)
Worker Node(standalone):资源管理的从节点(进程)或者说管理本机资源的进程
Application:基于Spark的用户程序,包含了driver程序和运行在集群上的executor程序
Driver Program:用来连接工作进程(Worker)的程序
Executor:是在一个worker进程所管理的节点上为某Application启动的一个进程,该进程负责运行任务,并且负责将数据存在内存或者磁盘上,每个应用都有各自独立的executors
Task:被送到某个executor上的工作单元
Job:包含很多任务(Task)的并行计算,和action是对应的
Stage:一个Job会被拆分很多组任务,每组任务被称为Stage(就像Mapreduce分map task和reduce task一样)
宽窄依赖
宽窄依赖的作用
在Spark里每一个操作生成一个RDD,RDD之间连一条边,最后这些RDD和他们之间的边组成一个有向无环图,这个就是DAG,Spark内核会在需要计算发生的时刻绘制一张关于计算路径的有向无环图,也就是DAG。
有了计算的DAG图,Spark内核下一步的任务就是根据DAG图将计算划分成Stage,如上图,G与F之间是宽依赖,所以把G和F分为两个Stage,而CD到F,E到F都是窄依赖,所以CDEF最终划分为一个Stage2,A与B之间是宽依赖,B与G之间是窄依赖,所以最终,A被划分为一个Stage1,因为BG的stage依赖于stage1和stage2,所以最终把整个DAG划分为一个stage3,所以说,宽窄依赖的作用就是切割job,划分stage。
Stage:由一组可以并行计算的task组成。
Stage的并行度:就是其中的task的数量
与互联网业界的概念有些差异:在互联网的概念中,并行度是指可同时开辟的线程数,并发数是指每个线程中可处理的最大数据量,比如4个线程,每个线程可处理的数据为100万条,那么并行度就是4,并发量是100万,而对于stage而言,即使其中的task是分批进行执行的,也都算在并行度中,比如,stage中有100个task,而这100个task分4次才能执行完,那么该stage的并行度也为100。
Stage的并行度是由最后一个RDD的分区决定的。
RDD中为什么不存储数据以及stage的计算模式
有伪代码如下:
1 2 3 4 5 6 7 8 9 10 |
var lineRDD = sc.textFile(“hdfs://…”) 从HDFS中读数据 var fliterRDD = rdd.fliter(x => { println(“fliter” + x) true }) var mapRDD = fliterRDD.map(x => { println(“map” + x) x }) mapRDD.count() |
在每一个task执行之前,它会把所有的RDD的处理逻辑进行整合,以递归函数的展开式整合,即map(fliter(readFromB())),而spark没有读取文件的方法,用的是MR的读文件的方法,所以readFromB()实际上是一行一行的读数据,所以以上task执行时会输出:
fliter
map
fliter
map
……
stage的计算模式就是:pipeline模式,即计算过程中数据不会落地,也就是不会存到磁盘,而是放在内存中直接给下一个函数使用,stage的计算模式类似于 1+1+1 = 3,而MapReduce的计算模式类似于 1+1=2、2+1=3,就是说MR的中间结果都会写到磁盘上
管道中的数据在以下情况会落地:
任务调度
资源调度
注意:
application执行之前申请的这批executor可以被这个application中的所有job共享。
粗粒度和细粒度的资源申请
粗粒度的资源申请:Spark
在Application执行之前,将所有的资源申请完毕,然后再进行任务调度,直到最后一个task执行完毕,才会释放资源
优点:每一个task执行之前不需要自己去申请资源,直接使用资源就可以,每一个task的启动时间就变短了,task执行时间缩短,使得整个Application执行的速度较快
缺点:无法充分利用集群的资源,比如总共有10万的task,就要申请10万个task的资源,即使只剩下一个task要执行,也得等它执行完才释放资源,在这期间99999个task的资源没有执行任何task,但也不能被其他需要的进程或线程使用
细粒度的资源申请:MapReduce
在Application执行之前,不需要申请好资源,直接进行任务的调度,在每一个task执行之前,自己去申请资源,申请到就执行,申请不到就等待,每一个task执行完毕后就立马释放资源。
优点:可以充分的利用集群的资源
缺点:每一个task的执行时间变长了,导致整个Application的执行的速度较慢
yarn如何同时调度粗细两种方式
Spark和MapReduce都可以跑在yarn上,那怎么做到一个组粒度一个细粒度呢?原因是他们各自实现ApplicationMaster的方式不同。
分析以集群方式提交命令后的资源调度源码
资源调度的源码(Master.scala)位置:
1.Worker启动后向Master注册
2.client向Master发送一条消息,为当前的Application启动一个Driver进程
schedule()方法是对Driver和Executor进行调度的方法,看看启动Driver进程的过程:
schedule()方法有一些问题:
1 2 3 4 5 6 7 8 9 10 11 12 13 |
private def schedule(): Unit = { if (state != RecoveryState.ALIVE) { return } // Drivers take strict precedence over executors val shuffledWorkers = Random.shuffle(workers) // Randomization helps balance drivers for (worker <- shuffledWorkers if worker.state == WorkerState.ALIVE) { for (driver <- waitingDrivers) { if (worker.memoryFree >= driver.desc.mem && worker.coresFree >= driver.desc.cores) { launchDriver(worker, driver) waitingDrivers -= driver } } } startExecutorsOnWorkers() } |
1) 如果是以客户端方式命令执行程序,那么不需要Master来调度Worker创建Driver进程,那么waitingDrivers这个集合中就没有元素,所以也就不需要遍历shuffledWorkers,源码并没有考虑这种情况。应该是有if语句进行非空判定。
2) 如果waitingDrivers中只有一个元素,那么也会一直遍历shuffledWorkers这个集合,实际上是不需要的。
3.Driver进程向Master发送消息:为当前的Application申请一批Executor。
通过以上过程,Executor进程就被启动了
资源调度的三个结论
--executor --cores
这个选项)时,每一个Worker节点为当前的Application只启动一个Executor,这个Executor会使用这个Worker管理的所有的core(原因:assignedCores(pos) += minCoresPerExecutor
)--executor --cores
这个选项验证资源调度的三个结论
集群中总共有6个core和4G内存可用,每个Worker管理3个core和2G内存
SPARK_HOME/bin下有一个spark-shell脚本文件,执行这个脚本文件就是提交一个application
1 2 3 4 5 |
function main() { …… "${SPARK_HOME}"/bin/spark-submit --class org.apache.spark.repl.Main --name "Spark shell" "$@" …… } |
默认情况(不指定任何参数)下启动spark-shell:[root@node04 bin]# ./spark-shell --master spark://node01:7077
这个application启动了2个Executor进程,每个Worker节点上启动一个,总共使用了6个core和2G内存,每个Work提供3个core和1G内存。
设置每个executor使用1个core[root@node04 bin]# ./spark-shell --master spark://node01:7077 --executor-cores 1
那么每个worker为application启动两个executor,每个executor使用1个core,这是因为启动两个executor后,内存已经用完了,所以即使还有剩余的core可用,也无法再启动executor了
设置每个executor使用2个core[root@node04 bin]# ./spark-shell --master spark://node01:7077 --executor-cores 2
那么每个worker为application启动1个executor,每个executor使用2个core,这是因为启动两个executor后,每个executor剩余的core为1,已经不够再启动一个exexutor了
设置每个executor使用3G内存[root@node04 bin]# ./spark-shell --master spark://node01:7077 --executor-memory 3G
提交任务显示为waiting状态,而不是running状态,也不会启动executor
设置每个executor使用1个core,500M内存[root@node04 bin]# ./spark-shell --master spark://node01:7077 --executor-cores 1 --executor-memory 500M
设置每个设置每个executor使用1个core,500M内存,集群总共可以使用3个core,集群总共启动3个executor,其中有一个Worker启动了两个executor[root@node04 bin]# ./spark-shell --master spark://node01:7077 --executor-cores 1 --executor-memory 500M --total-executor-cores 3
设置每个设置每个executor使用1个core,1.2内存,集群总共可以使用3个core,集群总共启动2个executor,每个Worker启动了1个executor,表面上看起来,两个worker加起来的内存(1.6G)和剩余的core数(1),还够启动一个exexutor,但是这里需要注意的是,两个Worker的内存并不能共用,每个Worker剩余的内存(800M)并不足以启动一个executor[root@node04 bin]# ./spark-shell --master spark://node01:7077 --executor-cores 1 --executor-memory 1200M --total-executor-cores 3
源码位置:core/src/main/scala/rdd/RDD.scala
角色划分
1.解压安装包
[root@node01 chant]# tar zxf spark-1.6.0-bin-hadoop2.6.tgz
2.编辑spark-env.sh文件
1 2 3 4 5 6 7 8 9 10 11 12 |
[root@node01 chant]# mv spark-1.6.0-bin-hadoop2.6 spark-1.6.0 [root@node01 chant]# cd spark-1.6.0/conf/ [root@node01 conf]# cp spark-env.sh.template spark-env.sh [root@node01 conf]# vi spark-env.sh # 绑定Master的IP export SPARK_MASTER_IP=node01 # 提交Application的端口 export SPARK_MASTER_PORT=7077 # 每一个Worker最多可以支配core的个数,注意core是否支持超线程 export SPARK_WORKER_CORES=3 # 每一个Worker最多可以支配的内存 export SPARK_WORKER_MEMORY=2g |
3.编辑slaves文件
1 2 3 4 |
[root@node01 conf]# cp slaves.template slaves [root@node01 conf]# vi slaves node02 node03 |
4.Spark的web端口默认为8080,与Tomcat冲突,进行修改
1 2 3 4 5 |
[root@node01 spark-1.6.0]# cd sbin/ [root@node01 sbin]# vi start-master.sh if [ "$SPARK_MASTER_WEBUI_PORT" = "" ]; then SPARK_MASTER_WEBUI_PORT=8081 fi |
5.同步配置
1 2 3 4 |
[root@node01 conf]# cd /opt/chant/ [root@node01 chant]# scp -r spark-1.6.0 node02:`pwd` [root@node01 chant]# scp -r spark-1.6.0 node03:`pwd` [root@node01 chant]# scp -r spark-1.6.0 node04:`pwd` |
6.进入spark安装目录的sbin目录下,启动集群
1 2 |
[root@node01 chant]# cd spark-1.6.0/sbin/ [root@node01 sbin]# ./start-all.sh |
7.访问web界面
8.提交Application验证集群是否工作正常
以下scala代码是spark源码包自带的例子程序,用于计算圆周率,可传入参数:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 |
package org.apache.spark.examples import scala.math.random import org.apache.spark._ /** Computes an approximation to pi */ object SparkPi { def main(args: Array[String]) { val conf = new SparkConf().setAppName("Spark Pi") val spark = new SparkContext(conf) val slices = if (args.length > 0) args(0).toInt else 2 // avoid overflow val n = math.min(100000L * slices, Int.MaxValue).toInt val count = spark.parallelize(1 to n, slices).map { i => val x = random * 2 - 1 val y = random * 2 - 1 if (x*x + y*y < 1) 1 else 0 }.reduce((v1,v2) => {v1+v2}) println("Pi is roughly " + 4.0 * count / n) spark.stop() } } |
此程序的jar包路径为:SPARK_HOME/lib/spark-examples-1.6.0-hadoop2.6.0.jar
Standalone模式下提交任务
Standalone模式:提交的任务在spark集群中管理,包括资源调度,计算
客户端方式提交任务
进入客户端所在节点的spark安装目录的bin目录下,提交这个程序:
1 2 3 4 5 |
[root@node04 bin]# ./spark-submit --master spark://node01:7077 #指定 master的地址 > --deploy-mode client #指定在客户端提交任务,这个选项可以不写,默认 > --class org.apache.spark.examples.SparkPi #指定程序的全名 > ../lib/spark-examples-1.6.0-hadoop2.6.0.jar #指定jar包路径 > 1000 #程序运行时传入的参数 |
说明:
1.客户端提交,Driver进程就在客户端启动,进程名为SparkSubmit
1 2 3 4 |
# 注意:任务结束后,该进程就关闭了 [root@node04 ~]# jps 1646 Jps 1592 SparkSubmit |
2.在客户端可以看到task执行情况和执行结果
1 2 3 4 5 |
…… 17/08/04 02:55:47 INFO DAGScheduler: Job 0 finished: reduce at SparkPi.scala:36, took 6.602662 s Pi is roughly 3.1409092 17/08/04 02:55:47 INFO SparkUI: Stopped Spark web UI at http://192.168.9.14:4040 …… |
3.适合场景:测试
原因:当提交的任务数量很多时,客户端资源不够用
集群方式提交任务
还是在客户端所在节点的spark安装目录的bin目录下提交程序,只是命令需要修改:
1 2 3 4 5 |
[root@node04 bin]# ./spark-submit --master spark://node01:7077 > --deploy-mode cluster #指定在集群中提交任务,这个选项必须写 > --class org.apache.spark.examples.SparkPi > ../lib/spark-examples-1.6.0-hadoop2.6.0.jar > 1000 |
说明:
1.集群方式提交任务,Driver进程随机找一个Worker所在的节点启动,进程名为DriverWrapper
1 2 3 4 |
[root@node02 ~]# jps 1108 Worker 1529 Jps 1514 DriverWrapper |
2.客户端看不到task执行情况和执行结果,可以在web界面查看
3.适合场景:生产环境
原因:当task数量很多时,集群方式可以做到负载均衡,解决多次网卡流量激增问题(分摊到集群的Worker节点上),但无法解决单次网卡流量激增问题。
Yarn模式下提交任务
yarn模式:把spark任务提交给yarn集群,由yarn集群进行管理,包括资源分配和计算
编辑客户端节点中spark配置文件,加入:export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
,启动hadoop集群,不需要启动spark集群
客户端方式提交任务
1.命令./spark-submit --master yarn --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
2.流程
① 在客户端执行提交命令
② 上传应用程序(jar包)及其依赖的jar包到HDFS上,开启Driver进程执行应用程序
③ 客户端会向RS发送请求,为当前的Application启动一个ApplicationMaster进程
④ RS会找一台NM启动ApplicationMaster,ApplicationMaster进程启动成功后,会向RS申请资源(图画的有误,ApplicationMaster应该在NM上)
⑤ RS接受请求后,会向资源充足的NM发送消息:在当前的节点上启动一个Executor进程,去HDFS下载spark-assembly-1.6.0-hadoop2.6.0.jar包,这个jar包中有启动Executor进程的相关类,调用其中的方法就可以启动Executor进程
⑥ Executor启动成功后,Driver开始分发task,在集群中执行任务
3.总结
Driver负责任务的调度
ApplicationMaster负责资源的申请
集群方式提交任务
1.命令
1 |
./spark-submit --master yarn-cluster --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 100 |
或者
1 |
./spark-submit --master yarn --deploy-mode cluster --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 100 |
① 在客户端执行提交命令
② 上传应用程序(jar包)及其依赖的jar包到HDFS上
③ 客户端会向RS发送请求,为当前的Application启动一个ApplicationMaster(Driver)进程,这个ApplicationMaster就是driver。
④ RS会找一台NM启动ApplicationMaster,ApplicationMaster(Driver)进程启动成功后,会向RS申请资源(图画的有误,ApplicationMaster应该在NM上),ApplicationMaster(Driver)进程启动成功后,会向RS申请资源
⑤ RS接受请求后,会向资源充足的NM发送消息:在当前的节点上启动一个Executor进程,去HDFS下载spark-assembly-1.6.0-hadoop2.6.0.jar包,这个jar包中有启动Executor进程的相关类,调用其中的方法就可以启动Executor进程
⑥ Executor启动成功后,ApplicationMaster(Driver)开始分发task,在集群中执行任务
3.总结
在cluster提交方式中,ApplicationMaster进程就是Driver进程,任务调度和资源申请都是由一个进程来做的
Spark高可用的原理
说明:
主备切换的过程中,不能提交新的Application。
已经提交的Application在执行过程中,集群进行主备切换,是没有影响的,因为spark是粗粒度的资源调度。
角色划分
1.修改spark-env.sh配置文件
1 2 3 4 5 6 7 |
[root@node01 ~]# cd /opt/chant/spark-1.6.0/conf/ [root@node01 conf]# vi spark-env.sh 加入以下配置 export SPARK_DAEMON_JAVA_OPTS=" -Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node01:2181,node02:2181,node03:2181 -Dspark.deploy.zookeeper.dir=/spark/ha" |
2. 同步配置文件
1 2 3 |
[root@node01 conf]# scp spark-env.sh node02:`pwd` [root@node01 conf]# scp spark-env.sh node03:`pwd` [root@node01 conf]# scp spark-env.sh node04:`pwd` |
3. 修改node02的spark配置文件
把master的IP改为node02,把node02的masterUI port改为8082
因为node01的masterUI的port设置为8081,同步后,node02的masterUI的port也为8081,那么在node02启动master进程时,日志中会有警告:
WARN Utils: Service ‘MasterUI’ could not bind on port 8081
导致我们不能通过该port访问node02的masterUI,所以修改的和node01不一样就可以
1 2 3 4 5 6 7 8 |
[root@node02 ~]# cd /opt/chant/spark-1.6.0/conf [root@node02 conf]# vi spark-env.sh export SPARK_MASTER_IP=node02 [root@node02 conf]# cd ../sbin [root@node02 sbin]# vi start-master.sh if [ "$SPARK_MASTER_WEBUI_PORT" = "" ]; then SPARK_MASTER_WEBUI_PORT=8082 fi |
4. 启动Zookeeper集群
1 2 3 |
[root@node02 ~]# zkServer.sh start [root@node03 ~]# zkServer.sh start [root@node04 ~]# zkServer.sh start |
5.在node01上启动Spark集群
1 2 3 4 |
[root@node01 conf]# cd ../sbin [root@node01 sbin]# pwd /opt/chant/spark-1.6.0/sbin [root@node01 sbin]# ./start-all.sh |
6.在node02上启动Master进程
1 2 3 4 |
[root@node02 bin]# cd ../sbin [root@node02 sbin]# pwd /opt/chant/spark-1.6.0/sbin [root@node02 sbin]# ./start-master.sh |
7.验证集群高可用
1 2 3 4 |
[root@node01 sbin]# jps 1131 Master 1205 Jps [root@node01 sbin]# kill -9 1131 |
再次启动node01的master进程,node01成为standby[root@node01 sbin]# ./start-master.sh
提交一个Application:
1 2 |
[root@node04 ~]# cd /opt/chant/spark-1.6.0/bin [root@node04 bin]# ./spark-shell --name "testSparkShell" --master spark://node02:7077 |
点击ApplicationID
点击appName查看job信息
提交一个job
1 2 |
scala> sc.textFile("/tmp/wordcount_data") .flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).saveAsTextFile("/tmp/wordcount_result") |
点击job查看stage信息
点击stage查看task信息
退出Spark-shell后,这个Application的信息是不被保存的,需要做一些配置才会保存历史记录,有两种方法设置保存历史记录
1.提交命令时指定./spark-shell --master spark://node02:7077 --conf spark.eventLog.enabled=true --conf spark.eventLog.dir="/tmp/spark/historyLog"
注意:保存历史数据的目录需要先创建好
2.启动history-server
修改conf/spark-defaults.conf文件
1 2 3 |
spark.eventLog.enabled true spark.eventLog.dir hdfs://node01:9000/spark/historyLog spark.history.fs.logDirectory hdfs://node01:9000/spark/historyLog |
spark.eventLog.compress true 可以设置保存历史日志时进行压缩
注意:保存历史数据的目录需要先创建好
然后启动history server:sbin/start-history-server.sh
之后提交的所有的Application的执行记录都会被保存,访问18080端口就可以查看
reduceByKey会将上一个RDD中的每一个key对应的所有value聚合成一个value,然后生成一个新的RDD,元素类型是对的形式,这样每一个key对应一个聚合起来的value
存在的问题:
每一个key对应的value不一定都是在一个partition中,也不太可能在同一个节点上,因为RDD是分布式的弹性的数据集,他的partition极有可能分布在各个节点上。
那么如何进行聚合?
Shuffle Write:上一个stage的每个map task就必须保证将自己处理的当前分区中的数据相同的key写入一个分区文件中,可能会写入多个不同的分区文件中
Shuffle Read:reduce task就会从上一个stage的所有task所在的机器上寻找属于自己的那些分区文件,这样就可以保证每一个key所对应的value都会汇聚到同一个节点上去处理和聚合
普通的HashShuffle
上图中,每个节点启动一个Executor来运行Application,每个Executor使用1个core,其中有2条task,所以2条task不是并行执行的。Map task每计算一条数据之后,就写到对应的buffer(默认32K)中(比如key为hello的写入到蓝色buffer,key为world的写入到紫色buffer中),当buffer到达阈值后,把其中的数据溢写到磁盘,当task0执行完后,task2开始执行,在这个过程中,每一个map task产生reduce的个数个小文件,假如总共有m个map task,r个reduce,最终会产生m*r个小文件,磁盘小文件和缓存过多,造成耗时且低效的IO操作,可能造成OOM
内存估算
假设:一台服务器24核,支持超线程,1000个maptask,1000个reduceTask。
超线程相当于48核,所以并行48个mapTask,每个mapTask产生1000个(reduceTask数)磁盘小文件,也就是对应产生48*1000
个buffer,而每个buffer默认值为32k。
所以使用内存为:maptask数*reduceTask数*buffer大小 = 48*1000*32k=1536M
约1.5G
优化的HashShuffle
这里说的优化,是指我们可以设置一个参数,spark.shuffle.consolidateFiles。该参数默认值为false,将其设置为true即可开启优化机制。通常来说,如果我们使用HashShuffleManager,那么都建议开启这个选项。
每个map task 之间可以共享buffer,task0执行完成后,task1开始执行,继续使用task0使用的buffer,假如总共有c个core, r个reduce,最终会产生c*r个小文件,因为复用buffer后,每个core执行的所有map task产生r个小文件
普通的SortShuffle
下图说明了普通的SortShuffleManager的原理。在该模式下,数据会先写入一个内存数据结构中,此时根据不同的shuffle算子,可能选用不同的数据结构。如果是reduceByKey这种聚合类的shuffle算子,那么会选用Map数据结构,一边通过Map进行聚合,一边写入内存;如果是join这种普通的shuffle算子,那么会选用Array数据结构,直接写入内存。接着,每写一条数据进入内存数据结构之后,就会判断一下,是否达到了某个临界阈值。如果达到临界阈值的话,那么就会尝试将内存数据结构中的数据溢写到磁盘,然后清空内存数据结构。
SortShuffle的bypass机制
下图说明了bypass SortShuffleManager的原理。bypass运行机制的触发条件如下:
spark.shuffle.sort.bypassMergeThreshold
参数的值(默认200)。有条件的sort,当shuffle reduce task数量小于spark.shuffle.sort.bypassMergeThreshold参数的值(默认200)时,会触发bypass机制,不进行sort,假如目前有300个reduce task,如果要触发bypass机制,就就设置spark.shuffle.sort.bypassMergeThreshold的值大于300,bypass机制最终产生2*m(map task的数量)的小文件。
SparkShuffle详解
先了解一些角色:
MapOutputTracker:管理磁盘小文件的地址
BlockManager:
主:BlockManagerMaster,存在于Driver端
管理范围:RDD的缓存数据、广播变量、shuffle过程产生的磁盘小文件
包含4个重要对象:
从:BlockManagerSlave,存在于Executor端
包含4个重要对象:
Shuffle调优
配置参数的三种方式
sparkConf.set("spark.shuffle.file.buffer","64k")
spark-submit --conf spark.shuffle.file.buffer=64k --conf 配置信息=配置值 ...
SPARK_HOME/conf/spark-default.conf
配置文件spark.shuffle.file.buffer
默认值:32K
参数说明:该参数用于设置shuffle write task的BufferedOutputStream的buffer缓冲大小。将数据写到磁盘文件之前,会先写入buffer缓冲中,待缓冲写满之后,才会溢写到磁盘。
调优建议:如果作业可用的内存资源较为充足的话,可以适当增加这个参数的大小(比如64k),从而减少shuffle write过程中溢写磁盘文件的次数,也就可以减少磁盘IO次数,进而提升性能。在实践中发现,合理调节该参数,性能会有1%~5%的提升。
spark.reducer.maxSizeInFlight
默认值:48M
参数说明:该参数用于设置shuffle read task的buffer缓冲大小,而这个buffer缓冲决定了每次能够拉取多少数据。
调优建议:如果作业可用的内存资源较为充足的话,可以适当增加这个参数的大小(比如96M),从而减少拉取数据的次数,也就可以减少网络传输的次数,进而提升性能。在实践中发现,合理调节该参数,性能会有1%~5%的提升。
spark.shuffle.io.maxRetries
默认值:3
参数说明:shuffle read task从shuffle write task所在节点拉取属于自己的数据时,如果因为网络异常导致拉取失败,是会自动进行重试的。该参数就代表了可以重试的最大次数。如果在指定次数之内拉取还是没有成功,就可能会导致作业执行失败。
调优建议:对于那些包含了特别耗时的shuffle操作的作业,建议增加重试最大次数(比如60次),以避免由于JVM的full gc或者网络不稳定等因素导致的数据拉取失败。在实践中发现,对于针对超大数据量(数十亿~上百亿)的shuffle过程,调节该参数可以大幅度提升稳定性。
spark.shuffle.io.retryWait
默认值:5s
参数说明:具体解释同上,该参数代表了每次重试拉取数据的等待间隔,默认是5s。
调优建议:建议加大间隔时长(比如60s),以增加shuffle操作的稳定性。
spark.shuffle.memoryFraction
默认值:0.2
参数说明:该参数代表了Executor内存中,分配给shuffle read task进行聚合操作的内存比例,默认是20%。
调优建议:在资源参数调优中讲解过这个参数。如果内存充足,而且很少使用持久化操作,建议调高这个比例,给shuffle read的聚合操作更多内存,以避免由于内存不足导致聚合过程中频繁读写磁盘。在实践中发现,合理调节该参数可以将性能提升10%左右。
spark.shuffle.manager
默认值:sort
参数说明:该参数用于设置ShuffleManager的类型。Spark 1.5以后,有三个可选项:hash、sort和tungsten-sort。HashShuffleManager是Spark 1.2以前的默认选项,但是Spark 1.2以及之后的版本默认都是SortShuffleManager了。tungsten-sort与sort类似,但是使用了tungsten计划中的堆外内存管理机制,内存使用效率更高。
调优建议:由于SortShuffleManager默认会对数据进行排序,因此如果你的业务逻辑中需要该排序机制的话,则使用默认的SortShuffleManager就可以;而如果你的业务逻辑不需要对数据进行排序,那么建议参考后面的几个参数调优,通过bypass机制或优化的HashShuffleManager来避免排序操作,同时提供较好的磁盘读写性能。这里要注意的是,tungsten-sort要慎用,因为之前发现了一些相应的bug。
spark.shuffle.sort.bypassMergeThreshold
默认值:200
参数说明:当ShuffleManager为SortShuffleManager时,如果shuffle read task的数量小于这个阈值(默认是200),则shuffle write过程中不会进行排序操作,而是直接按照未经优化的HashShuffleManager的方式去写数据,但是最后会将每个task产生的所有临时磁盘文件都合并成一个文件,并会创建单独的索引文件。
调优建议:当你使用SortShuffleManager时,如果的确不需要排序操作,那么建议将这个参数调大一些,大于shuffle read task的数量。那么此时就会自动启用bypass机制,map-side就不会进行排序了,减少了排序的性能开销。但是这种方式下,依然会产生大量的磁盘文件,因此shuffle write性能有待提高。
spark.shuffle.consolidateFiles
默认值:false
参数说明:如果使用HashShuffleManager,该参数有效。如果设置为true,那么就会开启consolidate机制,会大幅度合并shuffle write的输出文件,对于shuffle read task数量特别多的情况下,这种方法可以极大地减少磁盘IO开销,提升性能。
调优建议:如果的确不需要SortShuffleManager的排序机制,那么除了使用bypass机制,还可以尝试将spark.shffle.manager参数手动指定为hash,使用HashShuffleManager,同时开启consolidate机制。在实践中尝试过,发现其性能比开启了bypass机制的SortShuffleManager要高出10%~30%。
spark1.5之前默认为静态内存管理,之后默认为统一的内存管理,如果对数据比较了解,那么选用静态内存管理可调控的参数多,若想使用静态内存管理,将spark.memory.useLegacyMode
从默认值false
改为true
即可。
这里阐述的是spark1.6版本的内存管理机制,想了解更前卫的版本,请戳spark2.1内存管理机制
静态内存管理
Unrolling
The memory used for unrolling is borrowed from the storage space. If there are no existing blocks, unrolling can use all of the storage space. Otherwise, unrolling can drop up to M bytes worth of blocks from memory, where M is a fraction of the storage space configurable through
spark.storage.unrollFraction
(default0.2). Note that this subregion is not staticallyreserved, but dynamically allocated by dropping existing blocks.
所以这里的unrollFraction内存其实是个上限,不是静态固定的0.2,而是动态分配的。
关于Unrolling的详细解读,请戳RDD缓存的过程
RDD在缓存到存储内存之后,Partition被转换成Block,Record在堆内或堆外存储内存中占用一块连续的空间。将Partition由不连续的存储空间转换为连续存储空间的过程,Spark称之为“展开”(Unroll)。Block有序列化和非序列化两种存储格式,具体以哪种方式取决于该RDD的存储级别。非序列化的Block以一种DeserializedMemoryEntry
的数据结构定义,用一个数组存储所有的Java对象,序列化的Block则以SerializedMemoryEntry
的数据结构定义,用字节缓冲区(ByteBuffer)来存储二进制数据。每个Executor的Storage模块用一个链式Map结构(LinkedHashMap
)来管理堆内和堆外存储内存中所有的Block对象的实例[6],对这个LinkedHashMap
新增和删除间接记录了内存的申请和释放。
Reduce OOM怎么办?
统一内存管理
统一内存管理中互相借用(申请,检查,借用,归还)这一环节会产生额外的计算开销。
其中最重要的优化在于动态占用机制,其规则如下:
凭借统一内存管理机制,Spark 在一定程度上提高了堆内和堆外内存资源的利用率,降低了开发者维护 Spark 内存的难度,但并不意味着开发者可以高枕无忧。譬如,所以如果存储内存的空间太大或者说缓存的数据过多,反而会导致频繁的全量垃圾回收,降低任务执行时的性能,因为缓存的 RDD 数据通常都是长期驻留内存的 [5] 。所以要想充分发挥 Spark 的性能,需要开发者进一步了解存储内存和执行内存各自的管理方式和实现原理。
简介
Spark SQL的前身是shark,Shark是基于Spark计算框架之上且兼容Hive语法的SQL执行引擎,由于底层的计算采用了Spark,性能比MapReduce的Hive普遍快2倍以上,当数据全部load在内存的话,将快10倍以上,因此Shark可以作为交互式查询应用服务来使用。除了基于Spark的特性外,Shark是完全兼容Hive的语法,表结构以及UDF函数等,已有的HiveSql可以直接进行迁移至Shark上。Shark底层依赖于Hive的解析器,查询优化器,但正是由于Shark的整体设计架构对Hive的依赖性太强,难以支持其长远发展,比如不能和Spark的其他组件进行很好的集成,无法满足Spark的一栈式解决大数据处理的需求
Hive是Shark的前身,Shark是SparkSQL的前身,相对于Shark,SparkSQL有什么优势呢?
Spark和Hive有两种组合
Hive on Spark类似于Shark,相对过时,现在公司一般都采用Spark on Hive。
Spark on Hive
Hive只是作为了存储的角色
SparkSQL作为计算的角色
Hive on Spark
Hive承担了一部分计算(解析SQL,优化SQL…)的和存储
Spark作为了执行引擎的角色
Dataframe
简介
Spark SQL是Spark的核心组件之一,于2014年4月随Spark 1.0版一同面世,在Spark 1.3当中,Spark SQL终于从alpha(内测版本)阶段毕业。Spark 1.3更加完整的表达了Spark SQL的愿景:让开发者用更精简的代码处理尽量少的数据,同时让Spark SQL自动优化执行过程,以达到降低开发成本,提升数据分析执行效率的目的。与RDD类似,DataFrame也是一个分布式数据容器。然而DataFrame更像传统数据库的二维表格,除了数据以外,还掌握数据的结构信息,即schema。同时,与Hive类似,DataFrame也支持嵌套数据类型(struct、array和map)。从API易用性的角度上看,DataFrame API提供的是一套高层的关系操作,比函数式的RDD API要更加友好,门槛更低。
RDD VS DataFrame
DataFrame = SchemaRDD = RDD
从图虫颜色来区分,DataFrame是列式存储。当要取Age这一列时,RDD必须先取出person再取Age,而DataFrame可以直接取Age这一列。
DataFrame底层架构
Predicate Pushdown谓词下推机制
执行如下SQL语句:
1 2 3 |
SELECT table1.name,table2.score FROM table1 JOIN table2 ON (table1.id=table2.id) WHERE table1.age>25 AND table2.score>90 |
我们比较一下普通SQL执行流程和Spark SQL的执行流程
DataFrame创建方式
1.读JSON文件(不能嵌套)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 |
/** * people.json * {"name":"Michael"} {"name":"Andy", "age":30} {"name":"Justin", "age":19} */ object DataFrameOpsFromFile { def main(args: Array[String]): Unit = { val conf = new SparkConf() conf.setAppName("SparkSQL") conf.setMaster("local") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) //val df = sqlContext.read.format("json").load("people.json") val df = sqlContext.read.json("people.json")
//将DF注册成一张临时表,这张表是逻辑上的,数据并不会落地 //people是临时表的表名,后面的SQL直接FROM这个表名 df.registerTempTable("people") //打印DataFrame的结构 df.printSchema() /* * 结果:nullable=true代表该字段可以为空 * root |-- age: long (nullable = true) |-- name: string (nullable = true) */ //查看DataFrame中的数据, df.show(int n)可以指定显示多少条数据 df.show() /* * 结果: * +----+-------+ | age| name| +----+-------+ |null|Michael| | 30| Andy| | 19| Justin| +----+-------+ */ //SELECT name from table df.select("name").show()
//SELECT name,age+10 from table df.select(df("name"), df("age").plus(10)).show()
//SELECT * FROM table WHERE age > 10 df.filter(df("age")>10).show()
//SELECT count(*) FROM table GROUP BY age df.groupBy("age").count.show() sqlContext.sql("select * from people where age > 20").show() } } |
2.JSON格式的RDD转为DataFrame
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 |
public class DataFrameOpsFromJsonRdd { public static void main(String[] args) { SparkConf conf = new SparkConf() .setAppName("DataFrameFromJsonRdd").setMaster("local"); JavaSparkContext sc = new JavaSparkContext(conf); //若想使用SparkSQL必须创建SQLContext,必须是传入SparkContext,不能是SparkConf SQLContext sqlContext = new SQLContext(sc);
//创建一个本地的集合,类型String,集合中元素的格式为json格式 List "{'name':'Tom', 'age':20}", "{'name':'Jed', 'age':30}", "{'name':'Tony', 'age':22}", "{'name':'Jack', 'age':24}"); List "{'name':'Tom','score':100}", "{'name':'Jed','score':99}" );
JavaRDD JavaRDD
DataFrame nameDF = sqlContext.read().json(nameRDD); DataFrame scoreDF = sqlContext.read().json(scoreRDD);
/** * SELECT nameTable.name,nameTable.age,scoreTable.score FROM nameTable JOIN nameTable ON (nameTable.name = scoreTable.name) */ nameDF.join( scoreDF, nameDF.col("name").$eq$eq$eq(scoreDF.col("name")) ).select( nameDF.col("name"),nameDF.col("age"),scoreDF.col("score")) .show();
nameDF.registerTempTable("name"); scoreDF.registerTempTable("score"); String sql = "SELECT name.name,name.age,score.score " + "FROM name join score ON (name.name = score.name)";
sqlContext.sql(sql).show(); /* * +----+---+-----+ |name|age|score| +----+---+-----+ | Tom| 20| 100| | Jed| 30| 99| +----+---+-----+ */ } } |
3.非JSON格式的RDD转为DataFrame
1.反射的方式
Person类
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 |
import org.apache.spark.{SparkConf, SparkContext} import org.apache.spark.sql.SQLContext object RDD2DataFrameByReflectionScala { /** * * 使用反射的方式将RDD转换成为DataFrame * * 1.自定义的类必须是public * * 2.自定义的类必须是可序列化的 * * 3.RDD转成DataFrame的时候,会根据自定义类中的字段名进行排序 * *所以这里直接用case class类 * * Peoples.txt内容: * 1,Tom,7 * 2,Tony,11 * 3,Jack,5 * * @author root * */ case class Person(name: String, age: Int) def main(args: Array[String]): Unit = { val conf = new SparkConf() //创建sparkConf对象 conf.setAppName("My First Spark App") //设置应用程序的名称,在程序运行的监控页面可以看到名称 conf.setMaster("local") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) import sqlContext.implicits._ //传入进去Person.class的时候,sqlContext是通过反射的方式创建DataFrame //在底层通过反射的方式或得Person的所有field,结合RDD本身,就生成了DataFrame val people = sc.textFile("/Users/Chant/Documents/大数据0627/14spark/code/SparkJavaOperator/Peoples.txt") .map(_.split(",")).map(p => Person(p(1), p(2).trim.toInt)).toDF() people.registerTempTable("people") val teenagers = sqlContext.sql("SELECT name, age FROM people WHERE age >= 6 AND age <= 19") /** * 对dataFrame使用map算子后,返回类型是RDD */ // teenagers.map(t => "Name: " + t(0)).foreach(println) // teenagers.map(t => "Name: " + t.get(0)).foreach(println) // 不推荐此方法,因为RDD转成DataFrame的时候,他会根据自定义类中的字段名(按字典序)进行排序。 // 如果列很多,那你就得自己去按字典序排序列名,然后才知道该列对应的索引位。 // or by field name: 推荐用列名来获取列值 // teenagers.map(t => "Name: " + t.getAs[String]("name")).foreach(println) // teenagers.map(t => t.getAs("name")).foreach(println)//这样会报错java.lang.ClassCastException: java.lang.String cannot be cast to scala.runtime.Nothing$ teenagers.map(t => t.getAs[String]("name")).foreach(println) } } |
2.动态创建Schema
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 |
import org.apache.spark.sql.types._ import org.apache.spark.sql.{Row, SQLContext} import org.apache.spark.{SparkConf, SparkContext} /** * Created by Chant. */ object RDD2DataFrameByProgrammatically { def main(args: Array[String]): Unit = { val sc = new SparkContext(new SparkConf().setMaster("local").setAppName("RDD2DataFrameByProgrammatically")) val sQLContext = new SQLContext(sc) //将数据封装到Row中,RDD[Row]就可以转成DataFrame val RowRDD = sc.textFile("/Users/Chant/Documents/大数据0627/14spark/code/SparkScalaOperator/Peoples.txt") .map(_.split(",")).map(x => Row(x(0).toInt, x(1), x(2).toInt)) /** * 读取配置文件的方式 */ val schemaString = "id:Int name:String age:Int" val schema = StructType(schemaString.split(" ") .map(x => StructField(x.split(":")(0), if (x.split(":")(1) == "String") StringType else IntegerType, true))) //true代表该字段是否可以为空 //构建StructType,用于最后DataFrame元数据的描述 //基于已有的MetaData以及RDD // //最后一定要写else,不像java可以只有个if。 // val schema = StructType(schemaString.split(" ") // .map(x =>{ // val pair = x.split(":") // if (pair(1) == "String") StructField(pair(0), StringType,true) // else if(pair(1) == "Int") StructField(pair(0), IntegerType,true) // else StructField(pair(0), IntegerType,true) // })) /** * 如果列的数据类型比较多,可以用match case */ // val schemaString = "id:Int name:String age:Int" // // val schema = StructType(schemaString.split(" ") // .map(x => { // val pair = x.split(":") //// var dataType = null.asInstanceOf[DataType]//巧用这一招 // var dataType : DataType = null // pair(1) match { // case "String" => dataType = StringType // case "Int" => dataType = IntegerType // case "Double" => dataType = DoubleType // case "Long" => dataType = LongType // case _ => println("default, can't match") // } // // StructField(pair(0),dataType,true) // })) /** * 傻瓜式 */ // val structField = Array(StructField("id", IntegerType, true), StructField("name", StringType, true), StructField("age", IntegerType, true)) // // val schema = StructType.apply(structField) // val schema = StructType(structField) val df = sQLContext.createDataFrame(RowRDD, schema) df.printSchema() df.show() df.registerTempTable("people") val res = sQLContext.sql("select * from people where age > 6") res.show() res.map(x => "Name: " + x.getAs[String]("name") + "\t Age: " + x.getAs[Int]("age")).foreach(println) } } |
4. 读取MySQL中的数据来创建DataFrame
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 |
package com.chant.sql.jdbc import java.sql.{Connection, DriverManager, PreparedStatement} import org.apache.spark.sql.SQLContext import org.apache.spark.{SparkConf, SparkContext} /** * Created by Chant. */ object JDBCDataSource2 { def main(args: Array[String]): Unit = { val sc = new SparkContext(new SparkConf().setAppName("JDBCDataSource2").setMaster("local")) val sqlContext = new SQLContext(sc) val reader = sqlContext.read.format("jdbc") reader.option("url", "jdbc:mysql://node01:3306/testdb") reader.option("driver", "com.mysql.jdbc.Driver") reader.option("user", "root") reader.option("password", "123456") reader.option("dbtable", "student_info") val stuInfoDF = reader.load() reader.option("dbtable","student_score") val stuScoreDF = reader.load() // 分别将mysql中两张表的数据加载并注册为DataFrame stuInfoDF.registerTempTable("stuInfos") stuScoreDF.registerTempTable("stuScores") val sql = "select stuInfos.name, age, score from stuInfos join stuScores " + "on (stuInfos.name = stuScores.name) where stuScores.score > 80" //执行sql,join两个DF val resDF = sqlContext.sql(sql) resDF.show() // 将join后的数据写入的数据库 resDF.rdd.foreachPartition(p =>{ Class.forName("com.mysql.jdbc.Driver") var conn : Connection = null//这样写,在finnaly的时候才能访问到并将其关闭 var ps : PreparedStatement = null val sql2 = "insert into good_student_info values(?,?,?)" try{ conn = DriverManager.getConnection("jdbc:mysql://node01:3306/testdb", "root", "123456")//获取数据库链接 conn.setAutoCommit(false)//关闭自动提交 ps = conn.prepareStatement(sql2)//准备sql //迭代添加数据,并添加带batch p.foreach(row =>{ ps.setString(1, row.getAs[String]("name")) ps.setInt(2, row.getAs[Int]("age")) ps.setInt(3, row.getAs[Int]("score")) ps.addBatch() }) //执行并提交 ps.executeBatch() conn.commit()//貌似数据量少的时候,不提交也会有数据写入数据库???尚存疑问。但是肯定要写 }catch{ case e:Exception => e.printStackTrace() }finally { if(ps != null) ps.close() if(conn != null) conn.close() } }) sc.stop() } } |
5. 读取Hive中的数据创建一个DataFrame(Spark on Hive)
Spark与Hive整合:
1) 编辑spark客户端的配置文件hive-site.xml
1 2 3 4 5 6 7 8 9 10 |
node04:vi /opt/chant/spark-1.6.0/conf/hive-site.xml Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore. |
2) 把hadoop的core-site.xml和hdfs-site.xml copy到SPARK_HOME/conf/下
3) node0{1,2,3}:zkServer.sh start
4) node01:start-dfs.sh
5) node01:service mysqld start
6) node04:hive –service metastore
7) node01:/opt/chant/spark-1.6.0/sbin/start-all.sh
8) node02:/opt/chant/spark-1.6.0/sbin/start-master.sh
9) node04:/opt/chant/spark-1.6.0/bin/spark-submit
–master spark://node01:7077,node02:7077
–class com.bjchant.java.spark.sql.hive.HiveDataSource
../TestHiveContext.jar
jar包中的测试代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 |
import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.sql.hive.HiveContext object HiveDataSource { def main(args: Array[String]): Unit = { val conf = new SparkConf() .setAppName("HiveDataSource"); val sc = new SparkContext(conf); val hiveContext = new HiveContext(sc); hiveContext.sql("DROP TABLE IF EXISTS student_infos"); hiveContext.sql("CREATE TABLE IF NOT EXISTS student_infos (name STRING, age INT) row format delimited fields terminated by '\t'"); hiveContext.sql("LOAD DATA " + "LOCAL INPATH '/root/resource/student_infos' " + "INTO TABLE student_infos"); hiveContext.sql("DROP TABLE IF EXISTS student_scores"); hiveContext.sql("CREATE TABLE IF NOT EXISTS student_scores (name STRING, score INT) row format delimited fields terminated by '\t'"); hiveContext.sql("LOAD DATA " + "LOCAL INPATH '/root/resource/student_scores' " + "INTO TABLE student_scores"); val goodStudentsDF = hiveContext.sql("SELECT si.name, si.age, ss.score " + "FROM student_infos si " + "JOIN student_scores ss ON si.name=ss.name " + "WHERE ss.score>=80"); hiveContext.sql("DROP TABLE IF EXISTS good_student_infos"); // goodStudentsDF.saveAsTable("good_student_infos"); hiveContext.sql("USE result") //将goodStudentsDF里面的值写入到Hive表中,如果表不存在,会自动创建然后将数据插入到表中 goodStudentsDF.write.saveAsTable("good_student_infos") } } |
DataFrame数据存储
dataFrame = hiveContext().table("table_name");
dataFrame.write().saveAsTable("table_name");
2.存储到MySQL/HBase/Redis…中
1 2 3 |
dataFrame.javaRDD().foreachPartition(new VoidFunction …… }) |
3.存储到parquet文件(压缩比大,节省空间)中
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
DataFrame usersDF = sqlContext.read().format("parquet").load("hdfs://node01:9000/input/users.parquet"); usersDF.registerTempTable("users"); DataFrame resultDF = sqlContext.sql("SELECT * FROM users WHERE name = 'Tom'"); resultDF.write().format("parquet ").mode(SaveMode.Ignore) .save("hdfs://node01:9000/output/result. parquet "); resultDF.write().format("json").mode(SaveMode. Overwrite) .save("hdfs://node01:9000/output/result.json"); public enum SaveMode { Append, //如果文件已经存在,追加 Overwrite, //如果文件已经存在,覆盖 ErrorIfExists, //如果文件已经存在,报错 Ignore//如果文件已经存在,不对原文件进行任何修改,即不存储DataFrame } |
parquet数据源会自动推断分区,类似hive里面的分区表的概念
文件存储的目录结构如下:
1 2 3 4 5 |
/users |/country=US |data:id,name |/country=ZH |data:id,name |
当执行以下代码
1 2 3 4 5 6 7 8 9 10 |
DataFrame usersDF = sqlContext.read().parquet( "hdfs://node01:9000/users"); //路径只写到users usersDF.printSchema(); /* *(id int, name string, country string) */ usersDF.show(); usersDF.registerTempTable("table1"); sqlContext.sql("SELECT count(0) FROM table1 WHERE country = 'ZH'").show(); //执行这个sql只需要去country=ZH文件夹下去遍历即可 |
自定义函数
UDF
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 |
import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.sql.SQLContext import org.apache.spark.sql.Row import org.apache.spark.sql.types.StructType import org.apache.spark.sql.types.StructField import org.apache.spark.sql.types.StringType object UDF { def main(args: Array[String]): Unit = { val conf = new SparkConf() .setMaster("local") .setAppName("UDF") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) val names = Array("yarn", "Marry", "Jack", "Tom") val namesRDD = sc.parallelize(names, 4) val namesRowRDD = namesRDD.map { name => Row(name) } val structType = StructType(Array(StructField("name", StringType, true))) val namesDF = sqlContext.createDataFrame(namesRowRDD, structType) // 注册一张names表 namesDF.registerTempTable("names") sqlContext.udf.register("strLen", (str: String) => str.length()) // 使用自定义函数 sqlContext.sql("select name,strLen(name) from names").show } } |
UDAF:实现对某个字段进行count
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 |
import org.apache.spark.sql.expressions.UserDefinedAggregateFunction import org.apache.spark.sql.types.StructType import org.apache.spark.sql.types.DataType import org.apache.spark.sql.expressions.MutableAggregationBuffer import org.apache.spark.sql.Row import org.apache.spark.sql.types.StructField import org.apache.spark.sql.types.StringType import org.apache.spark.sql.types.IntegerType class StringCount extends UserDefinedAggregateFunction { //输入数据的类型 def inputSchema: StructType = { StructType(Array(StructField("12321", StringType, true))) } // 聚合操作时,所处理的数据的类型 def bufferSchema: StructType = { StructType(Array(StructField("count", IntegerType, true))) } def deterministic: Boolean = { true } // 为每个分组的数据执行初始化值 def initialize(buffer: MutableAggregationBuffer): Unit = { buffer(0) = 0 } /** * update可以认为是,一个一个地将组内的字段值传递进来实现拼接的逻辑 * buffer.getInt(0)获取的是上一次聚合后的值 * 相当于map端的combiner,combiner就是对每一个map task的处理结果进行一次小聚合 * 大聚和发生在reduce端 */ //每个组,有新的值进来的时候,进行分组对应的聚合值的计算 def update(buffer: MutableAggregationBuffer, input: Row): Unit = { buffer(0) = buffer.getAs[Int](0) + 1 } /** * 合并 update操作,可能是针对一个分组内的部分数据,在某个节点上发生的 * 但是可能一个分组内的数据,会分布在多个节点上处理 * 此时就要用merge操作,将各个节点上分布式拼接好的串,合并起来 * buffer1.getInt(0) : 大聚和的时候上一次聚合后的值 * buffer2.getInt(0) : 这次计算传入进来的update的结果 */ // 最后merger的时候,在各个节点上的聚合值,要进行merge,也就是合并 def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = { buffer1(0) = buffer1.getAs[Int](0) + buffer2.getAs[Int](0) } // 最终函数返回值的类型 def dataType: DataType = { IntegerType } // 最后返回一个最终的聚合值 要和dataType的类型一一对应 def evaluate(buffer: Row): Any = { buffer.getAs[Int](0) } } |
开窗函数
row_number()开窗函数的作用:
按照我们每一个分组的数据,按其照顺序,打上一个分组内的行号
id=2016 [111,112,113]
那么对这个分组的每一行使用row_number()开窗函数后,三行数据会一次得到一个组内的行号
id=2016 [111 1,112 2,113 3]
Strom VS SparkStreaming
SparkStreaming执行流程
总结:
receiver task是7*24h一直在执行,一直接收数据,将接收到的数据保存到batch中,假设batch interval为5s,那么把接收到的数据每隔5s切割到一个batch,因为batch是没有分布式计算的特性的,而RDD有,所以把batch封装到RDD中,又把RDD封装到DStream中进行计算,在第5s的时候,计算前5s的数据,假设计算5s的数据只需要3s,那么第5-8s一边计算任务,一边接收数据,第9-11s只是接收数据,然后在第10s的时候,循环上面的操作。
如果job执行时间大于batch interval,那么未执行的数据会越攒越多,最终导致Spark集群崩溃。
测试:
1.开启scoket server[root@node01 ~]# nc -lk 9999
2.启动spark集群
1 2 |
[root@node01 ~]# /opt/chant/spark-1.6.0/sbin /start-all.sh [root@node02 ~]# /opt/chant/spark-1.6.0/sbin /start-master.sh |
3.运行测试程序
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 |
import org.apache.spark.SparkConf import org.apache.spark.streaming.StreamingContext import org.apache.spark.streaming.Durations import org.apache.spark.storage.StorageLevel /** * 1.local的模拟线程数必须大于等于2,因为一条线程被receiver(接受数据的线程)占用,另外一个线程是job执行 * 2.Durations时间的设置,就是我们能接受的延迟度,这个我们需要根据集群的资源情况以及监控,要考虑每一个job的执行时间 * 3.创建StreamingContext有两种方式 (sparkconf、sparkcontext) * 4.业务逻辑完成后,需要有一个output operator * 5.StreamingContext.start(),straming框架启动之后是不能在次添加业务逻辑 * 6.StreamingContext.stop()无参的stop方法会将sparkContext一同关闭,如果只想关闭StreamingContext,在stop()方法内传入参数false * 7.StreamingContext.stop()停止之后是不能在调用start */ object WordCountOnline { def main(args: Array[String]): Unit = { val sparkConf = new SparkConf() sparkConf.setMaster("local[2]") sparkConf.setAppName("WordCountOnline") //在创建streaminContext的时候设置batch Interval val ssc = new StreamingContext(sparkConf,Durations.seconds(5)) val linesDStream = ssc.socketTextStream("node01", 9999, StorageLevel.MEMORY_AND_DISK) // val wordsDStream = linesDStream.flatMap { _.split(" ") } val wordsDStream = linesDStream.flatMap(_.split(" ")) val pairDStream = wordsDStream.map { (_,1) } val resultDStream = pairDStream.reduceByKey(_+_) resultDStream.print() //outputoperator类的算子 ssc.start() ssc.awaitTermination() ssc.stop() } } |
结果:
在server 端输入数据,例如,hello world,控制台实时打印wordwount结果:(hello,1)(world,1)
Output Operations on DStreams
foreachRDD(func)
1 2 3 4 5 6 7 8 9 |
dstream.foreachRDD { rdd => rdd.foreachPartition { partitionOfRecords => // ConnectionPool is a static, lazily initialized pool of connections val connection = ConnectionPool.getConnection() partitionOfRecords.foreach(record => connection.send(record)) ConnectionPool.returnConnection(connection) // return to the pool for future reuse } } |
saveAsTextFiles(prefix, [suffix])
Save this DStream’s contents as text files.
saveAsObjectFiles(prefix, [suffix])
Save this DStream’s contents as SequenceFiles of serialized Java objects.
saveAsHadoopFiles(prefix, [suffix])
Save this DStream’s contents as Hadoop files.
Transformations on Dstreams
transform(func)
Return a new DStream by applying a RDD-to-RDD function to every RDD of the source DStream. This can be used to do arbitrary RDD operations on the DStream.
1 2 3 4 5 6 7 |
val spamInfoRDD = ssc.sparkContext.newAPIHadoopRDD(...) // RDD containing spam information val cleanedDStream = wordCounts.transform(rdd => { rdd.join(spamInfoRDD).filter(...) // join data stream with spam information to do data cleaning ... }) |
updateStateByKey(func)
Return a new “state” DStream where the state for each key is updated by applying the given function on the previous state of the key and the new values for the key. This can be used to maintain arbitrary state data for each key.
UpdateStateByKey的主要功能:
1.Spark Streaming中为每一个Key维护一份state状态,state类型可以是任意类型的,可以是一个自定义的对象,那么更新函数也可以是自定义的。
2.通过更新函数对该key的状态不断更新,对于每个新的batch而言,Spark Streaming会在使用updateStateByKey的时候为已经存在的key进行state的状态更新
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 |
import org.apache.spark.SparkConf import org.apache.spark.streaming.{Durations, StreamingContext} import spire.std.option /** wordcount,实时计算结果,与之前的worCountOnline不同,它是增量计算的。 * * UpdateStateByKey的主要功能: * 1、Spark Streaming中为每一个Key维护一份state状态,state类型可以是任意类型的的, 可以是一个自定义的对象,那么更新函数也可以是自定义的。 * 2、通过更新函数对该key的状态不断更新,对于每个新的batch而言,Spark Streaming会在使用updateStateByKey的时候为已经存在的key进行state的状态更新 * 第6s的计算结果1-5s * hello,3 * world,2 * * 第11s的时候 6-11秒 * 接收数据 * hello 1 * hello 1 * world 1 *计算逻辑 * hello 3+1+1 * world 2+1 * * 第16s 11-15s * 接收数据 * hello 1 * hello 1 * world 1 * 计算逻辑 * hello 5+1+1 * world 3+1 * 如果要不断的更新每个key的state,就一定涉及到了状态的保存和容错,这个时候就需要开启checkpoint机制和功能 * * 全面的广告点击分析 * * 有何用? 统计广告点击流量,统计这一天的车流量,统计。。。。点击量 */ object UpdateStateByKeyOperator { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[2]").setAppName("UpdateStateByKeyOperator") val streamContext = new StreamingContext(conf, Durations.seconds(5)) /** * 上一次的计算结果会保存两份: * 1.内存 * 2.我们设置的checkPoint目录下 * 因为内存不稳定,放在checkPoint目录下更安全。 * 多久会将内存中的数据(每一个key所对应的状态)写入到磁盘上一份呢? * 如果你的batch interval小于10s 那么10s会将内存中的数据写入到磁盘一份 * 如果bacth interval 大于10s,那么就以bacth interval为准 */ streamContext.checkpoint("hdfs://node01:8020/sscheckpoint01") val lines = streamContext.socketTextStream("node01",8888) val wordsPair = lines.flatMap(_.split(" ")).map((_,1)) // val wordsPair = streamContext.socketTextStream("node01",8888).flatMap(_.split(" ")).map((_,1)) //注意这里的各种泛型 val counts = wordsPair.updateStateByKey[Int]((values:Seq[Int], state:Option[Int]) =>{ var updateValue = 0 if(!state.isEmpty) updateValue = state.get values.foreach(x =>{updateValue += x}) // Option.apply[Int](updateValue) Some(updateValue) }) counts.print() streamContext.start() streamContext.awaitTermination() streamContext.stop() } } |
Window Operations
总结:
batch interval:5s
每隔5s切割一次batch封装成DStream
window length:15s
进行计算的DStream中包含15s的数据,这里也就是3个batch。
sliding interval:10s
每隔10s取3个batch封装的DStream,封装成一个更大的DStream进行计算
window length和sliding interval必须是batch interval的整数倍
问题:
time3的RDD被计算两次
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 |
import org.apache.spark.SparkConf import org.apache.spark.streaming.{Durations, StreamingContext} object WindowOperator { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("WindowOperator").setMaster("local[2]") val streamingContext = new StreamingContext(conf, Durations.seconds(5)) //优化版必须设置cehckpoint目录,因为内存不稳定,保证数据不丢失。 streamingContext.checkpoint("hdfs://node01:8020/sscheckpoint02") val logDStrem = streamingContext.socketTextStream("node01", 8888) val wordsPair = logDStrem.flatMap(_.split(" ")).map((_, 1)) /** batch interval:5s * sliding interval:10s * window length:60s * 所以每隔10s会取12个rdd,在计算的时候会将这12个rdd聚合起来 * 然后一起执行reduceByKeyAndWindow操作 * reduceByKeyAndWindow是针对窗口操作的而不是针对DStream操作的 */ // val wordCountDStrem = wordsPair.reduceByKeyAndWindow((a, b) => a + b, Durations.seconds(60)) //为什么这里一定要声明参数类型???什么时候需要声明,什么时候不用,什么时候必须不声明? // val wordCountDStrem = wordsPair.reduceByKeyAndWindow((a: Int, b: Int) => a+b, Durations.seconds(60), Durations.seconds(10)) //优化版 val wordCountDStrem = wordsPair.reduceByKeyAndWindow((a, b) => a+b, (a, b) => a-b, Durations.minutes(1), Durations.seconds(10)) wordCountDStrem.print() streamingContext.start() streamingContext.awaitTermination() streamingContext.stop() } } |
假设batch=1s,window length=5s,sliding interval=1s,那么每个DStream重复计算了5次,优化后,(t+4)时刻的Window由(t+3)时刻的Window和(t+4)时刻的DStream组成,由于(t+3)时刻的Window包含(t-1)时刻的DStream,而(t+4)时刻的Window中不需要包含(t-1)时刻的DStream,所以还需要减去(t-1)时刻的DStream,所以:Window(t+4) = Window(t+3) + DStream(t+4) - DStream(t-1)
优化后的代码:
1 2 |
//优化版必须要设置checkPoint目录 val wordCountDStrem = wordsPair.reduceByKeyAndWindow((a, b) => a+b, (a, b) => a-b, Durations.minutes(1), Durations.seconds(10)) |
NOTE: updateStateByKey和优化版的reduceByKeyAndWindow都必须要设置checkPoint目录。
Driver HA
提交任务时设置spark-submit –supervise
Spark standalone or Mesos with cluster deploy mode only:
–supervise If given, restarts the driver on failure.
以集群方式提交到yarn上时,Driver挂掉会自动重启,不需要任何设置
提交任务,在客户端启动Driver,那么不管是提交到standalone还是yarn,Driver挂掉后都无法重启
代码中配置
上面的方式重新启动的Driver需要重新读取application的信息然后进行任务调度,实际需求是,新启动的Driver可以直接恢复到上一个Driver的状态(可以直接读取上一个StreamingContext的DSstream操作逻辑和job执行进度,所以需要把上一个StreamingContext的元数据保存到HDFS上),直接进行任务调度,这就需要在代码层面进行配置。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 |
import org.apache.spark.SparkConf import org.apache.spark.streaming.{Durations, StreamingContext} /** Spark standalone or Mesos 1with cluster deploy mode only: * 在提交application的时候 添加 --supervise 选项 如果Driver挂掉 会自动启动一个Driver * SparkStreaming */ object SparkStreamingOnHDFS2 { def main(args: Array[String]): Unit = { val checkpointPath = "hdfs://node01:8020/sscheckpoint03" // val ssc = new StreamingContext(conf, Durations.seconds(5)) val ssc = StreamingContext.getOrCreate(checkpointPath,() => { println("Creating new context") //这里可以设置一个线程,因为不需要一个专门接收数据的线程,而是监控一个目录 val conf = new SparkConf().setAppName("SparkStreamingOnHDFS").setMaster("local[1]") //每隔15s查看一下监控的目录中是否新增了文件 val ssc = new StreamingContext(conf, Durations.seconds(15)) ssc.checkpoint(checkpointPath) /** 只是监控文件夹下新增的文件,减少的文件是监控不到的 文件内容有改动也是监控不到 */ ssc }) val wordCount = ssc.textFileStream("hdfs://node01:8020/hdfs/").flatMap(_.split(" ")).map((_, 1)).reduceByKey(_+_) wordCount.print() ssc.start() ssc.awaitTermination() ssc.stop() } } |
执行一次程序后,JavaStreamingContext会在checkpointDirectory中保存,当修改了业务逻辑后,再次运行程序,JavaStreamingContext.getOrCreate(checkpointDirectory, factory);
因为checkpointDirectory中有这个application的JavaStreamingContext,所以不会调用JavaStreamingContextFactory来创建JavaStreamingContext,而是直接checkpointDirectory中的JavaStreamingContext,所以即使业务逻辑改变了,执行的效果也是之前的业务逻辑,如果需要执行修改过的业务逻辑,可以修改或删除checkpointDirectory。
简介
kafka是一个高吞吐的分部式消息系统
使用kafka和SparkStreaming组合的好处:
消息系统特点
Kafka架构
图里还少了个zookeeper,用于存储元数据和消费偏移量(根据偏移量来保证消费至少一次和严格消费一次)
producer:消息生产者
consumer:消息消费者
broker:kafka集群的每一台节点叫做broker,负责处理消息读、写请求,存储消息
topic:消息队列/分类
kafka里面的消息是有topic来组织的,简单的我们可以想象为一个队列,一个队列就是一个topic,然后它把每个topic又分为很多个partition,这个是为了做并行的,在每个partition里面是有序的,相当于有序的队列,其中每个消息都有个序号,比如0到12,从前面读往后面写。一个partition对应一个broker,一个broker可以管多个partition,比如说,topic有6个partition,有两个broker,那每个broker就管理3个partition。这个partition可以很简单想象为一个文件,当数据发过来的时候它就往这个partition上面append,追加就行,kafka和很多消息系统不一样,很多消息系统是消费完了我就把它删掉,而kafka是根据时间策略删除,而不是消费完就删除,在kafka里面没有消费完这个概念,只有过期这个概念
一个topic分成多个partition,每个partition内部消息强有序,其中的每个消息都有一个序号叫offset,一个partition只对应一个broker,一个broker可以管多个partition,消息直接写入文件,并不是存储在内存中,根据时间策略(默认一周)删除,而不是消费完就删除,producer自己决定往哪个partition写消息,可以是轮询的负载均衡,或者是基于hash的partition策略,而这样容易造成数据倾斜。所以建议使用轮询的负载均衡。
consumer自己维护消费到哪个offset,每个consumer都有对应的group,group内部是queue消费模型,各个consumer消费不同的partition,一个消息在group内只消费一次,各个group各自独立消费,互不影响
partition内部是FIFO的,partition之间不是FIFO的,当然我们可以把topic设为一个partition,这样就是严格的FIFO(First Input First Output,先入先出队列)
kafka特点
kafka与其他消息队列对比
零拷贝
“零拷贝”是指计算机操作的过程中,CPU不需要为数据在内存之间的拷贝消耗资源。而它通常是指计算机在网络上发送文件时,不需要将文件内容拷贝到用户空间(User Space)而直接在内核空间(Kernel Space)中传输到网络的方式。
Kafka集群搭建
node01,node02,node03
1. 解压
[root@node01 chant]# tar zxvf kafka_2.10-0.8.2.2.tgz
2. 修改server.properties配置文件
1 2 3 4 5 6 |
[root@node01 chant]# cd kafka_2.10-0.8.2.2/config [root@node01 config]# vi server.properties broker.id=0 #node01为0,node02为1,node03为2 log.dirs=/var/kafka/logs #真实数据存储路径 auto.leader.rebalance.enable=true #leader均衡机制开启 zookeeper.connect=node02:2181,node03:2181,node04:2181 #zookeeper集群 |
3. 同步配置,记得修改每台机器的broker.id
4. 启动zookeeper集群
5. 在每台kafka节点上启动kafka集群
1 |
nohup /opt/chant/kafka_2.10-0.8.2.2/bin/kafka-server-start.sh /opt/chant/kafka_2.10-0.8.2.2/config/server.properties & |
6. 测试
在node01上
创建topic:
1 2 3 4 5 6 |
/opt/chant/kafka_2.10-0.8.2.2/bin/kafka-topics.sh --create --zookeeper node02:2181,node03:2181,node04:2181 --replication-factor 3 --partitions 3 --topic test_create_topic |
生产数据:
1 2 3 |
/opt/chant/kafka_2.10-0.8.2.2/bin/kafka-console-producer.sh --broker-list node01:9092,node02:9092,node03:9092 --topic test_create_topic |
在node02上启动消费者
1 2 3 4 |
/opt/chant/kafka_2.10-0.8.2.2/bin/kafka-console-consumer.sh --zookeeper node02:2181,node03:2181,node04:2181 --from-beginning --topic test_create_topic |
在node01输入消息,在node02会接收并打印
查看在集群中有哪些topic:
1 2 3 |
/opt/chant/kafka_2.10-0.8.2.2/bin/kafka-topics.sh --list --zookeeper node02:2181,node03:2181,node04:2181 |
结果:test_create_topic
查看某个topic信息:
1 2 3 4 5 6 7 8 9 |
/opt/chant/kafka_2.10-0.8.2.2/bin/kafka-topics.sh --describe --zookeeper node02:2181,node03:2181,node04:2181 --topic test_create_topic 结果: Topic:test_create_topic PartitionCount:3 ReplicationFactor:3 Configs: Topic: test_create_topic Partition: 0 Leader: 0 Replicas: 0,1,2 Isr: 0,1,2 Topic: test_create_topic Partition: 1 Leader: 1 Replicas: 1,2,0 Isr: 1,2,0 Topic: test_create_topic Partition: 2 Leader: 2 Replicas: 2,0,1 Isr: 2,0,1 |
解释一下leader均衡机制(auto.leader.rebalance.enable=true):
每个partition是有主备结构的,当partition 1的leader,就是broker.id = 1的节点挂掉后,那么leader 0 或leader 2成为partition 1 的leader,那么leader 0 或leader 2 会管理两个partition的读写,性能会下降,当leader 1 重新启动后,如果开启了leader均衡机制,那么leader 1会重新成为partition 1 的leader,降低leader 0 或leader 2 的负载
Kafka和SparkStreaming整合
Receiver方式
原理:
获取kafka传递的数据来计算:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
SparkConf conf = new SparkConf() .setAppName("SparkStreamingOnKafkaReceiver") .setMaster("local[2]") .set("spark.streaming.receiver.writeAheadLog.enable","true"); JavaStreamingContext jsc = new JavaStreamingContext(conf, Durations.seconds(5)); //设置持久化数据的目录 jsc.checkpoint("hdfs://node01:8020/spark/checkpoint"); Map //topic名 receiver task数量 topicConsumerConcurrency.put("test_create_topic", 1); JavaPairReceiverInputDStream jsc, "node02:2181,node03:2181,node04:2181", "MyFirstConsumerGroup", topicConsumerConcurrency, StorageLevel.MEMORY_AND_DISK_SER()); /* * 第一个参数是StreamingContext * 第二个参数是ZooKeeper集群信息(接受Kafka数据的时候会从Zookeeper中获得Offset等元数据信息) * 第三个参数是Consumer Group * 第四个参数是消费的Topic以及并发读取Topic中Partition的线程数 * 第五个参数是持久化数据的级别,可以自定义 */ //对lines进行其他操作…… |
注意
kafka客户端生产数据的代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 |
public class SparkStreamingDataManuallyProducerForKafka extends Thread { private String topic; //发送给Kafka的数据的类别 private Producer public SparkStreamingDataManuallyProducerForKafka(String topic){ this.topic = topic; Properties conf = new Properties(); conf.put("metadata.broker.list", "node01:9092,node02:9092,node03:9092"); conf.put("serializer.class", StringEncoder.class.getName()); producerForKafka = new Producer new ProducerConfig(conf)) ; } @Override public void run() { while(true){ counter ++; String userLog = createUserLog(); //生产数据这个方法可以根据实际需求自己编写 producerForKafka.send(new KeyedMessage try { Thread.sleep(1000); } catch (InterruptedException e) { e.printStackTrace(); } } } public static void main(String[] args) { new SparkStreamingDataManuallyProducerForKafka( "test_create_topic").start(); //test_create_topic是topic名 } } |
Direct方式
把kafka当作一个存储系统,直接从kafka中读数据,SparkStreaming自己维护消费者的消费偏移量,不再将其存储到zookeeper。
与Receiver方式相比,他有的优点是:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
SparkConf conf = new SparkConf() .setAppName("SparkStreamingOnKafkaDirected") .setMaster("local[1]");
JavaStreamingContext jsc = new JavaStreamingContext(conf, Durations.seconds(10));
Map kafkaParameters.put("metadata.broker.list", "node01:9092,node02:9092,node03:9092");
HashSet topics.add("test_create_topic"); JavaPairInputDStream String.class, String.class, StringDecoder.class, StringDecoder.class, kafkaParameters, topics); //对lines进行其他操作…… |
两种方式下提高SparkStreaming并行度的方法
Receiver方式调整SparkStreaming的并行度的方法:
spark.streaming.blockInterval
spark.streaming.blockInterval
的值,建议不低于50msspark.streaming.backpressure.enabled
spark.streaming.receiver.maxRate
设置的值(设置为n,那么速率不能超过n/s)spark.streaming.receiver.writeAheadLog.enable
默认false 是否开启WAL机制Direct方式并行度的设置:
第一个DStream的分区数是由读取的topic的分区数决定的,可以通过增加topic的partition数来提高SparkStreaming的并行度