Spark Core 性能调优之配置内存

操作场景

        Spark是内存计算框架,计算过程中内存不够对Spark的执行效率影响很大。可以通过监控GC(Garbage Collection),评估内存中RDD的大小来判断内存是否变成性能瓶颈,并根据情况优化。

        监控节点进程的GC情况(在客户端的conf/spark-default.conf配置文件中,在spark.driver.extraJavaOptions和spark.executor.extraJavaOptions配置项中添加参数:

"-verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps"),如果频繁出现Full  GC,需要优化GC。把RDD做Cache操作,通过日志查看RDD在内存中的大小,如果数据太大,需要改变RDD的存储级别来优化。

操作步骤

● 优化GC,调整老年代和新生代的大小和比例。在客户端的conf/spark-default.conf配置文件中,在spark.driver.extraJavaOptions和spark.executor.extraJavaOptions配置项中添加参数:-XX:NewRatio。如,"

-XX:NewRatio=2",则新生代占整个堆空间的1/3,老年代占2/3。

● 开发Spark应用程序时,优化RDD的数据结构。

    ■ 使用原始类型数组替代集合类,如可使用fastutil库。

    ■ 避免嵌套结构。

    ■ Key尽量不要使用String。

● 开发Spark应用程序时,建议序列化RDD。

    RDD做cache时默认是不序列化数据的,可以通过设置存储级别来序列化RDD减小内存。例如:

testRDD.persist(StorageLevel.MEMORY_ONLY_SER)

你可能感兴趣的:(Spark Core 性能调优之配置内存)