Spark RDD优化
- 一、分区优化
- 二、持久化优化
- 三、依赖优化
- 四、共享变量优化
- 五、提交模式与运行模式优化
- 六、其他优化
一、分区优化
-
分区数调整:RDD的分区数可以通过
repartition
和coalesce
方法进行调整。合理的分区数可以提高并行度,但过多的分区会增加管理开销。通常,分区数应根据数据规模和集群资源进行调整。val rdd: RDD[String] = rdd.coalesce(numPartitions:Int, shuffle:Boolean) val rdd: RDD[String] = rdd.repartition(numPartitions:Int) // repartition(numPartitions: Int) 等价于 coalesce(numPartitions, true)
-
缩小分区
存在过多的小任务的时候收缩合并分区,减少分区的个数,减少任务调度成本
默认情况下,不会对数据重组,比如:3个合成2个,采用 {1+2},{3},容易导致数据倾斜
若需数据均衡,则将 shuffle 参数设置为 true 即可 -
扩大分区
若需要扩大分区,shuffle 参数必须设置为 true
若将2个分区拆分成3个,必须打乱重新分区,否则数据还是在两个分区(有一个分区为空),{1},{2},{空}
-
-
数据本地性:Spark会尽量将数据分配给与数据源相同的计算节点上,以减少数据移动的开销。在创建RDD时,可以通过设置分区偏好(如
preferredLocations
)或自定义分区来优化数据本地性,以最小化网络传输并最大化计算效率。自定义分区
// 自定义分区器 class MyPartitioner(numPartitions: Int) extends Partitioner {override def numPartitions: Int = numPartitions // 返回分区器的分区数量override def getPartition(key: Any): Int = {// 这里需要实现分区逻辑// 返回值是一个整数,表示该键应该被分配到哪个分区} }
// 使用自定义分区器重新分区 val partitionedRDD = rdd.partitionBy(new MyPartitioner(2)) // 传入分区个数
-
处理数据倾斜:数据倾斜是指某些分区包含的数据远远多于其他分区,导致计算资源分配不均。可以使用
repartition
或coalesce
方法重新分区RDD,或使用reduceByKey
、groupByKey
的变体等特定操作来减轻数据倾斜的影响。
二、持久化优化
-
持久化策略:对于需要多次使用的RDD,应该进行持久化操作,以避免重复计算。持久化策略包括内存持久化(如
MEMORY_ONLY
)、磁盘持久化(如DISK_ONLY
)以及内存和磁盘混合持久化(如MEMORY_AND_DISK
)等。 -
序列化:使用序列化可以进一步减少内存消耗,并提高持久化效率。Spark支持多种序列化框架,如Java序列化、Kryo序列化等。Kryo序列化通常比Java序列化更快,且占用空间更小。
// 临时存储于【xx】重用,job结束后自动删除 val rddCache: RDD[T] = rdd.cache() // 到内存上 val rdd: RDD[T] = rdd.persist(level:StorageLevel) // cache() 等价于persist(StorageLevel.MEMORY_ONLY) // persisit() 参数如下
StorageLevel.MEMORY_ONLY 只写到内存上 StorageLevel.DISK_ONLY 只写到磁盘上 StorageLevel.OFF_HEAP 使用堆外内存 StorageLevel.MEMORY_AND_DISK 先内存,后磁盘 StorageLevel.MEMORY_AND_DISK_SER 先内存,后磁盘,采取序列化方式 StorageLevel.MEMORY_AND_DISK_SER_2 先内存,后磁盘,采取二代序列化方式
-
检查点:对于需要长时间运行或可能遭受故障的应用,设置检查点(Checkpoint)可以将RDD的状态保存到稳定存储中,以便在故障后恢复。检查点会切断RDD的血统关系,从而避免重新计算整个血统链。
// checkpoint 长久存储于【磁盘】重用,job结束后不会删除,涉及IO性能较差,安全且一般和cache组合使用 val conf = new SparkConf().setAppName("spark_rdd").setMaster("local[4]") val sc = SparkContext.getOrCreate(conf) // 设置检查点路径 sc.setCheckpointDir("hdfs://ip:9000/spark/checkpoint") // ... rdd.checkpoint() // 将该 RDD 的内容写入到设置的路径,并在该 RDD 的计算图中插入一个检查点(Checkpoint)节点
三、依赖优化
-
宽依赖与窄依赖:RDD之间的依赖关系分为宽依赖和窄依赖。窄依赖有助于实现数据本地性,而宽依赖则可能导致数据移动和网络开销。在设计RDD转换操作时,应尽量避免不必要的宽依赖。
1、Driver程序提交后
1、Spark调度器将所有的RDD看成是一个Stage
2、然后对此Stage进行逆向回溯,遇到Shuffle就断开,形成一个新的Stage
3、遇到窄依赖,则归并到同一个Stage
4、等到所有的步骤回溯完成,便生成一个DAG图2、为什么要划分阶段
1、基于数据的分区,本着传递计算的性能远高于传递数据,所以数据本地化是提升性能的重要途径之一
2、一组串行的算子,无需 Shuffle,基于数据本地化可以作为一个独立的阶段连续并行执行
3、经过一组串行算子计算,遇到 Shuffle 操作,默认情况下 Shuffle 不会改变分区数量,但会因为 numPartitions:Int, partitioner:Partitioner 等参数重新分配,过程数据会【写盘供子RDD拉取(类MapReduce)】3、RDD依赖关系
-
Lineage:血统、遗传
RDD最重要的特性之一,保存了RDD的依赖关系
RDD实现了基于Lineage的容错机制
-
依赖关系 org.apache.spark.Dependency
窄依赖 NarrowDependency,1V1 OneToOneDependency,1VN RangeDependency
宽依赖 ShuffleDependency -
当RDD分区丢失时
对于窄依赖,Spark只需要重新计算丢失分区的父RDD分区即可。
对于宽依赖,Spark需要重新执行整个shuffle过程,以重新生成丢失的数据。
若配合持久化更佳:cache, persist, checkpoint
类型 窄依赖 map,flatMap,mapPartitions,mapPartitionsWithIndex,glom,filter,distinct,intersection,sample,union,subtract,zip…,cogroup 宽依赖 sortBy,sortByKey,groupByKey,reduceByKey,cogroup,join,partitionBy,repartition 不一定的情况 在Spark中,并非所有操作都可以明确地归类为宽依赖或窄依赖。有些操作可能根据具体的实现或上下文而有所不同。然而,在大多数情况下,上述提到的算子可以清晰地划分为宽依赖或窄依赖。 如:reduceByKey(【partitioner: Partitioner】, func: (V, V) => V) 若使用的是带 partitioner 的重载且 Partitioner 和父RDD的 Partitioner一致 则为窄依赖RDD,否则为宽依赖ShuffledRDD
-
-
优化转换操作:在可能的情况下,使用能够减少shuffle操作的转换函数,如
mapPartitions
代替map
,reduceByKey
代替groupByKey
等。这些操作可以减少数据在网络中的传输量,从而提高性能。shuffle性能较差:因为shuffle必须落盘,内存中等数据会OOM groupByKey只分组(存在Shuffle) + reduce只聚合<=结果同,性能不同=> reduceByKey先分组、预聚合、再聚合(存在Shuffle)
四、共享变量优化
-
广播大变量:当Spark作业中需要使用到较大的外部变量时,可以将这些变量广播到每个节点的Executor上,而不是每个Task都复制一份。这样可以减少网络传输开销和内存消耗。
val bc:Broadcast[T] = sc.broadcast(value:T) // 创建广播变量 rdd.mapPartitions(itPar=>{val v:T = bc.value // 在每个分区内部,通过bc.value获取广播变量的值 ... // 使用v进行计算... })
-
累加器(Accumulators):累加器提供了一种有效的手段来进行分布式计算中的统计和计数操作,减少通信开销,并简化聚合操作。
累加器:accumulate:只能 add 操作,常用于计数
1、定义在Driver端的一个变量,Cluster中每一个Task都会有一份Copy
2、所有的Task都计算完成后,将所有Task中的Copy合并到驱动程序中的变量中
非累加器:在所有Task中的都会是独立Copy,不会有合并val accLong: LongAccumulator = sc.longAccumulator("longAcc") // 定义累加器 val accDouble: DoubleAccumulator = sc.doubleAccumulator("doubleAcc") rdd.mapPartitions(itPar=>{...accLong.add(v:Long) // 将值添加到累加器中accDouble.add(v:Double)... }) accXxx.reset() // 重置累加器 val isZero:Boolean = accXxx.isZero // 检查累加器是否为零值 val num:Long|Double = accXxx.value|sum|count|avg // 获取累加器的值、总和、计数或平均值
// 定义一个累加器,用于统计 "bad" 记录的数量 val errorCount = sc.longAccumulator("Error Count") val data = sc.parallelize(Array("good", "bad", "good", "bad", "good")) data.foreach(record => if (record == "bad") errorCount.add(1)) // 打印累加器的值,即 "bad" 记录的总数println(s"Total errors: ${errorCount.value}")
自定义累加器:
写一个类继承 import org.apache.spark.util.AccumulatorV2[IN, OUT]
abstract class AccumulatorV2[IN, OUT] extends Serializable {// 返回是否为零值累加器def isZero: Boolean// 创建此累加器的新副本,其为零值def copyAndReset(): AccumulatorV2[IN, OUT] = {...}// 创建此累加器的新副本def copy(): AccumulatorV2[IN, OUT]// 重置此累加器为零值def reset(): Unit// 添加:接收输入并累加def add(v: IN): Unit// 合并:合并另一个相同类型的累加器并更新其状态def merge(other: AccumulatorV2[IN, OUT]): Unit// 当前累加器的值def value: OUT }
-
自定义计量器优化(Custom Metrics):自定义计量器允许用户定义和收集特定的性能指标,提供更细粒度的作业监控和调优能力。通过
SparkListener
接口,可以实现自定义的监听器来监控和记录所需的指标。
五、提交模式与运行模式优化
-
提交模式:Spark支持Client模式和Cluster模式两种提交方式。Client模式便于查看日志和结果,但可能消耗较多资源;Cluster模式则更适合大规模作业,但查看日志和结果可能不太方便。应根据实际情况选择合适的提交模式。
spark-submit --class <MainClass> --master <MasterURL> --deploy-mode <DeployMode> <PathToJar>
<MainClass>
:包含main
方法的主类的名称。<MasterURL>
:指定集群的 Master URL。<DeployMode>
:指定提交模式,可以是client
或cluster
。<PathToJar>
:包含 Spark 应用程序的 JAR 文件的路径。spark-submit --class SparkClientModeApp --master yarn --deploy-mode client /path/to/your/jarfile.jar spark-submit --class SparkClientModeApp --master yarn --deploy-mode cluster /path/to/your/jarfile.jar
-
运行模式:Spark支持多种运行模式,如Local模式、Standalone模式、YARN模式等。不同的运行模式适用于不同的场景和需求。例如,Local模式适用于本地开发和测试;Standalone模式适用于构建独立的Spark集群;YARN模式则适用于与Hadoop生态系统集成。
local
: 在单核上运行
local[N]
: 在指定数量的 N 个核上运行,如 “local[4]”
local[*]
: 使用所有可用的核
spark://HOST:PORT
: 连接到指定的 Spark standalone cluster
yarn
: 连接到 YARN 集群
mesos://HOST:PORT
: 连接到 Mesos 集群
六、其他优化
- 序列化框架选择:除了Kryo序列化外,还可以考虑使用其他高效的序列化框架来优化Spark作业的性能。
- 监控与调优:使用Spark提供的监控工具和API(如Spark UI、getStorageLevel方法等)来监控作业的运行状态和性能瓶颈,并根据监控结果进行调优。