一、Spark累加器有哪些特點
Spark累加器(Accumulator)是在Spark分散式計算框架中一個很重要的概念。它是在分散式計算過程中,允許用戶在多個節點上進行分散式聚合操作的一種機制。
Spark累加器有以下幾個特點:
1、只有Driver程序可以對累加器進行寫操作,但所有的Worker節點都可以讀取累加器的值;
2、累加器的值每次在Worker節點上更新後,都會匯總到Driver程序中;
3、累加器在多個聚合操作中可以疊加使用。
二、Spark累加器不支持自定義
Spark累加器支持兩種類型的累加器:數值類型和自定義類型。但無論是哪種類型,都需要在Driver程序中進行定義。所以我們可以說Spark累加器不支持自定義。
三、Spark累加器支持數值類型
Spark累加器支持數值類型,包括整型、浮點型等。
val sc = new SparkContext(...)
val counter = sc.longAccumulator("counter")
val rdd = sc.parallelize(Array(1,2,3,4,5))
rdd.foreach(x => counter.add(x))
println(counter.value)
上面的代碼定義了一個Long類型的累加器,並在並行化的RDD中遍歷每個元素,將它們累加到累加器counter中。最後輸出累加器的值即可。
四、Spark累加器支持自定義類型
除了數值類型,Spark累加器還支持自定義類型。自定義類型需要實現序列化介面和累加器型介面。
class MyType(var name: String) {
override def toString: String = s"MyType($name)"
}
class MyAccumulator extends AccumulatorV2[MyType, mutable.Set[MyType]] {
private val _set: mutable.Set[MyType] = mutable.Set()
override def isZero: Boolean = _set.isEmpty
override def copy(): AccumulatorV2[MyType, mutable.Set[MyType]] = {
val newAcc = new MyAccumulator()
newAcc._set.addAll(_set)
newAcc
}
override def reset(): Unit = _set.clear()
override def add(v: MyType): Unit = _set += v
override def merge(other: AccumulatorV2[MyType, mutable.Set[MyType]]): Unit = {
_set ++= other.value
}
override def value: mutable.Set[MyType] = _set
}
val myAccumulator = new MyAccumulator
sc.register(myAccumulator, "myAcc")
val rdd = sc.parallelize(Seq(MyType("a"), MyType("b"), MyType("c")))
rdd.foreach(myAccumulator.add)
println(myAccumulator.value)
上面的代碼定義了一個自定義類型MyType和一個自定義類型的累加器MyAccumulator,並在註冊時指定了自定義的名字”myAcc”。最後遍歷RDD並將元素添加到自定義累加器中,最後輸出累加器的值即可。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/287166.html
微信掃一掃
支付寶掃一掃