什么是Spark流分区数直接与接收器的方法?

6bc51xsx  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(200)

在新的spark streaming api中,分区的数量是按照spark docs-:“kafka 0.10的spark streaming集成在设计上类似于0.8的直接流方法。它提供了简单的并行性,kafka分区和spark分区之间的1:1对应关系,以及对偏移量和元数据的访问”。
但是在spark streaming文档中,分区的总数是:batchinterval/minbatchinterval(200ms),所以对于2s的批处理间隔,您将得到10个分区。
我只需要弄清楚为什么计算分区的方法在直接方法和接收方法中是不同的。我在想,在4个kafka分区和批处理间隔为2s的直接方法中,我将得到40个rdd分区。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题