调整write conf时spark cassandra连接器写入超时

5jdjgkvh  于 2021-05-18  发布在  Spark
关注(0)|答案(0)|浏览(310)

我注意到,当从spark向cassandra插入数据时,我们的管道中的吞吐量非常低(每个核心小于1 mb/s)。在尝试调整write conf时( spark.cassandra.output.concurrent.writes , spark.cassandra.output.batch.grouping.key 以及 spark.cassandra.output.batch.size.rows )我很快得到一个写入超时。
我的问题:
批量写入数据(通过spark)时,是否建议/正常增加cassandra写入超时?
是否有可能仅仅为了spark工作负载而增加它?或者只是批量写入?
的默认值 spark.cassandra.output.batch.size.bytes 如果是1024,我发现作为默认值太低了,我猜在大多数情况下会对应1或2行,我是不是遗漏了什么?
我使用的是spark cassandra连接器2.4.3

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题