如何在spark中配置storagelevel.disk\u only位置/路径

4urapxun  于 2021-05-29  发布在  Spark
关注(0)|答案(0)|浏览(245)

我正在尝试在spark中配置storagelevel持久性位置。我试图在文档中找到路径,但找不到。
假设我有一个随机的Dataframe。例如:

import org.apache.spark.storage.StorageLevel._
dataFrame.persist(StorageLevel.DISK_ONLY)

我想知道的是如何配置存储位置。
提前谢谢你的帮助

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题