如何使用spark rdd高效地实现simrank?

pxiryf3j  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(707)

我想用sparkrdd接口实现simrank。但是我的数据集太大,无法处理,二部图有数亿个节点,因此要找到所有邻域对的相似性分数需要花费大量的计算。我试图找到一些现有的实现,但它们似乎都不是可伸缩的。有什么建议吗?

xxe27gdn

xxe27gdn1#

我建议先看看apachespark生态系统附带的graphx和graphframes库,看看它们是否适合您的需要。它们主要在rdd和Dataframe之上引入图形处理支持。

相关问题