python—并行mymapreduce()实现的瓶颈(减慢/阻塞操作)是什么?为什么?

h9a6wy2h  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(214)

我们正在学习python中的mapreduce,我在测试中遇到了这个问题。我在谷歌上搜索了一个小时,但没有真正成功。我不确定我的理解是否正确:我的见解是,当我们启动一个池时,mapreduce分区会产生大量的数据,而瓶颈可能是减少所有的数据。例如,(这也是一个提示:教授可以并行评估测试,但他不能计算平均绩点,直到他完成了这个过程。
p、 抱歉,如果问题重复

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题