我试图理解Spark是如何将逻辑执行计划转换为物理执行计划的我做两件事:1.读取csv文件1.在 Dataframe 上计数因此,我期望DAG只执行两个作业为什么这总共创造了3个就业机会?
为什么需要3个不同的阶段?
5t7ly7z51#
我甚至从文件中删除了头文件,并强制inferSchema禁用,仍然有3个工作:
1条答案
按热度按时间5t7ly7z51#
我甚至从文件中删除了头文件,并强制inferSchema禁用,仍然有3个工作: