与在rdbms中添加新列一样,不需要用数据填充该列,但应该提供列名和数据类型。我想在spark dataframe中也这样做,但不一定在schema中指定,我希望新列可以以特别的方式创建
val dfWithNewColumn = df.withColumn("new_col", IntgerType)
关键是提供类型而不是Spark推理。但除了在模式中进行更改或对新列设置默认值之外,我看不到任何解决方案
与在rdbms中添加新列一样,不需要用数据填充该列,但应该提供列名和数据类型。我想在spark dataframe中也这样做,但不一定在schema中指定,我希望新列可以以特别的方式创建
val dfWithNewColumn = df.withColumn("new_col", IntgerType)
关键是提供类型而不是Spark推理。但除了在模式中进行更改或对新列设置默认值之外,我看不到任何解决方案
1条答案
按热度按时间h7appiyu1#
也许是这样的?
它将创建一列空值,而不使用spark type infer。