scala:用嵌套的json结构转换和替换spark dataframe的值

9rnv2umw  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(524)

我有一个嵌套的json文件,我读作spark dataframe,我想用自己的转换替换某些值。
现在让我们假设它看起来如下(如下所示)

import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.functions._
import org.apache.spark.sql.types._

// Convenience function for turning JSON strings into DataFrames.
def jsonToDataFrame(json: String, schema: StructType = null): DataFrame = {
// SparkSessions are available with Spark 2.0+
val reader = spark.read
Option(schema).foreach(reader.schema)
reader.json(sc.parallelize(Array(json)))
}

val df = jsonToDataFrame("""
 {
  "A": {
     "B": "b",
     "C": "c",
     "D": {"E": "e"
          }
        }
      }
 """)

display(df)
df.printSchema()

假设对上述sparkDataframe中的某些值应用以下转换(从小写到大写)

import org.apache.spark.sql.functions.udf
val upper: String => String = _.toUpperCase
val upperUDF = udf(upper)

虽然这根本不起作用:

df.withColumn("A.B", upperUDF('A.B)).show()

以下工作:

val df1 = df.select("A.B")
df1.withColumn("B", upperUDF('B)).show()

但最终我还是要坚持我的嵌套结构,并根据我的转换替换某些值。
如何才能做到这一点?在使用withcolumn时,如何保留模式?

7gs2gvoe

7gs2gvoe1#

我终于找到了这条线索,它给了我问题的答案。诀窍是在转换列时动态地保留模式。使用其中定义的mutate()函数,以下内容对我来说非常有用:

val df2 = mutate(df, c => if (c.toString == "A.B") upperUDF(c) else c)
val df3 = mutate(df, c => if (c.toString == "A.D.E") upperUDF(c) else c)

display(df2)
df2.printSchema

display(df3)
df3.printSchema

相关问题