我有一个嵌套的json文件,我读作spark dataframe,我想用自己的转换替换某些值。
现在让我们假设它看起来如下(如下所示)
import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.functions._
import org.apache.spark.sql.types._
// Convenience function for turning JSON strings into DataFrames.
def jsonToDataFrame(json: String, schema: StructType = null): DataFrame = {
// SparkSessions are available with Spark 2.0+
val reader = spark.read
Option(schema).foreach(reader.schema)
reader.json(sc.parallelize(Array(json)))
}
val df = jsonToDataFrame("""
{
"A": {
"B": "b",
"C": "c",
"D": {"E": "e"
}
}
}
""")
display(df)
df.printSchema()
假设对上述sparkDataframe中的某些值应用以下转换(从小写到大写)
import org.apache.spark.sql.functions.udf
val upper: String => String = _.toUpperCase
val upperUDF = udf(upper)
虽然这根本不起作用:
df.withColumn("A.B", upperUDF('A.B)).show()
以下工作:
val df1 = df.select("A.B")
df1.withColumn("B", upperUDF('B)).show()
但最终我还是要坚持我的嵌套结构,并根据我的转换替换某些值。
如何才能做到这一点?在使用withcolumn时,如何保留模式?
1条答案
按热度按时间7gs2gvoe1#
我终于找到了这条线索,它给了我问题的答案。诀窍是在转换列时动态地保留模式。使用其中定义的mutate()函数,以下内容对我来说非常有用: