这个问题在这里已经有答案了:
用apache spark读取json-corrupt\u record
(4个答案)
7个月前关门了。
控制台出错
scala>var njson=spark.read.option(“multiline”,“true”).json(“c:/users/onkar/desktop/new.json”)njson:org.apache.spark.sql.dataframe=[\u corrupt\u record:string]
我的json:
[{
"Name": "Onkar",
"Age": 24,
"Place": "Baramati"
}]
1条答案
按热度按时间icnyk63a1#
在spark版本中
2.2.0
支持向前解析json对象数组。json对象的spark解析数组的较低版本不受支持或解析不正确。请检查下面的代码。
spark版本
2.1.1
由于它没有解析json对象的数组,所以有一些问题&这个问题在较新的版本中已经修复。