hadoop很容易使用 .replace() 例如
.replace()
String[] valArray = value.toString().replace("\N", "")
但它在spark中不起作用,我在spark shell中编写scala,如下所示
val outFile=inFile.map(x=>x.replace("\N",""))
那么,如何应对呢?
zsbz8rwp1#
因为某种原因你的 x 是一个 Array[String] . 你怎么会这样?你可以 .toString.replace 如果您愿意的话,也可以这样做,但是这样做可能不会得到您想要的结果(而且在java中会给出错误的输出);你可能想再做一层Map, inFile.map(x => x.map(_.replace("\N","")))
x
Array[String]
.toString.replace
inFile.map(x => x.map(_.replace("\N","")))
1条答案
按热度按时间zsbz8rwp1#
因为某种原因你的
x
是一个Array[String]
. 你怎么会这样?你可以.toString.replace
如果您愿意的话,也可以这样做,但是这样做可能不会得到您想要的结果(而且在java中会给出错误的输出);你可能想再做一层Map,inFile.map(x => x.map(_.replace("\N","")))