spark jdbc数据集显示浮点列数据为oracle的无穷大

sd2nnvve  于 2021-07-12  发布在  Spark
关注(0)|答案(0)|浏览(207)

我试图用sparkjdbc读取oracle的float列数据,但是它给了同一列无穷大的值。下面是示例代码,

val empDF = spark.read 
    .format("jdbc") 
    .option("url", "jdbc:oracle:thin:@hostname:portnumber/servicename") 
    .option("query", "select col_float, col_float_negative from employee") 
    .option("user", "db_user_name") 
    .option("password", "password") 
    .option("driver", "oracle.jdbc.driver.OracleDriver") 
    .load()

empDF.show()

输出:

我认为spark在内部获取float列作为getfloat(),因此这个问题即将出现。这有什么办法吗。这真的很有帮助。谢谢。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题