我试图用sparkjdbc读取oracle的float列数据,但是它给了同一列无穷大的值。下面是示例代码,
val empDF = spark.read
.format("jdbc")
.option("url", "jdbc:oracle:thin:@hostname:portnumber/servicename")
.option("query", "select col_float, col_float_negative from employee")
.option("user", "db_user_name")
.option("password", "password")
.option("driver", "oracle.jdbc.driver.OracleDriver")
.load()
empDF.show()
输出:
我认为spark在内部获取float列作为getfloat(),因此这个问题即将出现。这有什么办法吗。这真的很有帮助。谢谢。
暂无答案!
目前还没有任何答案,快来回答吧!