我有一个包含timestamp列的Dataframe(2021-01-19 13:00:30)。当我使用spark(2)scala jdbc将这个dataframe发送到oracle(19c)中的现有表时,它会插入2021-01-19 13:00:30.000000,即使oracle中的列是timestamp(0)
例如: df.write.mode(SaveMode.Append).jdbc(url, tableName, connectionProperties)
在发送数据之前,我试图通过创建连接而不是执行代码来更改spark的会话:
connection.setAutoCommit(true)
val statement: Statement = connection.createStatement()
statement.executeQuery("alter session set nls_date_format='YYYY-MM-DD HH24:MI:SS")
但它并没有真正改变会话(我没有错误)。
我应该在中指定吗 df.write ...
我的时间戳的样式?否则,我是否正确更改了spark的会话?
暂无答案!
目前还没有任何答案,快来回答吧!