我有一个spark ob,它正在计算来自jdbc(postgresql)和cassandra的一组Dataframe。然后,最终的rrd在hive上下文中注册为可诱惑的,以便稍后由嵌入式thrift服务器使用/服务。从现在起,外部应用程序将通过jdbc:hive从日志来看,到dbs的连接似乎已关闭/重新打开。有没有办法建立一个连接池?有人能举个好例子吗?谢谢!
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!