为spark中位置的内部表显示创建表

b1payxdu  于 2022-11-25  发布在  Apache
关注(0)|答案(1)|浏览(216)

当在hive中执行show create table时,我们在语句中为内部表和外部表都提供了location url。但是当通过spark(pyspark)执行相同的语句时,只有当表是外部表时,我们才有location。是否有任何设置也为内部表提供此location?
我想收集从onprem到databricks的所有表的create语句和位置。Databricks还显示内部表的create语句和位置。
我们可以从位置从desc表。但我想知道是否有调整有它在show create table
配置单元示例:

show create table db1.table1

在pyspark中:

createStatement = spark.sql("show create table db1.table1")

createStatement.show()
pwuypxnk

pwuypxnk1#

下面是scala spark的相关答案。
您也可以使用相同的方法,查询用于保存所有spark表信息的数据库(Spark Metastore)。
您还应该知道,默认情况下,内部数据库/表遵循以下format:(database是数据库的名称,tablename是表的名称。

hdfs:/hive/warehouse/directory/[database].db/[tablename]

相关问题