如何在spark shell(spark 2.1.1)中启用对spark的配置单元支持

qni6mghb  于 2021-06-26  发布在  Hive
关注(0)|答案(1)|浏览(451)

我正在尝试为spark shell中的spark对象启用配置单元支持,但它不起作用。我用的是hortonworks hdp。以下是我尝试启用配置单元支持时得到的结果:

scala> val spark3 = SparkSession.builder.enableHiveSupport.getOrCreate
17/10/24 21:30:28 WARN SparkSession$Builder: Using an existing SparkSession; some configuration may not take effect.
spark3: org.apache.spark.sql.SparkSession = org.apache.spark.sql.SparkSession@22f8be7c

scala> spark3.catalog
res3: org.apache.spark.sql.catalog.Catalog = org.apache.spark.sql.internal.CatalogImpl@49c13ecd
1mrurvl1

1mrurvl11#

在hdp中, spark-shell 已使用配置单元支持创建有效的sparksession。
你说得对 getOrCreate 已使用现有会话
你可以试试

spark.sql("show tables").show()

而且,你用的是 spark 而不是 spark3 ,所以不清楚是什么 spark.catalog 除了那个对象的tostring信息之外,还打算给你看别的

相关问题