Apache Spark 如何在数据库中设置环境变量?

ryhaxcpt  于 2022-11-16  发布在  Apache
关注(0)|答案(2)|浏览(192)

这个问题很简单,但是我找不到一个简单的指南来指导如何在Databricks中设置环境变量。另外,在驱动程序和执行器上都设置环境变量是否重要(你会通过spark.conf来完成这个操作吗)?谢谢

w8ntj3qf

w8ntj3qf1#

创建前:

您可以在创建群集时设置环境变量。
单击高级选项=〉输入环境变量

创建后:

选择您的群集=〉单击编辑=〉高级选项=〉编辑或输入新的环境变量=〉确认并重新启动

您可以通过将我的环境变量声明附加到文件/databricks/spark/conf/spark-env. sh来获得所需的结果。您可以按如下所示更改init文件:

%scala
dbutils.fs.put("dbfs:/databricks/init/set_spark_params.sh","""
  |#!/bin/bash
  |
  |cat << 'EOF' > /databricks/driver/conf/00-custom-spark-driver-defaults.conf
  |[driver] {
  |  "spark.sql.sources.partitionOverwriteMode" = "DYNAMIC"
  |}
  |EOF
  """.stripMargin, true)

有关详细信息,请参阅“Databricks – Spark Configuration“。
希望这对你有帮助。

roejwanj

roejwanj2#

使用数据库群集策略配置。该配置将在策略选择期间自动添加环境变量。

spark_env_vars.MY_ENV_VAR: {
  "value":"2.11.2",
  "type": "fixed"
}

相关问题