这个问题很简单,但是我找不到一个简单的指南来指导如何在Databricks中设置环境变量。另外,在驱动程序和执行器上都设置环境变量是否重要(你会通过spark.conf来完成这个操作吗)?谢谢
w8ntj3qf1#
创建前:
您可以在创建群集时设置环境变量。单击高级选项=〉输入环境变量。
创建后:
选择您的群集=〉单击编辑=〉高级选项=〉编辑或输入新的环境变量=〉确认并重新启动。
或
您可以通过将我的环境变量声明附加到文件/databricks/spark/conf/spark-env. sh来获得所需的结果。您可以按如下所示更改init文件:
%scala dbutils.fs.put("dbfs:/databricks/init/set_spark_params.sh",""" |#!/bin/bash | |cat << 'EOF' > /databricks/driver/conf/00-custom-spark-driver-defaults.conf |[driver] { | "spark.sql.sources.partitionOverwriteMode" = "DYNAMIC" |} |EOF """.stripMargin, true)
有关详细信息,请参阅“Databricks – Spark Configuration“。希望这对你有帮助。
roejwanj2#
使用数据库群集策略配置。该配置将在策略选择期间自动添加环境变量。
spark_env_vars.MY_ENV_VAR: { "value":"2.11.2", "type": "fixed" }
2条答案
按热度按时间w8ntj3qf1#
创建前:
您可以在创建群集时设置环境变量。
单击高级选项=〉输入环境变量。
创建后:
选择您的群集=〉单击编辑=〉高级选项=〉编辑或输入新的环境变量=〉确认并重新启动。
或
您可以通过将我的环境变量声明附加到文件/databricks/spark/conf/spark-env. sh来获得所需的结果。您可以按如下所示更改init文件:
有关详细信息,请参阅“Databricks – Spark Configuration“。
希望这对你有帮助。
roejwanj2#
使用数据库群集策略配置。该配置将在策略选择期间自动添加环境变量。