我想在Databricks init脚本中定义一个环境变量,然后在Pyspark notebook中读取它。我这样写道:
dbutils.fs.put("/databricks/scripts/initscript.sh","""
#!/bin/bash
export env="dev"
pip install pretty-html-table==0.9.14
""", True)
字符串
pyspark代码:
import os
environment=os.getenv("env")
型
它给出:
TypeError: can only concatenate str (not "NoneType") to str
型
但Pyspark notebook无法正确读取环境变量
有办法解决吗?
1条答案
按热度按时间gt0wga4j1#
您不能使用普通的
export
,因为该变量只能用于init脚本子进程。相反,请在init脚本中使用以下行来全局设置环境变量:
字符串
这将写入集群的
environment
文件,该文件从集群上的任何子进程读取。如果您需要管理员权限来编辑目标文件,您可以使用以下命令:
型