在foundry中安装与pyspark相关的jar包

31moq8wy  于 2021-05-24  发布在  Spark
关注(0)|答案(2)|浏览(460)

我们想安装Spark炼金术使用它在pyspark内部铸造(我们想使用他们的hyperloglog功能)。虽然我知道如何安装pip包,但我不确定安装这种包需要什么。
任何帮助或与Pypark使用hyperloglog相关的替代解决方案都将不胜感激,谢谢!

lnvxswe2

lnvxswe21#

foundry中的pyspark转换存储库连接到conda。你可以用 coda_recipe/meta.yml 将包拉入转换。如果您想要的软件包在您的频道中不可用,我建议您联系您的管理员,询问是否可以添加它。添加扩展spark的自定义jar需要您的平台管理员进行检查,因为这可能会带来安全风险。
我做了一个 $ conda search spark-alchemy 找不到任何相关的东西,看了这些说明https://github.com/swoop-inc/spark-alchemy/wiki/spark-hyperloglog-functions#python-它让我猜测没有康达软件包可用。

exdqitrt

exdqitrt2#

我不能评论这个特定库的使用,但一般来说,foundry支持conda通道,如果您有conda repo并配置foundry连接到该通道,您可以添加这个库或其他库并在代码中引用它们。

相关问题