pyspark mac nativecodeloader:无法为您的平台加载本机hadoop库在适用的情况下使用内置java类

dvtswwa3  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(294)

这会阻止pyspark在jupyter笔记本中正常运行。我知道本机hadoop库仅在*nix平台上受支持。该库不需要与cygwin或macosx平台一起工作。如何正确安装pyspark在我的jupyter笔记本上运行

unftdfkk

unftdfkk1#

下载hadoop二进制文件(link)并将其放在您的主目录中(如果您愿意,可以选择不同的hadoop版本并相应地更改下一步)
使用以下命令解压主目录中的文件夹。tar-zxvf hadoop文件名
现在将export hadoop\u home=~/hadoop-2.8.0添加到.bashrc文件中。打开新终端,然后重试。来源:在mac上安装pyspark

相关问题