这会阻止pyspark在jupyter笔记本中正常运行。我知道本机hadoop库仅在*nix平台上受支持。该库不需要与cygwin或macosx平台一起工作。如何正确安装pyspark在我的jupyter笔记本上运行
unftdfkk1#
下载hadoop二进制文件(link)并将其放在您的主目录中(如果您愿意,可以选择不同的hadoop版本并相应地更改下一步)使用以下命令解压主目录中的文件夹。tar-zxvf hadoop文件名现在将export hadoop\u home=~/hadoop-2.8.0添加到.bashrc文件中。打开新终端,然后重试。来源:在mac上安装pyspark
1条答案
按热度按时间unftdfkk1#
下载hadoop二进制文件(link)并将其放在您的主目录中(如果您愿意,可以选择不同的hadoop版本并相应地更改下一步)
使用以下命令解压主目录中的文件夹。tar-zxvf hadoop文件名
现在将export hadoop\u home=~/hadoop-2.8.0添加到.bashrc文件中。打开新终端,然后重试。来源:在mac上安装pyspark