我尝试在Ubuntu 14.04虚拟机上安装Spark1.5.1。解压缩文件后,我将目录更改为解压文件夹,并执行命令“./bin/pyspark”,这应该会启动pyspark shell。但我收到如下错误消息:
**[**OpenJDK 64位服务器VM警告:操作系统::提交内存(0x 0000000 c5550000,715849728,0)失败; error =“无法分配内存”(errno=12)内存不足,Java运行时环境无法继续。
本机内存分配(malloc)无法分配715849728字节用于提交保留内存。
包含更多信息的错误报告文件另存为:/主页/数据科学/spark-1.5.1-bin-Hadoop 2.6/hs_err_pid2750.log**]**
有人能给予我指点一下解决这个问题吗?
2条答案
按热度按时间bkkx9g8r1#
我们需要将
conf/spark-defaults.conf
文件中的spark.executor.memory
设置为特定于您的计算机的值。例如,有关详细信息,请参阅官方文档:http://spark.apache.org/docs/latest/configuration.html
q43xntqr2#
和它说的差不多。它想要7 GB的RAM。所以给予VM ~ 8 GB的RAM。