Spark -Ubuntu VM-Java运行时环境的内存不足

dced5bon  于 2022-12-04  发布在  Apache
关注(0)|答案(2)|浏览(144)

我尝试在Ubuntu 14.04虚拟机上安装Spark1.5.1。解压缩文件后,我将目录更改为解压文件夹,并执行命令“./bin/pyspark”,这应该会启动pyspark shell。但我收到如下错误消息:

**[**OpenJDK 64位服务器VM警告:操作系统::提交内存(0x 0000000 c5550000,715849728,0)失败; error =“无法分配内存”(errno=12)内存不足,Java运行时环境无法继续。

本机内存分配(malloc)无法分配715849728字节用于提交保留内存。
包含更多信息的错误报告文件另存为:/主页/数据科学/spark-1.5.1-bin-Hadoop 2.6/hs_err_pid2750.log**]**
有人能给予我指点一下解决这个问题吗?

bkkx9g8r

bkkx9g8r1#

我们需要将conf/spark-defaults.conf文件中的spark.executor.memory设置为特定于您的计算机的值。例如,

usr1@host:~/spark-1.6.1$ cp conf/spark-defaults.conf.template conf/spark-defaults.conf
nano conf/spark-defaults.conf
spark.driver.memory              512m

有关详细信息,请参阅官方文档:http://spark.apache.org/docs/latest/configuration.html

q43xntqr

q43xntqr2#

和它说的差不多。它想要7 GB的RAM。所以给予VM ~ 8 GB的RAM。

相关问题