我下载了一个新的预构建spark for hadoop2.2文件。在这个文档之后,我想在我的单机上启动我的master。解压文件后,我进入sbin并启动master,但我面临一个奇怪的问题,下面是日志:
Spark Command: /Library/Java/JavaVirtualMachines/jdk1.7.0_55.jdk/Contents/Home/bin/java -cp :/opt/spark-0.9.0-incubating-bin-hadoop2/conf:/opt/spark-0.9.0-incubating-bin-hadoop2/assembly/target/scala-2.10/spark-assembly_2.10-0.9.0-incubating-hadoop2.2.0.jar -Dspark.akka.logLifecycleEvents=true -Djava.library.path= -Xms512m -Xmx512m org.apache.spark.deploy.master.Master --ip bogon --port 7077 --webui-port 8080
========================================
log4j:WARN No appenders could be found for logger (akka.event.slf4j.Slf4jLogger).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Exception in thread "main" org.jboss.netty.channel.ChannelException: Failed to bind to: bogon/125.211.213.133:7077
at org.jboss.netty.bootstrap.ServerBootstrap.bind(ServerBootstrap.java:272)
at akka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:391)
at akka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:388)
at scala.util.Success$$anonfun$map$1.apply(Try.scala:206)
那是什么 bogon
? ip 125.211.213.133(不是我的ip)从哪里来?有什么问题吗?
2条答案
按热度按时间xpszyzbs1#
“bogon”来自提供的命令行。您可能忘了替换参数
--ip
到主机的本地ip。使用sbin/start-master.sh时,如果未提供ip,则使用报告的机器主机名:
start-master.sh
```if [ "$SPARK_MASTER_IP" = "" ]; then
SPARK_MASTER_IP=
hostname
fi
cunj1qz12#
通过运行命令检查主机名
hostname
如果您是linux env。我认为125.211.213.133是bogon的ip,而您错误地将主机名设置为“bogon”。对于快速修复,可以运行命令
hostname localhost
再试一次。