无法启动主程序和从程序,日志中有一个奇怪的名字叫“bogon”

wz3gfoph  于 2021-06-02  发布在  Hadoop
关注(0)|答案(2)|浏览(350)

我下载了一个新的预构建spark for hadoop2.2文件。在这个文档之后,我想在我的单机上启动我的master。解压文件后,我进入sbin并启动master,但我面临一个奇怪的问题,下面是日志:

Spark Command: /Library/Java/JavaVirtualMachines/jdk1.7.0_55.jdk/Contents/Home/bin/java -cp :/opt/spark-0.9.0-incubating-bin-hadoop2/conf:/opt/spark-0.9.0-incubating-bin-hadoop2/assembly/target/scala-2.10/spark-assembly_2.10-0.9.0-incubating-hadoop2.2.0.jar -Dspark.akka.logLifecycleEvents=true -Djava.library.path= -Xms512m -Xmx512m org.apache.spark.deploy.master.Master --ip bogon --port 7077 --webui-port 8080
========================================

log4j:WARN No appenders could be found for logger (akka.event.slf4j.Slf4jLogger).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Exception in thread "main" org.jboss.netty.channel.ChannelException: Failed to bind to: bogon/125.211.213.133:7077
    at org.jboss.netty.bootstrap.ServerBootstrap.bind(ServerBootstrap.java:272)
    at akka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:391)
    at akka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:388)
    at scala.util.Success$$anonfun$map$1.apply(Try.scala:206)

那是什么 bogon ? ip 125.211.213.133(不是我的ip)从哪里来?有什么问题吗?

xpszyzbs

xpszyzbs1#

“bogon”来自提供的命令行。您可能忘了替换参数 --ip 到主机的本地ip。
使用sbin/start-master.sh时,如果未提供ip,则使用报告的机器主机名: start-master.sh ```
if [ "$SPARK_MASTER_IP" = "" ]; then
SPARK_MASTER_IP=hostname
fi

如果报告的主机名不正确,可以通过设置env变量为spark提供is-ip。 `SPARK_MASTER_IP=172.17.0.1 start-master.sh` 
cunj1qz1

cunj1qz12#

通过运行命令检查主机名 hostname 如果您是linux env。我认为125.211.213.133是bogon的ip,而您错误地将主机名设置为“bogon”。
对于快速修复,可以运行命令 hostname localhost 再试一次。

相关问题