当我想运行sparkpi示例时,我遇到了这个错误。
beyhan@beyhan:~/spark-1.2.0-bin-hadoop2.4$ /home/beyhan/spark-1.2.0-bin-hadoop2.4/bin/spark-submit --master ego-client --class org.apache.spark.examples.SparkPi /home/beyhan/spark-1.2.0-bin-hadoop2.4/lib/spark-examples-1.jar
Spark assembly has been built with Hive, including Datanucleus jars on classpath
Error: Master must start with yarn, spark, mesos, or local
Run with --help for usage help or --verbose for debug output
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
我已经通过另一个终端启动了我的主程序
>./sbin/start-master.sh
starting org.apache.spark.deploy.master.Master, logging to /home/beyhan/spark-1.2.0-bin-hadoop2.4/sbin/../logs/spark-beyhan-org.apache.spark.deploy.master.Master-1-beyhan.out
有什么建议吗?谢谢。
2条答案
按热度按时间but5z9lq1#
下载并提取spark:
启动主机:
从上面命令打印的文件中的日志中查找主机的url。假设master是:
spark://ego-server:7077
在这种情况下,您还可以通过访问以下url找到主url:http://localhost:8080/启动一个从机,并将其连接到主机:
另一种确保主机启动并运行的方法是启动绑定到该主机的shell:
如果你有一个Spark壳,那么一切似乎都很好。
现在执行作业:
ars1skjm2#
你得到的错误
错误:主控必须从Yarn、Spark、mesos或本地开始
意思是
--master ego-client
Spark无法识别。使用
对于Spark或