错误:找不到或加载主类rddbasics.CreatingSparkContextWithParkSession

t5zmwmid  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(366)



rddbasics包

import org.apache.spark.sql.SparkSession

object CreatingSparkContextWithSparkSession {
  def main(args: Array[String]): Unit = {

  val sparkSession = SparkSession.builder()
  .appName("Creating Spark context with spark session")
  .getOrCreate()

  val array = Array(1,2,3,4,5)

  val arrayRDD = sparkSession.sparkContext.parallelize(array, 1)
  arrayRDD.foreach(println)

我在eclipse中遇到了上述错误,有人能帮忙吗?

khbbv19g

khbbv19g1#

有问题吗 Scala version . 类内路径scala版本 2.12 &内部pom.xml scala版本 2.11 在类路径中将scala版本从2.12更改为2.11或
在pom.xml中,将scala版本2.11替换为2.12

相关问题