Spark cassandra连接器出现编译错误

r3i60tvu  于 2022-11-05  发布在  Cassandra
关注(0)|答案(1)|浏览(100)

我尝试用CassandraConnector在scala bean上MapRow,如下所示:

object AttachBookingToEventSparkJob {
   def main(args: Array[String]): Unit = {
      val conf = new SparkConf(true).setAppName(appName)
      val sc = new SparkContext(conf)
      val jobParameterTable = sc.cassandraTable[SparkJobMapper](keyspace, JOB_TABLE_NAME)

   }

   case class SparkJobMapper(val col1: String, val col2:String)

 }

这很管用。
但是,如果我尝试外部化类***SparkJobMapper***(在同一个包中),则会出现以下错误:

error: No RowReaderFactory can be found for this type
 [INFO]     val jobParameterTable = sc.cassandraTable[SparkJobMapper]
 (keyspace, JOB_TABLE_NAME)

有什么想法吗?

yhuiod9q

yhuiod9q1#

好吧,这是一个愚蠢的错误。忘记在我的类声明中添加***case***关键字。

相关问题