我想把文件从hdfs和保存到cassandra
import org.apache.spark.{SparkConf, SparkContext}
import com.datastax.spark.connector._
val conf = new SparkConf().setMaster("local[2]).setAppName("test")
.set("spark.cassandra.connection.host", "192.168.0.1")
val sc = new SparkContext(conf)
val files = sc.textFiles("hdfs://192.168.0.1:9000/test/", 1)
files.map(_.split("\n")).saveToCassandra("ks", "tb", SomeColumns("id", "time", "text"))
sc.stop()
但我不能写它cassandra因为例外
文件,因为files.foreach(x =〉println(x))可以正常工作
2条答案
按热度按时间gcxthw6b1#
据我所知,您可以进行以下更改
"希望能成功“
fwzugrvs2#
一个月一个月一个月一个月
}
}
i以这种方式写入文件