pyspark 如何使用Spark JDBC删除Cassandra表?

35g0bw71  于 2023-02-07  发布在  Spark
关注(0)|答案(1)|浏览(203)

我正在编写一个基于Spark的应用程序,必须删除Cassandra DB中的一些表。
我知道如何用spark.read.format("jdbc")读取表。我知道如何用df.write.format("jbdc")保存 Dataframe 。
但是我怎么能删除一个我不再需要的表呢?

2uluyalo

2uluyalo1#

要删除一个Cassandra表,你可以简单地使用Spark SQL DROP TABLE命令:

spark.sql("DROP TABLE table_name")

注意API是有限的,所以我们一般建议使用Spark Cassandra connector,它是完全开源的,所以可以免费使用。
Spark Cassandra连接器是一个专为从Spark应用程序连接到Cassandra集群而设计的库。Cassandra表以 Dataframe 或RDD的形式公开,并且连接器还允许执行完整的CQL API。干杯!

相关问题