Spark-SQL基于Cassandra数据分析编程实例

x33g5p2x  于2020-09-08 发布在 SparkSQL  
字(1.7k)|赞(0)|评价(0)|浏览(1211)

本文主要内容:

Spark对Canssandra数据库数据的处理,通过Spark SQL对结构化数据进行数据分析。

  • 创建Gradle项目,引入依赖
  • 创建Spark Session连接
  • 写入Cassandra数据库
  • 读取Cassandra数据库
  • Spark注册SQL 临时视图执行Distinct操作

完整源码Spark2Cassandra.java

完整项目源码

1 引入依赖

compile group: 'org.apache.spark', name: 'spark-core_2.11', version: '2.3.1'
compile group: 'org.apache.spark', name: 'spark-sql_2.11', version: '2.3.1'
compile group: 'com.datastax.spark', name: 'spark-cassandra-connector_2.11', version: '2.3.0'

2 创建Spark Session

SparkSession spark = SparkSession
        .builder()
        .appName("Java Spark SQL basic example")
//            .config("spark.some.config.option", "some-value")
        .config("spark.cassandra.connection.host", "192.168.56.110")
        .config("spark.cassandra.auth.username", "busuanzi")
        .config("spark.cassandra.auth.password", "busuanzi.org")
        .config("spark.cassandra.connection.port", "9042")
        .getOrCreate();

3 写入Cassandra数据库表

ds1.write()
        .format("org.apache.spark.sql.cassandra")
        .options(new HashMap<String, String>() {
            {
                put("keyspace", "busuanzi_org");
                put("table", "top_n_url");
            }
        }).mode("append").save();

查询Canssandra数据库

4 读取Cassandra数据库表

Dataset<Row> ds = spark.read()
        .format("org.apache.spark.sql.cassandra")
        .options(new HashMap<String, String>(){
            {
                put("keyspace", "busuanzi_org");
                put("table", "top_n_url");
            }
        }).load();
ds.show();

5 Spark SQL Distinct去重

将ds DataFrame注册为SQL临时视图

ds.createOrReplaceTempView("dsv");

Spark SQL去重

ds.select("username", "projects", "comment").distinct().show();

完整源码Spark2Cassandra.java

完整项目源码

6 在IDEA运行项目设置

源码获取 https://github.com/lycheeman/big-data

相关文章