我试图了解spark如何与hdfs/hive配合使用。。
如果我使用hivecontext读取或写入配置单元,它会在hadoop集群端生成map reduce作业吗?
哪些资源(spark或hadoop)将用于执行hc.sql(****)上的语句;
SQLContext hc = new HiveContext(jssc.sparkContext());
Dataset<Row> df = hc.createDataFrame(schemaRDD, mySchema.class);
df.createOrReplaceTempView("myView");
hc.sql("SELECT * from HIVE_TABLE");
hc.sql("INSERT INTO ......"from myView");
暂无答案!
目前还没有任何答案,快来回答吧!