当我试图在pyspark中将Dataframe保存为配置单元表时
df_writer.saveAsTable('hive_table', format='parquet', mode='overwrite')
我收到以下错误:
原因:org.apache.hadoop.mapred.invalidinputexception:输入路径不存在:hdfs://hostname:8020/apps/hive/warehouse/testdb.db/hive\ table位于org.apache.hadoop.mapred.fileinputformat.singlethreadedliststatus(fileinputformat)。java:287)在org.apache.hadoop.mapred.fileinputformat.liststatus(fileinputformat。java:229)
我有路走到'hdfs://hostname:8020/apps/hive/warehouse/testdb.db/'
请提供您的意见
1条答案
按热度按时间nx7onnlm1#
尝试将dataframewriter用作