我正在尝试使用org.apache.hadoop.examples.wordcount为wordcount创建作业,但它显示了错误:
我附加了我的作业配置的图像,以及文件在我的bucket中的位置(我使用的是bucket而不是hdfs)
使用的作业配置:
文件存储在bucket中:
hadoop-mapreduce-examples.jar的uri:
使用上述配置时出现的错误:
作业输出:
驱动程序输出文件:
我正在尝试使用org.apache.hadoop.examples.wordcount为wordcount创建作业,但它显示了错误:
我附加了我的作业配置的图像,以及文件在我的bucket中的位置(我使用的是bucket而不是hdfs)
使用的作业配置:
文件存储在bucket中:
hadoop-mapreduce-examples.jar的uri:
使用上述配置时出现的错误:
作业输出:
驱动程序输出文件:
1条答案
按热度按时间agxfikkp1#
问题是,默认情况下,hadoop不会写入现有路径,除非明确要求使用“覆盖”模式。您有两种选择:
在运行示例之前删除输出路径
每次运行都使用另一个输出路径
一般来说,作业的输出可以在google云控制台中找到——在dataproc下查找“jobs”页面,或者在cluster页面下查找jobs选项卡。此外,如这里所示,输出保存到gcs,您可以随时从那里检索它。