我在s3的一个桶里有多个数据。我试图在ec2示例中运行我的flink程序。我在ec2中有iam角色,能够从s3读取数据。但是当我运行程序时,我得到以下错误: Submitting job with JobID: 445b8130e310bcb791afff2301c40b16. Waiting for job completion. No JobSubmissionResult returned, please make sure you called ExecutionEnvironment.execute()
我的密码有 env.execute()
在节目的最后。我很确定它不能从s3获取/读取文件。我的代码如下所示: DataSet<Tuple2<String, String>> datalines=env.readCsvFile("s3://CopyOfData/Days/") .fieldDelimiter("|") .types(String.class, String.class);
请帮我怎么过来。我的flink-conf.yaml也有hadoop\u conf\u dir集。
1条答案
按热度按时间5q4ezhmt1#
我将首先检查jobmanager和taskmanager日志以寻找线索。您还可以查看aws上flink的常见问题列表。
也可能是您需要增加akka.client.timeout。看到这个问题了,但简而言之,试着添加
akka.client.timeout: 600 s
致flink-conf.yaml。