你们能帮我回答下面的问题吗。。。
我有一个talend bigdata批处理作业(spark),如下所示
toracleinput--->tmap-->tavrooutput输出
我可以使用spark配置中的development hadoop存储库连接成功地运行此作业。但是,当我用上下文变量替换spark配置并在运行时传递它们时,则作业没有运行。。所以我发现了一个问题,当我使用存储库连接时,talend正在job libraries文件夹中构建一个jar文件,比如“hadoop conf-”,这个jar文件是haivng所有hadoop配置文件,比如(core site.xml、hive site.xml、mapred site.xml、yarn site.xml…等等)
那么现在如何在运行时传递这些属性呢?这样,我的工作可以运行在预生产或生产没有任何变化,通过泰伦德持续集成。
吉拉url:- https网址:jira.talendforge.org/browse/tup-16698
暂无答案!
目前还没有任何答案,快来回答吧!