在spark中有一个函数 input_file_name
我可以使用它为每一行创建一个具有路径/文件名的新列。
df.withColumn("path", f.input_file_name())
我有一个数据集,其中他们已经嵌入了mac地址文件名,而它并没有出现在实际的内容中,所以我需要从文件名中提取mac地址并嵌入到内容中。
有没有办法达到spark的行为 input_file_name
在Flink?我对将它与flink表sql一起使用特别感兴趣。
在spark中有一个函数 input_file_name
我可以使用它为每一行创建一个具有路径/文件名的新列。
df.withColumn("path", f.input_file_name())
我有一个数据集,其中他们已经嵌入了mac地址文件名,而它并没有出现在实际的内容中,所以我需要从文件名中提取mac地址并嵌入到内容中。
有没有办法达到spark的行为 input_file_name
在Flink?我对将它与flink表sql一起使用特别感兴趣。
暂无答案!
目前还没有任何答案,快来回答吧!