我正在用python语言读取hdfs中的文件。
每个文件都有一个头,我正在尝试合并这些文件。但是,每个文件中的头也会合并。
有没有办法跳过第二个文件的头文件?
hadoop = sc._jvm.org.apache.hadoop
conf = hadoop.conf.Configuration()
fs = hadoop.fs.FileSystem.get(conf)
src_dir = "/mnt/test/"
out_stream = fs.create(hadoop.fs.Path(dst_file), overwrite)
files = []
for f in fs.listStatus(hadoop.fs.Path(src_dir)):
if f.isFile():
files.append(f.getPath())
for file in files:
in_stream = fs.open(file)
hadoop.io.IOUtils.copyBytes(in_stream, out_stream, conf, False)
目前我已经用下面的逻辑解决了这个问题,不过想知道有没有更好更有效的解决方案?谢谢你的帮助
for idx,file in enumerate(files):
if debug:
print("Appending file {} into {}".format(file, dst_file))
# remove header from the second file
if idx>0:
file_str = ""
with open('/'+str(file).replace(':',''),'r+') as f:
for idx,line in enumerate(f):
if idx>0:
file_str = file_str + line
with open('/'+str(file).replace(':',''), "w+") as f:
f.write(file_str)
in_stream = fs.open(file) # InputStream object and copy the stream
try:
hadoop.io.IOUtils.copyBytes(in_stream, out_stream, conf, False) # False means don't close out_stream
finally:
in_stream.close()
1条答案
按热度按时间6yt4nkrj1#
您现在所做的是重复附加到字符串。这是一个相当缓慢的过程。为什么不在读取时直接写入输出文件?
如果可以一次加载所有文件,还可以使用跳过第一行
readline
然后readlines
: