pyspark 如何防止双引号在开始和结束的DAT文件,而写一个PandasDF使用to_csv()?

oknwwptz  于 2022-11-21  发布在  Spark
关注(0)|答案(1)|浏览(151)

我的PandasDF包含大量的数据,并给出文件名与'.DAT'扩展名(客户端要求)和使用to_csv()写数据。
在记事本或任何其他文本查看器中打开文件时,在文件的开头和结尾看到双引号:

" col1|Col2|Col3
  D1|D2|D3
... So On 
  D1n|D2n|D3n "

如何在将 Dataframe 写入CSV文件时删除这些双引号?
我尝试引用,引用to_csv,replace函数中参数请建议任何参数组合以消除此问题

fslejnso

fslejnso1#

要写入CSV文件,你通常会这样做。通常,默认情况下,这不会在文件中给予你引号。

import pandas as pd

df = pd.read_csv('path\to\source_folder\input.dat')

df.to_csv('path\to\folder\s.dat')

我们能看一下《守则》的样本吗?

相关问题