如何使用StringIO(file.read())创建Spark框架

li9yvcax  于 2023-11-21  发布在  Apache
关注(0)|答案(1)|浏览(107)

我有一个非常简单的csv文件。通过以下方式将记录加载到pandas框架中非常容易。然而,我真正需要的是将其加载到spark框架中。
如何直接使用StringIO(f.read())将记录直接放入spark对象框架中,而不是将df_pandas转换为df_spark?
非常感谢您!

f = open("C:\\myfolder\\test.csv", "r")
df_pandas = pd.read_csv(StringIO(f.read()), sep=";")
#df_spark = spark.read.csv(StringIO(f.read()))  # this doesn't work
f.close()

字符串

vof42yt1

vof42yt11#

Spark SQL提供了spark.read().csv("filePath")来将CSV格式的文件或文件目录读取到Spark DataFrame中。
您需要将StringIO(f.read())的结果保存保存到一个文件中并获取它的路径。

相关问题