将文件导入databricks笔记本时出现问题

deikduxw  于 2021-05-24  发布在  Spark
关注(0)|答案(1)|浏览(675)

我正在尝试将一个.txt文件从本地计算机导入databricks笔记本(scala)。我进入数据部分并单击“添加数据”。在顶部面板中选择“上传文件”选项,我单击“浏览”找到文件,然后单击“在笔记本中创建表”。然后我得到一个文件的路径,但是当我试图通过命令“val file\u location=”/filestore/tables/…txt“访问另一个笔记本中的数据时,我得到一个“java.io.filenotfoundexception:/filestore/tables/…txt(没有这样的文件或目录)”。有人知道我做错了什么,我应该怎么做吗?
谨致问候

a0zr77ik

a0zr77ik1#

格式应为 text ,不是 txt . 请参阅文档:

scala> val df = spark.read.format("text").load("README.md")
df: org.apache.spark.sql.DataFrame = [value: string]

scala> df.count
res0: Long = 104

或者你可以用 spark.read.textFile 真正快捷的功能:

scala> spark.read.textFile("README.md").count
res1: Long = 104

相关问题