spark context抛出“error:需要标识符,但找到“[”

disho6za  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(319)

我正在读一本书,上面说我应该会打字 sc.[\t] 得到回应。我看到的是。。。

scala> sc.[\t]
<console>:1: error: identifier expected but '[' found.
       sc.[\t]
          ^
<console>:1: error: identifier expected but ']' found.
       sc.[\t]

这是spark 1.6.1与hadoop 2.7.2的连接
这个 sc 命令似乎起作用了。。。

scala> sc
res1: org.apache.spark.SparkContext = org.apache.spark.SparkContext@3cead673

p、 我这辈子从没用过scala。

uxhixvfz

uxhixvfz1#

我想作者的意思是

scala> sc

当你按下 tab ,你得到

scala> sc
sc       scala    schema

相关问题