导入错误:无法从“pyspark.sql.types”导入名称“VarcharType”

4szc88ey  于 2022-11-01  发布在  Spark
关注(0)|答案(1)|浏览(136)

我在Google Colab上遇到这个错误。是因为我使用了错误的版本吗?

ImportError: cannot import name 'VarcharType' from 'pyspark.sql.types' (/content/spark-3.1.2-bin-hadoop2.7/python/pyspark/sql/types.py)
rdrgkggo

rdrgkggo1#

这是因为VarcharType在spark 3.1.2中还不存在。
__all__pyspark.sql.types的源代码声明了可导入的唯一可用类型:

__all__ = [
    "DataType", "NullType", "StringType", "BinaryType", "BooleanType", "DateType",
    "TimestampType", "DecimalType", "DoubleType", "FloatType", "ByteType", "IntegerType",
    "LongType", "ShortType", "ArrayType", "MapType", "StructField", "StructType"
]

因此,StringType是备选项:

from pyspark.sql.types import StringType

相关问题