我在Google Colab上遇到这个错误。是因为我使用了错误的版本吗?
ImportError: cannot import name 'VarcharType' from 'pyspark.sql.types' (/content/spark-3.1.2-bin-hadoop2.7/python/pyspark/sql/types.py)
rdrgkggo1#
这是因为VarcharType在spark 3.1.2中还不存在。__all__中pyspark.sql.types的源代码声明了可导入的唯一可用类型:
__all__
pyspark.sql.types
__all__ = [ "DataType", "NullType", "StringType", "BinaryType", "BooleanType", "DateType", "TimestampType", "DecimalType", "DoubleType", "FloatType", "ByteType", "IntegerType", "LongType", "ShortType", "ArrayType", "MapType", "StructField", "StructType" ]
因此,StringType是备选项:
StringType
from pyspark.sql.types import StringType
1条答案
按热度按时间rdrgkggo1#
这是因为VarcharType在spark 3.1.2中还不存在。
__all__
中pyspark.sql.types
的源代码声明了可导入的唯一可用类型:因此,
StringType
是备选项: