这是我的准则。
第一个
当我在笔记本电脑上添加spark_home时,代码工作正常,但我需要将其提取到docker环境中。
这是docker images --〉https://hub.docker.com/layers/gettyimages/spark/2.3.1-hadoop-3.0/images/sha256-0bc08017eb4da02b7d6260ca3e5fdff921944c4a598283f1787521c58cf368c6?context=explore注意(我使用的spark版本是2.3.1
即使我从不同的位置安装环境,它也应该是2.3.1版。)
1条答案
按热度按时间ctehm74n1#
您可以传递这个,但是我也建议升级Spark版本和Kafka依赖项,因为这可能是一个bug,因为RangeAssignor应该是默认的。
您也可以尝试在
PYSPARK_SUBMIT_ARGS
中包含较新版本的kafka-clients