docker容器

aelbi1ox  于 2021-05-19  发布在  Spark
关注(0)|答案(0)|浏览(387)

我正在尝试使用main.py在emr上运行python容器 spark-submit --master yarn --deploy-mode cluster --conf spark.executorEnv.YARN_CONTAINER_RUNTIME_TYPE=docker --conf spark.executorEnv.YARN_CONTAINER_RUNTIME_DOCKER_IMAGE=$DOCKER_IMAGE_NAME --conf spark.yarn.appMasterEnv.YARN_CONTAINER_RUNTIME_TYPE=docker --conf spark.yarn.appMasterEnv.YARN_CONTAINER_RUNTIME_DOCKER_IMAGE=$DOCKER_IMAGE_NAME --num-executors 2 main.py -v 命令

from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("docker-numpy").getOrCreate()
sc = spark.sparkContext
import numpy as np
a = np.arange(15).reshape(3, 5)
print(a)
import sys
print("Python version")
print (sys.version)
print("Version info.")
print (sys.version_info)

这是我的main.py和dockerfile

FROM amazoncorretto:8
RUN yum -y update
RUN yum -y install yum-utils
RUN yum -y groupinstall development
RUN yum list python3*
RUN yum -y install python3 python3-dev python3-pip python3-virtualenv
RUN python -VRUN python3 -V
ENV PYSPARK_DRIVER_PYTHON python3
ENV PYSPARK_PYTHON python3
RUN pip3 install --upgrade pip
RUN pip3 install numpy pandas
RUN python3 -c "import numpy as np"

执行结果给了我python版本3.7.8,它不是容器的python版本,而是我机器的python版本,我也尝试在代码中导入pandas,但是得到了一个错误,我不知道为什么它没有使用我的docker images环境

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题