背景
我一直在为自己准备一个灵活的设置,以便在aws上使用带docker swarm模式的spark。我使用的docker映像被配置为使用最新的spark,它在hadoop2.7.3中的版本是2.1.0,可以在jupyter/pyspark笔记本上找到。
这是可行的,我刚刚经历了测试出各种连接路径,我计划使用。我遇到的问题是关于与s3交互的正确方式的不确定性。我跟踪了如何提供spark的依赖关系,以便使用 s3a
协议,vs s3n
协议。
我终于看到了hadoopaws指南,并认为我正在关注如何提供配置。然而,我仍然收到 400 Bad Request
这个问题描述了如何通过定义端点来修复它,我已经做过了。
结果我开了车,离标准配置太远了 us-east-2
,使我无法确定jar文件是否有问题。为了消除地区问题,我把事情重新安排在常规的 us-east-1
我终于可以和 s3a
. 所以我把问题缩小到这个地区,但我认为我在做其他地区所需要的一切。
问题
在spark中使用hadoop配置变量的正确方法是什么 us-east-2
?
注意:这个例子使用本地执行模式来简化事情。
import os
import pyspark
在创建上下文后,我可以在笔记本的控制台中看到这些下载,添加这些内容使我从完全崩溃到出现错误请求。
os.environ['PYSPARK_SUBMIT_ARGS'] = '--packages com.amazonaws:aws-java-sdk:1.7.4,org.apache.hadoop:hadoop-aws:2.7.3 pyspark-shell'
conf = pyspark.SparkConf('local[1]')
sc = pyspark.SparkContext(conf=conf)
sql = pyspark.SQLContext(sc)
对于aws配置,我尝试了下面的方法和上面的方法 conf
,做什么 conf.set(spark.hadoop.fs.<config_string>, <config_value>)
模式相当于我下面所做的,除了这样做这是我设置的值 conf
在创建spark上下文之前。
hadoop_conf = sc._jsc.hadoopConfiguration()
hadoop_conf.set("fs.s3.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem")
hadoop_conf.set("fs.s3a.endpoint", "s3.us-east-2.amazonaws.com")
hadoop_conf.set("fs.s3a.access.key", access_id)
hadoop_conf.set("fs.s3a.secret.key", access_key)
需要注意的是,我还尝试了 us-east-2
的 s3-us-east-2.amazonaws.com
.
然后我从s3中读取一些Parquet数据。
df = sql.read.parquet('s3a://bucket-name/parquet-data-name')
df.limit(10).toPandas()
同样,在将ec2示例移到us-east-1并注解掉endpoint配置之后,上面的方法对我来说很有用。对我来说,端点配置似乎出于某种原因没有被使用。
1条答案
按热度按时间nfeuvbwi1#
us-east-2是一个v4 auth s3示例,因此在进行调度时,必须设置fs.s3a.endpoint值。
如果它没有被拾取,那么假设您正在设置的配置不是用来访问bucket的配置。知道hadoop通过uri缓存文件系统示例,即使配置发生了变化。第一次尝试访问文件系统修复了config,即使它缺少身份验证细节。
一些策略
将该值设置为默认值
使用刚刚创建的配置,尝试通过调用
Filesystem.get(new URI("s3a://bucket-name/parquet-data-name", myConf)
将返回具有该配置的bucket(除非它已经存在)。我不知道怎么打电话进来。不过。设置属性
"fs.s3a.impl.disable.cache"
如果为true,则在执行get命令之前绕过缓存添加更多关于badauth错误的诊断,以及wiki页面,是s3a第三阶段的一个特性。如果您要添加它,以及一个测试,我可以查看它并将其加入