为了从amazons3读/写数据,我在用sparkr配置hadoop时遇到了一些问题。
例如,这些是在pyspark中工作的命令(用于解决相同的问题):
sc._jsc.hadoopConfiguration().set("fs.s3n.impl","org.apache.hadoop.fs.s3native.NativeS3FileSystem")
sc._jsc.hadoopConfiguration().set("fs.s3n.awsAccessKeyId", "myaccesskey")
sc._jsc.hadoopConfiguration().set("fs.s3n.awsSecretAccessKey", "mysecretaccesskey")
sc._jsc.hadoopConfiguration().set("fs.s3n.endpoint", "myentrypoint")
有人能帮我解决这个问题吗?
2条答案
按热度按时间g6baxovj1#
可以通过使用
callJMethod
(https://github.com/apache/spark/blob/master/r/pkg/r/backend.r#l31)更新:
hadoopConfiguration
不适合我:conf
不过很管用-大概是在某个时候变了。eoigrqb62#
你可以设置
在core-site.xml(Yarn配置)中