我遵循apache spark的文档并进行了所有必要的配置更改,但在运行spark submit时,出现以下错误:
Exception encountered while connecting to the server : java.lang.IllegalArgumentException: Failed to specify server's Kerberos principal name
如果能得到任何帮助,我将不胜感激。
这是我的配置:
## Begin Kerberos configuration in spark-defaults.conf
spark.history.kerberos.enabled true
spark.history.kerberos.principal spark/${HOSTNAME}@<REALM>
spark.history.kerberos.keytab ${KEYTAB_HOME}/spark_svc_principal.keytab
spark.yarn.keytab ${KEYTAB_HOME}/hadoop.keytab
spark.yarn.principal hadoop/${HOSTNAME}@<REALM>
spark.yarn.kerberos.relogin.period 1m
## End Kerberos configuration in spark-defaults.conf
## Begin Kerberos configuration in hive-site.xml
<property>
<name>hive.metastore.kerberos.principal</name>
<value>hadoop/_HOST@REALM</value>
</property>
<property>
<name>hive.metastore.sasl.enabled</name>
<value>true</value>
</property>
<property>
<name>hive.metastore.kerberos.keytab.file</name>
<value>${KEYTAB_HOME}/hadoop.keytab</value>
</property>
<property>
<name>hive.server2.authentication</name>
<value>KERBEROS</value>
</property>
<property>
<name>hive.server2.authentication.kerberos.principal</name>
<value>hadoop/_HOST@REALM</value>
</property>
<property>
<name>hive.server2.authentication.kerberos.keytab</name>
<value>${KEYTAB_HOME}/hadoop.keytab</value>
</property>
<property>
<name>hive.server2.enable.doAs</name>
<value>true</value>
</property>
## End Kerberos configuration in hive-site.xml
I am not sure if I got this right.
以下是我要提出的论点:
"SPARK_SUBMIT_OPTS='-Xmx4g' \
${SPARK_HOME}/sbin/start-thriftserver.sh \
--executor-memory 5g \
--driver-cores 4 \
--num-executors 15"
1条答案
按热度按时间woobm2wo1#
好的,下面的方法可以解决你的问题,
KERBEROS_KEYTAB_PATH=/home/user/user.keytab
以及KERBEROS_PRINCIPAL=user@NAME.COM
.方法1:使用kinit命令
第1步:扭结并继续spark submit
第二步:跑步
klist
并验证kerberization对登录用户是否正常工作。步骤3:用spark会话替换spark代码
第4步:运行spark submit,如下所示。
编辑1: