apache ranger无法通过spark sql连接到配置单元

bis0qfac  于 2021-06-26  发布在  Hive
关注(0)|答案(0)|浏览(607)

我们有一个apache ranger 1.0.0的工作安装。我们在配置单元表上设置了配置单元服务并定义了策略来限制访问。此配置单元服务正在使用端口为10000(默认端口)的jbdc连接字符串。它工作得很好。
我们尝试为spark sql设置ranger。使用链接
https://www.mail-archive.com/user@ranger.incubator.apache.org/msg00799.html
但是当我试图点击RangerUI中的“testconnection”按钮时,它把我抛出了下面的错误。

当我点击“显示更多”按钮时,它给出了这个错误

org.apache.ranger.plugin.client.HadoopException: Unable to connect to Hive Thrift Server instance.. 
Unable to connect to Hive Thrift Server instance.. 
Could not open client transport with JDBC Uri: jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Could not establish connection to jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}). 
Could not establish connection to jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}). 
Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}).

我们正在使用配置单元版本-apache-hive-2.3.2.5。
然而,当通过spark\u home/bin/beeline进行连接时,或者通过任何具有相同jdbc连接字符串的sql客户机(我们在ranger服务中使用的连接字符串)进行连接时,spark sql工作正常。
任何指针都会非常有用。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题