hiveserver2 dont start:“ascii codec cant encode character”

0yg35tkg  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(383)

我用namenode、secondary namenode和3个datanode创建了一个集群。我通过ambari+hue安装了hdp,现在我正在为hdfs、hive和hbase配置xa安全策略。它对每个组件都很好,除了Hive。问题是,当我将hive.security.authorization更改为true(在ambari->hive configs中)时,hiveserver2从一开始就失败了,出现了一个问题: File "/usr/lib/python2.6/site-packages/resource_management/core/providers/system.py", line 115, in action_create fp.write(content) UnicodeEncodeError: 'ascii' codec can't encode character u'\u2013' in position 990: ordinal not in range(128) 我试图编辑python文件,但是当我做任何更改时,它会变得更糟。它可能试图编码unicode字符使用错误的编解码器,并将其保存到文件中,但我是一个糟糕的程序员,我不知道如何正确地编辑它。我搞不清楚那个文件是什么,在哪里,里面有什么。
当我将安全授权设置为false时,服务器会启动,但会在3分钟内崩溃,并出现一个错误: 12:02:43,523 ERROR [pool-1-thread-648] JMXPropertyProvider:540 - Caught exception getting JMX metrics : Server returned HTTP response code: 500 for URL: http://localhost.localdomain:8745/api/cluster/summary 12:02:50,604 INFO [qtp677995254-4417] HeartBeatHandler:428 - State of service component HIVE_SERVER of service HIVE of cluster testING has changed from STARTED to INSTALLED at host localhost.localdomain 12:02:53,624 ERROR [pool-1-thread-668] JMXPropertyProvider:540 - Caught exception getting JMX metrics : Read timed out 有什么建议吗?先谢谢你。
@编辑这里是python中导致问题的代码行: fp.write(content) 我试图在结尾添加.decode(“utf-8”),但是: 'NoneType' object has no attribute 'decode' 发生

v8wbuo2f

v8wbuo2f1#

对于第一个问题,请尝试添加


# -*- coding: UTF-8 -*-

在你文件的第一行

相关问题