名称为hive.files.umask.value的hiveconf不存在

lb3vh1jj  于 2021-06-28  发布在  Hive
关注(0)|答案(1)|浏览(397)

当我执行一个sql脚本时。我有倾斜数据问题,所以我试着设置 hive.groupby.shewindata 参数进行优化,如下所示
设置hive.groupby.shewindata=true;
我的hql在这里。。。
配置单元版本:v2.0.0
hadoop版本:v2.4.0
尝试时,出现以下错误:
slf4j:类路径包含多个slf4j绑定。slf4j:在中找到绑定[jar:file:/home/www/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar/org/slf4j/impl/staticloggerbinder.class]slf4j:在中找到绑定[jar:file:/home/www/spark-sql-hzsearch/lib/spark-assembly-1.5.1-hadoop2.6.0.jar/org/slf4j/impl/staticloggerbinder.class]slf4j:请参阅http://www.slf4j.org/codes.html#multiple_bindings 为了解释。slf4j:实际绑定的类型为[org.slf4j.impl.log4jloggerfactory]slf4j:类路径包含多个slf4j绑定。slf4j:在中找到绑定[jar:file:/home/www/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar/org/slf4j/impl/staticloggerbinder.class]slf4j:在中找到绑定[jar:file:/home/www/spark-sql-hzsearch/lib/spark-assembly-1.5.1-hadoop2.6.0.jar/org/slf4j/impl/staticloggerbinder.class]slf4j:请参阅http://www.slf4j.org/codes.html#multiple_bindings 为了解释。slf4j:实际绑定的类型为[org.slf4j.impl.log4jloggerfactory]2016-12-28 21:07:10902 warn[main]conf.hiveconf(hiveconf)。java:initialize(2753))-名称为hive.files.umask.value的hiveconf不存在
使用中的配置初始化日志记录jar:file:/home/www/hive/lib/hive-common-1.2.0.jar/hive-log4j.properties确定所用时间:0.502秒查询返回非零代码:1,原因:配置单元配置hive.groupby.shewindata不存在。
你知道为什么会出现这个错误吗?

izj3ouym

izj3ouym1#

正确的句子是:

set hive.groupby.skewindata= true;

https://cwiki.apache.org/confluence/display/hive/configuration+properties

相关问题