使用mongodb hadoop驱动程序创建配置单元表

sbtkgmzw  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(403)

我正在尝试使用wiki站点上提供的驱动程序(jars)从配置单元数据库连接到mongodb中的集合。以下是我所做的步骤:-
我在mongodb的“moe”数据库下创建了一个名为“diamond”的集合,它有20个文档:
我想通过hadoopmongodb驱动程序从hive连接,并通过hive查看这些文档。
我已经将mongodb和hive安装在同一台服务器上并进行了配置。然而,我没有看到任何变量称为Hive,我想知道它在哪里。

So I installed 3 divers on the server: -
mongo-hadoop-core-1.5.2.jar;
mongo-hadoop-hive-1.5.2.jar;
mongo-java-driver-3.0.0.jar;

现在,我连接到hive,然后通过以下命令将这两个jar添加到我的类路径:-(它们被成功添加)

add jar /hadoopgdc/hadoop-2.6.0/share/hadoop/common/lib/mongo-hadoop-hive-1.5.2.jar;
add jar /hadoopgdc/hadoop-2.6.0/share/hadoop/common/lib/mongo-hadoop-core-1.5.2.jar;
add jar /hadoopgdc/hadoop-2.6.0/share/hadoop/common/lib/mongo-java-driver-3.0.0.jar;

现在我在配置单元中创建一个表:-

CREATE TABLE Diamond
(
carat    DOUBLE,
cut      STRING,
color    STRING,
clarity  STRING,
depth    DOUBLE,
table    DOUBLE,
price    DOUBLE,
xcord    DOUBLE,
ycord    DOUBLE,
zcord    DOUBLE
)
STORED BY 'com.mongodb.hadoop.hive.MongoStorageHandler'
WITH SERDEPROPERTIES('mongo.columns.mapping'='{"carat":"carat","cut":"cut",                 
"color":"color", "clarity":"clarity", "depth":"depth", "table":"table", 
"price":"price", "xcord":"x", "ycord":"y", "zcord":"z"}')
TBLPROPERTIES('mongo.uri'='mongodb://localhost:27017/Moe.Diamond');

However when I execute the above command in Hive I get the error below: -

java.lang.NoClassDefFoundError: com/mongodb/util/JSON
    at com.mongodb.hadoop.hive.BSONSerDe.initialize(BSONSerDe.java:110)
    at     org.apache.hadoop.hive.metastore.MetaStoreUtils.getDeserializer(MetaStoreUtils.java:210)
    at org.apache.hadoop.hive.ql.metadata.Table.getDeserializerFromMetaStore(Table.java:268)
    at org.apache.hadoop.hive.ql.metadata.Table.getDeserializer(Table.java:261)
    at org.apache.hadoop.hive.ql.metadata.Table.getCols(Table.java:587)
    at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:573)
    at org.apache.hadoop.hive.ql.exec.DDLTask.createTable(DDLTask.java:3784)
    at org.apache.hadoop.hive.ql.exec.DDLTask.execute(DDLTask.java:256)
    at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:155)
    at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57)
    at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1355)
    at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1139)
    at org.apache.hadoop.hive.ql.Driver.run(Driver.java:945)
    at org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:259)
    at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:216)
    at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:413)
    at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:756)
    at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:614)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
    at  sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
    Caused by: java.lang.ClassNotFoundException: com.mongodb.util.JSON
    at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
    ... 23 more
    FAILED: Execution Error, return code -101 from 
   org.apache.hadoop.hive.ql.exec.DDLTask

我尝试了以下方法:-将jar放在每个可能的目录中,但没有效果-应该缺少的类几乎存在于jar文件中。-哦,是的,mongostragehandler类就在jar里。
我已经受够了!!如果有人能告诉我该怎么做来减轻我的焦虑,那就太好了。
再次感谢。马里奥

i7uaboj4

i7uaboj41#

我确定了问题所在。为了从hive连接到mongodb,mongodb驱动程序使用调用hivejar库中的java类**
java.lang.classnotfoundexception:org.apache.hadoop.hive.ql.hooks.preexecuteprinter

**现在这个类应该在jar文件hive-exec-0.11.0.1.3.2.0-111.jar中找到。但是,它仅在较新版本的hive中可用,而不在较旧版本中可用。

在0.11.0.1.3.2.0-111中不可用,但在0.13.0.2.1.7.0-784中可明显检测到。
这里的解决方案是连接到驱动程序支持的配置单元版本。mongodb确实声明其驱动程序支持特定版本的hadoop,但没有深入到单个应用程序(hive/sqoop)。

相关问题