启动hive和spark时没有合适的驱动程序发现错误

wtlkbnrh  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(363)

当我试图启动Hive或Spark我得到这个错误。

16/07/13 16:55:12 ERROR Schema: Failed initialising database.
No suitable driver found for jdbc:;derby;databaseName=metastore_db;create=true
org.datanucleus.exceptions.NucleusDataStoreException: No suitable driver found for jdbc:;derby;databaseName=metastore_db;create=true

我解决不了。有人能帮忙吗?

6uxekuva

6uxekuva1#

似乎没有在中设置配置单元库路径 spark-env.sh 文件。遵循以下步骤
复制 hive-site.xmlHIVE_HOME/confSPARK_HOME/conf 文件夹。
将配置单元库路径添加到中的类路径 SPARK_HOME/conf/spark-env.sh 重新启动spark cluster以使一切生效。
为了将mysql设置为hive metastore hive-site.xml 应设置以下属性:

<property>
     <name>javax.jdo.option.ConnectionURL</name>
     <value>jdbc:mysql://MYSQL_HOST:3306/hive_{version}</value>
     <description>JDBC connect string for a JDBC metastore</description>
    </property>
    <property>
     <name>javax.jdo.option.ConnectionDriverName</name>
     <value>com.mysql.jdbc.Driver</value>
     <description>Driver class name for a JDBC metastore/description>
    </property>
    <property>
     <name>javax.jdo.option.ConnectionUserName</name>
     <value>XXXXXXXX</value>
     <description>Username to use against metastore database/description>
    </property> 
    <property>
     <name>javax.jdo.option.ConnectionPassword</name>
     <value>XXXXXXXX</value>
     <description>Password to use against metastore database/description>
    </property>

如果这不能解决错误,请提供有关安装/配置您的环境所遵循的步骤的更多信息

相关问题