我正在尝试使用sbt使用spark/scala中的hbase,并按照说明将版本替换为1.2.1。但是,我的机器似乎无法解决依赖关系。
下面是我的.sbt/repositories文件:
[repositories]
local
sbt-releases-repo: http://repo.typesafe.com/typesafe/ivy-releases/, [organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext]
sbt-plugins-repo: http://repo.scala-sbt.org/scalasbt/sbt-plugin-releases/, [organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext]
maven-central: http://repo1.maven.org/maven2/
concurrent-maven: http://conjars.org/repo/
我使用的是intellij,它告诉我hbase仍然是一个未解析的依赖项,我在键入时看不到hbase org.apache.hadoop.
,应该出现在列表中。
我是否缺少回购或解决方案?
1条答案
按热度按时间nr9pn0ug1#
我想出来了:如果你可以使用chd或hdp版本中的一个,在我的例子中,这很好,因为我们使用hdp,那么你只需要在这里添加repos。
然后在
build.sbt
使用hadoop发行版的版本。如果您碰巧使用了vanilla hbase,那么您可能必须发布到本地repo。但我还没有选择。是的,我是对的:图书馆就在这里
org.apache.hadoop.hbase
.