开发者社区> 问答> 正文

Spark-Scala build.sbt libraryDependencies UnresolvedDependency

我正在尝试从我的build.sbt文件中导入依赖项 https://github.com/dmarcous/spark-betweenness

当我将鼠标悬停在错误上时,它说:

表达式类型ModuleID必须向SBT文件中的Def.SettingsDefinition确认
Unresolved Dependency

展开
收起
社区小助手 2018-12-19 16:52:27 2432 0
2 条回答
写回答
取消 提交回答
  • 我们团队
    42c839c084dc4383ac55a526b0f3b134_a5e313c1c38844a29f2cb3b8508524ca.jpg

    2019-07-17 23:23:03
    赞同 展开评论 打赏
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    目前还不清楚你的构建配置是怎样的,但是下面的build.sbt工作(从某种意义上说它编译并没有显示你提到的错误):

    name := "test-sbt"

    organization := "whatever"

    version := "1.0.0"

    scalaVersion := "2.10.7"

    libraryDependencies += "com.centrality" %% "spark-betweenness" % "1.0.0"
    或者,如果您有多项目构建,它可能如下所示:

    lazy val root = project
    .settings(

    name := "test-sbt",
    organization := "whatever",
    version := "1.0.0",
    scalaVersion := "2.10.7",
    libraryDependencies += "com.centrality" %% "spark-betweenness" % "1.0.0"

    )
    但是,您可能会发现它仍然无法正常工作,因为它无法解决此依赖关系。实际上,这个库在Maven Central和jcenter中似乎都不可用。它也很老 - 它似乎只针对Scala 2.10和一个非常古老的Spark版本(1.5)发布,所以很可能你将无法在最近的Spark环境(2.x和Scala 2.11)中使用它。

    2019-07-17 23:23:03
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Just Enough Scala for Spark 立即下载
Monitoring the Dynamic Resource Usage of Scala and Python Spark Jobs in Yarn 立即下载
Build Your Next Apache Spark Job in .NET Using Mobius 立即下载