用Intellij idea 编写Scala程序Spark2.0.0 依赖jar包如何解决 20

Spark2.0.0目录下没有lib目录也没有spark-assembly*.jarSpark1.6.2可以直接导入spark-assembly-1.6.2-hadoop... Spark2.0.0目录下没有lib目录也没有spark-assembly*.jarSpark1.6.2 可以直接导入spark-assembly-1.6.2-hadoop2.6.0.jar包 展开
 我来答
john665544
2017-05-03
知道答主
回答量:1
采纳率:0%
帮助的人:1000
展开全部
在“File|Project Structure|Libraries”窗体中点击绿色+号,选择“Java”,在弹出的窗体中选择“Spark”的安装目录,定位到Spark\jars目录,点击“OK”,把全部jar文件引入到项目中。网上和目前出版的书中讲解是spark2.0以下版本,采用的是把sparkle核心文件(如:“spark-assembly-1.3.0-hadoop2.4.0.jar”)拷贝到Interllij IDEA安装目录下的Lib目录下,再使用Spark。由于Spark2.1.0已经取消了该文件,因此无法用原先的方法。
huyaya323425
2017-04-24
知道答主
回答量:1
采纳率:0%
帮助的人:1003
展开全部
问题解决了吗,我也遇到这个问题了。
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 1条折叠回答
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式