spark明明已经搭建了,为什么会有这个提示?

failedtolaunchorg.apache.spark.deploy.master.Master:FailedtofindSparkassemblyin/usr/t... failed to launch org.apache.spark.deploy.master.Master:
Failed to find Spark assembly in /usr/tar/spark-1.2.0/assembly/target/scala-2.10
You need to build Spark before running this program.

让我先搭建spark?环境变量也设置好了,而且,他说找不到scala-2.10,我装到明明是scala-2.11.4
展开
 我来答
温幻桃CC
2015-09-06
知道答主
回答量:1
采纳率:0%
帮助的人:2万
展开全部
spark包下错了,你应该下载prebuild包,去官网重新下,在Choose a package type选Pre-build对应你的hadoop版本
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式