spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 我来答 1个回答 #热议# 空调使用不当可能引发哪些疾病? 休闲居大伟 2016-02-29 · TA获得超过5419个赞 知道大有可为答主 回答量:6865 采纳率:91% 帮助的人:1.1亿 我也去答题访问个人页 关注 展开全部 看conf下的配置文件 spark-env.sh 和 spark-defaults.conf。这个问题我遇到过,是集群内的各个节点没有正确配置,报错的那台服务器的配置文件的ip配错了。在页面(:8080)上应该是看不到他的。 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-05-02 spark无法启动,Hadoop可以正常启动,该怎么解决 2015-06-29 安装spark前需要先安装hadoop吗 18 2017-09-23 spark1.5.2 spark-shell 启动时一定要启... 2016-09-20 spark1.5.2 spark-shell 启动时一定要启... 2017-11-23 spark1.5.2 spark-shell 启动时一定要启... 2017-03-06 spark1.5.2 spark-shell 启动时一定要启... 2017-12-16 安装完nginx启动时,启动失败,如何解决? 2017-06-30 spark1.5.2 spark-shell 启动时一定要启... 更多类似问题 > 为你推荐: