spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 我来答 1个回答 #热议# 生活中有哪些实用的心理学知识? 休闲居大伟 2016-02-29 · TA获得超过5419个赞 知道大有可为答主 回答量:6865 采纳率:91% 帮助的人:1.1亿 我也去答题访问个人页 关注 展开全部 看conf下的配置文件 spark-env.sh 和 spark-defaults.conf。这个问题我遇到过,是集群内的各个节点没有正确配置,报错的那台服务器的配置文件的ip配错了。在页面(:8080)上应该是看不到他的。 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-04-24 spark无法启动,Hadoop可以正常启动,该怎么解决 1 2017-11-27 安装spark前需要先安装hadoop吗 27 2017-09-23 spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 2016-09-06 spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 2017-11-23 spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 2017-02-19 spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 2019-10-12 安装完nginx启动时,启动失败,如何解决? 2017-06-15 spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 更多类似问题 > 为你推荐: