spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 我来答 1个回答 #合辑# 面试问优缺点怎么回答最加分? 伏翰海0hW 2017-06-15 · TA获得超过147个赞 知道小有建树答主 回答量:243 采纳率:50% 帮助的人:50.7万 我也去答题访问个人页 关注 展开全部 看conf下的配置文件 spark-env.sh 和 spark-defaults.conf。这个问题我遇到过,是集群内的各个节点没有正确配置,报错的那台服务器的配置文件的ip配错了。在页面(:8080)上应该是看不到他的。 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 为你推荐: