Spark Shell因为Scala编译器原因不能正常启动怎么解决 我来答 2个回答 #热议# 生活中有哪些实用的心理学知识? np...z@163.com 2017-10-31 · 超过31用户采纳过TA的回答 知道答主 回答量:123 采纳率:71% 帮助的人:37.5万 我也去答题访问个人页 关注 展开全部 错误原因,与libgcj.so.10有关,可能是Java环境没有配置正确,在conf/spark-env.sh中添加一行:export JAVA_HOME=/usr/java/latest解决问题! 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 烧火谈庇 2017-10-31 知道答主 回答量:83 采纳率:0% 帮助的人:17.1万 我也去答题访问个人页 关注 展开全部 第四十九回 七星坛诸葛祭风 三江口周瑜纵火 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-04-24 spark无法启动,Hadoop可以正常启动,该怎么解决 1 2016-04-22 scala代码能够在spark-shell运行,但是不能通过spark-submit提交运行,why? 1 2016-02-23 Spark Shell因为Scala编译器原因不能正常启动怎么解决 2016-03-18 spark加载hadoop本地库的时候出现不能加载的情况要怎么解决 2015-08-07 如何通过spark-shell调用scala程序 1 2016-05-15 scala中的function declaration must have a name报错怎么解决 1 2017-03-13 sparklistenerbus has already stopped怎么解决 2017-11-23 spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 更多类似问题 > 为你推荐: