spark加载hadoop本地库的时候出现不能加载的情况要怎么解决 我来答 1个回答 #合辑# 面试问优缺点怎么回答最加分? 浮生甲天下x 2017-02-27 · TA获得超过185个赞 知道小有建树答主 回答量:393 采纳率:0% 帮助的人:476万 我也去答题访问个人页 关注 展开全部 Spark与Hadoop一样,是一种开源的集群计算环境,但在特定工作负载情况下比Hadoop更高效。Spark采用基于内存的分布式数据集,优化了迭代式的工作负载以及交互式查询。Spark采用Scala语言实现,使用Scala作为应用框架。与Hadoop不同的是,Spark和Scala紧密集成,Scala像管理本地collective对象那样管理分布式数据集。 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2016-07-09 spark加载hadoop本地库的时候出现不能加载的情况要怎么解决 2016-04-17 spark加载hadoop本地库的时候出现不能加载的情况要怎么解决 2015-12-07 spark加载hadoop本地库的时候出现不能加载的情况要怎么解决 2016-09-22 spark加载hadoop本地库的时候出现不能加载的情况要怎么解决 2015-11-09 spark加载hadoop本地库的时候出现不能加载的情况要怎么解决 2014-10-18 hadoop本地库无法加载 13 2014-10-29 运行HBase的shell时 报警告 大概意思是说不能加载hadoop的本地库 2016-02-29 spark1.5.2 spark-shell 启动时一定要启动hadoop,怎么解决 1 为你推荐: