有了Hadoop MapReduce,为什么还要Spark 我来答 2个回答 #热议# 发烧为什么不能用酒精擦身体来退烧? yilei861128 2017-04-01 · TA获得超过173个赞 知道小有建树答主 回答量:632 采纳率:0% 帮助的人:436万 我也去答题访问个人页 关注 展开全部 a. 由于MapReduce的shuffle过程需写磁盘,比较影响性能;而Spark利用RDD技术,计算在内存中进行.b. MapReduce计算框架(API)比较局限, 而Spark则是具备灵活性的并行计算框架.c. 再说说Spark API方面- Scala: Scalable Language, 据说是进行并行计算的最好的语言. 与Java相比,极大的减少代码量. 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 wangshixi2002 2017-03-28 · TA获得超过156个赞 知道小有建树答主 回答量:436 采纳率:0% 帮助的人:165万 我也去答题访问个人页 关注 展开全部 MapReduce没有Spark 好 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2022-06-09 为什么Spark比MapReduce快? 2022-11-16 hadoop和mapreduce是一种什么关系? 2022-07-15 (02)MapReduce与Spark的异同和优势比较 2023-02-25 分析Spark会取代Hadoop吗? 2023-03-02 reduce在hadoop的作用 2019-06-29 hadoop和mapreduce是一种什么关系? 16 2020-04-02 Hadoop和spark之间有什么不同点呀? 1 2020-04-13 Hadoop,MapReduce,YARN和Spark的区别与联系 15 为你推荐: