2分钟读懂大数据框架Hadoop和Spark的异同

 我来答
我是秋毒
2017-08-08 · TA获得超过175个赞
知道小有建树答主
回答量:102
采纳率:0%
帮助的人:87.7万
展开全部
Hadoop和Spark都是集群并行计算框架,都可以做分布式计算,它们都基于MapReduce并行模型。

Hadoop基于磁盘计算,只有map和reduce两种算子,它在计算过程中会有大量中间结果文件落地磁盘,这会显著降低运行效率。

而Spark基于内存计算(一个task会在一个分片上以流水线的形式执行,中间不会再分配内存,避免内存被快速用完),非常适合做机器学习中的迭代计算(可以通过将RDD缓存在内存中);同时它提供非常多的算子(flatMap、reduceByKey、join等等),方便我们开发;另外,Spark提供一站式的数据分析工具,包括流计算的Streaming,图计算的GraghX,数据仓库的Spark SQL和机器学习的MlLib。
迈杰
2024-11-30 广告
RNA-seq数据分析是转录组研究的核心,包括数据预处理、序列比对、定量分析、差异表达分析、功能注释和可视化等步骤。数据预处理主要是质量控制和去除低质量序列。序列比对使用HISAT2、STAR等工具将reads比对到参考基因组。定量分析评估... 点击进入详情页
本回答由迈杰提供
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式