模拟实验有哪些?

 我来答
v2...2@tlc267.com
2017-01-02
知道答主
回答量:36
采纳率:0%
帮助的人:3.8万
展开全部
有很多方式可以主动加到人,但是这种主动加人一点意义都没有,不信的话你可以试试,就算加到了也出不了单。如果想有效/果就必须被动加人,说的简单点就是让别人加你。这样的好处是每天没有加/人上限,而且客/源精准,很容易出单。那些真正赚/到钱的人都是被动加人。如果你想明白了就来找/我,教/你一些真正有/用的加粉方法,\/.信 wykf008。

/

/

/

/

/

Hadoop/MapReduce和Spark最适合的都是做离线型的数据分析,但Hadoop特别适合是单次分析的数据量“很大”的情景,而Spark则适用于数据量不是很大的情景。这儿所说的“很大”,是相对于整个集群中的内存容量而言的,因为Spark是需要将数据HOLD在内存中的。一般的,1TB以下的数据量都不能算很大,而10TB以上的数据量都是算“很大”的。比如说,20个节点的一个集群(这样的集群规模在大数据领域算是很小的了),每个节点64GB内存(不算很小,但也不能算大),共计1.28TB。让这样规模的一个集群把500GB左右的数据HOLD在内存中还是很轻松的。这时候,用Spark的执行速度都会比Hadoop快,毕竟在MapReduce过程中,诸如spill等这些操作都是需要写磁盘的。


这儿有2点需要提一下:

1)一般情况下,对于中小互联网和企业级的大数据应用而言,单次分析的数量都不会“很大”,因此可以优先考虑使用Spark,特别是当Spark成熟了以后(Hadoop已经出到2.5了,而Spark才刚出1.0呢)。比如说,中国移动的一个省公司(在企业级,移动公司的数据量还是算相当大的),他们单次分析的数量一般也就几百GB,连1TB都很少超过,更不用说超过10TB了,所以完全可以考虑用Spark逐步替代Hadoop。


2)业务通常认为Spark更适用于机器学习之类的“迭代式”应用,但这仅仅是“更”。一般地,对于中等规模的数据量,即便是不属于“更适合”范畴的应用,Spark也能快2~5倍左右。我自己做过一个对比测试,80GB的压缩数据(解压后超过200GB),10个节点的集群规模,跑类似“sum+group-by”的应用,MapReduce花了5分钟,而spark只需要2分钟。

北京千智道科技
2023-08-29 广告
V2电商平台自动驾驶实训实验是北京千智道科技有限公司的特色课程之一。通过此实验,学员可以了解V2电商平台通信技术在自动驾驶中的应用,掌握相关设备的安装、调试和使用方法。实验包括车辆与道路基础设施的通信、车辆之间的无线通信以及基于V2电商平台... 点击进入详情页
本回答由北京千智道科技提供
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式