hadoop的map,reduce,job的个数的确定?

请问什么依据可以得出要划分出来多少job,一个job里有多少map+多少reduce????还有怎样才能使一个job里的不同的map并行执行呢?怎样才能使一个job里的不... 请问什么依据可以得出要划分出来多少job, 一个job里有多少map+多少reduce????
还有怎样才能使一个job里的不同的map并行执行呢?
怎样才能使一个job里的不同的reduce并行执行呢?
怎样才能多个job并行执行呢?
刚开始学,希望可以得到帮助,谢谢啦
展开
 我来答
灰太狼爱学习了
2014-05-08 · 超过12用户采纳过TA的回答
知道答主
回答量:28
采纳率:0%
帮助的人:15.5万
展开全部
我知道一点。
文件大小,hadoop默认的是64M,并行执行一方面是多个机器(一般是集群),同一个机器上又可以有多个线程同时执行。
Hadoop 适合数据特别大的情况,小数据效率反而降低了。
并行计算涉及到很多方面,比如负载均衡,比如单点故障等,找本书看看吧。
加油。
追问
不过还是谢谢啦,上面那几个问题你知道是为什么吗?
追答
不知道。不是做这方面的,只是看过一点。
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式