
如何确定 Hadoop map和reduce的个数
1个回答
2015-09-07
展开全部
我知道一点。 文件大小,hadoop默认的是64M,并行执行一方面是多个机器(一般是集群),同一个机器上又可以有多个线程同时执行。 Hadoop适合数据特别大的情况,小数据效率反而降低了。 并行计算涉及到很多方面,比如负载均衡,比如单点故障等
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询
类别
我们会通过消息、邮箱等方式尽快将举报结果通知您。
说明
0/200