安装完hadoop2.6.0后,找不到datanode的路径,无法获得clusterID(没有手动配置dfs.data.dir) 30
所以应该是默认路径,但是我在slave结点打开date文件,里面是空的,这怎么解决,怎么找到datanode上面的VERSION文件,怎么知道datanode的clust...
所以应该是默认路径,但是我在slave结点打开date文件,里面是空的,这怎么解决,怎么找到datanode上面的VERSION文件,怎么知道datanode的clusterID
展开
1个回答
2015-04-16
展开全部
一个文件被放入到分布式文件系统中,会被分割成多个block放置到每一个的DataNode上,默认dfs.block.size应该是64M,也就是说如果你放置到HDFS上的数据小于64,那么将只有一个Block,此时会被放置到某一个DataNode中,这个可以通过使用命令:hadoop dfsadmin –report就可以看到各个节点存储的情况。也可以直接去某一个DataNode查看目录:hadoop.tmp.dir/dfs/data/current就可以看到那些block了。Block的数量将会直接影响到Map的个数。当然可以通过配置来设定Map和Reduce的任务个数。Map的个数通常默认和HDFS需要处理的blocks相同。也可以通过配置Map的数量或者配置minimum split size来设定,实际的个数为:max(min(block_size,data/#maps),min_split_size)。Reduce可以通过这个公式计算:0.95*num_nodes*mapred.tasktracker.tasks.maximum。
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询