hadoop设置的hadoop heap size是根据集群中的每一台机子配置而在那台机子上设置适合它的值吗?

还是全部统一设置的,另外,这个值的参考是什么,比方说我有一个主节点3G内存,一个从节点3G内存,一个从节点4G内存,那我应该分别在每一台机子下设置分别为2G,2G,3G的... 还是全部统一设置的,另外,这个值的参考是什么,比方说我有一个主节点3G内存,一个从节点3G内存,一个从节点4G内存,那我应该分别在每一台机子下设置分别为2G,2G,3G的呢,还是统一2G的,还是说根据加起来的总数,所有都设置9G(<3+3+4)呢? 展开
 我来答
guoxiaolong923
2013-06-15
知道答主
回答量:27
采纳率:100%
帮助的人:18.2万
展开全部
首先这个参数一般来说是整个集群统一设定的,它的定义是“Hadoop为各个守护进程分配的内存大小”,默认为1000MB,当然实际的肯定需要你根据集群实际情况来设定!分配过大的话,可能会影响整个集群对数据处理的效率,分配过小,可能会导致守护进程异常,进而影响到整个集群的正常运行。你可以先采用默认的大小,后期集群运行的过程中根据具体的测试结果以及日志输出来分析,需要调整的话再调整!hadoop和Hbase当中的很多属性的值都不好定,只能在运行过程中,根据数据量的大小以及集群是偏存储还是偏运算等情况来逐步调整参数。
更多追问追答
追问
那机子不一样也是统一设定吗?这样的话性能低的机子不就会把整个集群性能拖低了?应该不是这样的吧?
追答
是这样子的!而且一般对于一个集群来说,所有从节点的配置是要求一样的,包括操作系统、内存、CPU、磁盘分区等等,这是对一个集群所有资源最大化利用的要求,像你说的那种一个从节点内存是3G,另一个是4G的情况基本上不存在(根据我的经验来看哈)。主节点对服务器的性能相对于从节点来说要低一些,所以配置可以低一些,但是从节点一般要求就比较高了!我们公司的集群主节点的内存在32G,从节点是64G的。另外,所谓的hadoop集群就是实现存储和计算的分布式化,这种分布式是随机的,由相关服务根据job和task的分布和执行情况来自主判定,假如出现你这种从节点内存不一致的情况,貌似hadoop没有机制可以这么人性化的判定!
注:以上观点是个人经验所得,仅代表个人看法。
本回答被提问者采纳
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
威孚半导体技术
2024-08-19 广告
威孚(苏州)半导体技术有限公司是一家专注生产、研发、销售晶圆传输设备整机模块(EFEM/SORTER)及核心零部件的高科技半导体公司。公司核心团队均拥有多年半导体行业从业经验,其中技术团队成员博士、硕士学历占比80%以上,依托丰富的软件底层... 点击进入详情页
本回答由威孚半导体技术提供
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式