spark 怎么均衡的将任务分配到执行器 我来答 1个回答 #热议# 普通体检能查出癌症吗? 刘松鹰 2017-02-23 · TA获得超过234个赞 知道小有建树答主 回答量:181 采纳率:66% 帮助的人:92.7万 我也去答题访问个人页 关注 展开全部 spark有两种分配模式, 一种是集中分配, 就是尽量用最少的机器上的资源, 另一种是平均, 就是每个机器都会均匀的分到一些任务, spark默认就是平均分配任务的。 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-01-16 如何在Spark集群的work节点上启动多个Executor 2016-12-28 spark 自定义分区后大于128m会在一个partition吗 1 2017-01-29 如何在Spark集群的work节点上启动多个Executor 1 2016-02-01 怎样理解spark中的partition和block的关系 11 2015-06-09 java系统设计 2017-03-07 基于spark SQL之上的检索与排序对比性能测试 8 2017-03-07 所有的系统都会用spark做么 2017-02-03 spark sql为什么需要hive-site 更多类似问题 > 为你推荐: