如何在Spark集群的work节点上启动多个Executor 我来答 1个回答 #热议# 为什么有人显老,有人显年轻? bk...d@163.com 2017-05-15 · 超过58用户采纳过TA的回答 知道答主 回答量:90 采纳率:0% 帮助的人:43万 我也去答题访问个人页 关注 展开全部 部署这种模式,需要修改conf目录下的spark-env.sh文件。在其中新增如下配置选项: export HADOOP_HOME= /home/hadoop/hadoop-2.0.0-cdh4.5.0 export HADOOP_CONF_DIR= $HADOOP_HOME/etc/hadoop SPARK_EXECUTOR_INSTANCES=2 SPARK_EXECUTOR_CORES. 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 为你推荐: