如何在代码中执行spark-submit,而不是在命令行中 我来答 2个回答 #热议# 为什么有人显老,有人显年轻? ZMHH6760 2017-03-12 · TA获得超过181个赞 知道答主 回答量:292 采纳率:0% 帮助的人:102万 我也去答题访问个人页 关注 展开全部 前面已经有篇文章介绍如何编译包含hive的spark-assembly.jar了,不清楚的可以翻看一下前面的文章。 cloudera manager装好的spark,直接执行spark-shell进入命令行后,写入如下语句: val hiveContext = new org.apache.spark.sql.hive.HiveContext... 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 zwieback1 2017-03-12 · 超过34用户采纳过TA的回答 知道答主 回答量:123 采纳率:71% 帮助的人:39.9万 我也去答题访问个人页 关注 展开全部 代码的话应该直接跑就行了,非要调用spark-submit的话,可以先import sys.process._然后"spark-submit ...".! 本回答被提问者采纳 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2022-07-17 Spark源码分析之SparkSubmit的流程 2017-12-25 Spark-shell和Spark-submit提交程序的区别 4 更多类似问题 > 为你推荐: