如何通过命令启动一个最小的sparkshell 我来答 1个回答 #热议# 在购买新能源车时,要注意哪些? 人间事多芬扰 2015-11-14 · TA获得超过276个赞 知道小有建树答主 回答量:436 采纳率:0% 帮助的人:357万 我也去答题访问个人页 关注 展开全部 前面已经有篇文章介绍如何编译包含hive的spark-assembly.jar了,不清楚的可以翻看一下前面的文章。 cloudera manager装好的spark,直接执行spark-shell进入命令行后,写入如下语句: val hiveContext = new org.apache.spark.sql.hive.HiveContext... 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-01-22 如何通过Spark的shell测试Spark的工作 2015-04-25 如何在spark-shell命令行执行spark hql 2015-11-11 spark-shell启动报错如下。请问该如何解决。多谢帮助... 6 2015-10-27 spark shell如何退出 9 2020-04-30 当使用 spark-shell 命令没有带上任何参数时,默认... 2018-03-31 spark配置cmd中运行spark-shell报错但是运行... 2017-08-12 用pycharm导入的spark怎么启动spark shel... 2015-08-08 如何通过spark-shell调用scala程序 1 更多类似问题 > 为你推荐: