如何查看spark scala版本 我来答 1个回答 #热议# 为什么说不要把裤子提到肚脐眼? zwieback1 2017-03-19 · 超过34用户采纳过TA的回答 知道答主 回答量:123 采纳率:71% 帮助的人:40.2万 我也去答题访问个人页 关注 展开全部 如果是spark1的话应该用的是2.10,2的话应该是2.11,具体的到spark安装目录下看一下jars中scala开头的jar包就可以了 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-06-10 如何查看sparkcore版本 2017-03-12 spark 1.6.0安装什么版本的scala 2016-11-30 spark哪个版本支持scala2.11 2015-12-08 spark1.5.2对应scala哪个版本 2 2016-11-25 hadoop2.7.3应该用什么版本的scala和spark 1 2017-03-02 如何查看 spark sparkconf 包含的spark集群配置的各种参数 2017-01-27 如何做Spark 版本兼容 更多类似问题 > 为你推荐: