如何使用Spark的local模式远程读取Hadoop集群数据 我来答 1个回答 #合辑# 机票是越早买越便宜吗? 西篱泽畔 2017-10-29 · TA获得超过146个赞 知道小有建树答主 回答量:326 采纳率:40% 帮助的人:293万 我也去答题访问个人页 关注 展开全部 如何使用Spark/Scala读取Hbase的数据 必须使用高亮参数启动Spark-shell,否则当你遍历RDD时会出现如下的Exception java.io.NotSerializableException: org.apache.hadoop.hbase.io.ImmutableBytesWritable spark-shell--conf spark.serializer=or. 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-05-02 spark怎么读取hadoop数据 2016-07-24 如何在代码中通过API监控Hadoop,Spark任务的进度和结果 2017-04-01 spark怎么从hadoop读取文件 2017-04-12 怎么使用hadoop+spark集群做数据处理 2016-11-18 怎样利用 Spark Streaming 和 Hadoop 实现近实时的会话连接 2016-07-13 在windows中spark的本地模式如何配置 2 2016-06-27 如何使用spark将程序提交任务到yarn-Spark-about云开发 2017-04-08 求教:在集群主节点启动spark-shell-master spark://hadoop 为你推荐: