如何在代码中通过API监控Hadoop,Spark任务的进度和结果 我来答 1个回答 #合辑# 面试问优缺点怎么回答最加分? 从空去听8 2017-11-15 · TA获得超过7439个赞 知道大有可为答主 回答量:6907 采纳率:93% 帮助的人:5584万 我也去答题访问个人页 关注 展开全部 另外Spark可以直接写JDBC df.write().mode(mode).jdbc(url,tableName,prop) ; 你也可以df.collect() 得到 List<Row> 然后定义自己的Insert SQL语句。 没必要再通过Sqoop从Hive导出到Oracle 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 为你推荐: