spark streaming 和kafka 数据丢失怎么处理 我来答 2个回答 #热议# 上班途中天气原因受伤算工伤吗? 百度网友9f80aa292 2020-11-21 知道答主 回答量:1 采纳率:0% 帮助的人:554 我也去答题访问个人页 关注 展开全部 首先要保证操作是幂等的,也就是多次写入只会产生一种结果然后用direct的方式去读kafka,数据处理完再保存偏移量如果不是幂等的操作会导致重复操作,落到的数据库里可能有两条相同的记录最好的方法就是自己维护偏移量,一般使用redis来保存,效果很好,zookeeper也可以 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 衣霞遇春 2019-06-23 · TA获得超过3.6万个赞 知道大有可为答主 回答量:1.2万 采纳率:31% 帮助的人:1194万 我也去答题访问个人页 关注 展开全部 前面应该还有个数据生产者,比如flume.flume负责生产数据,发送至kafka。sparkstreaming作为消费者,实时的从kafka中获取数据进行计算。计算结果保存至redis,供实时推荐使用。flume+kafka+spark+redis是实时数据收集与计算的一套经典架构... 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-10-15 sparkstreaming读取kafka数据,读不到怎么判... 2018-11-27 sparkstreaming与kafka整合 2017-10-22 怎么配置sparkstreaming 让他解析kafka中的... 2017-10-31 怎么配置sparkstreaming 让他解析kafka中的... 2016-08-02 如何将kafka数据导入到spark streaming 2017-10-15 用kafka-sparkstreaming 怎么避免小文件 2017-11-30 sparkstreaming 怎么从kafka拉取数据 2019-01-23 求一整套kafka+sparkStreaming整合的jav... 3 更多类似问题 > 为你推荐: