如何在spark-streaming中获取通过kafka传递的flume信息header 我来答 1个回答 #热议# 生活中有哪些实用的心理学知识? ib...6@33sn.cc 2017-05-10 · TA获得超过126个赞 知道答主 回答量:90 采纳率:0% 帮助的人:11.8万 我也去答题访问个人页 关注 展开全部 spark streaming从1.2开始提供了数据的零丢失,想享受这个特性,需要满足如下条件: 1.数据输入需要可靠的sources和可靠的receivers 2.应用metadata必须通过应用driver checkpoint 3.WAL(write ahead log) 本回答由网友推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-11-10 日志采集系统flume和kafka有什么区别及联系,它们分别在什么时候 2 2017-09-23 sparkstreaming的数据如何写到kafka最高效 2017-06-06 kafka查看消费了多少条数据 2017-02-14 一个kafka有多个node的意思 2018-05-28 flume发送数据到kafka如何设置异步发送 2019-09-18 大数据如何入门 2018-03-12 如何学好java语言啊? 126 更多类似问题 > 为你推荐: