hadoop中,能不能多个线程同时往同一个文件写数据...
展开全部
1、这个是不能实现的。
2、如果有这个功能的操作,也是通过多个copy,最后merge实现的。
3、这也是为什么你用hadoop做最基本的wordcount的时候,在你的生成的记数结果中,总会有part-00001.....part-00002等这样的文件结果集的原因了。哪怕生成的结果集很小,也会是这样的存放方式。当然这是建立在你有多个datanode的前提下的。进一步了解hadoop:http://edu.51cto.com/course/course_id-4028.html
2、如果有这个功能的操作,也是通过多个copy,最后merge实现的。
3、这也是为什么你用hadoop做最基本的wordcount的时候,在你的生成的记数结果中,总会有part-00001.....part-00002等这样的文件结果集的原因了。哪怕生成的结果集很小,也会是这样的存放方式。当然这是建立在你有多个datanode的前提下的。进一步了解hadoop:http://edu.51cto.com/course/course_id-4028.html
展开全部
1、这个是不可能的。
2、如果有这个功能的操作,也是通过多个copy,最后merge实现的。
3、这也是为什么你用hadoop做最基本的wordcount的时候,在你的生成的记数结果中,总会有part-00001.....part-00002等这样的文件结果集的原因了。哪怕生成的结果集很小,也会是这样的存放方式。当然这是建立在你有多个datanode的前提下的。
再想想看吧。
2、如果有这个功能的操作,也是通过多个copy,最后merge实现的。
3、这也是为什么你用hadoop做最基本的wordcount的时候,在你的生成的记数结果中,总会有part-00001.....part-00002等这样的文件结果集的原因了。哪怕生成的结果集很小,也会是这样的存放方式。当然这是建立在你有多个datanode的前提下的。
再想想看吧。
追问
请问一下,你有mapreduce开发的案例吗,能否发几个案例给我,不要hadoop自带的那几个。lin67152艾特163.com
追答
1、可以看下我空间中关于wordCount的每行代码的解释,看明白这个,写点简单的map/reduce就可以了。
空间文章地址:http://hi.baidu.com/erliang20088/item/ce550f2f088ff1ce0e37f930
本回答被提问者采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询