spark rdd 能否知道指定分区数据

例如rdd有个5分区,能否指定查看rdd某个分区的数据?如何查看... 例如rdd有个5分区,能否指定查看rdd某个分区的数据?如何查看 展开
 我来答
Tang_Wei_Qun
2017-09-19
知道答主
回答量:12
采纳率:0%
帮助的人:1.1万
展开全部
你是需要将RDD的某个分区数据collect到driver端来吗?如果是的话,可以尝试下RDD的api glom,这个api是查看RDD每一个分区的数据,你当然可以指定某个分区进行查看了。

如果想正确理解spark的话,可以尝试百度搜索"spark老汤",绝对会有惊喜
ZESTRON
2024-09-04 广告
在Dr. O.K. Wack Chemie GmbH,我们高度重视ZESTRON的表界面分析技术。该技术通过深入研究材料表面与界面的性质,为提升产品质量与可靠性提供了有力支持。ZESTRON的表界面分析不仅涵盖了相变化、化学反应、吸附与解吸... 点击进入详情页
本回答由ZESTRON提供
悠然自得好风景
2017-04-16 · TA获得超过563个赞
知道小有建树答主
回答量:1489
采纳率:50%
帮助的人:462万
展开全部
科普Spark,Spark是什么,如何使用Spark 1.Spark基于什么算法的分布式计算(很简单) 2.Spark与MapReduce不同在什么地方 3.Spark为什么比Hadoop灵活 4.Spark局限是什么 5.什么情况下适合使用Spark
本回答被网友采纳
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
hurtjh
2018-05-18
知道答主
回答量:16
采纳率:0%
帮助的人:11.3万
展开全部
rdd1.mapPartitionsWithIndex{
(partIdx,iter) => {
var part_map = scala.collection.mutable.Map[String,List[Int]]()
while(iter.hasNext){
var part_name = "part_" + partIdx;
var elem = iter.next()
if(part_map.contains(part_name)) {
var elems = part_map(part_name)
elems ::= elem
part_map(part_name) = elems
} else {
part_map(part_name) = List[Int]{elem}
}
}
part_map.iterator

}
}.collect
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 1条折叠回答
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式