搭建spark伪分布式需要先搭建hadoop吗

 我来答
匿名用户
2016-10-01
展开全部
  Spark和Hadoop是完全两种集群。Spark是分布式计算框架,Hadoop是分布式计算/存储/调度框架。Spark可以无缝访问存在HDFS上的数据。
  所以两个集群如何搭建是没有关系的。Spark只关心如何访问HDFS,就是  hdfs://namenode:port/能访问就行。
  当然Spark作业提交到YARN那是另外一回事了。
仁科信息
2024-07-24 广告
K8s运维服务,是仁科信息针对企业容器化部署需求提供的全面解决方案。我们基于Kubernetes原生架构,提供专业咨询、部署、更新、扩缩容、巡检、故障排除等服务,确保客户能够高效、安全地管理容器集群。我们团队具备丰富的实践经验和专业认证,致... 点击进入详情页
本回答由仁科信息提供
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式