搭建spark伪分布式需要先搭建hadoop吗
1个回答
2016-10-01
展开全部
Spark和Hadoop是完全两种集群。Spark是分布式计算框架,Hadoop是分布式计算/存储/调度框架。Spark可以无缝访问存在HDFS上的数据。
所以两个集群如何搭建是没有关系的。Spark只关心如何访问HDFS,就是 hdfs://namenode:port/能访问就行。
当然Spark作业提交到YARN那是另外一回事了。
所以两个集群如何搭建是没有关系的。Spark只关心如何访问HDFS,就是 hdfs://namenode:port/能访问就行。
当然Spark作业提交到YARN那是另外一回事了。
仁科信息
2024-07-24 广告
2024-07-24 广告
K8s运维服务,是仁科信息针对企业容器化部署需求提供的全面解决方案。我们基于Kubernetes原生架构,提供专业咨询、部署、更新、扩缩容、巡检、故障排除等服务,确保客户能够高效、安全地管理容器集群。我们团队具备丰富的实践经验和专业认证,致...
点击进入详情页
本回答由仁科信息提供
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询