从事分布式系统,计算,hadoop 等方面工作需要哪些基础
1个回答
2017-08-08
展开全部
Hadoop主要组件是三个, hdfs, mapreduce和 core. HDFS是分布式文件系统,mapreduce是分布式计算平台。 他们组后后可以完成海量数据存储和数据分析的工作。 但是Mapreduce得模型只能处理一些简单的业务,这是他们的受限之处。
对于他们在性能上和可靠性上的问题,hadoop开源本身的发展正在解决问题。
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询