如何使用Hadoop进入大数据库时代
1个回答
2023-05-18 · 百度认证:重庆猪八戒网络有限公司官方账号
关注
展开全部
Hadoop本身是分布式框架,如果在hadoop框架下,需要配合hbase,hive等工具来进行大数据计算。如果具体深入还要了解HDFS,Map/Rece,任务机制等等。如果要分析还要考虑其他分析展现工具。
大数据还有分析才有价值
用于分析大数据的工具主要有开源与商用两个生态圈。开源大数据生态圈:1、Hadoop HDFS、, HBase、Hive 渐次诞生,早期Hadoop生态圈逐步形成。2、. Hypertable是另类。它存在于Hadoop生态圈之外,但也曾经有一些用户。3、NoSQL,membase、MongoDb商用大数据生态圈:1、一体机数据库/数据仓库:IBM PureData(Netezza), , SAP Hana等等。2、数据仓库:, EMC GreenPlum, HPVertica 等等。3、数据集市:QlikView、 Tableau 、 以及国内的Yonghong Data Mart 。
logo设计
创造品牌价值
¥500元起
APP开发
量身定制,源码交付
¥2000元起
商标注册
一个好品牌从商标开始
¥1480元起
公司注册
注册公司全程代办
¥0元起
查
看
更
多
- 官方电话
-
官方服务
- 官方网站
- 八戒财税
- 知识产权
- 八戒服务商
- 企业需求
- 数字市场
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
仁科信息
2024-07-24 广告
2024-07-24 广告
Linux系统运维是确保服务器稳定运行的关键环节。它涉及系统安装、配置、监控、故障排除以及性能优化等方面。作为运维人员,我们需要熟练掌握Linux命令和工具,监控系统资源使用情况,及时发现并解决问题。同时,我们还要关注系统安全,采取必要的安...
点击进入详情页
本回答由仁科信息提供
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询