
大数据都需要学习什么?
大数据专业是一项技术的学习方向,该专业是交叉性学科,学习内容涵盖较广,其中以统计学、数学、计算机为三大支撑柱学科,并以生物、医学、环境科学、经济学、管理学等作为辅助拓展。除此之外还需要学习数据采集、数据分析、数据处理软件及计算机编程语言等。不同的工作岗位与方向,需要从事的工作也不是一样的,因此催生出了许多职位。较为常见的大数据发展方向是大数据开发、大数据分析。
回过头来我们看看学习大数据需要的基础
1、java SE、EE(SSM)
90%的大数据框架都是Java写的
2、MySQL
SQL on Hadoop
3、Linux
大数据的框架安装在Linux操作系统上
- 需要学什么
大数据离线分析
一般处理T+1数据(T:可能是1天、一周、一个月、一年)
a、Hadoop :一般不选用最新版本,踩坑难解决
(common、HDES、MapReduce、YARN)
环境搭建、处理数据的思想
b、Hive:大数据的数据仓库
通过写SQL对数据进行操作,类似于MySQL数据库的sql
c、HBase:基于HDFS的NOSQL数据库
面向列存储
d、协作框架:
sqoop(桥梁:HDFS《==》RDBMS)
flume:搜集日志文件中的信息
e、调度框架
anzkaban
了解:crotab(Linux自带)
zeus(Alibaba)
Oozie(cloudera)
f、前沿框架扩展:
kylin、impala、ElasticSearch(ES)
大数据实时分析
以spark框架为主
Scala:OOP(面向对象程序设计)+FP(函数是程序设计)
sparkCore:类比MapReduce
sparkSQL:类比hive
sparkStreaming:实时数据处理
kafka:消息队列
前沿框架扩展:flink
阿里巴巴:blink
大数据机器学习
spark MLlib:机器学习库
pyspark编程:Python和spark的结合
推荐系统
python数据分析
python机器学习
广告 您可能关注的内容 |