学大数据需要什么基础知识和能力?
展开全部
大数据的发展历程总体上可以划分为三个重要阶段,萌芽期、成熟期和大规模应用期,20世纪90年至21世纪初,为萌芽期,随着,一批商业智能工具和知识管理技术的开始和应用,度过了数据萌芽。
21世纪前十年则为成熟期,主要标志为,大数据解决方案逐渐走向成熟,形成了并行计算与分布式系统两大核心技,谷歌的GFS和MapReduce等大数据技术受到追捧,Hadoop平台开始大行期道,2010年以后,为大规模应用期,标志为,数据应用渗透各行各业,数据驱动决策,信息社会智能化程度快速提高。
点击链接加入群聊【大数据学习交流群】:互联网科技发展蓬勃兴起,人工智能时代来临,抓住下一个风口。为帮助那些往想互联网方向转行想学习,却因为时间不够,资源不足而放弃的人。我自己整理的一份最新的大数据进阶资料和高级开发教程, 欢迎进阶中和进想深入大数据的小伙伴加入。
数据时代的到来,也推动了数据行业的发展,包括企业使用数据获取价值,促使了大量人员从事于数据的学习,学习大数据需要掌握基础知识,接下从我的角度,为大家做个简要的阐述。
学习大数据需要掌握的知识,初期了解概念,后期就要学习数据技术,主要包括:
1.大数据概念
2.大数据的影响
3.大数据的影响
4.大数据的应用
5.大数据的产业
6.大数据处理架构Hadoop
7.大数据关键技术
8.大数据的计算模式
后三个牵涉的数据技技术,就复杂一点了,可以细说一下:
1.大数据处理架构Hadoop:Hadoop的特性、Hadoop生态系统、Hadoop的安装与使用;
2.大数据关键技术技术:数据采集、数据存储与管理、数据处理与分析、数据隐私与安全;
3.大数据处理计算模式:批处理计算、流计算、图计算、查询分析计算
数据的核心技术就是获取数据价值,获取数据前提是,先要有数据,这就牵涉数据挖掘了。
一、Java语言以java语言为基础掌握面向对象编程思想所涉及的知识,以及该知识在面向对象编程思想中的应用,培养学生设计程序的能力。掌握程度:精通
二、数据结构与算法掌握基于JAVA语言的底层数据结构和算法原理,并且能够自己动手写出来关于集合的各种算法和数据结构,并且了解这些数据结构处理的问题和优缺点。掌握程度:熟练。
三、数据库原理与MYSQL数据库掌握关系型数据库的原理,掌握结构化数据的特性。掌握关系型数据库的范式。通过MYSQL数据库掌握通过SQL语言与MYSQL数据库进行交互。熟练掌握各种复杂SQL语句的编写。掌握程度:熟练。
四、LINUX操作系统全面了解LINUX。详解LINUX下的管理命令、用户管理、网络配置管理等。掌握SHELL脚本编程,能够根据具体业务进行复杂SHELL脚本的编写。掌握程度:精通。
五、Hadoop技术学习Hadoop技术的两个核心:分布式文件系统HDFS和分布式计算框架MapReduce。掌握MR的运行过程及相关原理,精通各种业务的MR程序编写。掌握Hadoop的核心源码及实现原理。掌握使用Hadoop进行海量数据的存储、计算与处理。掌握程度:精通。
六、分布式数据库技术:精通分布式数据库HBASE、掌握Mongodb及了解其它分布式数据库技术。精通分布式数据库原理、应用场景、HBASE数据库的设计、操作等,能结合HIVE等工具进行海量数据的存储于检索。掌握程度:精通。
七、数据仓库HIVE精通基于hadoop的数据仓库HIVE。精通HIVESQL的语法,精通使用HIVESQL进行数据操作。内部表、外部表及与传统数据库的区别,掌握HIVE的应用场景及Hive与HBase的结合使用。掌握程度:精通。
八、PYTHON语言精通PYTHON语言基础语法及面向对象。精通PYTHON语言的爬虫、WEB、算法等框架。并根据业务可以基于PYTHON语言开发完成的业务功能和系统。掌握程度:精通。
九、机器学习算法熟练掌握机器学习经典算法,掌握算法的原理,公式,算法的应用场景。熟练掌握使用机器学习算法进行相关数据的分析,保证分析结果的准确性。掌握程度:熟练。
十、Spark高级编程技术掌握Spark的运行原理与架构,熟悉Spark的各种应用场景,掌握基于SparkRDD的各种算子的使用;精通SparkStreaming针对流处理的底层原理,熟练应用SparkSql对各种数据源处理,熟练掌握Spark机器学习算法库。达到能够在掌握Spark的各种组件的基础上,能够构建出大型的离线或实时的业务项目。掌握程度:精通。
十一、真实大数据项目实战通过几个真实的大数据项目把之前学习的知识与大数据技术框架贯穿,学习真实的大数据项目从数据采集、清洗、存储、处理、分析的完整过程,掌握大数据项目开发的设计思想,数据处理技术手段,解决开发过程中遇到的问题和技术难点如何解决。
21世纪前十年则为成熟期,主要标志为,大数据解决方案逐渐走向成熟,形成了并行计算与分布式系统两大核心技,谷歌的GFS和MapReduce等大数据技术受到追捧,Hadoop平台开始大行期道,2010年以后,为大规模应用期,标志为,数据应用渗透各行各业,数据驱动决策,信息社会智能化程度快速提高。
点击链接加入群聊【大数据学习交流群】:互联网科技发展蓬勃兴起,人工智能时代来临,抓住下一个风口。为帮助那些往想互联网方向转行想学习,却因为时间不够,资源不足而放弃的人。我自己整理的一份最新的大数据进阶资料和高级开发教程, 欢迎进阶中和进想深入大数据的小伙伴加入。
数据时代的到来,也推动了数据行业的发展,包括企业使用数据获取价值,促使了大量人员从事于数据的学习,学习大数据需要掌握基础知识,接下从我的角度,为大家做个简要的阐述。
学习大数据需要掌握的知识,初期了解概念,后期就要学习数据技术,主要包括:
1.大数据概念
2.大数据的影响
3.大数据的影响
4.大数据的应用
5.大数据的产业
6.大数据处理架构Hadoop
7.大数据关键技术
8.大数据的计算模式
后三个牵涉的数据技技术,就复杂一点了,可以细说一下:
1.大数据处理架构Hadoop:Hadoop的特性、Hadoop生态系统、Hadoop的安装与使用;
2.大数据关键技术技术:数据采集、数据存储与管理、数据处理与分析、数据隐私与安全;
3.大数据处理计算模式:批处理计算、流计算、图计算、查询分析计算
数据的核心技术就是获取数据价值,获取数据前提是,先要有数据,这就牵涉数据挖掘了。
一、Java语言以java语言为基础掌握面向对象编程思想所涉及的知识,以及该知识在面向对象编程思想中的应用,培养学生设计程序的能力。掌握程度:精通
二、数据结构与算法掌握基于JAVA语言的底层数据结构和算法原理,并且能够自己动手写出来关于集合的各种算法和数据结构,并且了解这些数据结构处理的问题和优缺点。掌握程度:熟练。
三、数据库原理与MYSQL数据库掌握关系型数据库的原理,掌握结构化数据的特性。掌握关系型数据库的范式。通过MYSQL数据库掌握通过SQL语言与MYSQL数据库进行交互。熟练掌握各种复杂SQL语句的编写。掌握程度:熟练。
四、LINUX操作系统全面了解LINUX。详解LINUX下的管理命令、用户管理、网络配置管理等。掌握SHELL脚本编程,能够根据具体业务进行复杂SHELL脚本的编写。掌握程度:精通。
五、Hadoop技术学习Hadoop技术的两个核心:分布式文件系统HDFS和分布式计算框架MapReduce。掌握MR的运行过程及相关原理,精通各种业务的MR程序编写。掌握Hadoop的核心源码及实现原理。掌握使用Hadoop进行海量数据的存储、计算与处理。掌握程度:精通。
六、分布式数据库技术:精通分布式数据库HBASE、掌握Mongodb及了解其它分布式数据库技术。精通分布式数据库原理、应用场景、HBASE数据库的设计、操作等,能结合HIVE等工具进行海量数据的存储于检索。掌握程度:精通。
七、数据仓库HIVE精通基于hadoop的数据仓库HIVE。精通HIVESQL的语法,精通使用HIVESQL进行数据操作。内部表、外部表及与传统数据库的区别,掌握HIVE的应用场景及Hive与HBase的结合使用。掌握程度:精通。
八、PYTHON语言精通PYTHON语言基础语法及面向对象。精通PYTHON语言的爬虫、WEB、算法等框架。并根据业务可以基于PYTHON语言开发完成的业务功能和系统。掌握程度:精通。
九、机器学习算法熟练掌握机器学习经典算法,掌握算法的原理,公式,算法的应用场景。熟练掌握使用机器学习算法进行相关数据的分析,保证分析结果的准确性。掌握程度:熟练。
十、Spark高级编程技术掌握Spark的运行原理与架构,熟悉Spark的各种应用场景,掌握基于SparkRDD的各种算子的使用;精通SparkStreaming针对流处理的底层原理,熟练应用SparkSql对各种数据源处理,熟练掌握Spark机器学习算法库。达到能够在掌握Spark的各种组件的基础上,能够构建出大型的离线或实时的业务项目。掌握程度:精通。
十一、真实大数据项目实战通过几个真实的大数据项目把之前学习的知识与大数据技术框架贯穿,学习真实的大数据项目从数据采集、清洗、存储、处理、分析的完整过程,掌握大数据项目开发的设计思想,数据处理技术手段,解决开发过程中遇到的问题和技术难点如何解决。
本回答被网友采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
从大的知识体系结构来看,学习大数据需要具备三方面基础,分别是数据库知识、数学和统计学知识、计算机知识,选择不同的主攻方向还需要有不同的学习侧重点。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询
广告 您可能关注的内容 |