大数据怎么学
1、理论要求及对数字的敏感性,包括统计知识、市场研究、模型原理等。
2、工具使用,包括挖掘工具、数据库、常用办公软件(excel、PPT、word、脑图)等。
3、业务理解能力和对商业的敏感性。对商业及产品要有深刻的理解,因为数据分析的出发点就是要解决商业的问题,只有理解了商业问题,才能转换成数据分析的问题,从而满足部门的要求。
4、汇报和图表展现能力。这是临门一脚,做得再好的分析模型,如果不能很好地展示给领导和客户,成效就大打折扣,也会影响到数据分析师的职业晋升。
二、请把数据分析作为一种能力来培养
从广义来说,现在大多数的工作都需要用到分析能力,特别是数据化运营理念深入的今天,像BAT这样的公司强调全员参与数据化运营,所以,把它作为一种能力培训,将会让你终生受益。
三、从数据分析的四个步骤来看清数据分析师需具备的能力和知识:
数据分析的四个步骤(这有别于数据挖掘流程:商业理解、数据理解、数据准备、模型搭建、模型评估、模型部署),是从更宏观地展示数据分析的过程:获取数据、处理数据、分析数据、呈现数据。
(一) 获取数据
获取数据的前提是对商业问题的理解,把商业问题转化成数据问题,要通过现象发现本质,确定从哪些纬度来分析问题,界定问题后,进行数据的采集。此环节,需要数据分析师具备结构化的思维和对商业问题的理解能力。
推荐书籍:《金字塔原理》、麦肯锡三部曲:《麦肯锡意识》、《麦肯锡工具》、《麦肯锡方法》
工具:思维导图、mindmanager软件
(二) 处理数据
一个数据分析项目,通常数据处理时间占70%以上,使用先进的工具有利于提升效率,所以尽量学习最新最有效的处理工具,以下介绍的是最传统的,但却很有效率的工具:
Excel:日常在做通报、报告和抽样分析中经常用到,其图表功能很强大,处理10万级别的数据很轻松。
UltraEdit:文本工具,比TXT工具好用,打开和运行速度都比较快。
ACCESS:桌面数据库,主要是用于日常的抽样分析(做全量统计分析,消耗资源和时间较多,通常分析师会随机抽取部分数据进行分析),使用SQL语言,处理100万级别的数据还是很快捷。
Orcle、SQL sever:处理千万级别的数据需要用到这两类数据库。
当然,在自己能力和时间允许的情况下,学习新流行的分布式数据库及提升自身的编程能力,对未来的职业发展也有很大帮助。
分析软件主要推荐:
SPSS系列:老牌的统计分析软件,SPSS Statistics(偏统计功能、市场研究)、SPSS Modeler(偏数据挖掘),不用编程,易学。
SAS:老牌经典挖掘软件,需要编程。
R:开源软件,新流行,对非结构化数据处理效率上更高,需编程。
随着文本挖掘技术进一步发展,对非结构化数据的分析需求也越来越大,需要进一步关注文本挖掘工具的使用。
(三) 分析数据
分析数据,需要用到各类的模型,包括关联规则、聚类、分类、预测模型等,其中一个最重要的思想是对比,任何的数据需要在参照系下进行对比,结论才有意义。
推荐的书籍:
1、《数据挖掘与数据化运营实战,思路、方法、技巧与应用》,卢辉着,机械出版社。这本书是近年国内写得最好的,务必把它当作圣经一样来读。
2、《谁说菜鸟不会数据分析(入门篇)》和《谁说菜鸟不会数据分析(工具篇)》,张文霖等编着。属于入门级的书,适合初学者。
3、《统计学》第五版,贾俊平等编着,中国人民大学出版社。比较好的一本统计学的书。
4、《数据挖掘导论》完整版,[美]Pang-Ning Tan等着,范明等翻译,人民邮电出版社。
5、《数据挖掘概念与技术》,Jiawei Han等着,范明等翻译,机械工业出版社。这本书相对难一些。
6、《市场研究定量分析方法与应用》,简明等编着,中国人民大学出版社。
7、《问卷统计分析实务—SPSS操作与应用》,吴明隆着,重庆大学出版社。在市场调查领域比较出名的一本书,对问卷调查数据分析讲解比较详细。
(四) 呈现数据
该部分需要把数据结果进行有效的呈现和演讲汇报,需要用到金字塔原理、图表及PPT、word的呈现,培养良好的演讲能力。
第一步:培养对于大数据的基本认知
大数据是什么,大数据未来的发展方向和应用场景有哪些,想要入行做大数据,先对培养其基本的行业背景知识是很有必要的。推荐可以看一些相关书籍,例如《大数据时代》、《数据之美》等。
第二步:大数据技术理论知识学习
零基础小白能不能学懂大数据,能不能形成系统的技术体系,这一步很关键。
1、Java:主要为Java的标准版JavaSE。另外,JDBC是一定要掌握的,因为它关系到Java与数据库的连接。
2、Linux:因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,大数据软件的运行环境和网络环境配置会常常用到。
3、Hadoop:这个是必学的,核心组件HDFS、MapReduce和YARN,还有生态圈的常用组件。
4、Oozie:用于管理你的Hive或者MapReduce、Spark脚本,还能检查你的程序是否执行正确。
5、python:用于编写网络爬虫。
6、Kafka:比较好用的消息队列工具,数据吞吐量很大。
7、Spark:用来弥补基于Hadoop中MapReduce处理数据速度上的缺点,特别适合做迭代运算。
学完这些技术框架之后,最好还要有相应的项目来做实战练习,巩固对理论知识的掌握,能够实际去完成一个大数据项目周期当中的所有环节,这样才能在就业市场上获得更大的竞争优势。
第一方面是数学基础,第二方面是统计学基础,第三方面是计算机基础。要想在数据分析的道路上走得更远,一定要注重数学和统计学的学习。数据分析说到底就是寻找数据背后的规律,而寻找规律就需要具备算法的设计能力,所以数学和统计学对于数据分析是非常重要的。
而想要快速成为数据分析师,则可以从计算机知识开始学起,具体点就是从数据分析工具开始学起,然后在学习工具使用过程中,辅助算法以及行业致死的学习。学习数据分析工具往往从Excel工具开始学起,Excel是目前职场人比较常用的数据分析工具,通常在面对10万条以内的结构化数据时,Excel还是能够胜任的。对于大部分职场人来说,掌握Excel的数据分析功能能够应付大部分常见的数据分析场景。
在掌握Excel之后,接下来就应该进一步学习数据库的相关知识了,可以从关系型数据库开始学起,重点在于Sql语言。掌握数据库之后,数据分析能力会有一个较大幅度的提升,能够分析的数据量也会有明显的提升。如果采用数据库和BI工具进行结合,那么数据分析的结果会更加丰富,同时也会有一个比较直观的呈现界面。
数据分析的最后一步就需要学习编程语言了,目前学习Python语言是个不错的选择,Python语言在大数据分析领域有比较广泛的使用,而且Python语言自身比较简单易学,即使没有编程基础的人也能够学得会。通过Python来采用机器学习的方式实现数据分析是当前比较流行的数据分析方式。
对大数据分析有兴趣的小伙伴们,不妨先从看看大数据分析书籍开始入门!B站上有很多的大数据教学视频,从基础到高级的都有,还挺不错的,知识点讲的很细致,还有完整版的学习路线图。也可以自己去看看,下载学习试试。
2020-12-16 · 百度认证:南京课工场信息技术官方账号