如何快速成为数据分析师
1、技能一:理解数据库。
还以为要与文本数据打交道吗?答案是:NO!进入了这个领域,你会发现几乎一切都是用数据库 来存储数据,如MySQL,Postgres,CouchDB,MongoDB,Cassandra等。理解数据库并且能熟练使用它,将是一个基础能力。
2、技能二:掌握数据整理、可视化和报表制作。
数据整理,是将原始数据转换成方便实用的格式,实用工具有DataWrangler和R。数据可视化,是创建和研究数据的视觉表现,实用工具有ggvis,D3,vega。数据报表是将数据分析和结果制作成报告。也是数据分析师的一个后续工作。这项技能是做数据分析师的主要技能。可以借助新型软件帮助自己迅速学会分析。
3、技能三:懂设计
说到能制作报表成果,就不得不说说图表的设计。在运用图表表达数据分析师的观点时,懂不懂设计直接影响到图形的选择、版式的设计、颜色的搭配等,只有掌握设计原则才能让结果一目了然。否则图表杂乱无章,数据分析内容不能良好地呈现出来,分析结果就不能有效地传达。
4、技能四:几项专业技能
统计学技能——统计学是数据分析的基础,掌握统计学的基本知识是数据分析师的基本功。从数据采集、抽样到具体分析时的验证探索和预测都要用到统计学。
社会学技能——从社会化角度看,人有社会性,收群体心理的影响。数据分析师没有社会学基本技能,很难对市场现象做出合理解释。
另外,最好还能懂得财务管理知识和心理学概况。这些都将会使你做数据分析的过程更容易。
5、技能五:提升个人能力。
有了产品可以将数据展示出来,还需要具备基本的分析师能力。首先,要了解模型背后的逻辑,不能单纯地在模型中看,而要放到整个项目的上下文中去看。要理解数据的信息,形成一个整体系统,这样才能够做好细节。另外,与数据打交道,细心和耐心也是必不可少的。
6、技能六:随时贴近数据文化
拥有了数据分析的基本能力,还怕不够专业?不如让自己的生活中充满数据分析的气氛吧!试着多去数据分析的论坛看看,多浏览大数据知识的网站,让自己无时无刻不在进步,还怕不能学会数据分析吗?
拥有这些技能,再去做数据分析,数据将在你手里变得更亲切,做数据分析也会更简单更便捷,速成数据分析师不再遥远。
扩展资料:
企业对数据分析师的基础技能需求差别不大,可总结如下:
SQL数据库的基本操作,会基本的数据管理
会用Excel/SQL做基本的数据分析和展示
会用脚本语言进行数据分析,Python or R
有获取外部数据的能力,如爬虫
会基本的数据可视化技能,能撰写数据报告
熟悉常用的数据挖掘算法:以回归分析为主
参考资料:数据分析师_百度百科
2022-03-14 广告
诚然,任何一门技术都不可能一蹴而就,更不可能一夜成才。这世上,没有什么牛逼的事情是能够速成的,越是专业、越是基层、收益周期越长的技能越是这样,数据分析师也不例外。但这并不代表,我们不能通过一些有效的方法,把学习的过程变得高效而有趣,让自己的数据分析师学成之旅起到事半功倍的作用。倘若真的想一口吃成一个胖子,到时去面试去工作,你会被自己的好不扎实的专业基底伤害得遍体鳞伤。
学习数据分析师之前,你必须清楚自己想要达成什么目标。也就是说,你想通过这门技术来解决哪些问题或实现什么计划。有了这个目标,你才能清晰地开展自己的学习规划,并且明确它的知识体系。只有明确的目标导向,学习必备也是最有用的那部分,才能避免无效信息降低学习效率。
1、明确知识框架和学习路径
数据分析这件事,如果你要成为数据分析师,那么你可以去招聘网站看看,对应的职位的需求是什么,一般来说你就会对应该掌握的知识架构有初步的了解。你可以去看看数据分析师职位,企业对技能需求可总结如下:
SQL数据库的基本操作,会基本的数据管理;
会用Excel/SQL做基本的数据提取、分析和展示;
会用脚本语言进行数据分析,Python or R;
有获取外部数据的能力加分,如爬虫或熟悉公开数据集;
会基本的数据可视化技能,能撰写数据报告;
熟悉常用的数据挖掘算法:回归分析、决策树、分类、聚类方法;
高效的学习路径是什么?就是数据分析的流程。一般大致可以按“数据获取-数据存储与提取-数据预处理-数据建模与分析-数据可视化”这样的步骤来实现一个数据分析师的学成之旅。按这样的顺序循序渐进,你会知道每个部分需要完成的目标是什么,需要学习哪些知识点,哪些知识是暂时不必要的。然后每学习一个部分,你就能够有一些实际的成果输出,有正向的反馈和成就感,你才会愿意花更多的时间投入进去。以解决问题为目标,效率自然不会低。
按照上面的流程,我们分需要获取外部数据和不需要获取外部数据两类分析师,总结学习路径如下:
1.需要获取外部数据分析师:
python基础知识
python爬虫
SQL语言
python科学计算包:pandas、numpy、scipy、scikit-learn
统计学基础
回归分析方法
数据挖掘基本算法:分类、聚类
模型优化:特征提取
数据可视化:seaborn、matplotlib
2.不需要获取外部数据分析师:
SQL语言
python基础知识
python科学计算包:pandas、numpy、scipy、scikit-learn
统计学基础
回归分析方法
数据挖掘基本算法:分类、聚类
模型优化:特征提取
数据可视化:seaborn、matplotlib
接下来我们分别从每一个部分讲讲具体应该学什么、怎么学。
数据获取:公开数据、Python爬虫
如果接触的只是企业数据库里的数据,不需要要获取外部数据的,这个部分可以忽略。
外部数据的获取方式主要有以下两种。
第一种是获取外部的公开数据集,一些科研机构、企业、政府会开放一些数据,你需要到特定的网站去下载这些数据。这些数据集通常比较完善、质量相对较高。
另一种获取外部数据费的方式就是爬虫。
比如你可以通过爬虫获取招聘网站某一职位的招聘信息,爬取租房网站上某城市的租房信息,爬取豆瓣评分评分最高的电影列表,获取知乎点赞排行、网易云音乐评论排行列表。基于互联网爬取的数据,你可以对某个行业、某种人群进行分析。
在爬虫之前你需要先了解一些 Python 的基础知识:元素(列表、字典、元组等)、变量、循环、函数(链接的菜鸟教程非常好)……以及如何用成熟的 Python 库(urllib、BeautifulSoup、requests、scrapy)实现网页爬虫。如果是初学,建议从 urllib 和 BeautifulSoup 开始。(PS:后续的数据分析也需要 Python 的知识,以后遇到的问题也可以在这个教程查看)
网上的爬虫教程不要太多,爬虫上手推荐豆瓣的网页爬取,一方面是网页结构比较简单,二是豆瓣对爬虫相对比较友好。
掌握基础的爬虫之后,你还需要一些高级技巧,比如正则表达式、模拟用户登录、使用代理、设置爬取频率、使用cookie信息等等,来应对不同网站的反爬虫限制。
除此之外,常用的的电商网站、问答网站、点评网站、二手交易网站、婚恋网站、招聘网站的数据,都是很好的练手方式。这些网站可以获得很有分析意义的数据,最关键的是,有很多成熟的代码,可以参考。
数据存取:SQL语言
你可能有一个疑惑,为什么没有讲到Excel。在应对万以内的数据的时候,Excel对于一般的分析没有问题,一旦数据量大,就会力不从心,数据库就能够很好地解决这个问题。而且大多数的企业,都会以SQL的形式来存储数据,如果你是一个分析师,也需要懂得SQL的操作,能够查询、提取数据。
SQL作为最经典的数据库工具,为海量数据的存储与管理提供可能,并且使数据的提取的效率大大提升。你需要掌握以下技能:
提取特定情况下的数据:企业数据库里的数据一定是大而繁复的,你需要提取你需要的那一部分。比如你可以根据你的需要提取2018年所有的销售数据、提取今年销量最大的50件商品的数据、提取上海、广东地区用户的消费数据……,SQL可以通过简单的命令帮你完成这些工作。
数据库的增、删、查、改:这些是数据库最基本的操作,但只要用简单的命令就能够实现,所以你只需要记住命令就好。
数据的分组聚合、如何建立多个表之间的联系:这个部分是SQL的进阶操作,多个表之间的关联,在你处理多维度、多个数据集的时候非常有用,这也让你可以去处理更复杂的数据。
数据预处理:Python(pandas)
很多时候我们拿到的数据是不干净的,数据的重复、缺失、异常值等等,这时候就需要进行数据的清洗,把这些影响分析的数据处理好,才能获得更加精确地分析结果。
比如空气质量的数据,其中有很多天的数据由于设备的原因是没有监测到的,有一些数据是记录重复的,还有一些数据是设备故障时监测无效的。比如用户行为数据,有很多无效的操作对分析没有意义,就需要进行删除。
那么我们需要用相应的方法去处理,比如残缺数据,我们是直接去掉这条数据,还是用临近的值去补全,这些都是需要考虑的问题。
对于数据预处理,学会 pandas 的用法,应对一般的数据清洗就完全没问题了。需要掌握的知识点如下:
选择:数据访问(标签、特定值、布尔索引等)
缺失值处理:对缺失数据行进行删除或填充
重复值处理:重复值的判断与删除
空格和异常值处理:清楚不必要的空格和极端、异常数据
相关操作:描述性统计、Apply、直方图等
合并:符合各种逻辑关系的合并操作
分组:数据划分、分别执行函数、数据重组
Reshaping:快速生成数据透视表
概率论及统计学知识
数据整体分布是怎样的?什么是总体和样本?中位数、众数、均值、方差等基本的统计量如何应用?如果有时间维度的话随着时间的变化是怎样的?如何在不同的场景中做假设检验?数据分析方法大多源于统计学的概念,所以统计学的知识也是必不可少的。需要掌握的知识点如下:
基本统计量:均值、中位数、众数、百分位数、极值等
其他描述性统计量:偏度、方差、标准差、显著性等
其他统计知识:总体和样本、参数和统计量、ErrorBar
概率分布与假设检验:各种分布、假设检验流程
其他概率论知识:条件概率、贝叶斯等
有了统计学的基本知识,你就可以用这些统计量做基本的分析了。通过可视化的方式来描述数据的指标,其实可以得出很多结论了,比如排名前100的是哪些,平均水平是怎样的,近几年的变化趋势如何……
你可以使用python的包 Seaborn(python包)在做这些可视化的分析,你会轻松地画出各种可视化图形,并得出具有指导意义的结果。了解假设检验之后,可以对样本指标与假设的总体指标之间是否存在差别作出判断,已验证结果是否在可接受的范围。
python数据分析
如果你有一些了解的话,就知道目前市面上其实有很多 Python 数据分析的书籍,但每一本都很厚,学习阻力非常大。但其实真正最有用的那部分信息,只是这些书里很少的一部分。比如用 Python 实现不同案例的假设检验,其实你就可以对数据进行很好的验证。
比如掌握回归分析的方法,通过线性回归和逻辑回归,其实你就可以对大多数的数据进行回归分析,并得出相对精确地结论。比如DataCastle的训练竞赛“房价预测”和“职位预测”,都可以通过回归分析实现。这部分需要掌握的知识点如下:
回归分析:线性回归、逻辑回归
基本的分类算法:决策树、随机森林……
基本的聚类算法:k-means……
特征工程基础:如何用特征选择优化模型
调参方法:如何调节参数优化模型
Python 数据分析包:scipy、numpy、scikit-learn等
在数据分析的这个阶段,重点了解回归分析的方法,大多数的问题可以得以解决,利用描述性的统计分析和回归分析,你完全可以得到一个不错的分析结论。
当然,随着你实践量的增多,可能会遇到一些复杂的问题,你就可能需要去了解一些更高级的算法:分类、聚类,然后你会知道面对不同类型的问题的时候更适合用哪种算法模型,对于模型的优化,你需要去学习如何通过特征提取、参数调节来提升预测的精度。这就有点数据挖掘和机器学习的味道了,其实一个好的数据分析师,应该算是一个初级的数据挖掘工程师了。
系统实战
这个时候,你就已经具备了数据分析的基本能力了。但是还要根据不同的案例、不同的业务场景进行实战。能够独立完成分析任务,那么你就已经打败市面上大部分的数据分析师了。
如何进行实战呢?
上面提到的公开数据集,可以找一些自己感兴趣的方向的数据,尝试从不同的角度来分析,看看能够得到哪些有价值的结论。
另一个角度是,你可以从生活、工作中去发现一些可用于分析的问题,比如上面说到的电商、招聘、社交等平台等方向都有着很多可以挖掘的问题。
开始的时候,你可能考虑的问题不是很周全,但随着你经验的积累,慢慢就会找到分析的方向,有哪些一般分析的维度,比如top榜单、平均水平、区域分布、年龄分布、相关性分析、未来趋势预测等等。随着经验的增加,你会有一些自己对于数据的感觉,这就是我们通常说的数据思维了。
你也可以看看行业的分析报告,看看优秀的分析师看待问题的角度和分析问题的维度,其实这并不是一件困难的事情。
在掌握了初级的分析方法之后,也可以尝试做一些数据分析的竞赛,比如 DataCastle 为数据分析师专门定制的三个竞赛,提交答案即可获取评分和排名:
员工离职预测训练赛
美国King County房价预测训练赛
北京PM2.5浓度分析训练赛
种一棵树最好的时间是十年前,其次是现在。现在就去,找一个数据集开始吧!!
这个阶段是你学习数据分析的第一个月。核心的三本书就是:统计学、R IN ACTION、深入浅出数据分析。
第一星期:好好的阅读一下统计学这本教材。按照每天3个小时的时间,一个星期你至少能看完8章。踏踏实实的看完,课后习题不需要做,重点放在理解公式推导以及专业名字定义的理解上。
第二星期:有了统计学基础,R语言学习起来就不会太费劲。《R in action》 是公认的R语言经典教材。跟着书上的代码仔细的敲一笔遍,你不需要全部看完这本书,只需要学会前8章左右就差不多了。 学完后你会对统计学有一个更深的认识~
第三个星期:《深入浅出数据分析》这本书很大头,不是因为它内容多,而是因为它废话和插图多。很有意思的一本入门级别的教材,花一个星期好好的读一下,能学多少是多少。
第四个星期:查漏补缺。经过前三个星期的学习,你一定有不少的疑惑或者遗忘了某些知识。不要着急,这个星期就是用来好好回顾一下你本月所学的东西,不懂的定义再看看,不会的代码再敲敲,不懂的知识再google一下~
对了,再送你一个视频呗。讲的是如何利用EXCEL进行完整的数据分析流程:
初识数据分析-720P.zip_免费高速下载
第二阶段:升级你的技能
第一个月只是让你对数据分析有一个初步的认识,你已经可以秒杀20%左右的人了(我瞎猜的)
这个月就是要升级你的技能,在对已有的知识基础上做一个升华。本月任务较重,小伙伴需要动脑和动手的地方比较多。
第
一个星期:《数据挖掘导论》这本书绝对是一本良心教材。拿到手从第一章开始阅读,在一个星期之内能看多少就看多少。但是要尽量多看点,因为此书你可能要看
一辈子的~~不要做笔记,因为你做的笔记大部分时间都是在抄书,没啥意思的。数据挖掘可不是记忆的东西,是要靠理解的!
第二个星期:来来
来,python大法学起来。正所谓 life is short, I use python. 不要问那种烂大街的问题:R和PYTHON哪个好。
等你都学了,你就再也不会问这个问题了。
《利用PYTHON进行数据分析》是你学习PYTHON的不二之选,对着书,着重学习numpy,pandas两个包!
对了,也要学会怎么安装PYTHON这也是技术活!
第三个星期:为毛感觉前两个星期啥也没学到?乱七八糟的!
没事,这是正常的,难道你指望两个星期就能学完数据挖掘吗?
在此,你已经有了一定的Python,统计学,数据挖掘基础知识,那么是不是能够讲它们组合起来用一用呢? scikit-learn,你值得拥有。
看不懂没关系,先去看看它们的文档以及那些莫名的专业词语。 然后接着学你的数据挖掘和PYTHON。
第四个星期:重复第三个星期的内容。对了,你是不是应该对R再做点事情呢?
第三阶段:准备一个小小的毕业吧
前两个月会过的很痛苦,很累,很烦躁!不用担心,你终于来到了第三个月,这个月与前两个月完全不一样,因为这个月会更加更加的痛苦!!
在
这个月,我们需要开始学习sql的相关知识。SQL绝对是数据分析师的必备技能,没有之一。作为这个星球上一个通用的语言,它的存在使得我们进行数据处理
时大大的提高了效率。既然SQL学了,那也就学学mysql吧,这是一个存储数据的东西,你说它重不重要呢?
这两个并不难学,稍微花点功夫就能入门了。
本月重点是重复第二个月的工作啊,继续研究统计学、数据挖掘、PYTHON还有那可爱的R语言。怎么研究? 这个还要来问我吗? 书单都在上面了~ 看着书复习就行。 不要忘了那个神技:scikit-learn
对了,如果你想去互联网公司投份简历,记得要把《网页分析》这本书好好的过一遍,相信我,你只要看一遍,就能打败百分之80 的面试官。因为他们压根看不起GA。
你看,三个月入门数据分析师,并不是不可能嘛~~ 我敢说,你这三个月学到的知识已经可以击败一大半的所谓的数据分析师们了~~ Do not ask why, Just do it !!
2019-10-08 · 大数据人才培养的机构
入门的话,懂Excel其实也可以了。当然Excel的水平不能很初级,起码也得是一个中级用户的水平(中级用户的基本要求:理解并熟练使用菜单命令,熟悉使用数据透视表,至少掌握20个常用函数及其嵌套使用)。
数据分析师分两类:
第一类称为数据挖掘工程师,需要精通算法编程等,专注于把庞大的数据进行挖掘处理。
第二类就是我们通常讲的数据分析师,偏业务层面,虽然同样是需要对数据进行处理分析,但最终的目的是服务于业务部门去做决策的。在需要一定技术含量的同时,也需要全方面的发展自己的能力。
合格的数据分析师:
Excel的基本功要扎实,SQL的熟练运用,再者是数据可视化的能力。
CDA LEVEL I 业务数据分析师
PART 1数据分析概念与统计学基础 (占比30%)
PART 2 SQL数据库基础 (占比10%)
PART 3 数据采集与处理 (占比20%)
PART 4 数据建模分析 (占比40%)
CDA LEVEL II 建模分析师
PART 1 数据挖掘基础理论 (占比20%)
PART 2 数据预处理 (占比25%)
PART 3预测型数据挖掘模型 (占比40%)
PART 4 描述型数据挖掘模型 (15%)
CDA LEVEL II 大数据分析师
PART 1 大数据基础理论 占比(8%)
PART 2 Hadoop理论 占比(12%)
PART 3 数据库理论及工具 占比(16%)
PART 4 数据挖掘理论基础 占比(10%)
PART 5 Spark工具及实战 占比(35%)
广告 您可能关注的内容 |