大数据专业主要学什么

1个回答
展开全部
摘要 据毕业后去的岗位:ETL研发、Hadoop开发、信息架构,1、ETL负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。2、hadoop是一个由Apache基金会所开发的分布式系统基础架构。可以使用户在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的威力进行高速运算和存储。hadoop的框架最核心的设计就是HDFS和MapReduce,HDFS为海量的数据提供了存储,MapReduce则为海量的数据提供了计算。3、信息架构文件是统筹安排信息的基础,这些统筹安排主要集中在搭建某个特殊产品、一套产品或单个产品的信息架构。除了信息架构和信息规划外还有信息设计,它主要就是为支持信息架构和规划而进行的实际操作活动。
咨询记录 · 回答于2022-06-26
大数据专业主要学什么
您好,您的问题我看到了,打字需要时间,请您稍等哦
好的
基础课程:数学分析、高等代数、普通物理数学与信息科学概论、数据结构、数据科学导论、程序设计导论、程序设计实践。必修课:离散数学、概率与统计、算法分析与设计、数据计算智能、数据库系统概论、计算机系统基础、并行体系结构与编程、非结构化大数据分析。选修课:数据科学算法导论、数据科学专题、数据科学实践、互联网实用开发技术、抽样技术、统计学习、回归分析、随机过程。
哦,谢谢了
据毕业后去的岗位:ETL研发、Hadoop开发、信息架构,1、ETL负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。2、hadoop是一个由Apache基金会所开发的分布式系统基础架构。可以使用户在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的威力进行高速运算和存储。hadoop的框架最核心的设计就是HDFS和MapReduce,HDFS为海量的数据提供了存储,MapReduce则为海量的数据提供了计算。3、信息架构文件是统筹安排信息的基础,这些统筹安排主要集中在搭建某个特殊产品、一套产品或单个产品的信息架构。除了信息架构和信息规划外还有信息设计,它主要就是为支持信息架构和规划而进行的实际操作活动。
下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消