大数据工程师需要学习哪些?

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据工程师需要学习哪些?相关的知识,希望对你有一定的参考价值。

现在想学大数据,希望网友给个中肯的回答,谢谢

    Java :只要了bai解一些基础即可,做大数据不需要很深的Java 技术,学java SE 就相当于有学习大数据。

    Linux:因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,学好Linux对你快速掌握大数据相关技术会有很大的帮助,能让你更好的理解hadoop、hive、hbase、spark等大数据软件的运行环境和网络环境配置,能少踩很多坑,学会shell就能看懂脚本这样能更容易理解和配置大数据集群。

    Hadoop:这是现在流行的大数据处理平台几乎已经成为大数据的代名词,所以这个是必学的。

    Zookeeper:这是个万金油,安装Hadoop的HA的时候就会用到它,以后的Hbase也会用到它。

    mysql:我们学习完大数据的处理了,接下来学习学习小数据的处理工具mysql数据库,因为一会装hive的时候要用到,mysql需要掌握到什么层度那?你能在Linux上把它安装好,运行起来,会配置简单的权限,修改root的密码,创建数据库。

    Sqoop:这个是用于把Mysql里的数据导入到Hadoop里的。

    Hive:这个东西对于会SQL语法的来说就是神器,它能让你处理大数据变的很简单

    Oozie:既然学会Hive了,我相信你一定需要这个东西,它可以帮你管理你的Hive或者MapReduce、Spark脚本,还能检查你的程序是否执行正确。

    Hbase:这是Hadoop生态体系中的NOSQL数据库,他的数据是按照key和value的形式存储的并且key是唯一的,所以它能用来做数据的排重,它与MYSQL相比能存储的数据量大很多。

    Kafka:这是个比较好用的队列工具。

    Spark:它是用来弥补基于MapReduce处理数据速度上的缺点。

    请点击输入图片描述

参考技术A 由浅入深依次掌握:

Java语言基础:
Java语言基础、Java流程控制、Java字符串、Java数组与类和对象、数字处理类与核心技术、I/O与反射,多线程、Swing程序与集合类;
html、CSS与javascript
PC端网站布局、HTML5+CSS3基础、WebAPP页面布局、原生javascript交互功能开发、Ajax异步交互、jQuery应用;
JavaWeb和数据库:
数据库、javaWeb开发核心、JavaWeb开发内幕;
Linux基础:
Linux安装与配置、系统管理与目录管理、用户与用户组管理、Shell编程、服务器配置、Vi编辑器与Emacs编辑器;
Hadoop生态体系:
Hadoop起源与安装、MapReduce快速入门、Hadoop分布式文件系统、Hadoop文件I/O详解、MapReduce工作原理、MapReduce编程开发、Hive数据仓库工具、开源数据库HBase、Sqoop与Oozie;
Spark生态体系:
Spark简介、Spark部署和运行、Spark程序开发、Spark编程模型、作业执行解析、Spark SQL与DataFrame、深入Spark Streaming、Spark MLlib与机器学习、GraphX与SparkR、spark项目实战、scala编程、Python编程;
Storm实时开发:
storm简介与基本知识、拓扑详解与组件详解、Hadoop分布式系统、spout详解与bolt详解、zookeeper详解、storm安装与集群搭建、storm-starter详解、开源数据库HBase、trident详解;
投入时间和精力,以兴趣来驱动学习。在整个的学习过程中贯穿着代码实战。看的代码是别人的,动手写出来的是自己的。自己动手写代码,记忆更加深刻,效率更高。本回答被提问者采纳
参考技术B 一、认识大数据大数据本质其实也是数据,不过也包括了些新的特征,数据来源广;数据格式多样化(结构化数据、非结构化数据、Excel文件等);数据量大(最少也是TB级别的、甚至可能是PB级别);数据增长速度快。而针对以上新的特征需要考虑很多问题:例如,数据来源广,该如何采集汇总?采集汇总之后,又该存储呢?数据存储之后,该如何通过运算转化成自己想要的结果呢?对于这些问题,我们需要有相对应的知识解决。

二、大数据所需技能要求Python语言:编写一些脚本时会用到。

Scala语言:编写Spark程序的最佳语言,当然也可以选择用Python。

Ozzie,azkaban:定时任务调度的工具。

Hue,Zepplin:图形化任务执行管理,结果查看工具。

Allluxio,Kylin等:通过对存储的数据进行预处理,加快运算速度的工具。

必须掌握的技能:、 HBase(、 Kafka、Storm/JStorm、Scala、Python、Spark (Core+sparksql+Spark streaming ) 、辅助小工具(Sqoop/Flume/Oozie/Hue等)
参考技术C

你好,大数据学习的内容包括8个阶段的内容:

你可以按照顺序学习,先学习基础的东西,希望你早日学有所成。

参考技术D 要成为大数据工程师,必备的技能有Java,Spark,Hadoop,Hive和Big Data。

入门大数据领域需要哪些技能|大数据工程师学习之路

技术分享图片

入门大数据领域需要哪些技能?大数据学习之路。

大数据是当时时代下一门炙热的IT学科,行情十分火爆,不论是阿里巴巴、百度这样的大公司,还是中小企业都很重视,甚至是第一个纳入国家战略的技术,政府扶持力度大,支持甚多!面对这样的大环境下,大数据相关岗位薪水高,就业前景好。因此也吸引了一大批有志之士,想学习并从事大数据相关工作。那么,大数据应该如何学习呢?


互联网科技发展蓬勃兴起,人工智能时代来临,抓住下一个风口。为帮助那些往想互联网方向转行想学习,却因为
时间不够,资源不足而放弃的人。我自己整理的一份最新的大数据进阶资料和高级开发教程,大数据学习群:
868847735 欢迎进阶中和进想深入大数据的小伙伴加入。

 

学习大数据之前,我们首选需要知道,从事大数据相关工作需掌握哪些知识和技能:

1. Java编程

Java编程是大数据开发的基础,大数据中很多技术都是使用Java编写的,如Hadoop、Spark、mapreduce等,因此,想要学好大数据,Java编程是必备技能!

2. Linux运维

企业大数据开发往往是在Linux操作系统下完成的,因此,想从事大数据相关工作,需要掌握Linux系统操作方法和相关命令。

3. Hadoop

Hadoop是一个能够对大量数据进行分布式处理的软件框架,HDFS和MapReduce是其核心设计,HDFS为海量的数据提供了存储,MapReduce为海量的数据提供了计算,是大数据开发必不可少的框架技能。

4. Zookeeper

ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。

5. Hive

hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行,十分适合数据仓库的统计分析。

6. Hbase

这是Hadoop生态体系中的NOSQL数据库,他的数据是按照key和value的形式存储的并且key是唯一的,所以它能用来做数据的排重,它与MYSQL相比能存储的数据量大很多

7. Kafka

Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据,通过Hadoop的并行加载机制来统一线上和离线的消息处理,通过集群来提供实时的消息。

8. Spark

Spark 是专为大规模数据处理而设计的快速通用的计算引擎,拥有Hadoop MapReduce所具有的优点,但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

好了以上就是学习大数据需要掌握的知识,你get到了吗。

 




以上是关于大数据工程师需要学习哪些?的主要内容,如果未能解决你的问题,请参考以下文章

大数据工程师需要学习哪些?

大数据需要掌握哪些技能

大数据开发工程师需要具备哪些技能?

大数据工程师需要掌握哪些技能?

高薪的大数据工程师需要具备哪些技术呢?

学大数据的都需要考哪些证书?