{eval=Array;=+count(Array);}

问答专栏Q & A COLUMN

大数据怎么入门学习好?

felix0913felix0913 回答0 收藏1
收藏问题

10条回答

qingshanli1988

qingshanli1988

回答于2022-06-28 15:29

大数据的入门学习有多条学习路线,可以根据自身的知识结构进行选择,并不是所有的学习路线都是从学Linux操作系统开始,然后是Java、Hadoop、Spark等,学习大数据也可以从数据分析开始。对于职场人来说,学习数据分析的工具如何使用,远比学习Hadoop更加实际。

大数据的核心是数据价值化,只要围绕这个核心所做的一系列数据价值化的操作都是大数据的分内之事,所以大数据学习的出发点比学习内容本身更重要,如果在学习大数据的初期就能建立数据价值化概念,那么对初学者来说是一个莫大的推动力,如何能快速建立数据价值化概念呢?答案就是从数据分析开始。

数据分析并没有那么复杂,即使是没有多少计算机基础的人也可以入门数据分析,并不是所有的数据分析都需要通过机器学习的方式来完成,有很多工具能够方便的完成数据分析,而这些工具本身并不是特别复杂,比如Excel。Excel是一个功能强大的数据分析工具,在没有大数据概念的年代,Excel就在做数据分析的事情,虽然在大数据时代数据分析更加多样化,但是通过Excel能让入门者快速发现“数据之美”,完全可以通过Excel打开学习大数据的大门。

学习Excel可以从基本的函数开始学起,比如sum、count、Vlookup、sumif、countif、find等,这些函数的使用非常方便且功能强大,通过实验很快就能建立起数据分析的概念。Excel基本上能解决不少普通职场人的数据分析场景,几万条的数据分析使用Excel是没有压力的。

下一步学习就涉及到数据库的使用了,虽然目前大数据领域的非结构化数据占据着大部分的比例,但是目前大量的数据分析还是基于结构化数据进行的,所以学习一个数据库产品的使用就变得很有必要了,推荐学习一下Mysql数据库。掌握数据库之后,数据分析的数量就会有显著的提高,几百万条数据都是毫无压力的,相比于Excel来说,数据分析的量一下就得到了质的提高。

接着可以学习一下SPSS,SPSS是数据分析(统计)领域一个非常强大的工具,分析可以定制化,是一个比较常见的工具。在数据可视化方面可以学习一下Echarts,这是一个开源产品,功能也非常强大,同样可以进行定制化(程序化)。

学习数据分析一个比较麻烦的事情是数据从哪来?要想解决这个问题,就必须进行下个阶段的学习了,那就是Python编程,可以通过Python编写爬虫来爬取互联网上的海量数据,作为自己数据分析的基础。其实学习数据分析到中后期是绕不过编程的,掌握一门编程语言是非常有必要的,而Python就是数据分析最常见的编程语言之一。

数据分析涵盖的内容非常多,按照场景不同也有很多条分析路线,对于初学者来说可以采用递进式学习方式,这样会有更好的学习效果。

大数据是我的主要研究方向之一,目前我也在带大数据方向的研究生,我会陆续写一些关于大数据方面的文章,感兴趣的朋友可以关注我的头条号,相信一定会有所收获。

如果有大数据方面的问题,也可以咨询我。

谢谢!

评论0 赞同0
  •  加载中...
XBaron

XBaron

回答于2022-06-28 15:29

大数据入门首先要学习javase,掌握了javase之后,最好再学学javaee,如果不学的话,影响也不是特别大。接下来要学的东西就比较多了,主要是两块,一种是离线计算,以hadoop为主,一种是实时计算,以spark为主,当然大数据不是一两个技术的组合,而是一整套完整的生态系统,所以要学的东西还是很多的,大数据主要解决的是海量数据的存储和计算问题,建议还是把java学好,因为很多大数据的软件都是基于java编写的,所以入门大数据的话,建议先从java入门学习比较好!




评论0 赞同0
  •  加载中...
gaara

gaara

回答于2022-06-28 15:29

目前的互联网行业发现的很迅速。那是因为现在的人们离不开手机,各种app充斥着我们的生活。

人们输入、搜索什么,想要相对应的反馈,像购物平台也是如此,不会当时购买,但是有这个购买倾向,之后就会被一直推送,这个就大数据行业弄的。


首先大数据和java其实有很多相关之处,首先学习大数据也是要学习java基础的。所以很多相似之处是很多的。

以下是学习的路线图,你可以看看:


入门即入行,入行很难的,加油

评论0 赞同0
  •  加载中...
mykurisu

mykurisu

回答于2022-06-28 15:29

  大数据入或者说是学习大数据,首先我们要学习Java语言和Linux操作系统,这两个是学习大数据的基础,学习的顺序不分前后。

  如果你就一小白,没有任何开发基础,也没有学过任何开发语言,那就必须先从基础java开始学起(大数据支持很多开发语言,但企业用的最多的还是JAVA),接下来学习数据结构、关系型数据库、linux系统操作,夯实基础之后,再进入大数据的学习。

  Java基础学习、数据类型掌握、算法、程序结构、常用类、数据结构、关系型数据库等等,其次就是Linux系统操作学习与熟悉。

  掌握Linux操作系统的安装、命令行操作、用户管理、磁盘管理、文件系统管理、软件包管理、进程管理、系统监测和系统故障排除。

  掌握Linux操作系统的网络配置、DNS、DHCP、HTTP、FTP、SMTP和POP3服务的配置与管理。

  然后就是数据库表设计、SQL语句、Linux常见命令等的学习。

  然后这些都学会了就行了吗?

  当然不行,你还得先跟着一两个项目从中学习一下,要知道书面上的东西和实操起来还是有些差距的。

  最后,祝你好运。然后,想了解直播平台搭建后者直播平台选择的也可以私信我。

评论0 赞同0
  •  加载中...
longmon

longmon

回答于2022-06-28 15:29

小编发现越来越多的人学习大数据,现如今大数据已经不是新型编程科目了,大数据有平台开发逐渐向大数据应用开发蔓延发展,这也是大数据开发落地实施的必然结果。现在大数据已然被政府重视,在大学也设立了大数据专业,然而大数据专业毕业生也无法满足企业的需求量,有很大一部分大数据开发人才是通过大数据培训输出的。

小伙伴可以通过自学或参加大数据培训班来获得大数据知识。但是小伙伴一定要知道的是大数据是比较复杂且综合性比较强的编程语言,自学大数据的话,相应的得具备java、Python等编程语言基础,才能更容易接受大数据知识,如果是零基础的话,我建议通过大数据培训来系统学习技术知识,那大数据该如何入门学习呢?

1.掌握java、Python等相关编程基础

如果自学大数据,你需要在网上搜罗一些相关java、Python等编程语言视频来了解学习基础知识,能达到初步入门即可;在大数据培训一般都会设有针对零基础的教学模块,等基本掌握了一些编程基础,才开始教学大数据的相关知识。

2.以用为学

小伙伴在学习大数据的时候,可以根据各大招聘网站上企业对大数据人才的技术需求,去着重学习相关技术知识,同时结合实战项目练习,来学习巩固大数据技术编程知识,以用为学,提高学习效率,提升自身职业价值。

3.多交流,多练习

无论小伙伴通过哪种学习方式来获得大数据知识,在学习过程中必不可少的是多交流和勤加练习敲代码,在交流和练习的过程中捋顺自己对编程思维的认知,培养自己的编程思维。

最后,大数据如何入门学习,除了编程基础的学习,还需要小伙伴端正自己的学习态度,不断探索适合自己的学习方法,提高学习效率,成功入行大数据行业。

评论0 赞同0
  •  加载中...
Baaaan

Baaaan

回答于2022-06-28 15:29

学习大数据首先我们要学习Java语言和Linux操作系统,这两个是学习大数据的基础,学习的顺序不分前后. Java 大家都知道Java的方向有JavaSE、JavaEE、JavaME,学习大数据要学习那个方向呢?只需要学习Java的标准版JavaSE就可以了,像Servlet、JSP、Tomcat、Struts、Spring、Hibernate,Mybatis都是JavaEE方向的技术在大数据技术里用到的并不多,只需要了解就可以了,当然Java怎么连接数据库还是要知道的,像JDBC一定要掌握一下。 有同学说Hibernate或Mybites也能连接数据库啊,为什么不学习一下,我这里不是说学这些不好,而是说学这些可能会用你很多时间,到最后工作中也不常用,我还没看到谁做大数据处理用到这两个东西的,当然你的精力很充足的话,可以学学Hibernate或Mybites的原理,不要只学API,这样可以增加你对Java操作数据库的理解,因为这两个技术的核心就是Java的反射加上JDBC的各种使用。 Linux 因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,学好Linux对你快速掌握大数据相关技术会有很大的帮助,能让你更好的理解hadoop、hive、hbase、spark等大数据软件的运行环境和网络环境配置,能少踩很多坑,学会shell就能看懂脚本这样能更容易理解和配置大数据集群。还能让你对以后新出的大数据技术学习起来更快。好说完基础了,再说说还需要学习哪些大数据技术,可以按我写的顺序学下去。 Hadoop 这是现在流行的大数据处理平台几乎已经成为大数据的代名词,所以这个是必学的。Hadoop里面包括几个组件HDFS、MapReduce和YARN,HDFS是存储数据的地方就像我们电脑的硬盘一样文件都存储在这个上面,MapReduce是对数据进行处理计算的,它有个特点就是不管多大的数据只要给它时间它就能把数据跑完,但是时间可能不是很快所以它叫数据的批处理。YARN是体现Hadoop平台概念的重要组件有了它大数据生态体系的其它软件就能在hadoop上运行了,这样就能更好的利用HDFS大存储的优势和节省更多的资源比如我们就不用再多带带建一个spark的集群了,让它直接跑在现有的hadoop yarn上面就可以了。其实把Hadoop的这些组件学明白你就能做大数据的处理了,只不过你现在还可能对"大数据"到底有多大还没有个太清楚的概念,听我的别纠结这个。等以后你工作了就会有很多场景遇到几十T/几百T大规模的数据,到时候你就不会觉得数据大真好,越大越有你头疼的。当然别怕处理这么大规模的数据,因为这是你的价值所在,让那些个搞Javaee的php的html5的和DBA的羡慕去吧。记住学到这里可以作为你学大数据的一个节点。Zookeeper 这是个万金油,安装Hadoop的HA的时候就会用到它,以后的Hbase也会用到它。它一般用来存放一些相互协作的信息,这些信息比较小一般不会超过1M,都是使用它的软件对它有依赖,对于我们个人来讲只需要把它安装正确,让它正常的run起来就可以了。Mysql我们学习完大数据的处理了,接下来学习学习小数据的处理工具mysql数据库,因为一会装hive的时候要用到,mysql需要掌握到什么层度那?你能在Linux上把它安装好,运行起来,会配置简单的权限,修改root的密码,创建数据库。这里主要的是学习SQL的语法,因为hive的语法和这个非常相似。Sqoop这个是用于把Mysql里的数据导入到Hadoop里的。当然你也可以不用这个,直接把Mysql数据表导出成文件再放到HDFS上也是一样的,当然生产环境中使用要注意Mysql的压力。Hive这个东西对于会SQL语法的来说就是神器,它能让你处理大数据变的很简单,不会再费劲的编写MapReduce程序。有的人说Pig那?它和Pig差不多掌握一个就可以了。Oozie既然学会Hive了,我相信你一定需要这个东西,它可以帮你管理你的Hive或者MapReduce、Spark脚本,还能检查你的程序是否执行正确,出错了给你发报警并能帮你重试程序,最重要的是还能帮你配置任务的依赖关系。我相信你一定会喜欢上它的,不然你看着那一大堆脚本,和密密麻麻的crond是不是有种想屎的感觉。Hbase这是Hadoop生态体系中的NOSQL数据库,他的数据是按照key和value的形式存储的并且key是唯一的,所以它能用来做数据的排重,它与MYSQL相比能存储的数据量大很多。所以他常被用于大数据处理完成之后的存储目的地。Spark它是用来弥补基于MapReduce处理数据速度上的缺点,它的特点是把数据装载到内存中计算而不是去读慢的要死进化还特别慢的硬盘。特别适合做迭代运算,所以算法流们特别稀饭它。它是用scala编写的。Java语言或者Scala都可以操作它,因为它们都是用JVM的。会这些东西你就成为一个专业的大数据开发工程师了,月薪2W都是小毛毛雨后续提高 :当然还是有很有可以提高的地方,比如学习下python,可以用它来编写网络爬虫。这样我们就可以自己造数据了,网络上的各种数据你高兴都可以下载到你的集群上去处理。最后再学习下推荐、分类等算法的原理这样你能更好的与算法工程师打交通。这样你的公司就更离不开你了,大家都会对你喜欢的不要不要的。

评论0 赞同0
  •  加载中...
894974231

894974231

回答于2022-06-28 15:29

大数据相比较于Java、Python等编程语言来说,确实是入门比较难的,不过如果想自学也没毛病,只要你了解大数据的学习路线图,跟着学习路线图来学习,不会走偏,那么,想学习还是很容易的哦!

分享给大家一套大数据的学习路线图

学习大数据,也需要一些编程语言要基础,之后还要学习Hadoop、spark等技术栈,在加上一些项目实战,就可以找工作喽!

第一阶段:零基础数据仓库管理

可掌握的核心能力

•掌握企业级ETL平台的kettle

•掌握BI的可视化平台Superset

•掌握Kettle ETL处理设计思想

•掌握大数据企业开发中最常见的linux的操作

•掌握一款主流数据库客户端工具DataGrip

•掌握企业MySQL的调优方案

•掌握大数据分析中数据全量及增量同步解决方案

•掌握生产环境中数据分析程序的部署解决方案

第二阶段:Java语言编程

可掌握的核心能力

•掌握Java程序基础数据类型

•掌握开发中常用类如集合、IO流、常用类等操作

•掌握Java异常处理机制

•掌握反射、网络编程、多线程开发

•掌握Jsoup的网络爬虫开发

•掌握JDBC操作

•掌握ETL数据处理和BI报表开发

第三阶段:Hadoop技术栈

可掌握的核心能力

•掌握shell编程

•掌握ZooKeeper原理并应用

•掌握HDFS的使用和MapReduce编程

•理解MapReduce原理和调优

•掌握Yarn的原理和调优

•掌握Hive的使用和调优

第四阶段:项目一(在线教育)

可掌握的核心能力

•掌握从需求、设计、研发、测试到落地上线的完整项目流程

•掌握大量教育行业的真实业务逻辑,涉及20多个主题,100多个指标

•掌握海量数据如何调优、使用拉链表、增量数据处理,以及Hive函数的具体应用等

•掌握基于CM的大数据环境部署和管理

•掌握数据仓库的核心概念和应用

•掌握常用离线大数据技术:Oozie、Sqoop、Hive等

•掌握FineReport可视化

第五阶段:数据微服务接口开发

可掌握的核心能力

•掌握SpringBoot整合SpringMVC开发

•掌握SpringBoot整合MyBatis开发

•掌握Eureka搭建

•掌握Feign的使用

第六阶段:实时生态圈

可掌握的核心能力

•掌握Redis原理及架构

•掌握Redis命令操作、及数据结构

•掌握Hbase原理及架构

•掌握HBase命令操作、MapReduce编程

•掌握Phoneix二级索引优化查询

•掌握ELK开发掌握Kafka原理及架构

掌握KafkaStreams开发

掌握基于Flink进行实时和离线数据处理、分析

掌握基于Flink的多流并行处理技术

掌握千万级高速实时采集技术

第七阶段:项目二(证券、物联网任选其一)

可掌握的核心能力

•掌握基于FTP、Flume + Kafka的实时数据采集开发

•掌握TB级海量规模下Flink实时处理开发,保证实时计算高容错

•掌握三种不同时间维指标的存储、计算方案(Druid、MySQL、HBase),例如:毫秒级秒级分时等时间维

•掌握基于Kylin的即席快速OLAP开发

•掌握基于Flink CEP的实时预警监控开发

•掌握基于Spring Boot的数据服务接口开发

第八阶段:Spark技术栈

可掌握的核心能力

•掌握Scala语言基础、数据结构

•掌握Scala语言高阶语法特性

•掌握Spark的RDD、DAG、CheckPoint等设计思想

•掌握SparkSQL结构化数据处理,Spark On Hive整合

•掌握Spark Streaming整合Kafka完成实时数据处理

•掌握Spark Streaming偏移量管理及Checkpoint

•掌握Structured Streaming整合多数据源完成实时数据处理

第九阶段:项目三

可掌握的核心能力

•掌握Docker环境部署、管理操作

•掌握基于Oracle + MySQL异构数据源数据处理技术

•掌握基于Oracle Golden Gate以及Canal的实时采集技术

•掌握Kudu + Spark的快速离线数据处理、分析技术

•掌握Kudu + Impala即席数据分析技术

•掌握基于ClickHouse高性能存储、计算引擎技术

•掌握基于ELK的全文检索技术

•掌握Kudu、Spark的调优能力

•掌握基于Spring Cloud的数据微服务接口开发技术

如果想要学习,有免费教程,可以私信我哦

评论0 赞同0
  •  加载中...
codergarden

codergarden

回答于2022-06-28 15:29

大数据技术想要入门是比较难的,如果是零基础的学员想要入门大数据的还是不太可能事情,最好是找一家靠谱的大数据培训机构进行系统的学习大数据基础,但是大数据的学习也不是谁都可以的,零基础的最好是本科的学历,因为大数据培训学习需要的逻辑思维分析能力比较强,也涉及到一些大学的数学算法,所以学历要求会高些,如果是有Java基础的哪就另当别论了,大数据技术的培训学习,基本都是以Java为基础铺垫的的,有一些Java基础的话,相对来说就容易一些了,如果是直接想学大数据开发的话,Linux基础要有一些,然后就是大数据相关组件的学习和使用,以及他们之间各个有什么作用,数据采集聚合传输处理,各个组件在什么位置,有什么作用等,

一般都是Hadoop+zookeeper+Hive+Flume+Kafka+HBase+Spark+Flink

大数据培训内容:

1、基础部分:JAVA语言 和 LINUX系统。

2、大数据技术部分:HADOOP、HIVE、OOZIE、WEB、FLUME、PYTHON、HBASE、KAFKA、SCALA、SPARK、SPARK调优等,覆盖前沿技术:Hadoop,Spark,Flink,实时数据处理、离线数据处理、机器学习。

大数据学习是一件值得大家投资自己的事情,也是一件从长远发展来看比较不错的行业,但是咋这里小编还是要体提醒大家在决定大数据学习之前,一定要先对大数据和自己都有一个明确的认知,这样更有利于后期大数据的学习。

2020大数据学习路线

评论0 赞同0
  •  加载中...
coordinate35

coordinate35

回答于2022-06-28 15:29

学习大数据技术 分这么几个阶段

java基础一定要学,因为大数据底层的编程语言就是java,还是在大数据一些应用功能也需要java开发。

2学一门数据库 oracle或mysql ,我建议最好是mysql 因为后期大数据技术hive语法和mysql很像。

3 linux命令 一定要熟练掌握,因为大数据是跑在linux操作系统的。

4 学习一下hdfs mapreduce 原理

学习这些就差不多了。

我是一个有十年大数据开发经验的老兵,大鹏有什么大数据技术问题私信我。

评论0 赞同0
  •  加载中...
songze

songze

回答于2022-06-28 15:29

大数据行业如今如此火爆,带来的市场效应就是很多人开始通过学习的方式进入大数据行业,但是,对于零基础的来说想要进入大数据行业发展怎么入门学习大数据是一件需要着重考虑的事情。大数据是一门比较复杂的课程,学习是需要有一个好的学习计划会更好。



目前的大数据相关的一些使用到的组件都是使用的Java做为底层语言开发的,所以,这里也建议零基础的学员可以从家基础进行入门学习比较好,当然,有其它编程语言也是可以的。

现在一般的大数据培训机构的大数据入门课程,都是从Java编程语言开始进行学习的,但是这里大家一定要认清一个问题,Java编程语言并不是真正的大数据技术只是大数据课程需要掌握的一小部分基础内容,如果,是选择大数据培训机构进行学习的,那么,在选择培训机构时,大数据培训的课程很大的一部分都是编程语言或者是没有相关编程语言的话就要留意了,这是不是靠谱的大数据培训课程就要打一个问号了。

对于零基础的学员来说在学习大数据技术之前掌握一些Java编程基础是必要的,所以,如果选择的大数据培训课程中没有相关内容的学习就不要考虑了,还有就是相关编程内容太多几乎是占据了一半以上的大数据课程内容,这样的大部分是以大数据培训为虐头进行的培训。

所以,在我们选择大数据学习是时候一定要了解清楚,大数据都说需要掌握哪些内容,应该怎么入门学习的比较好。

评论0 赞同0
  •  加载中...

相关问题

最新活动

您已邀请0人回答 查看邀请

我的邀请列表

  • 擅长该话题
  • 回答过该话题
  • 我关注的人
向帮助了您的网友说句感谢的话吧!
付费偷看金额在0.1-10元之间
<