從小白到大數(shù)據(jù)技術(shù)專家的學(xué)習(xí)歷程
·大數(shù)據(jù)處理技術(shù)怎么學(xué)習(xí)呢?首先我們要學(xué)習(xí)Java語言和Linux操作系統(tǒng),這兩個(gè)是學(xué)習(xí)大數(shù)據(jù)的基礎(chǔ),學(xué)習(xí)的順序不分前后。
Java:大家都知道Java的方向有JavaSE、JavaEE、JavaME,學(xué)習(xí)大數(shù)據(jù)要學(xué)習(xí)那個(gè)方向呢?
只需要學(xué)習(xí)Java的標(biāo)準(zhǔn)版JavaSE就可以了,像Servlet、JSP、Tomcat、Struct、Spring、Hibernate,Mybites都是JavaEE方向的技術(shù)在大數(shù)據(jù)技術(shù)里用到的并不多,只需要了解就可以了,當(dāng)然Java怎么連接數(shù)據(jù)庫還是要知道的,像JDBC一定要掌握一下,有同學(xué)說Hibernate或Mybites也能連接數(shù)據(jù)庫啊,為什么不學(xué)習(xí)一下,我這里不是說學(xué)這些不好,而是說學(xué)這些可能會用你很多時(shí)間,到***工作中也不常用,我還沒看到誰做大數(shù)據(jù)處理用到這兩個(gè)東西的,當(dāng)然你的精力很充足的話,可以學(xué)學(xué)Hibernate或Mybites的原理,不要只學(xué)API,這樣可以增加你對Java操作數(shù)據(jù)庫的理解,因?yàn)檫@兩個(gè)技術(shù)的核心就是Java的反射加上JDBC的各種使用。
Linux:因?yàn)榇髷?shù)據(jù)相關(guān)軟件都是在Linux上運(yùn)行的,所以Linux要學(xué)習(xí)的扎實(shí)一些,學(xué)好Linux對你快速掌握大數(shù)據(jù)相關(guān)技術(shù)會有很大的幫助,能讓你更好的理解hadoop、hive、hbase、spark等大數(shù)據(jù)軟件的運(yùn)行環(huán)境和網(wǎng)絡(luò)環(huán)境配置,能少踩很多坑,學(xué)會shell就能看懂腳本這樣能更容易理解和配置大數(shù)據(jù)集群。還能讓你對以后新出的大數(shù)據(jù)技術(shù)學(xué)習(xí)起來更快。
·好說完基礎(chǔ)了,再說說還需要學(xué)習(xí)哪些大數(shù)據(jù)技術(shù),可以按我寫的順序?qū)W下去。#
Hadoop:這是現(xiàn)在流行的大數(shù)據(jù)處理平臺幾乎已經(jīng)成為大數(shù)據(jù)的代名詞,所以這個(gè)是必學(xué)的。Hadoop里面包括幾個(gè)組件HDFS、MapReduce和YARN,HDFS是存儲數(shù)據(jù)的地方就像我們電腦的硬盤一樣文件都存儲在這個(gè)上面,MapReduce是對數(shù)據(jù)進(jìn)行處理計(jì)算的,它有個(gè)特點(diǎn)就是不管多大的數(shù)據(jù)只要給它時(shí)間它就能把數(shù)據(jù)跑完,但是時(shí)間可能不是很快所以它叫數(shù)據(jù)的批處理。YARN是體現(xiàn)Hadoop平臺概念的重要組件有了它大數(shù)據(jù)生態(tài)體系的其它軟件就能在hadoop上運(yùn)行了,這樣就能更好的利用HDFS大存儲的優(yōu)勢和節(jié)省更多的資源比如我們就不用再單獨(dú)建一個(gè)spark的集群了,讓它直接跑在現(xiàn)有的hadoop yarn上面就可以了。其實(shí)把Hadoop的這些組件學(xué)明白你就能做大數(shù)據(jù)的處理了,只不過你現(xiàn)在還可能對”大數(shù)據(jù)”到底有多大還沒有個(gè)太清楚的概念,聽我的別糾結(jié)這個(gè)。等以后你工作了就會有很多場景遇到幾十T/幾百T大規(guī)模的數(shù)據(jù),到時(shí)候你就不會覺得數(shù)據(jù)大真好,越大越有你頭疼的。當(dāng)然別怕處理這么大規(guī)模的數(shù)據(jù),因?yàn)檫@是你的價(jià)值所在,讓那些個(gè)搞Javaee的php的html5的和DBA的羨慕去吧。
·記住學(xué)到這里可以作為你學(xué)大數(shù)據(jù)的一個(gè)節(jié)點(diǎn)。
Zookeeper:這是個(gè)萬金油,安裝Hadoop的HA的時(shí)候就會用到它,以后的Hbase也會用到它。它一般用來存放一些相互協(xié)作的信息,這些信息比較小一般不會超過1M,都是使用它的軟件對它有依賴,對于我們個(gè)人來講只需要把它安裝正確,讓它正常的run起來就可以了。
Mysql:我們學(xué)習(xí)完大數(shù)據(jù)的處理了,接下來學(xué)習(xí)學(xué)習(xí)小數(shù)據(jù)的處理工具mysql數(shù)據(jù)庫,因?yàn)橐粫bhive的時(shí)候要用到,mysql需要掌握到什么層度那?你能在Linux上把它安裝好,運(yùn)行起來,會配置簡單的權(quán)限,修改root的密碼,創(chuàng)建數(shù)據(jù)庫。這里主要的是學(xué)習(xí)SQL的語法,因?yàn)閔ive的語法和這個(gè)非常相似。
Sqoop:這個(gè)是用于把Mysql里的數(shù)據(jù)導(dǎo)入到Hadoop里的。當(dāng)然你也可以不用這個(gè),直接把Mysql數(shù)據(jù)表導(dǎo)出成文件再放到HDFS上也是一樣的,當(dāng)然生產(chǎn)環(huán)境中使用要注意Mysql的壓力。
Hive:這個(gè)東西對于會SQL語法的來說就是神器,它能讓你處理大數(shù)據(jù)變的很簡單,不會再費(fèi)勁的編寫MapReduce程序。有的人說Pig那?它和Pig差不多掌握一個(gè)就可以了。
Oozie:既然學(xué)會Hive了,我相信你一定需要這個(gè)東西,它可以幫你管理你的Hive或者M(jìn)apReduce、Spark腳本,還能檢查你的程序是否執(zhí)行正確,出錯(cuò)了給你發(fā)報(bào)警并能幫你重試程序,最重要的是還能幫你配置任務(wù)的依賴關(guān)系。我相信你一定會喜歡上它的,不然你看著那一大堆腳本,和密密麻麻的crond是不是有種想屎的感覺。
Hbase:這是Hadoop生態(tài)體系中的NOSQL數(shù)據(jù)庫,他的數(shù)據(jù)是按照key和value的形式存儲的并且key是唯一的,所以它能用來做數(shù)據(jù)的排重,它與MYSQL相比能存儲的數(shù)據(jù)量大很多。所以他常被用于大數(shù)據(jù)處理完成之后的存儲目的地。
Kafka:這是個(gè)比較好用的隊(duì)列工具,隊(duì)列是干嗎的?排隊(duì)買票你知道不?數(shù)據(jù)多了同樣也需要排隊(duì)處理,這樣與你協(xié)作的其它同學(xué)不會叫起來,你干嗎給我這么多的數(shù)據(jù)(比如好幾百G的文件)我怎么處理得過來,你別怪他因?yàn)樗皇歉愦髷?shù)據(jù)的,你可以跟他講我把數(shù)據(jù)放在隊(duì)列里你使用的時(shí)候一個(gè)個(gè)拿,這樣他就不在抱怨了馬上灰流流的去優(yōu)化他的程序去了,因?yàn)樘幚聿贿^來就是他的事情。而不是你給的問題。當(dāng)然我們也可以利用這個(gè)工具來做線上實(shí)時(shí)數(shù)據(jù)的入庫或入HDFS,這時(shí)你可以與一個(gè)叫Flume的工具配合使用,它是專門用來提供對數(shù)據(jù)進(jìn)行簡單處理,并寫到各種數(shù)據(jù)接受方(比如Kafka)的。
Spark:它是用來彌補(bǔ)基于MapReduce處理數(shù)據(jù)速度上的缺點(diǎn),它的特點(diǎn)是把數(shù)據(jù)裝載到內(nèi)存中計(jì)算而不是去讀慢的要死進(jìn)化還特別慢的硬盤。特別適合做迭代運(yùn)算,所以算法流們特別稀飯它。它是用scala編寫的。Java語言或者Scala都可以操作它,因?yàn)樗鼈兌际怯肑VM的。
·會這些東西你就成為一個(gè)專業(yè)的大數(shù)據(jù)開發(fā)工程師了,月薪2W都是小毛毛雨
后續(xù)提高:當(dāng)然還是有很有可以提高的地方,比如學(xué)習(xí)下python,可以用它來編寫網(wǎng)絡(luò)爬蟲。這樣我們就可以自己造數(shù)據(jù)了,網(wǎng)絡(luò)上的各種數(shù)據(jù)你高興都可以下載到你的集群上去處理。
***再學(xué)習(xí)下推薦、分類等算法的原理這樣你能更好的與算法工程師打交通。這樣你的公司就更離不開你了,大家都會對你喜歡的不要不要的。
End.