Ⅰ 完全零基礎可以自學大數據嗎
大數據入門不像學一門編程語言,自學一段時間就OK了。大數據是需要站在編程的基礎上學習的,所以零基礎的同學建議不要輕易入坑,但如果你已被大數據的就業前景和薪資迷得鬼迷心竅,又或者真的喜歡這行到骨子裡,倒是可以嘗試一下。因為沒有什麼比慾望更有動力。
零基礎學習大數據需要從以下幾個方面入手:
首先,大數據學習路線要明確,第一步:要進行大數據開發語言及其他基礎的學習。第二步:學習理論及核心技術。第三步:真實項目案例實戰。
1、計算機編程語言的學習。
對於零基礎的朋友,一開始入門可能不會太簡單。因為需要掌握一門計算機的編程語言,大家都知道計算機編程語言有很多,比如:R,C++,java等等。建議從java入手,容易學而且很好用,Java只需理解一些基本的概念,就可以用它編寫出適合於各種情況的應用程序
那在學習Java的時候,我們一般需要學習這些: HTML&CSS&JS,java的基礎,JDBC與資料庫,JSP java web技術, jQuery與AJAX技術,SpringMVC、Mybatis、Hibernate等等。這些都能幫助我們更好了解Java,學會運用Java。
2、大數據相關的學習。
學完了編程語言之後,一般就可以進行大數據部分的學習了。一般來說,學習大數據部分的時間比學習Java的時間要更長。大數據部分,包括hadoop 、spark、storm開發、hive 資料庫、Linux 操作系統等知識,分布式存儲、分布式計算框架等技術,還要熟悉大數據處理和分析技術。如果要完整的學習大數據的話,這些都是必不可少的。
3、實戰階段。
不用多說,學習完任何一門技術,實戰訓練是很重要的,進行一些實際項目的操作練手,可以幫助我們更好的理解所學的內容,同時對於相關知識也能加強記憶,在今後的運用中,也可以更快的上手,對於相關知識該怎麼用也有了經驗。
一般來說,零基礎學習大數據大概就是分為這3個階段,學習大數據不是件容易的事,但是只要你能多努力,積極地解決自己的疑惑,多練手,相信你一定可以掌握這門技術。
Ⅱ 如何入門大數據
大數據
數據科學並沒有一個獨立的學科體系,統計學,機器學習,數據挖掘,資料庫,分布式計算,雲計算,信息可視化等技術或方法來對付數據。
但從狹義上來看,我認為數據科學就是解決三個問題:
1. data pre-processing;(數據預處理)
2. data interpretation;(數據解讀)
3.data modeling and analysis.(數據建模與分析)
這也就是我們做數據工作的三個大步驟:
1、原始數據要經過一連串收集、提取、清洗、整理等等的預處理過程,才能形成高質量的數據;
2、我們想看看數據「長什麼樣」,有什麼特點和規律;
3、按照自己的需要,比如要對數據貼標簽分類,或者預測,或者想要從大量復雜的數據中提取有價值的且不易發現的信息,都要對數據建模,得到output。
這三個步驟未必嚴謹,每個大步驟下面可能依問題的不同也會有不同的小步驟,但按我這幾年的經驗來看,按照這個大思路走,數據一般不會做跑偏。
這樣看來,數據科學其實就是門復合型的技術,既然是技術就從編程語言談起吧,為了簡練,只說說R和Python。但既然是薦數據科學方面的書,我這里就不提R/Python編程基礎之類的書了,直接上跟數據科學相關的。
R programming
如果只是想初步了解一下R語言已經R在數據分析方面的應用,那不妨就看看這兩本:
R in action:我的R語言大數據101。其實對於一個沒有任何編程基礎的人來說,一開始就學這本書,學習曲線可能會比較陡峭。但如果配合上一些輔助材料,如官方發布的R basics(http://cran.r-project.org/doc/contrib/usingR.pdf),stackoverflow上有tag-R的問題集(Newest 『r』 Questions),遇到復雜的問題可在上面搜索,總會找到解決方案的。這樣一來,用這本書拿來入門學習也問題不大。而且這本書作者寫得也比較輕松,緊貼實戰。
Data analysis and graphics using R:使用R語言做數據分析的入門書。這本書的特點也是緊貼實戰,沒有過多地講解統計學理論,所以喜歡通過情境應用來學習的人應該會喜歡這本入門書。而且這本書可讀性比較強,也就是說哪怕你手頭沒電腦寫不了代碼,有事沒事拿出這本書翻一翻,也能讀得進去。
但如果你先用R來從事實實在在的數據工作,那麼上面兩本恐怕不夠,還需要這些:
Modern applied statistics with S:這本書里統計學的理論就講得比較多了,好處就是你可以用一本書既復習了統計學,又學了R語言。(S/Splus和R的關系就類似於Unix和Linux,所以用S教程學習R,一點問題都沒有)
Data manipulation with R:這本書實務性很強,它教給你怎麼從不同格式的原始數據文件里讀取、清洗、轉換、整合成高質量的數據。當然和任何一本注重實戰的書一樣,本書也有豐富的真實數據或模擬數據供你練習。對於真正從事數據處理工作的人來說,這本書的內容非常重要,因為對於任何研究,一項熟練的數據預處理技能可以幫你節省大量的時間和精力。否則,你的研究總是要等待你的數據。
R Graphics Cookbook:想用R做可視化,就用這本書吧。150多個recipes,足以幫你應付絕大多數類型的數據。以我現在極業余的可視化操作水平來看,R是最容易做出最漂亮的圖表的工具了。
An introction to statistical learning with application in R:這本書算是著名的the element of statistical learning的姊妹篇,後者更注重統計(機器)學習的模型和演算法,而前者所涉及的模型和演算法原沒有後者全面或深入,但卻是用R來學習和應用機器學習的很好的入口。
A handbook of statistical analysis using R:這本書內容同樣非常扎實,很多統計學的學生就是用這本書來學慣用R來進行統計建模的。
Python
Think Python,Think Stats,Think Bayes:這是Allen B. Downey寫的著名的Think X series三大卷。其實是三本精緻的小冊子,如果想快速地掌握Python在統計方面的操作,好好閱讀這三本書,認真做習題,答案鏈接在書里有。這三本書學通了,就可以上手用Python進行基本的統計建模了。
Python For Data Analysis: 作者是pandas的主要開發者,也正是Pandas使Python能夠像R一樣擁有dataframe的功能,能夠處理結構比較復雜的數據。這本書其實analysis講得不多,說成數據處理應該更合適。掌握了這本書,處理各種糟心的數據就問題不大了。
Introction to Python for Econometrics, Statistics and Data Analysis:這本書第一章就告訴你要安裝Numpy, Scipy, Matplotlib, Pandas, IPython等等。然後接下來的十好幾章就是逐一介紹這幾個庫該怎麼用。很全面,但讀起來比較枯燥,可以用來當工具書。
Practical Data Analysis: 這本書挺奇葩,貌似很暢銷,但作者把內容安排得東一榔頭西一棒子,什麼都講一點,但一個都沒講透。這本書可以作為我們學習數據分析的一個索引,看到哪塊內容有意思,就順著它這個藤去摸更多的瓜。
Python Data Visualization Cookbook: 用Python做可視化的教材肯定不少,我看過的也就這一本,覺得還不錯。其實這類書差別都不會很大,咬住一本啃下來就是王道。
Exploratory Data Analysis 和 Data Visualization
Exploratory Data Analysis:John Tukey寫於1977年的經典老教材,是這一領域的開山之作。如今EDA已經是統計學里的重要一支,但當時還是有很多人對他的工作不屑一顧。可他愛數據,堅信數據可以以一種出人意料的方式呈現出來。正是他的努力,讓數據可視化成為一門無比迷人的技術。但這本書不推薦閱讀了,內容略過時。要想完整地了解EDA,推薦下一本:
Exploratory Data Analysis with MATLAB:這本書雖然標題帶了個MATLAB,但實際上內容幾乎沒怎麼講MATLAB,只是每講一個方法的時候就列出對應的MATALB函數。這本書的重要之處在於,這是我讀過的講EDA最系統的一本書,除了對visualization有不輸於John Tucky的講解外,對於高維的數據集,通過怎樣的方法才能讓我們從中找到潛在的pattern,這本書也做了詳盡的講解。全書所以案例都有對應的MATALB代碼,而且還提供了GUI(圖形用戶界面)。所以這本書學起來還是相當輕松愉悅的。
Visualize This:中譯本叫「鮮活的數據」,作者是個「超級數據迷」,建立了一個叫http://flowingdata.com的網頁展示他的數據可視化作品,這本書告訴你該選擇什麼樣的可視化工具,然後告訴你怎樣visualize關系型數據、時間序列、空間數據等,最後你就可以用數據講故事了。如果你只想感受一下數據可視化是個什麼,可以直接點開下面這個鏈接感受下吧!A tour through the visualization zoo(A Tour Through the Visualization Zoo)
Machine Learning & Data Mining
這一塊就不多說了,不是因為它不重要,而是因為它太太太重要。所以這一部分就推兩本書,都是」世界名著「,都比較難讀,需要一點點地啃。這兩本書拿下,基本就算是登堂入室了。其實作為機器學習的延伸和深化,概率圖模型(PGM)和深度學習(deep learning)同樣值得研究,特別是後者現在簡直火得不得了。但PGM偏難,啃K.Daphne那本大作實在太燒腦,也沒必要,而且在數據領域的應用也不算很廣。deep learning目前工業界的步子邁得比學術界的大,各個domain的應用如火如荼,但要有公認的好教材問世則還需時日,所以PGM和deep learning這兩塊就不薦書了。
The Element of Statistical Learning:要學機器學習,如果讓我只推薦一本書,我就推薦這本巨著。Hastie、Tibshirani、Friedman這三位大牛寫書寫得太用心了,大廈建得夠高夠大,結構也非常嚴謹,而且很有前瞻性,納入了很多前沿的內容,而不僅僅是一部綜述性的教材。(圖表也做得非常漂亮,應該是用R語言的ggplot2做的。)這本書注重講解模型和演算法本身,所以需要具備比較扎實的數理基礎,啃起這本書來才不會太吃力。事實上掌握模型和演算法的原理非常重要。機器學習(統計學習)的庫現在已經非常豐富,即使你沒有完全搞懂某個模型或演算法的原理和過程,只要會用那幾個庫,機器學習也能做得下去。但你會發現你把數據代進去,效果永遠都不好。但是,當你透徹地理解了模型和演算法本身,你再調用那幾個庫的時候,心情是完全不一樣的,效果也不一樣。
Data Mining: Concepts and Techniques, by Jiawei Han and Micheline Kamber 數據挖掘的教材汗牛充棟,之所以推薦這本韓家煒爺爺的,是因為雖然他這本書的出發點是應用,但原理上的內容也一點沒有落下,內容非常完整。而且緊跟時代,更新的很快,我看過的是第二版,就已經加進去了social network analysis這種當時的前沿內容。現在已經有第三版了,我還沒看過,但應該也加入了不少新內容。其實這本書並不難讀,只是篇幅較長,啃起來比較耗時。
其實這兩本書里單拎出來一塊內容可能又是幾本書的節奏,比如bayesian方法,再拿出兩三本書來講也不為過,我個人用到的比較多,而且也確實有不少好書。但並非是所有data scientist都要用到,所以這一塊就不再細說。
還有一些印象比較深刻的書:
Big Data Glossary: 主要講解大數據處理技術及工具,內容涵蓋了NoSQL,MapRece,Storage,Servers,NLP庫與工具包,機器學習工具包,數據可視化工具包,數據清洗,序列化指南等等。總之,是一本辭典式的大數據入門指導。
Mining of Massive Datasets:這本書是斯坦福大學Web Mining的講義,裡面很多內容與韓家煒的Data Mining那本書重合,但這本書里詳細地講了MapRece的設計原理,PageRank(Google創業時期的核心排序演算法,現在也在不斷優化更新)講解得也比較詳細。
Developing Analytic Talent: 作者是個從事了十幾年數據工作的geek,技術博客寫得很有個人風格,寫的內容都比較偏門,通常只有具備相關數據處理經驗的人能體會出來,絲毫不照顧初學者的感受。比如他會談到當數據流更新太快時該怎麼辦,或者MapRece在什麼時候不好用的問題,才不管你懂不懂相關基礎原理。所以這本書不太適合初學者閱讀。這本書其實是作者的博客文章的集結,用how to become a data scientist的邏輯把他近幾年的博客文章串聯了起來。
Past, Present and Future of Statistical Science:這本書是由COPSS(統計學社主席委員會,由國際各大統計學會的帶頭人組成)在50周年出版的一本紀念冊,裡面有50位統計學家每人分別貢獻出的一兩篇文章,有的回憶了自己當年如何走上統計學這條路,有的探討了一些統計學的根本問題,有的談了談自己在從事的前沿研究,有的則給年輕一代寫下了寄語。非常有愛的一本書。
其它資料
Harvard Data Science:這是H大的Data science在線課,我沒有修過,但口碑很好。這門課需要費用8千刀左右,比起華盛頓大學的4千刀的Data science在線課雖貴一倍,但比斯坦福的14千刀要便宜將近一半(而且斯坦福的更偏計算機)。如果想自學,早有好心人分享了slides: (https://drive.google.com/folderview?id=0BxYkKyLxfsNVd0xicUVDS1dIS0k&usp=sharing)和homeworks and solutions: (https://github.com/cs109/content)
PyData:PyData是來自各個domain的用Python做數據的人每年舉行一次的聚會,期間會有各路牛人舉行一些規模不大的seminar或workshop,有好心人已經把video上傳到github,有興趣的去認領吧(DataTau/datascience-anthology-pydata · GitHub)
工具
R/Python/MATLAB(必備):如果是做數據分析和模型開發,以我的觀察來看,使用這三種工具的最多。R生來就是一個統計學家開發的軟體,所做的事也自然圍繞統計學展開。MATLAB雖然算不上是個專業的數據分析工具,但因為很多人不是專業做數據的,做數據還是為了自己的domain expertise(特別是科學計算、信號處理等),而MATLAB又是個強大無比的Domain expertise工具,所以很多人也就順帶讓MATLAB也承擔了數據處理的工作,雖然它有時候顯得效率不高。Python雖然不是做數據分析的專業軟體,但作為一個面向對象的高級動態語言,其開源的生態使Python擁有無比豐富的庫,Numpy, Scipy 實現了矩陣運算/科學計算,相當於實現了MATLAB的功能,Pandas又使Python能夠像R一樣處理dataframe,scikit-learn又實現了機器學習。
SQL(必備):雖然現在人們都說傳統的關系型資料庫如Oracle、MySQL越來越無法適應大數據的發展,但對於很多人來說,他們每天都有處理數據的需要,但可能一輩子都沒機會接觸TB級的數據。不管怎麼說,不論是用關系型還是非關系型資料庫,SQL語言是必須要掌握的技能,用什麼資料庫視具體情況而定。
MongoDB(可選):目前最受歡迎的非關系型資料庫NoSQL之一,不少人認為MongoDB完全可以取代mySQL。確實MongoDB方便易用,擴展性強,Web2.0時代的必需品。
Hadoop/Spark/Storm(可選): MapRece是當前最著名也是運用最廣泛的分布式計算框架,由Google建立。Hadoop/Spark/storm都是基於MapRece的框架建立起來的分布式計算系統,要說他們之間的區別就是,Hadoop用硬碟存儲數據,Spark用內存存儲數據,Storm只接受實時數據流而不存儲數據。一言以蔽之,如果數據是離線的,如果數據比較復雜且對處理速度要求一般,就Hadoop,如果要速度,就Spark,如果數據是在線的實時的流數據,就Storm。
OpenRefine(可選):Google開發的一個易於操作的數據清洗工具,可以實現一些基本的清洗功能。
Tableau(可選):一個可交互的數據可視化工具,操作簡單,開箱即用。而且圖表都設計得非常漂亮。專業版1999美刀,終身使用。媒體和公關方面用得比較多。
Gephi(可選):跟Tableau類似,都是那種可交互的可視化工具,不需要編程基礎,生成的圖表在美學和設計上也是花了心血的。更擅長復雜網路的可視化。
Ⅲ 零基礎能學大數據嗎大數據分析好不好學
0基礎可以學習大數據的,只要你的學歷在大專及以上
大數據分析師,回分兩類:
一種偏向產品和運營答,更加註重業務,主要工作包括日常業務的異常監控、客戶和市場研究、參與產品開發、建立數據模型提升運營效率等;
另一種則更注重數據挖掘技術,門檻較高,需要扎實的演算法能力和代碼能力。同時薪資待遇也更好。
第一種門檻低些,入門比較容易,第二類難度大些,對數學基礎和演算法等要求更高。如果是說第一類的話,認真一點是很好掌握的。
Ⅳ 沒有基礎可以學大數據嗎
可以的,但是會有一定的難度,大數據相對來說更適合有基礎的人學習,學大數據一定要內找對方向,你可容以按照路線圖的順序學習,大數據前景好,應用范圍廣,薪資高,選擇培大數據培訓機構的時候一定要重點關注機構的口碑情況,問下周圍知道這家機構的人,希望你早日學有所成。
Ⅳ 低代碼、零代碼和輕代碼都有什麼不一樣
網路上了解了一下:低代碼就是一種無需寫代碼或只寫很少代碼就可以快速生成軟體的工具。比如藍凌低代碼平台,就可提供可視化設計組件,幫助開發者快速搭建UI、設計數據模型、創建業務邏輯和工作流。這也是為什麼幾乎不需要用專業程序員即可完成軟體開發的原因。 所以,利用這一類工具進行的開發,就叫低代碼開發方案,當然也有一部分開發者稱之為無代碼開發,這兩者之間並無二致。低代碼方案從理論上來講,相對要比傳統開發有更多優勢,可有效避免傳統方案中的一些弊端,能大大縮減時間成本和經濟成本,用相對少的時間和資金去獲得更好的軟體產品。 低代碼開發看起來如此有優勢,大有一種在未來真的完全取代傳統開發模式的勢頭。 相較傳統模式 大數據雲計算的興起,促進著互聯網路的深化發展,各大企業藉助信息化建設的浪潮,紛紛建立起自己的企業管理軟體系統。隨著市場和經濟結構的不斷發展變化,各領域中新的業務模式層出不窮,所以對企業應用的開發能力就有了更多要求,以滿足靈活多變的市場。 在這種情況下,傳統軟體提供者的陳舊方案就逐漸顯露出疲態。就像SAP、Oracle之前一直在做的Best Practice(最佳實踐),把一家公司的成功經驗復制到其他公司的做法就不再行得通,因為大型企業都有自己的開發者,其業務也都是獨一無二,相較之下選擇低代碼開發方案顯然更加合適。 當然,低代碼開發平台問世的初衷,並不是為了淘汰傳統開發者,僅是為了減少開發者的工作量。避免重復地去編寫冗雜的代碼,將時間省出來去做更具有價值的開發。
Ⅵ 大數據沒有java基礎能自學嗎
一、認識大數據
大數據本質其實也是數據,不過也包括了些新的特徵,
數據來源廣;
數據格式多樣化(結構化數據、非結構化數據、Excel文件等);
數據量大(最少也是TB級別的、甚至可能是PB級別);
數據增長速度快。
而針對以上新的特徵需要考慮很多問題:
例如,數據來源廣,該如何採集匯總?採集匯總之後,又該存儲呢?數據存儲之後,該如何通過運算轉化成自己想要的結果呢?
對於這些問題,我們需要有相對應的知識解決。
二、大數據所需技能要求
Python語言:編寫一些腳本時會用到。
Scala語言:編寫Spark程序的最佳語言,當然也可以選擇用Python。
Ozzie,azkaban:定時任務調度的工具。
Hue,Zepplin:圖形化任務執行管理,結果查看工具。
Allluxio,Kylin等:通過對存儲的數據進行預處理,加快運算速度的工具。
必須掌握的技能:
Java高級(虛擬機、並發)、Linux 基本操作、hadoop(HDFS+MapRece+Yarn )、 HBase(JavaAPI操作+Phoenix )、Hive(Hql基本操作和原理理解)、 Kafka、Storm/JStorm、Scala、Python、Spark (Core+sparksql+Spark streaming ) 、輔助小工具(Sqoop/Flume/Oozie/Hue等)
所以沒有java基礎自學大數據是不太可能的。
Ⅶ 零基礎可以學習Java大數據嗎
零基礎學習Java想入門的話首先要學習一些JavaEE基礎知識,比如:Java基礎語、面向對象、核心類庫、集合、異常、IO、線程、JDK新特性等知識點。學好基礎知識,把基礎打牢再繼續學習會簡單很多。
其次打好基礎後接下來還要學習JavaWeb開發、Java高級框架等知識,主要包含:前端技術、資料庫 、JAVA資料庫操作、軟體伺服器及伺服器相關技術
、動態網頁JSP、AJAX、SpringMVC、MyBatis、Spring、MySQL高級、Linux&Redis&Nginx、Maven等知識點。
第三,想入門Java只學理論知識是不夠的,還要多多進行實操訓練,一是鞏固所學的理論知識;二是增加自己的實戰經驗,找工作時有相關項目經驗會容易很多;三是可以查漏補缺,找出自己學習中不足的地方好繼續改進,一舉多得。
對於自學來說,零基礎學習Java的難度相比於參加Java培訓還是有一定不同的,不論是學習哪一種技術,自學的人首先需要具備比較好的理解能力和自製力,對於一門新技術的學習基礎入門階段是非常重要的,只有把基礎學扎實才能為之後的繼續提升打好根基。
其次,因為自學完全依靠自己的自覺性來驅動學習,每個人本身又都存在一定惰性,如此以往長時間的學習難免感覺枯燥和乏味,如果自製能力稍弱可能就半途而廢了,所以對於零基礎的人而言,小編建議大家不要選擇自學的方式。建議還是報個班學習Java要好一點,優 就 業還不錯,可以去了解一下。