㈠ 中國大數據六大技術變遷記
中國大數據六大技術變遷記_數據分析師考試
集「Hadoop中國雲計算大會」與「CSDN大數據技術大會」精華之大成, 歷屆的中國大數據技術大會(BDTC) 已發展成為國內事實上的行業頂尖技術盛會。從2008年的60人Hadoop沙龍到當下的數千人技術盛宴,作為業內極具實戰價值的專業交流平台,每一屆的中國大數據技術大會都忠實地描繪了大數據領域內的技術熱點,沉澱了行業實戰經驗,見證了整個大數據生態圈技術的發展與演變。
2014年12月12-14日,由中國計算機學會(CCF)主辦,CCF大數據專家委員會協辦,中科院計算所與CSDN共同承辦的 2014中國大數據技術大會(Big Data Technology Conference 2014,BDTC 2014) 將在北京新雲南皇冠假日酒店拉開帷幕。大會為期三天,以推進行業應用中的大數據技術發展為主旨,擬設立「大數據基礎設施」、「大數據生態系統」、「大數據技術」、「大數據應用」、「大數據互聯網金融技術」、「智能信息處理」等多場主題論壇與行業峰會。由中國計算機學會主辦,CCF大數據專家委員會承辦,南京大學與復旦大學協辦的「2014年第二屆CCF大數據學術會議」也將同時召開,並與技術大會共享主題報告。
本次大會將邀請近100位國外大數據技術領域頂尖專家與一線實踐者,深入討論Hadoop、YARN、Spark、Tez、 HBase、Kafka、OceanBase等開源軟體的最新進展,NoSQL/NewSQL、內存計算、流計算和圖計算技術的發展趨勢,OpenStack生態系統對於大數據計算需求的思考,以及大數據下的可視化、機器學習/深度學習、商業智能、數據分析等的最新業界應用,分享實際生產系統中的技術特色和實踐經驗。
大會召開前期,特別梳理了歷屆大會亮點以記錄中國大數據技術領域發展歷程,並立足當下生態圈現狀對即將召開的BDTC 2014進行展望:
追本溯源,悉大數據六大技術變遷
伴隨著大數據技術大會的發展,我們親歷了中國大數據技術與應用時代的到來,也見證了整個大數據生態圈技術的發展與衍變:
1. 計算資源的分布化——從網格計算到雲計算。 回顧歷屆BDTC大會,我們不難發現,自2009年,資源的組織和調度方式已逐漸從跨域分布的網格計算向本地分布的雲計算轉變。而時至今日,雲計算已成為大數據資源保障的不二平台。
2. 數據存儲變更——HDFS、NoSQL應運而生。 隨著數據格式越來越多樣化,傳統關系型存儲已然無法滿足新時代的應用程序需求,HDFS、NoSQL等新技術應運而生,並成為當下許多大型應用架構不可或缺的一環,也帶動了定製計算機/伺服器的發展,同時也成為大數據生態圈中最熱門的技術之一。
3. 計算模式改變——Hadoop計算框成主流。 為了更好和更廉價地支撐其搜索服務,Google創建了Map/Rece和GFS。而在Google論文的啟發下,原雅虎工程師Doug Cutting開創了與高性能計算模式迥異的,計算向數據靠攏的Hadoop軟體生態系統。Hadoop天生高貴,時至今日已成為Apache基金會最「Hot」的開源項目,更被公認為大數據處理的事實標准。Hadoop以低廉的成本在分布式環境下提供了海量數據的處理能力。因此,Hadoop技術研討與實踐分享也一直是歷屆中國大數據技術大會最亮眼的特色之一。
4. 流計算技術引入——滿足應用的低延遲數據處理需求。 隨著業務需求擴展,大數據逐漸走出離線批處理的范疇,Storm、Kafka等將實時性、擴展性、容錯性和靈活性發揮得淋漓盡致的流處理框架,使得舊有消息中間件技術得以重生。成為歷屆BDTC上一道亮麗的風景線。
5. 內存計算初露端倪——新貴Spark敢與老將叫板。 Spark發源於美國加州大學伯克利分校AMPLab的集群計算平台,它立足於內存計算,從多迭代批量處理出發,兼容並蓄數據倉庫、流處理和圖計算等多種計算範式,是罕見的全能選手。在短短4年,Spark已發展為Apache軟體基金會的頂級項目,擁有30個Committers,其用戶更包括IBM、Amazon、Yahoo!、Sohu、網路、阿里、騰訊等多家知名公司,還包括了Spark SQL、Spark Streaming、MLlib、GraphX等多個相關項目。毫無疑問,Spark已站穩腳跟。
6. 關系資料庫技術進化—NewSQL改寫資料庫歷史。 關系資料庫系統的研發並沒有停下腳步,在橫向擴展、高可用和高性能方面也在不斷進步。實際應用對面向聯機分析處理(OLAP)的MPP(Massively Parallel Processing)資料庫的需求最迫切,包括MPP資料庫學習和採用大數據領域的新技術,如多副本技術、列存儲技術等。而面向聯機事務處理(OLTP)的資料庫則向著高性能演進,其目標是高吞吐率、低延遲,技術發展趨勢包括全內存化、無鎖化等。
立足揚帆,看2014大數據生態圈發展
時光荏苒,轉眼間第2014中國大數據技術大會將如期舉行。在技術日新月異的當下,2014年的BDTC上又可以洞察些什麼?這里我們不妨著眼當下技術發展趨勢:
1. MapRece已成頹勢,YARN/Tez是否可以再創輝煌? 對於Hadoop來說,2014是歡欣鼓舞的一年——EMC、Microsoft、Intel、Teradata、Cisco等眾多巨頭都加大了Hadoop方面的投入。然而對於眾多機構來說,這一年卻並不輕松:基於MapRece的實時性短板以及機構對更通用大數據處理平台的需求,Hadoop 2.0轉型已勢在必行。那麼,在轉型中,機構究竟會遭遇什麼樣的挑戰?各個機構如何才能更好地利用YARN所帶來的新特性?Hadoop未來的發展又會有什麼重大變化?為此,BDTC 2014特邀請了Apache Hadoop committer,Apache Hadoop Project Management Committee(PMC)成員Uma Maheswara Rao G,Apache Hadoop committer Yi Liu,Bikas Saha(PMC member of the Apache Hadoop and Tez)等國際頂尖Hadoop專家,我們不妨當面探討。
2. 時過境遷,Storm、Kafka等流計算框架前途未卜。 如果說MapRece的緩慢給眾多流計算框架帶來了可乘之機,那麼當Hadoop生態圈組件越發成熟,Spark更加易用,迎接這些流計算框架的又是什麼?這里我們不妨根據BDTC 2014近百場的實踐分享進行一個側面的了解,亦或是與專家們當面交流。
3. Spark,是顛覆還是補充? 與Hadoop生態圈的兼容,讓Spark的發展日新月異。然而根據近日Sort Benchmark公布的排序結果,在海量(100TB)離線數據排序上,對比上屆冠軍Hadoop,Spark以不到十分之一的機器,只使用三分之一的時間就完成了同樣數據量的排序。毫無疑問,當下Spark已不止步於實時計算,目標直指通用大數據處理平台,而終止Shark,開啟Spark SQL或許已經初見端倪。那麼,當Spark愈加成熟,更加原生的支持離線計算後,開源大數據標准處理平台這個榮譽又將花落誰家?這里我們一起期待。
4. 基礎設施層,用什麼來提升我們的網路? 時至今日,網路已成為眾多大數據處理平台的攻堅對象。比如,為了克服網路瓶頸,Spark使用新的基於Netty的網路模塊取代了原有的NIO網路模塊,從而提高了對網路帶寬的利用。那麼,在基礎設施層我們又該如何克服網路這個瓶頸?直接使用更高效的網路設備,比如Infiniband能夠帶來多少性能提升?建立一個更智能網路,通過計算的每個階段,自適應來調整拆分/合並階段中的數據傳輸要求,不僅提高了速度,也提高了利用率。在BDTC 2014上,我們可以從Infiniband/RDMA技術及應用演講,以及數場SDN實戰上吸取寶貴的經驗。
5. 數據挖掘的靈魂——機器學習。 近年來,機器學習領域的人才搶奪已進入白熱化,類似Google、IBM、微軟、網路、阿里、騰訊對機器學習領域的投入也是愈來愈高,囊括了晶元設計、系統結構(異構計算)、軟體系統、模型演算法和深度應用各個方面。大數據標志一個新時代的到來,PB數據讓人們坐擁金山,然而缺少了智能演算法,機器學習這個靈魂,價值的提取無疑變得鏡花水月。而在本屆會議上,我們同樣為大家准備了數場機器學習相關分享,靜候諸位參與。
而在技術分享之外,2014年第二屆CCF大數據學術會議也將同時召開,並與技術大會共享主題報告。屆時,我們同樣可以斬獲許多來自學術領域的最新科研成果。
以上是小編為大家分享的關於中國大數據六大技術變遷記的相關內容,更多信息可以關注環球青藤分享更多干貨
㈡ 華為大數據認證考什麼
華為大數據認證有HCIA、HCIP、HCIE這三個等級的認證,不同等級認證的考試內容不同,下面是華為大數據HCIA、HCIP、HCIE認證的考試內容。
HCIA-Big Data
考試內容
HCIA-Big Data V3.0考試覆蓋:
(1)大數據行業的發展趨勢,大數據特點以及華為鯤鵬大數據等;
(2)常用且重要大數據組件基礎技術原理(包括HBase, Hive, Loader, MapRece, YARN, HDFS, Spark, Flume, Kafka, ElasticSearch,ZooKeeper, Flink,Redis);
(3)華為大數據解決方案、功能特性及華為在大數據行業的成功案例。
HCIP-Big Data Developer
考試內容
HCIP-Big Data Developer V2.0 大數據場景化解決方案總覽、大數據場景化解決方案:離線批處理、實時檢索、實時流處理等內容。
HCIE-Big Data-Data Mining(筆試)
考試內容
華為認證HCIE-Big Data-Data Mining V2.0考試覆蓋:數據挖掘介紹、預備知識(數學基礎知識、Python基礎知識)、數據預處理、特徵選擇與降維、有監督學習、無監督學習、模型評估與優化、數據挖掘綜合應用、Spark MLlib數據挖掘、華為雲機器學習服務MLS、FusionInsight Miner、大數據架構和大數據治理、大數據挖掘。
HCIE-Big Data-Data Mining(實驗)
考試內容
華為認證HCIE-Big Data-Data Mining V2.0考試覆蓋:數據挖掘介紹、預備知識(數學基礎知識、Python基礎知識)、數據預處理、特徵選擇與降維、有監督學習、無監督學習、模型評估與優化、數據挖掘綜合應用、Spark MLlib數據挖掘、華為雲機器學習服務MLS、FusionInsight Miner、大數據架構和大數據治理、大數據挖掘。
HCIE-Big Data-Data Mining(面試)
考試內容
華為認證HCIE-Big Data-Data Mining V2.0考試覆蓋:數據挖掘介紹、預備知識(數學基礎知識、Python基礎知識)、數據預處理、特徵選擇與降維、有監督學習、無監督學習、模型評估與優化、數據挖掘綜合應用、Spark MLlib數據挖掘、華為雲機器學習服務MLS、FusionInsight Miner、大數據架構和大數據治理、大數據挖掘。
㈢ 大數據怎麼清理
一般數據全部清理都是全部格式化就能夠一次性清理完
㈣ 怎樣入門大數據
大數據入門,建議復從編程制基礎開始,然後逐步進入到技術框架的學習:
1、linux基礎
要會基本的linux操作,比如用戶管理,許可權,shell編程之類的。
2、一門JVM系語言:
當前大數據生態JVM系語言類的比重極大,某種程度上說是壟斷也不為過。建議學習java或Scala。
3、計算處理框架:
分為離線批處理和流式處理,離線處理以Hadoop MapRece、Spark為主,流計算以Apache Storm,Apache Spark Streaming以及Apache Flink為代表。
㈤ 大數據為什麼要選擇Spark
Spark,是一種抄"One Stackto rule them all"的大數據計算襲框架,期望使用一個技術堆棧就完美地解決大數據領域的各種計算任務。Apache官方,對Spark的定義就是:通用的大數據快速處理引擎。Spark除了一站式的特點之外,另外一個最重要的特點,就是基於內存進行計算,從而讓它的速度可以達到MapRece、Hive的數倍甚至數十倍!現在已經有很多大公司正在生產環境下深度地使用Spark作為大數據的計算框架,包括eBay、Yahoo!、BAT、網易、京東、華為、大眾點評、優酷土豆、搜狗等等。
超強的通用性
Spark提供了Spark RDD、Spark SQL、SparkStreaming、Spark MLlib、Spark GraphX等技術組件,可以一站式地完成大數據領域的離線批處理、互動式查詢、流式計算、機器學習、圖計算等常見的任務。
東時大數據學習java語言基礎、java面向對象、Java框架、web前端、Linux入門、hadoop開發、Spark等內容。
㈥ 大數據調度平台分類(Oozie/Azkaban/AirFlow/DolphinScheler)
大數據調度系統,是整個離線批處理任務和准實時計算計算任務的驅動器。這里我把幾個常見的調度系統做了一下分類總結,結合目前阿里雲上的MaxCompute中的調度系統,做個對比。
Oozie是一個workflow(工作流)協調系統,是由Cloudera公司貢獻給Apache的,主要用來管理Hadoop作業(job)。
統一調度hadoop系統中常見的mr任務啟動、Java MR、Streaming MR、Pig、Hive、Sqoop、Spark、Shell等。
配置相關的調度任務復雜,依賴關系、時間觸發、事件觸發使用xml語言進行表達。
任務狀態、任務類型、任務運行機器、創建時間、啟動時間、完成時間等。
支持啟動/停止/暫停/恢復/重新運行:支持啟動/停止/暫停/恢復/重新運行。
可以通過DB支持HA(高可用)。調度任務時可能出現死鎖,依賴當前集群版本,如更新最新版,易於現階段集群不兼容。
Azkaban是由Linkedin公司推出的一個批量工作流任務調度器,主要用於在一個工作流內以一個特定的順序運行一組工作和流程,它的配置是通過簡單的key:value對的方式,通過配置中的dependencies 來設置依賴關系,這個依賴關系必須是無環的,否則會被視為無效的工作流。Azkaban使用job配置文件建立任務之間的依賴關系,並提供一個易於使用的web用戶界面維護和跟蹤你的工作流。
command、HadoopShell、Java、HadoopJava、Pig、Hive等,支持插件式擴展。
實際項目中經常有這些場景:每天有一個大任務,這個大任務可以分成A,B,C,D四個小任務,A,B任務之間沒有依賴關系,C任務依賴A,B任務的結果,D任務依賴C任務的結果。一般的做法是,開兩個終端同時執行A,B,兩個都執行完了再執行C,最後再執行D。這樣的話,整個的執行過程都需要人工參加,並且得盯著各任務的進度。但是我們的很多任務都是在深更半夜執行的,通過寫腳本設置crontab執行。其實,整個過程類似於一個有向無環圖(DAG)。每個子任務相當於大任務中的一個流,任務的起點可以從沒有度的節點開始執行,任何沒有通路的節點之間可以同時執行,比如上述的A,B。總結起來的話,我們需要的就是一個工作流的調度器,而Azkaban就是能解決上述問題的一個調度器。
提供job配置文件快速建立任務和任務之間的依賴關系,通過自定義DSL繪制DAG並打包上傳。
只能看到任務狀態。
只能先將工作流殺死在重新運行。
通過DB支持HA,任務太多時會卡死伺服器。
Airflow 是 Airbnb 開源的一個用 Python 編寫的調度工具。於 2014 年啟動,2015 年春季開源,2016 年加入 Apache 軟體基金會的孵化計劃。Airflow 通過 DAG 也即是有向非循環圖來定義整個工作流,因而具有非常強大的表達能力。
支持Python、Bash、HTTP、Mysql等,支持Operator的自定義擴展。
需要使用Python代碼來定義流程。
不直觀。
殺掉任務,重啟。
任務過多會卡死。
XXL-JOB是一個開源的,具有豐富的任務管理功能以及高性能,高可用等特點的輕量級分布式任務調度平台,其核心設計目標是開發迅速、學習簡單、輕量級、易擴展、開箱即用。
基於Java。
無,但是可以配置任務之間的依賴。
無
可以暫停、恢復。
支持HA。任務是基於隊列的,輪詢機制。
DolphinScheler是今年(2019年)中國易觀公司開源的一個調度系統,在今年美國時間2019年8月29號,易觀開源的分布式任務調度引擎DolphinScheler(原EasyScheler)正式通過頂級開源組織Apache基金會的投票決議,根據Apache基金會郵件列表顯示,在包含11個約束性投票(binding votes)和2個無約束性投票(non-binding votes)的投票全部持贊同意見,無棄權票和反對票,投票順利通過,這樣便以全票通過的優秀表現正式成為了Apache孵化器項目。
Apache DolphinScheler是一個分布式、去中心化、易擴展的可視化DAG工作流任務調度系統,其致力於解決數據處理流程中錯綜復雜的依賴關系,使調度系統在數據處理流程中開箱即用。
支持傳統的shell任務,同時支持大數據平台任務調度:MR、Spark、SQL(mysql、postgresql、hive/sparksql)、python、procere、sub_process。
所有流、定時操作都是可視化的,通過拖拽來繪制DAG,配置數據源及資源,同時對於第三方系統,提供api方式的操作。
任務狀態、任務類型、重試次數、任務運行機器、可視化變數,以及任務流執行日誌。
支持暫停、恢復、補數操作。
支持HA,去中心化的多Master和多Worker。DolphinScheler上的用戶可以通過租戶和hadoop用戶實現多對一或一對一的映射關系。無法做到細節的許可權管控。
任務隊列機制,單個機器上可調度的任務數量可以靈活配置,當任務過多時會緩存在任務隊列中,不會操作機器卡死。
調度器使用分布式調度,整體的調度能力會隨集群的規模線性正常,Master和Worker支持動態上下線,可以自由進行配置。
可以通過對用戶進行資源、項目、數據源的訪問授權。支持,可視化管理文件,及相關udf函數等。
㈦ 大數據工程師需要掌握哪些技能
大數據技術體來系龐大,包括的知源識較多
1、學習大數據首先要學習Java基礎
Java是大數據學習需要的編程語言基礎,因為大數據的開發基於常用的高級語言。而且不論是學hadoop
2、學習大數據核心知識
Hadoop生態系統;HDFS技術;HBASE技術;Sqoop使用流程;數據倉庫工具HIVE;大數據離線分析Spark、Python語言;數據實時分析Storm;消息訂閱分發系統Kafka等。
3、學習大數據需要具備的能力
數學知識,數學知識是數據分析師的基礎知識。對於數據分析師,了解一些描述統計相關的內容,需要有一定公式計算能力,了解常用統計模型演算法。而對於數據挖掘工程師來說,各類演算法也需要熟練使用,對數學的要求是最高的。
4、學習大數據可以應用的領域
大數據技術可以應用在各個領域,比如公安大數據、交通大數據、醫療大數據、就業大數據、環境大數據、圖像大數據、視頻大數據等等,應用范圍非常廣泛。
㈧ 大數據工程師到底需要會什麼
1.大數據基礎知識。hadoop生態圈的組件,離線批處理和流處理組件。所以什麼zookeep hdfs yarn hive hbase eslasticsearch spark sparkstreaming flink等等,你都要了解,甚至熟悉才行。不管國外的CDH,還是國內的TDH、華為、阿里的產品,你實施中是要安裝、指導客戶使用、以及debug常見問題的。
2.Linux知識。目前基本集群服務大部分是使用linux的,所以需要熟悉linux常用命令,linux相關發性版本系統(如redhat ubuntu centos甚至 arm體系架構的系統)安裝,網路配置,磁碟規劃,常見系統問題分析等等。
3.必要的開發語言,應用和運維開發基礎。別以為實施工程師就不用寫代碼了,其實實施工程師也要會,而且要全面。shell perl python的腳本用來運維自動化,java sacla寫一些demo用來展示給客戶做應用接入,sql做一些數據處理和etl等。另外debug集群的時候,經常會有日誌信息,也是不同語言的trace信息,不懂開發,這部分log都看不明白的。
4.虛擬化技術。現在很多大數據產品已經上雲了,數據雲也是未來的方向。所以k8s docker 等都需要了解。國內阿里、星環等等產品都帶有雲的概念了。
5.軟實力。溝通和寫作能力、抗壓能力、靈活應變能力等。這是技術以外的,但是也很重要。
㈨ 大數據系統架構
轉: https://www.sohu.com/a/227887005_487103
數據分析工作雖然隱藏在業務系統背後,但是具有非常重要的作用,數據分析的結果對決策、業務發展有著舉足輕重的作用。隨著大數據技術的發展,數據挖掘、數據探索等專有名詞曝光度越來越高,但是在類似於Hadoop系列的大數據分析系統大行其道之前,數據分析工作已經經歷了長足的發展,尤其是以BI系統為主的數據分析,已經有了非常成熟和穩定的技術方案和生態系統,對於BI系統來說,大概的架構圖如下:
總的來說,目前圍繞Hadoop體系的大數據架構大概有以下幾種:
傳統大數據架構
Lambda架構算是大數據系統裡面舉足輕重的架構,大多數架構基本都是Lambda架構或者基於其變種的架構。Lambda的數據通道分為兩條分支:實時流和離線。實時流依照流式架構,保障了其實時性,而離線則以批處理方式為主,保障了最終一致性。什麼意思呢?流式通道處理為保障實效性更多的以增量計算為主輔助參考,而批處理層則對數據進行全量運算,保障其最終的一致性,因此Lambda最外層有一個實時層和離線層合並的動作,此動作是Lambda里非常重要的一個動作
優點: 既有實時又有離線,對於數據分析場景涵蓋的非常到位。
缺點: 離線層和實時流雖然面臨的場景不相同,但是其內部處理的邏輯卻是相同,因此有大量榮譽和重復的模塊存在。
適用場景: 同時存在實時和離線需求的情況。
Kappa架構
Unifield架構
總結
以上幾種架構為目前數據處理領域使用比較多的幾種架構,當然還有非常多其他架構,不過其思想都會或多或少的類似。數據領域和機器學習領域會持續發展,以上幾種思想或許終究也會變得過時。