❶ 大數據處理軟體用什麼比較好
常見的數據處理軟體有Apache Hive、SPSS、Excel、Apache Spark、Jaspersoft BI 套件。
1、Apache Hive
Hive是一個建立在Hadoop上的開源數據倉庫基礎設施,通過Hive可以很容易的進行數據的ETL,對數據進行結構化處理,並對Hadoop上大數據文件進行查詢和處理等。 Hive提供了一種簡單的類似SQL的查詢語言—HiveQL,這為熟悉SQL語言的用戶查詢數據提供了方便。
數據分析與處理方法:
採集
在大數據的採集過程中,其主要特點和挑戰是並發數高,因為同時有可能會有成千上萬的用戶來進行訪問和操作,比如火車票售票網站和淘寶,它們並發的訪問量在峰值時達到上百萬,所以需要在採集端部署大量資料庫才能支撐。
並且如何在這些資料庫之間進行負載均衡和分片的確是需要深入的思考和設計。
統計/分析
統計與分析主要利用分布式資料庫,或者分布式計算集群來對存儲於其內的大量數據進行普通的分析和分類匯總等,以滿足大多數常見的分析需求,在這方面,一些實時性需求會用到EMC的GreenPlum、Oracle的Exadata,以及基於MySQL的列式存儲Infobright等。
而一些批處理,或者基於半結構化數據的需求可以使用Hadoop。統計與分析這部分的主要特點和挑戰是分析涉及的數據量大,其對系統資源,特別是I/O會有極大的佔用。
導入/預處理
雖然採集端本身會有很多資料庫,但是如果要對這些大量數據進行有效的分析,還是應該將這些來自前端的數據導入到一個集中的大型分布式資料庫,或者分布式存儲集群,並且可以在導入基礎上做一些簡單的清洗和預處理工作。
也有一些用戶會在導入時使用來自Twitter的Storm來對數據進行流式計算,來滿足部分業務的實時計算需求。導入與預處理過程的特點和挑戰主要是導入的數據量大,每秒鍾的導入量經常會達到百兆,甚至千兆級別。
❷ 如何將超大文件壓縮到最小
1、先選中需要壓縮的文件,然後在已選擇的文件中的任意一個文件上右擊,並選擇「添加到壓縮文件」。
❸ 在excel中,要處理60-100萬條左右數據量篩選,數據文件很大,篩選執行起來很慢,有什麼特別的方法嗎
先用數據透視表+切片器來實現吧。
如果速度還不理想,用powerquery+powerpivot來處理就行了。
當數據量達到幾十萬上百萬級別,臨時篩選肯定不是最佳解決辦法。
需要對這些數據進行某種維度的統計匯總或圖表化,否則,就算篩出來結果又有什麼意義呢——人眼能從幾千幾萬條數據中看出什麼來?
如果powerquery+powerpivot還不能解決,就只有上資料庫了。