① 四川和重慶都在發展大數據,在貴州落戶的產業巨頭會變心嗎
雅安發展大數據的戰略始於2018年。按照「大力發展大數據產業,打造 川西 地區大數據基礎服務基地、互聯網數據中心和算力供應中心,建設川西大數據中心」的要求,雅安規劃了總面積2.65平方公里、可容納伺服器210萬台的川西大數據產業園。「貴陽具有的優勢,雅安都有。」四川省產業經濟發展促進會會長駱玲向第一財經記者表示,雅安和貴陽都在發展大數據產業前端,即大數據的存儲和計算,這對氣溫和空氣潔凈度都有比較高的要求,最重要的是雅安和貴陽都有電價優勢。貴州 以涼都著稱,水煤資源豐富,電力價格低廉。而雅安也有將近65%的森林覆蓋率,被稱為天然氧吧,氣候涼爽且溫差小,同時雅安水電資源豐富,且棄水現象嚴重。其實,雅安發展大數據產業的直接動因就是四川建設水電消納產業示範區。
大數據產業成為全市新興支柱產業。駱玲表示,四川的優勢在於產業基礎比較好,經濟體量比較大,發展大數據有產業依託,很多本地需要大數據中心的行業系統已經落戶雅安,形成大數據龍頭企業聚集。同時,雅安的「野心」不僅是大數據產業前端。大數據產業要服務先進製造業和現代服務業,才能有產業融合效應。在建設大數據產業園的同時,雅安還同步規劃了大數據創意公園、康養數字小鎮、區域電商中心等。在四川之前,貴州的大數據產業已經受到來自重慶的挑戰。在重慶提出實施以大數據智能化為引領的創新驅動發展戰略行動計劃後,一些巨頭的投資風向便發生了改變。2014年,阿里雲大數據中心落戶貴州,阿里還宣布將把貴陽建成全球備案中心與技術支持中心;2017年,騰訊在貴陽建設了七星綠色數據中心,這也是一個特高等級災備數據中心。但後來,阿里巴巴、騰訊、網路等巨頭又在重慶進行重點投資。今年1月,阿里巴巴重慶智能中心落戶兩江新區。近日,阿里巴巴旗下阿里雲、b2b、零售通、口碑、大麥、阿里影業、螞蟻金服、菜鳥、阿里集團客戶體驗事業部等營團隊,已經正式入駐該中心。與此同時,繼貴州之後,重慶也獲批國家大數據綜合試驗區。駱玲認為,相比貴州,川渝地區發展大數據有自身產業、市場的需求。比如重慶汽車、電子信息等產業基礎雄厚,以大數據智能化引領會很有前景。但目前,四川、重慶和貴州三個地方在大數據產業上的競爭還不明顯。不僅如此,重慶和貴州作為兩個國家大數據綜合試驗區也在加強合作。今年3月發布的《渝黔合作先行示範區建設實施方案》,也將大數據作為渝黔合作先行示範區重點發展的產業之一。方案提出,整合渝黔兩地大數據產業技術創新要素,共同搭建大數據協同創新平台;同時,推動核心支撐軟體、工業互聯網、工業大數據、智能裝備、智能製造雲服務平台等在製造業的集成應用,全面推進兩地傳統產業向智能化、綠色化、服務化轉型。而《雅安市人民政府關於加快大數據產業發展的實施意見》也明確提出實施錯位競爭、差異化發展路線。著力在大數據基礎服務、物聯網與應急產業、人工智慧與無人駕駛、區塊鏈與信用體系、電子商務與產業培育、視聯網與公眾服務等方向開展示範應用。
② 大數據如何監測管理現代農業
大數據如何監測管理現代農業
隨著海量信息的爆發,農業跨步邁入大數據時代。如同其他行業的大數據應用,通過技術手段獲取、收集、分析數據,能夠有效地解決農業生產和市場流通等問題。
在大數據的推動下,農業監測預警工作的思維方式和工作範式發生了根本性的變化,我國農產品監測預警信息處理和分析將向著系統化、集成化、智能化方向發展。本期嘉賓將帶您了解大數據時代下,農產品監測預警如何運行以及未來面臨的機遇。
大數據走進農業領域
資料庫專家、圖靈獎得主吉姆·格雷提出,數據密集型計算成為繼試驗科學、理論科學、計算科學之外的科學研究第四範式。大數據被學術界正式提出始於2008年9月《自然》雜志發表的「Big Data」系列專題文章,介紹了大數據應用所帶來的挑戰和機遇。
人們圍繞研究數據的海量增加展開討論。2011年,《科學》雜志刊登「Dealing with Data」專題,指出分析數據的能力遠落後於獲取數據的能力。
2012年3月,美國政府公布了「大數據研發計劃」,基於大數據推動科研和創新。在我國,2012年5月香山科學會議第424次會議以「大數據」為主題,認為大數據時代已經來臨,大數據已成為各行業共同面臨的大問題。同年11月,香山科學會議第445次會議以「數據密集時代的科研信息化」為主題,討論「大數據」時代的科研信息化問題。
這些事件都標志著「大數據」走入我們的生活。那麼,大數據在農業中的應用如何?許世衛表示,「農業大數據是大數據在農業領域的應用和延展,是開展農產品監測預警工作的重要技術支撐。」
在他看來,農業大數據不僅保留了大數據自身具有的規模巨大、類型多樣、價值密度低、處理速度快、精確度高和復雜度高等基本特徵,還使得農業內部的信息流得到了延展和深化。
數據作為一種戰略資源,可以有效地解決農業生產面臨的復雜問題,從數據的獲取、收集到分析,能夠事半功倍地解決農業生產問題。
許世衛舉例道,如通過感測器、作物本體檢測手段,獲取了土壤中的氮磷鉀肥力等大量數據,對數據進行分析整理後可以有效指導農業生產中的施肥量、施肥時間等問題,進行合理規劃,得出最合適的投入量,從而提高生產效率。
再如,大數據能夠提前預測到未來市場的供給需求,可以有效降低生產投入並採取適當的措施進行智能化生產,對平抑物價起到調節作用。
大數據是監測預警的基礎支撐
許世衛指出,農業大數據的數據獲取、採集渠道和應用技術手段,無法通過人工調查得到數據,而需要依靠土壤感測器、環境感測器、作物長勢生命本體感測器等手段支撐。由於技術更新、成本下降,使得農業有關生產市場流通等數據獲取能力大幅提升。
「大數據使得農業進入全面感知時代,用總體替代樣本成為可能;農業生產獲得更多依靠數據的支撐,從此進入智慧農業時代;大量的數據可以優化生產布局,優化安排生產投入;大數據時代下,市場更有利於產銷對接,在消費環節減少浪費以及減少產後損失。」許世衛說。
此外,大數據給農業的管理也帶來變化。過去的農業管理主要依靠行政手段指導和安排生產,大數據有利於分析提取特徵、總結趨勢,通過市場信號的釋放引導市場進而引導生產。
許世衛表示,農業大數據是現代化農業的高端管理工具。所謂監測預警就是監測數據,貫穿於農產品從生產到流通到消費到餐桌整個過程的產品流、物資流、資金流、信息流,使產銷匹配、生產和運輸匹配、生產和消費匹配。
農產品監測預警也是對農產品生產、市場運行、消費需求、進出口貿易及供需平衡等情況進行全產業鏈的數據採集、信息分析、預測預警與信息發布的全過程。
農產品監測預警還是現代農業穩定發展最重要的基礎,大數據是做好監測預警工作的基礎支撐。農業發展仍然面臨著多重不安全因素,急需用大數據技術去突破困境。
這主要體現在:農業生產風險增加,急需提前獲取災害數據,早發現、早預警;農產品市場波動加劇,「過山車」式的暴漲暴跌時有發生,急需及時、全面、有效的信息,把握市場異常,穩定市場形勢;食物安全事件頻發,急需全程監管透明化,懲戒違規行為。
可以說,農產品監測預警對大數據的需求是迫切的。
農產品監測效果顯著
農產品監測效果顯著,大數據功不可沒,主要體現在監測對象和內容更加細化、數據獲取更加快捷、信息處理分析更加智能、數據服務更加精準等。
隨著農業大數據的發展,數據粒度更加細化,農產品信息空間的表達更加充分,信息分析的內容和對象更加細化。
農業系統是一個包含自然、社會、經濟和人類活動的復雜巨系統,在其中的生命體實時的「生長」出數據,呈現出生命體數字化的特徵。農業物聯網、無線網路傳輸等技術的蓬勃發展,極大地推動了監測數據的海量爆發,數據實現了由「傳統靜態」到「智能動態」的轉變。
在大數據背景下,數據存儲與分析能力將成為未來最重要的核心能力。未來人工智慧、數據挖掘、機器學習、數學建模、深度學習等技術將被廣泛應用,我國農產品監測預警信息處理和分析將向著系統化、集成化、智能化方向發展。
如中國農產品監測預警系統(China Agricultural Monitoring and Early Warning System,CAMES)已經在機理分析過程中實現了模擬化與智能化,做到了覆蓋中國農產品市場上的953個主要品種,可以實現全天候即時性農產品信息監測與信息分析,用於不同區域不同產品的多類型分析預警。
在大數據的支撐下,智能預警系統通過自動獲取農業對象特徵信號,將特徵信號自動傳遞給研判系統。研判系統通過對海量數據自動進行信息處理與分析判別,自動生成和顯示結論結果,發現農產品信息流的流量和流向,在紛繁的信息中抽取農產品市場發展運行的規律。最終形成的農產品市場監測數據與深度分析報告,將為政府部門掌握生產、流通、消費、庫存和貿易等產業鏈變化、調控穩定市場提供重要的決策支持。
③ 貴州貴安新區:一流的數據中心是這樣建成的
8月18日,中國人民銀行貴安數據中心在北京正式簽約落地。據了解,該數據中心投用後將成為我國重要的金融基礎設施。同時,貴安新區以該數據中心落地為契機,規劃建設數字金融產業園,實施「產業金融中心」「金融產業中心」雙輪驅動,打造一流金融基地。
作為貴州建設國家大數據綜合試驗區的核心區,貴安新區近年來加快推進「中國南方數據中心示範基地」建設,目前已在該區馬場鎮以貴安騰訊七星數據中心為圓心,在半徑4公里、面積不超過50平方公里的區域內,規劃建設了12個超大型數據中心。
貴安新區的大數據產業始於數據中心。2013年10月,中國電信雲計算貴州信息園在貴安新區開工,拉開了該區數據中心建設的序幕,也開啟了大數據產業發展征程。
據了解,目前已有中國電信、中國移動、中國聯通、華為、騰訊、蘋果、富士康等7家企業的數據中心落戶貴安新區。
在快速推進數據建設的同時,貴安新區還以數據中心為基礎,加速聚集上下游企業,延長大數據產業鏈。該區積極布局伺服器製造、雲服務、CDN服務及大數據增值服務,謀劃打造一個千億級智能終端產業集群和5個百億級數據中心產業集群的「1+5」產業生態。目前已經匯聚了浪潮、數據寶、雲上艾珀、騰訊貴安數碼公司、白山雲、華雲創谷等一批數字經濟引領性企業。
數據顯示,今年上半年,貴安新區大數據產業保持高質量發展態勢,軟體和信息技術服務業營業收入完成25.39億元,電子商務交易額完成80.12億元,同比分別增長37.89%和25.75%。
8月13日,貴陽市、貴安新區、華為技術有限公司和拓維信息系統股份有限公司在貴陽共同簽署戰略合作協議,四方將整合各自優勢資源和能力,共建「立足貴州、服務全國」的鯤鵬產業生態,率先把貴陽市和貴安新區打造成全國產業數字化、數字產業化、數字治理的標桿和示範地區。
貴安新區相關負責人表示,數據中心仍是該區今後重點支持的項目,將全力保障數據中心建設的集約化用地需求、電力安全需求、網路需求和信息安全需求,同時創新體制機制,降低數據中心及配套產業的要素成本,打造一流的運維體系,進一步提升數據中心聚合能力。
按照規劃,到2025年,貴安新區承載的伺服器數達400萬台,數據中心固定資產投資超400億元,有可能成為全國最大的高安全、綠色化、集約化數據中心基地。
④ 大數據分析需要哪些工具
說到大數據,肯定少不了分析軟體,這應該是大數據工作的根基,但市面上很多各種分析軟體,如果不是過來人,真的很難找到適合自己或符合企業要求的。小編通過各大企業對大數據相關行業的崗位要求,總結了以下幾點:
(1)SQL資料庫的基本操作,會基本的數據管理
(2)會用Excel/SQL做基本的數據分析和展示
(3)會用腳本語言進行數據分析,Python or R
(4)有獲取外部數據的能力,如爬蟲
(5)會基本的數據可視化技能,能撰寫數據報告
(6)熟悉常用的數據挖掘演算法:回歸分析、決策樹、隨機森林、支持向量機等
對於學習大數據,總體來說,先學基礎,再學理論,最後是工具。基本上,每一門語言的學習都是要按照這個順序來的。
1、學習數據分析基礎知識,包括概率論、數理統計。基礎這種東西還是要掌握好的啊,基礎都還沒扎實,知識大廈是很容易倒的哈。
2、你的目標行業的相關理論知識。比如金融類的,要學習證券、銀行、財務等各種知識,不然到了公司就一臉懵逼啦。
3、學習數據分析工具,軟體結合案列的實際應用,關於數據分析主流軟體有(從上手度從易到難):Excel,SPSS,stata,R,Python,SAS等。
4、學會怎樣操作這些軟體,然後是利用軟體從數據的清洗開始一步步進行處理,分析,最後輸出結果,檢驗及解讀數據。
⑤ 大數據分析到底需要多少種工具
一、hadoop
Hadoop 是一個能夠對大量數據進行分布式處理的軟體框架。但是 Hadoop 是以一種可靠、高效、可伸縮的方式進行處理的。Hadoop 是可靠的,因為它假設計算元素和存儲會失敗,因此它維護多個工作數據副本,確保能夠針對失敗的節點重新分布處理。Hadoop 是高效的,因為它以並行的方式工作,通過並行處理加快處理速度。Hadoop 還是可伸縮的,能夠處理 PB 級數據。此外,Hadoop 依賴於社區伺服器,因此它的成本比較低,任何人都可以使用。
Hadoop帶有用 java 語言編寫的框架,因此運行在 Linux 生產平台上是非常理想的。Hadoop 上的應用程序也可以使用其他語言編寫,比如 C++。
二、HPCC
HPCC,High Performance Computing and Communications(高性能計算與通信)的縮寫。1993年,由美國科學、工程、技術聯邦協調理事會向國會提交了「重大挑戰項目:高性能計算與 通信」的報告,也就是被稱為HPCC計劃的報告,即美國總統科學戰略項目,其目的是通過加強研究與開發解決一批重要的科學與技術挑戰問題。HPCC是美國實施信息高速公路而上實施的計劃,該計劃的實施將耗資百億美元,其主要目標要達到:開發可擴展的計算系統及相關軟體,以支持太位級網路傳輸性能,開發千兆 比特網路技術,擴展研究和教育機構及網路連接能力。
三、Storm
Storm是自由的開源軟體,一個分布式的、容錯的實時計算系統。Storm可以非常可靠的處理龐大的數據流,用於處理Hadoop的批量數據。Storm很簡單,支持許多種編程語言,使用起來非常有趣。Storm由Twitter開源而來,其它知名的應用企業包括Groupon、淘寶、支付寶、阿里巴巴、樂元素、 Admaster等等。
Storm有許多應用領域:實時分析、在線機器學習、不停頓的計算、分布式RPC(遠過程調用協議,一種通過網路從遠程計算機程序上請求服務)、 ETL(Extraction-Transformation-Loading的縮寫,即數據抽取、轉換和載入)等等。Storm的處理速度驚人:經測 試,每個節點每秒鍾可以處理100萬個數據元組。Storm是可擴展、容錯,很容易設置和操作。
四、Apache Drill
為了幫助企業用戶尋找更為有效、加快Hadoop數據查詢的方法,Apache軟體基金會近日發起了一項名為「Drill」的開源項目。Apache Drill 實現了 Google's Dremel。該項目將會創建出開源版本的谷歌Dremel Hadoop工具(谷歌使用該工具來為Hadoop數據分析工具的互聯網應用提速)。而「Drill」將有助於Hadoop用戶實現更快查詢海量數據集的目的。
通過開發「Drill」Apache開源項目,組織機構將有望建立Drill所屬的API介面和靈活強大的體系架構,從而幫助支持廣泛的數據源、數據格式和查詢語言。
五、RapidMiner
RapidMiner是世界領先的數據挖掘解決方案,在一個非常大的程度上有著先進技術。它數據挖掘任務涉及范圍廣泛,包括各種數據藝術,能簡化數據挖掘過程的設計和評價。
六、 Pentaho BI
Pentaho BI 平台不同於傳統的BI 產品,它是一個以流程為中心的,面向解決方案(Solution)的框架。其目的在於將一系列企業級BI產品、開源軟體、API等等組件集成起來,方便商務智能應用的開發。它的出現,使得一系列的面向商務智能的獨立產品如Jfree、Quartz等等,能夠集成在一起,構成一項項復雜的、完整的商務智能解決方案。
Pentaho BI 平台構建於伺服器,引擎和組件的基礎之上。這些提供了系統的J2EE 伺服器,安全,portal,工作流,規則引擎,圖表,協作,內容管理,數據集成,分析和建模功能。這些組件的大部分是基於標準的,可使用其他產品替換之。
⑥ 做數據分析要掌握哪些軟體和知識點
上海獻峰網路認為數據分析也好,統計分析也好,數據挖掘也好、商業智能也好都需要在學習的時候掌握各種分析手段和技能,特別是要掌握分析軟體工具!學習數據分析,一般是先學軟體開始,再去應用,再學會理論和原理!沒有軟體的方法就不去學了,因為學了也不能做,除非你自己會編程序。
主意X和Y軸看:
第一維度:數據存儲層——>數據報表層——>數據分析層——>數據展現層
第二維度:用戶級——>部門級——>企業級——BI級
首先.存儲層:
1.Access2003、Access07等:最基本的個人資料庫;
2.MySQL資料庫;
3.SQL Server 2005或更高版本;
4. DB2,Oracle;
5. BI級(實際上這個不是資料庫,而是建立在前面資料庫基礎上的,這個主要是數據
庫的企業應用級了,一般這個時候的資料庫都叫數據倉庫了,Data Warehouse
,建立在DW級上的數據存儲基本上都是商業智能平台,或許整合了各種數據分析,報表、分析和展現!)
第二:報表層
推薦石頭最喜歡的兩款。
1.Crystal Report水晶報表Bill報表
2. Tableau軟體
第三:數據分析層
1.Excel軟體(有能力把Excel玩成統計工具不如專門學會統計軟體);
2.SPSS軟體:從重視醫學、化學等開始越來越重視商業分析,現在已經成為了預測
分析軟體。
3.Clementine軟體。
⑦ 大數據——大價值、大機遇、大變革(全彩)的序
「這是最好的時代,也是最壞的時代;這是智慧的時代,也是愚蠢的時代」。每天,有無數的企業在建立,也有無數的企業在消失。互聯網讓信息和數據快速積累和流動,世界變得更透明,更平坦。
誰能想像五年之後,一個不懂數據的公司如何生存和發展?數據革命正在瓦解已經建立的產業和商業模式,你、我都准備好了嗎?
一切始於緊迫感
自2012年3月華盛頓宣布「大數據研究和發展倡議」,英國、日本、德國、加拿大等國紛紛效仿,推出與大數據應用相關的戰略研究,自此一場關於「大數據」的戰略爭奪已經拉開戰幕。
能源在消耗中面臨枯竭,從而引發各國對能源的爭奪和對危機的恐懼;數據不但不會因為佔有而枯竭,還會隨著使用和傳播不斷的豐富與生長。可以想像,數據將成為未來世界的DNA。但擁有的數據規模、質量和應用帶來的馬太效應將形成明顯的數據資源區隔和競爭優勢,因此大數據成為各國爭奪的下一個戰略前沿。這是一場沒有硝煙的戰爭,隨著「智慧經濟」的崛起,採集數據、掌握數據、運用數據必將成為國家、企業的核心競爭力。
大數據正在為我們呈現一個全新的信息社會、智慧社會,世界經濟在迎來新引擎的同時,格局也醞釀著新變化。面對歷史的又一次機遇,我們將扮演何種角色、如何應對,這是值得我們每一位認真思考和探究的問題。
本書從社會、經濟、商業和技術等多角度展現了大數據將帶來的改變和促進,同時對其發展趨勢、實施中的問題和風險也做了思考。
行勝於言,我們用最短的時間完成此書的編撰就是希望每位閱讀此書的讀者都能從中得以觸動和借鑒,從而關注大數據及大數據下的發展。
李志剛
⑧ 什麼是交通大數據
跟交通信息有關的所有數據整合到一起(比如車輛信息、地圖信息、人員信息、違規違章記錄信息等等),形成一個數據鏈,這樣的就是交通大數據。
⑨ 大數據都是學什麼軟體
首先我們要了解Java語言和Linux操作系統,這兩個是學習大數據的基礎,學習的順序不分前後。
大數據
Java :只要了解一些基礎即可,做大數據不需要很深的Java 技術,學java SE 就相當於有學習大數據基礎。
Linux:因為大數據相關軟體都是在Linux上運行的,所以Linux要學習的扎實一些,學好Linux對你快速掌握大數據相關技術會有很大的幫助,能讓你更好的理解hadoop、hive、hbase、spark等大數據軟體的運行環境和網路環境配置,能少踩很多坑,學會shell就能看懂腳本這樣能更容易理解和配置大數據集群。還能讓你對以後新出的大數據技術學習起來更快。
Hadoop:這是現在流行的大數據處理平台幾乎已經成為大數據的代名詞,所以這個是必學的。Hadoop裡麵包括幾個組件HDFS、MapRece和YARN,HDFS是存儲數據的地方就像我們電腦的硬碟一樣文件都存儲在這個上面,MapRece是對數據進行處理計算的,它有個特點就是不管多大的數據只要給它時間它就能把數據跑完,但是時間可能不是很快所以它叫數據的批處理。
Zookeeper:這是個萬金油,安裝Hadoop的HA的時候就會用到它,以後的Hbase也會用到它。它一般用來存放一些相互協作的信息,這些信息比較小一般不會超過1M,都是使用它的軟體對它有依賴,對於我們個人來講只需要把它安裝正確,讓它正常的run起來就可以了。
Mysql:我們學習完大數據的處理了,接下來學習學習小數據的處理工具mysql資料庫,因為一會裝hive的時候要用到,mysql需要掌握到什麼層度那?你能在Linux上把它安裝好,運行起來,會配置簡單的許可權,修改root的密碼,創建資料庫。這里主要的是學習SQL的語法,因為hive的語法和這個非常相似。
Sqoop:這個是用於把Mysql里的數據導入到Hadoop里的。當然你也可以不用這個,直接把Mysql數據表導出成文件再放到HDFS上也是一樣的,當然生產環境中使用要注意Mysql的壓力。
Hive:這個東西對於會SQL語法的來說就是神器,它能讓你處理大數據變的很簡單,不會再費勁的編寫MapRece程序。有的人說Pig那?它和Pig差不多掌握一個就可以了。
Oozie:既然學會Hive了,我相信你一定需要這個東西,它可以幫你管理你的Hive或者MapRece、Spark腳本,還能檢查你的程序是否執行正確,出錯了給你發報警並能幫你重試程序,最重要的是還能幫你配置任務的依賴關系。我相信你一定會喜歡上它的,不然你看著那一大堆腳本,和密密麻麻的crond是不是有種想屎的感覺。
Hbase:這是Hadoop生態體系中的NOSQL資料庫,他的數據是按照key和value的形式存儲的並且key是唯一的,所以它能用來做數據的排重,它與MYSQL相比能存儲的數據量大很多。所以他常被用於大數據處理完成之後的存儲目的地。
Kafka:這是個比較好用的隊列工具,隊列是干嗎的?排隊買票你知道不?數據多了同樣也需要排隊處理,這樣與你協作的其它同學不會叫起來,你干嗎給我這么多的數據(比如好幾百G的文件)我怎麼處理得過來,你別怪他因為他不是搞大數據的,你可以跟他講我把數據放在隊列里你使用的時候一個個拿,這樣他就不在抱怨了馬上灰流流的去優化他的程序去了,因為處理不過來就是他的事情。而不是你給的問題。當然我們也可以利用這個工具來做線上實時數據的入庫或入HDFS,這時你可以與一個叫Flume的工具配合使用,它是專門用來提供對數據進行簡單處理,並寫到各種數據接受方(比如Kafka)的。
Spark:它是用來彌補基於MapRece處理數據速度上的缺點,它的特點是把數據裝載到內存中計算而不是去讀慢的要死進化還特別慢的硬碟。特別適合做迭代運算,所以演算法流們特別稀飯它。它是用scala編寫的。Java語言或者Scala都可以操作它,因為它們都是用JVM的。