導航:首頁 > 網路數據 > 大數據爬蟲hadoop

大數據爬蟲hadoop

發布時間:2023-06-20 04:01:41

① python爬蟲和大數據什麼關系

大數據發掘需要一些工具比如python的爬蟲、hadoop統計分析等。

② 大數據分析需要哪些工具

說到大數據,肯定少不了分析軟體,這應該是大數據工作的根基,但市面上很多各種分析軟體,如果不是過來人,真的很難找到適合自己或符合企業要求的。小編通過各大企業對大數據相關行業的崗位要求,總結了以下幾點:
(1)SQL資料庫的基本操作,會基本的數據管理
(2)會用Excel/SQL做基本的數據分析和展示
(3)會用腳本語言進行數據分析,Python or R
(4)有獲取外部數據的能力,如爬蟲
(5)會基本的數據可視化技能,能撰寫數據報告
(6)熟悉常用的數據挖掘演算法:回歸分析、決策樹、隨機森林、支持向量機等
對於學習大數據,總體來說,先學基礎,再學理論,最後是工具。基本上,每一門語言的學習都是要按照這個順序來的。
1、學習數據分析基礎知識,包括概率論、數理統計。基礎這種東西還是要掌握好的啊,基礎都還沒扎實,知識大廈是很容易倒的哈。
2、你的目標行業的相關理論知識。比如金融類的,要學習證券、銀行、財務等各種知識,不然到了公司就一臉懵逼啦。
3、學習數據分析工具,軟體結合案列的實際應用,關於數據分析主流軟體有(從上手度從易到難):Excel,SPSS,stata,R,Python,SAS等。
4、學會怎樣操作這些軟體,然後是利用軟體從數據的清洗開始一步步進行處理,分析,最後輸出結果,檢驗及解讀數據。

③ 聯想要做「互聯網+大數據」實踐者

聯想要做「互聯網+大數據」實踐者

聯想要做「互聯網+大數據」實踐者在伺服器、HPC、雲計算等企業級業務已經取得巨大進展的聯想,又將目光投向了大數據。

提及聯想,我們首先想到的可能會是其傳統的PC、平板、手機等業務,以及近年來逐漸發力的企業級業務,對於大數據,聯想還是一名市場新兵。

實際上,聯想在大數據上已經有了數年的耕耘,是一名大數據的實踐者。據聯想集團副總裁、聯想研究院雲計算與智能計算實驗室主任黃瑩介紹,聯想內部已經在IT管理、產品反饋、門店管理等多個領域應用了大數據技術,並計劃將成熟的方案推向市場。

「互聯網+大數據」更具價值

《大數據時代》中寫道:「如今,數據已經成為了一種商業資本,一項重要的經濟投入,可以創造新的經濟利益。事實上,一旦思維轉變過來,數據就能被巧妙地用來激發新產品和新型服務。」

沒錯,數據是當今企業最為寶貴的財富,故而「大數據」成為當前最熱門的話題,大數據及分析被視為企業變革、獲得更強競爭力的有效手段。

不過,就像歷史上的很多新生事物都會經歷過質疑和爭論,在對「大數據」的認知上也存在著一些誤區。很多時候我們認為BI就是大數據、「數據倉庫+Hadoop」就代表著大數據,然而並非如此。

聯想集團副總裁、聯想研究院雲計算與智能計算實驗室主任黃瑩指出,大數據技術的價值在於能快速且基於事實的支持決策而產生巨大的商業價值。相比傳統的BI,大數據的數據來源要更加廣泛,不僅包括CRM、ERP、網店交易或會計賬簿等傳統企業數據,也包括網頁日誌、智能電表、製造感測器、設備日誌、交易系統數據等機器或感測器數據,同時還包括具有時代特色社交媒體數據,如客戶評論、微博和社交平台等。

「互聯網與傳統企業結合單一的企業數據倉庫或者單一的互聯網大數據平台無法滿足企業發展需要,結合企業傳統數據與物聯網、自然語言等技術,互聯網+大數據平台應運而生」,黃瑩表示。

聯想集團研究院大數據總監郭煒補充說,「數據倉庫+Hadoop」並不等於大數據,「在網上的數據」才是真正的「互聯網+大數據」:「現在設備採集的數據、互聯網對話的數據,甚至是跟用戶交互的點擊流和線下的行為軌跡流,都是要納入企業數據平台的。企業在設計大數據平台的時候,一定要考慮將用戶交互的數據都納入到企業的大數據平台上。」

如今,聯想所從事的就是「互聯網+大數據」平台的建設。據黃瑩介紹,其中包括與傳統企業系統對接,通過「爬蟲」技術獲取社交大數據來傾聽客戶體驗,跟蹤企業最新動態、加盟開源社區,基於大數據特殊應用需求定製軟硬體解決方案等多個層面。

郭煒表示,從數據獲取、再到存儲、處理、展現、加工、挖掘,再形成用戶畫像,聯想內部在使用著一整套的解決方案。

做「互聯網+大數據」實踐者

聯想雖然是一名大數據領域的新兵,但對大數據有著清晰的認知,並且在內部已經開始了大數據實踐。

例如,聯想在互聯網「爬蟲」技術上有著多年的積累,並通過模擬用戶行為、轉換Cookie等技術來增強「爬蟲」的能力。通過「爬蟲」,聯想能夠將合作的電商平台,如京東、亞馬遜、淘寶上有關聯想產品的數據「爬」下來,第一時間獲得用戶的反饋信息、並能夠將這些數據快速反饋給產品經理。

「通過對大數據進行分析、比較集中的用戶信息反饋,比如電腦、筆記本跟屏幕相關的,或者是一些零部件的信息,怎麼樣把電腦設計得更加符合用戶的使用習慣。比如有的用戶是打游戲,我們就會在這個方面進行加強,在做產品定位的時候可以更加確切。這樣的案例有很多,對聯想產品更貼近用戶產生了很大的價值」,黃瑩表示,「互聯網+大數據」讓聯想能夠「聆聽客戶聲音」,對聯想改進產品有著重要意義。

在IT資源管理方面聯想也應用了大數據技術。據黃瑩介紹,聯想大數據部門和IT部門一起協作,採集分布在世界各地數據中心的網路數據,然後分析產生價值:「如果將某一個應用布到某一個數據中心,它可能會對已有應用產生影響。我們可以通過大數據分析模擬,計算出對現在的帶寬產生什麼樣的影響,可以對分析決策產生幫助。」

再如,聯想有很多門店,過去都是用人工進行管理,這樣導致的效果是低效的,決策者看不到真正發生了什麼事情。如今聯想建立了門店管理的大數據解決方案,聯想內部的相關業務部門先跟門店進行合作,積累了比較好的經驗以後再變成類似的方案,也可以分享給其他的合作方。

如今,聯想的大數據方案已經初現雛形,據黃瑩介紹,從爬蟲技術、自然語言處理、底層大數據處理工具的平台化設計,比如Hadoop、Spark、數據清洗,以及一些數據可視化的工作,聯想或者已經在實驗室平台上實現,或者已經被聯想業務部門應用起來。同時,定價、營銷、供應鏈的分析等大數據方案也已經投入業務部門使用。

「在內部實施比較成功的大數據方案,聯想計劃將其包裝成其他企業能夠應用的方案付諸商用」,黃瑩表示。

——從伺服器、雲計算、HPC,再到如今的大數據,聯想在企業級市場逐漸發力。從聯想大數據的應用實踐、以及對大數據整體解決方案的構建不難看出,聯想企業級解決方案提供商的角色已經更加鮮明。

在大數據領域,聯想的優勢在於有著齊全的終端設備,有著大量收集數據的渠道;具有豐富的軟硬體,以及廣泛的合作夥伴,具有構建大數據整體解決方案的良好基礎;同時聯想進行了大量的內部大數據實踐,本身就是大數據的受益者,這為構建大數據方案提供了經驗。

以上是小編為大家分享的關於 聯想要做「互聯網+大數據」實踐者的相關內容,更多信息可以關注環球青藤分享更多干貨

④ 大數據的Hadoop是做什麼的

Hadoop是一個由抄Apache基金會所開發的分布式系統基礎架構,是用java語言開發的一個開源分布式計算平台,適合大數據的分布式存儲和計算平台。
Hadoop是目前被廣泛使用的大數據平台,本身就是大數據平台研發人員的工作成果,Hadoop是目前比較常見的大數據支撐性平台。

⑤ 大數據中Hadoop的核心技術是什麼

Hadoop核心架構,分為四個模塊:

1、Hadoop通用:提供Hadoop模塊所需要的Java類庫和工具。

2、Hadoop YARN:提供任務調度和集群資源管理功能。

3、Hadoop HDFS:分布式文件系統,提供高吞吐量的應用程序數據訪問方式。

4、Hadoop MapRece:大數據離線計算引擎,用於大規模數據集的並行處理。

特點:

Hadoop的高可靠性、高擴展性、高效性、高容錯性,是Hadoop的優勢所在,在十多年的發展歷程當中,Hadoop依然被行業認可,占據著重要的市場地位。

Hadoop在大數據技術框架當中的地位重要,學大數據必學Hadoop,還要對Hadoop核心技術框架掌握扎實才行。

⑥ 大數據時代網路爬蟲為銀行提供了全新的策略

大數據時代網路爬蟲為銀行提供了全新的策略
人類社會已經進入大數據時代,傳統的信息存儲和傳播媒介已逐漸為計算機所替代,並呈現出指數增長的趨勢,成為21世紀最為重要的經濟資源之一。作為掌握大量真實交易數據的商業銀行,面對浩如煙海的信息時,如何實現銀行內部與外部信息、結構性與非結構性數據的緊密結合,更加准確地識別信息,有效地對信息進行挖掘,將數據價值轉化為經濟價值,已經成為當前商業銀行提升核心競爭力的重要途徑之一。網路爬蟲技術的快速發展為商業銀行提升信息精準獲取和有效整合應用能力提供了全新的策略。
網路爬蟲技術概述
網路爬蟲是Spider(或Robots、Crawler)等詞的意譯,是一種高效的信息抓取工具,它集成了搜索引擎技術,並通過技術手段進行優化,用以從互聯網搜索、抓取並保存任何通過HTML(超文本標記語言)進行標准化的網頁信息。其作用機理是:發送請求給互聯網特定站點,在建立連接後與該站點交互,獲取HTML格式的信息,隨後轉移到下一個站點,並重復以上流程。通過這種自動化的工作機制,將目標數據保存在本地數據中,以供使用。網路爬蟲在訪問一個超文本鏈接時,可以從HTML標簽中自動獲取指向其他網頁的地址信息,因而可以自動實現高效、標准化的信息獲取。
隨著互聯網在人類經濟社會中的應用日益廣泛,其所涵蓋的信息規模呈指數增長,信息的形式和分布具有多樣化、全球化特徵,傳統搜索引擎技術已經無法滿足日益精細化、專業化的信息獲取和加工需求,正面臨著巨大的挑戰。網路爬蟲自誕生以來,就發展迅猛,並成為信息技術領域的主要研究熱點。當前,主流的網路爬蟲搜索策略有如下幾種。
深度優先搜索策略
早期的爬蟲開發採用較多的搜索策略是以深度優先的,即在一個HTML文件中,挑選其中一個超鏈接標簽進行深度搜索,直至遍歷這條超鏈接到最底層時,由邏輯運算判斷本層搜索結束,隨後退出本層循環,返回上層循環並開始搜索其他的超鏈接標簽,直至初始文件內的超鏈接被遍歷。深度優先搜索策略的優點是可以將一個Web站點的所有信息全部搜索,對嵌套較深的文檔集尤其適用;而缺點是在數據結構日益復雜的情況下,站點的縱向層級會無限增加且不同層級之間會出現交叉引用,會發生無限循環的情況,只有強行關閉程序才能退出遍歷,而得到的信息由於大量的重復和冗餘,質量很難保證。
寬度優先搜索策略
與深度優先搜索策略相對應的是寬度優先搜索策略,其作用機理是從頂層向底層開始循環,先就一級頁面中的所有超鏈接進行搜索,完成一級頁面遍歷後再開始二級頁面的搜索循環,直到底層為止。當某一層中的所有超鏈接都被選擇過,才會基於該層信息檢索過程中所獲得的下一級超鏈接(並將其作為種子)開始新的一輪檢索,優先處理淺層的鏈接。這種模式的一個優點是:無論搜索對象的縱向結構層級有多麼復雜,都會極大程度上避免死循環;另一個優勢則在於,它擁有特定的演算法,可以找到兩個HTML文件間最短的路徑。一般來講,我們期望爬蟲所具有的大多數功能目前均可以採用寬度優先搜索策略較容易的實現,所以它被認為是最優的。但其缺點是:由於大量時間被耗費,寬度優先搜索策略則不太適用於要遍歷特定站點和HTML文件深層嵌套的情況。
聚焦搜索策略
與深度優先和寬度優先不同,聚焦搜索策略是根據「匹配優先原則」對數據源進行訪問,基於特定的匹配演算法,主動選擇與需求主題相關的數據文檔,並限定優先順序,據以指導後續的數據抓取。這類聚焦爬蟲針對所訪問任何頁面中的超鏈接都會判定一個優先順序評分,根據評分情況將該鏈接插入循環隊列,此策略能夠幫助爬蟲優先跟蹤潛在匹配程度更高的頁面,直至獲取足夠數量和質量的目標信息。不難看出,聚焦爬蟲搜索策略主要在於優先順序評分模型的設計,亦即如何區分鏈接的價值,不同的評分模型針對同一鏈接會給出不同的評分,也就直接影響到信息搜集的效率和質量。同樣機制下,針對超鏈接標簽的評分模型自然可以擴展到針對HTML頁面的評價中,因為每一個網頁都是由大量超鏈接標簽所構成的,一般看來,鏈接價值越高,其所在頁面的價值也越高,這就為搜索引擎的搜索專業化和應用廣泛化提供了理論和技術支撐。當前,常見的聚焦搜索策略包括基於「鞏固學習」和「語境圖」兩種。
從應用程度來看,當前國內主流搜索平台主要採用的是寬度優先搜索策略,主要是考慮到國內網路系統中信息的縱向價值密度較低,而橫向價值密度較高。但是這樣會明顯地遺漏到一些引用率較小的網路文檔,並且寬度優先搜索策略的橫向價值富集效應,會導致這些鏈接量少的信息源被無限制的忽略下去;而在此基礎上補充採用線性搜索策略則會緩解這種狀況,不斷引入更新的數據信息到已有的數據倉庫中,通過多輪的價值判斷去決定是否繼續保存該信息,而不是「簡單粗暴」地遺漏下去,將新的信息阻滯在密閉循環之外。
網路爬蟲技術發展趨勢
近年來,隨著網路爬蟲技術的持續發展,搜索策略也在不斷進行優化。從目前來看,未來網路爬蟲的發展主要呈現以下趨勢。
網頁數據動態化
傳統的網路爬蟲技術主要局限於對靜態頁面信息的抓取,模式相對單一,而近年來,隨著Web2.0/AJAX等技術成為主流,動態頁面由於具有強大的交互能力,成為網路信息傳播的主流,並已取代了靜態頁面成為了主流。AJAX採用了JavaScript驅動的非同步(非同步)請求和響應機制,在不經過網頁整體刷新的情況下持續進行數據更新,而傳統爬蟲技術缺乏對JavaScript語義的介面和交互能力,難以觸發動態無刷新頁面的非同步調用機制並解析返回的數據內容,無法保存所需信息。
此外,諸如JQuery等封裝了JavaScript的各類前端框架會對DOM結構進行大量調整,甚至網頁上的主要動態內容均不必在首次建立請求時就以靜態標簽的形式從伺服器端發送到客戶端,而是不斷對用戶的操作進行回應並通過非同步調用的機制動態繪制出來。這種模式一方面極大地優化了用戶體驗,另一方面很大程度上減輕了伺服器的交互負擔,但卻對習慣了DOM結構(相對不變的靜態頁面)的爬蟲程序提出了巨大挑戰。傳統爬蟲程序主要基於「協議驅動」,而在互聯網2.0時代,基於AJAX的動態交互技術環境下,爬蟲引擎必須依賴「事件驅動」才有可能獲得數據伺服器源源不斷的數據反饋。而要實現事件驅動,爬蟲程序必須解決三項技術問題:第一,JavaScript的交互分析和解釋;第二,DOM事件的處理和解釋分發;第三,動態DOM內容語義的抽取。
數據採集分布化
分布式爬蟲系統是在計算機集群之上運轉的爬蟲系統,集群每一個節點上運行的爬蟲程序與集中式爬蟲系統的工作原理相同,所不同的是分布式需要協調不同計算機之間的任務分工、資源分配、信息整合。分布式爬蟲系統的某一台計算機終端中植入了一個主節點,並通過它來調用本地的集中式爬蟲進行工作,在此基礎上,不同節點之間的信息交互就顯得十分重要,所以決定分布式爬蟲系統成功與否的關鍵在於能否設計和實現任務的協同,此外,底層的硬體通信網路也十分重要。由於可以採用多節點抓取網頁,並能夠實現動態的資源分配,因此就搜索效率而言,分布式爬蟲系統遠高於集中式爬蟲系統。
經過不斷的演化,各類分布式爬蟲系統在系統構成上各具特色,工作機制與存儲結構不斷推陳出新,但主流的分布式爬蟲系統普遍運用了「主從結合」的內部構成,也就是由一個主節點通過任務分工、資源分配、信息整合來掌控其他從節點進行信息抓取;在工作方式上,基於雲平台的廉價和高效特點,分布式爬蟲系統廣泛採用雲計算方式來降低成本,大規模降低軟硬體平台構建所需要的成本投入;在存儲方式方面,當前比較流行的是分布式信息存儲,即將文件存儲在分布式的網路系統上,這樣管理多個節點上的數據更加方便。通常情況下使用的分布式文件系統為基於Hadoop的HDFS系統。
網路爬蟲技術在商業銀行的應用
對商業銀行而言,網路爬蟲技術的應用將助力商業銀行實現四個「最了解」,即「最了解自身的銀行」、「最了解客戶的銀行」、「最了解競爭對手的銀行」和「最了解經營環境的銀行」,具體應用場景如下。
網路輿情監測
網路輿情是當前社會主流輿論的表現方式之一,它主要搜集和展示經互聯網傳播後大眾對部分社會焦點和熱點問題的觀點和言論。對於商業銀行而言,對網路輿情進行監測,是對自身品牌管理和危機公關的重要技術手段,從而以網路作為一面「鏡子」,構建「最了解自身的銀行」。
網路輿情作為當前社會的主流信息媒介之一,具有傳播快、影響大的特點,對於商業銀行而言,創建自動化的網路輿情監控系統十分必要,一方面可以使商業銀行獲得更加精準的社會需求信息,另一方面可以使商業銀行在新的輿論平台上傳播自身的服務理念和服務特色,提升自身的業務拓展水平。由於網路爬蟲在網路輿情監控中有著不可替代的作用,其工作質量將會很大程度上影響網路輿情採集的廣度和深度。依據採集目標的類型,網路爬蟲可以歸納為「通用型網路爬蟲」和「主題型網路爬蟲」兩種。通用型網路爬蟲側重於採集更大的數據規模和更寬的數據范圍,並不考慮網頁採集的順序和目標網頁的主題匹配情況。在當前網路信息規模呈現指數增長的背景下,通用型網路爬蟲的使用受到信息採集速度、信息價值密度、信息專業程度的限制。為緩解這種狀況,主題型網路爬蟲誕生了。不同於通用型網路爬蟲,主題型網路爬蟲更專注採集目標與網頁信息的匹配程度,避免無關的冗餘信息,這一篩選過程是動態的,貫穿於主題型網路爬蟲技術的整個工作流程。
通過運用爬蟲技術對網路輿情進行監測,可以更加全面深入地了解客戶對銀行的態度與評價,洞察銀行自身經營的優勢與不足,同時可以起到防禦聲譽風險、增強品牌效應的作用。
客戶全景畫像
隨著商業銀行競爭日趨激烈,利潤空間進一步壓縮,對客戶營銷和風險控制的要求也日趨提升。在當前的銀行經營體系中,營銷流程管理和風險流程管理,尤其是對潛在客戶和貸後風險的識別與管理,往往需要耗費大量的人力、物力和時間成本。通過引入網路爬蟲技術,可以有效構建面向客戶的全景畫像,打造「最了解客戶的銀行」,這是對傳統「客戶關系管理」以及「非現場風控」技術的有益補充,將會極大促進銀行客戶營銷和對風險的管理。
網路爬蟲程序可以用來構建銀行客戶的全維度信息視圖,即以簡單的個人客戶身份信息或對公客戶網路地址為輸入,經過爬蟲程序的加工,將符合預設規則的客戶信息按特定的格式進行輸出。以特定的基礎數據作為原料,銀行數據人員將關鍵詞輸入爬蟲系統,並結合與客戶信息相關的網路地址信息,封裝成爬蟲種子傳遞給爬蟲程序,隨後,爬蟲程序啟動相應的業務流程,爬取客戶相關信息的網頁並保存下來。此外,從網路輿情監測層面進一步入手,將監測對象從自身延伸至銀行客戶,則能夠通過網路在第一時間了解銀行客戶的客戶對銀行客戶的評價,及時掌握客戶的輿情動態,指導銀行經營決策。
通過採用上述網路爬蟲系統對客戶相關信息進行實時採集、監測、更新,不僅可以更全面地了解客戶實時情況,而且可以對客戶的潛在營銷商機和信用風險進行預判,有效提升客戶營銷和貸後風險管理效率,提升商業銀行綜合效益,形成銀行與客戶共贏的局面。
競爭對手分析
當前,隨著利率市場化的到來和互聯網金融的沖擊,商業銀行間競爭日趨激烈,新的市場參與主體與新的產品層出不窮,業務競爭加劇。在此背景下,充分了解競爭對手動態,打造「最了解競爭對手的銀行」,並以此對自身進行調整,及時搶佔先機,這對各家商業銀行而言都具有愈發重要的意義。
通過構建基於網路爬蟲技術的全網路信息分析和展示平台,可以有效對全網路實時數據進行抓取,及時獲取其他銀行的產品信息與新聞動態,第一時間獲取其他競爭者的狀況,方便整合並用以分析本地行內數據。網路爬蟲通過實時採集數據構建起動態數據平台,抓取網路數據並進行本地存儲,便於未來進行深入的數據挖掘分析應用。網路爬蟲技術不僅使得商業銀行決策層更方便地制定準確的政策,用以支撐公司的運營,而且可以將網路輿情信息的監測對象從自身、客戶延伸至競爭對手,便於實時掌握競爭對手的市場競爭狀況及其優劣勢,實現「知己知彼」,真正達到信息對稱。
行業垂直搜索
垂直搜索是指將搜索范圍細分至某一專業領域,針對初次獲取到的網頁信息進行更深層次的整合,最終形成「純度」更高的專業領域信息。銀行數據人員採用該種方式,可以極大提高有效信息的獲取效率。通過對金融主題進行抓取分析,商業銀行可以更加全面地了解監管政策發展動態,了解區域經濟、行業經濟的發展形勢,以及掌握金融行業自身經營環境動態,及時校驗並調整自身策略,緊跟市場趨勢,打造成為「最了解經營環境的銀行」。
對金融領域垂直搜索的應用,可以提高金融主體的信息處理能力。垂直搜索技術上的最大亮點就是能夠對形式多樣、規模巨大的數據進行有目標地專業化的細分操作,減少垃圾信息、聚集有效信息,提高搜索效率,在某些條件下甚至可以提供實時的數據,最大限度地整合現有大量復雜的網頁數據,使用戶獲得更便捷、更完整、更高效的信息檢索服務。
結語
隨著互聯網技術的發展和數據爆炸,網路爬蟲技術為商業銀行數據採集和信息整合應用提供了全新的技術路徑。站在商業銀行應用實踐的角度,網路爬蟲在銀行日常經營管理中的發展潛力巨大。網路爬蟲技術的應用可以助力銀行轉型成為最了解自身、最了解客戶、最了解競爭對手、最了解經營環境的「智慧銀行」。可以預見,網路爬蟲技術將成為商業銀行提升精細化管理能力、提高決策智能化水平的重要技術手段。

⑦ 現在做一個爬蟲程序,希望把爬到的網頁存進hadoop創建的分布式文件系統,用java開發

把stringbuffer的內容存到hadoop中?hadoop的dfs是用來存放海量數據的。想必你的stringbuffer相當大了?那這種內大小的數據能放在內存容中?
如果你的stringbuffer是一個文件的話,那麼直接運行bin/hadoop dfs -FromLocal yourfilepath tmpfilepath 這個命令就行了。

⑧ 金融需要 hadoop,spark 等這些大數據分析工具嗎使用場景是怎樣的

各行各業都是需要的,
比如行業基本面分析和量化分析。

閱讀全文

與大數據爬蟲hadoop相關的資料

熱點內容
手機網站幻燈片代碼 瀏覽:549
上海雲動網路 瀏覽:435
無效的ps文件什麼意思 瀏覽:522
中國移動app如何查家庭網 瀏覽:699
微信顯示未注冊 瀏覽:977
粒子匯聚圖像教程 瀏覽:619
pdf文件能替換圖片 瀏覽:727
製表位不居中word 瀏覽:265
dell驅動盤裝驅動程序 瀏覽:577
編程中如何創建密碼 瀏覽:135
林納斯托瓦茲使用什麼編程語言 瀏覽:132
安卓qq不能指紋支付密碼 瀏覽:476
sap原因代碼 瀏覽:242
數據反饋有什麼好處 瀏覽:502
iphone4612激活 瀏覽:466
蘭州電信寬頻升級 瀏覽:317
linux內核所有進程共享 瀏覽:901
怎怎樣下載內容到文件管理里 瀏覽:303
word試圖打開鎖定文件 瀏覽:971
linux文件找不到 瀏覽:310

友情鏈接