Ⅰ 以大數據為主題,寫一篇1500字的文章
世界包含的多得難以想像的數字化信息變得更多更快……從商業到科學,從政府到藝術,這種影響無處不在。科學家和計算機工程師們給這種現象創造了一個新名詞:「大數據」。大數據時代什麼意思?大數據概念什麼意思?大數據分析什麼意思?所謂大數據,那到底什麼是大數據,他的來源在哪裡,定義究竟是什麼呢?
七:最後北京開運聯合給您總結一下
不管大數據的核心價值是不是預測,但是基於大數據形成決策的模式已經為不少的企業帶來了盈利和聲譽。
1、從大數據的價值鏈條來分析,存在三種模式:
1)手握大數據,但是沒有利用好;比較典型的是金融機構,電信行業,政府機構等。
2)沒有數據,但是知道如何幫助有數據的人利用它;比較典型的是IT咨詢和服務企業,比如,埃森哲,IBM,開運聯合等。
3)既有數據,又有大數據思維;比較典型的是Google,Amazon,Mastercard等。
2、未來在大數據領域最具有價值的是兩種事物:
Ⅱ 如何入門大數據
大數據
數據科學並沒有一個獨立的學科體系,統計學,機器學習,數據挖掘,資料庫,分布式計算,雲計算,信息可視化等技術或方法來對付數據。
但從狹義上來看,我認為數據科學就是解決三個問題:
1. data pre-processing;(數據預處理)
2. data interpretation;(數據解讀)
3.data modeling and analysis.(數據建模與分析)
這也就是我們做數據工作的三個大步驟:
1、原始數據要經過一連串收集、提取、清洗、整理等等的預處理過程,才能形成高質量的數據;
2、我們想看看數據「長什麼樣」,有什麼特點和規律;
3、按照自己的需要,比如要對數據貼標簽分類,或者預測,或者想要從大量復雜的數據中提取有價值的且不易發現的信息,都要對數據建模,得到output。
這三個步驟未必嚴謹,每個大步驟下面可能依問題的不同也會有不同的小步驟,但按我這幾年的經驗來看,按照這個大思路走,數據一般不會做跑偏。
這樣看來,數據科學其實就是門復合型的技術,既然是技術就從編程語言談起吧,為了簡練,只說說R和Python。但既然是薦數據科學方面的書,我這里就不提R/Python編程基礎之類的書了,直接上跟數據科學相關的。
R programming
如果只是想初步了解一下R語言已經R在數據分析方面的應用,那不妨就看看這兩本:
R in action:我的R語言大數據101。其實對於一個沒有任何編程基礎的人來說,一開始就學這本書,學習曲線可能會比較陡峭。但如果配合上一些輔助材料,如官方發布的R basics(http://cran.r-project.org/doc/contrib/usingR.pdf),stackoverflow上有tag-R的問題集(Newest 『r』 Questions),遇到復雜的問題可在上面搜索,總會找到解決方案的。這樣一來,用這本書拿來入門學習也問題不大。而且這本書作者寫得也比較輕松,緊貼實戰。
Data analysis and graphics using R:使用R語言做數據分析的入門書。這本書的特點也是緊貼實戰,沒有過多地講解統計學理論,所以喜歡通過情境應用來學習的人應該會喜歡這本入門書。而且這本書可讀性比較強,也就是說哪怕你手頭沒電腦寫不了代碼,有事沒事拿出這本書翻一翻,也能讀得進去。
但如果你先用R來從事實實在在的數據工作,那麼上面兩本恐怕不夠,還需要這些:
Modern applied statistics with S:這本書里統計學的理論就講得比較多了,好處就是你可以用一本書既復習了統計學,又學了R語言。(S/Splus和R的關系就類似於Unix和Linux,所以用S教程學習R,一點問題都沒有)
Data manipulation with R:這本書實務性很強,它教給你怎麼從不同格式的原始數據文件里讀取、清洗、轉換、整合成高質量的數據。當然和任何一本注重實戰的書一樣,本書也有豐富的真實數據或模擬數據供你練習。對於真正從事數據處理工作的人來說,這本書的內容非常重要,因為對於任何研究,一項熟練的數據預處理技能可以幫你節省大量的時間和精力。否則,你的研究總是要等待你的數據。
R Graphics Cookbook:想用R做可視化,就用這本書吧。150多個recipes,足以幫你應付絕大多數類型的數據。以我現在極業余的可視化操作水平來看,R是最容易做出最漂亮的圖表的工具了。
An introction to statistical learning with application in R:這本書算是著名的the element of statistical learning的姊妹篇,後者更注重統計(機器)學習的模型和演算法,而前者所涉及的模型和演算法原沒有後者全面或深入,但卻是用R來學習和應用機器學習的很好的入口。
A handbook of statistical analysis using R:這本書內容同樣非常扎實,很多統計學的學生就是用這本書來學慣用R來進行統計建模的。
Python
Think Python,Think Stats,Think Bayes:這是Allen B. Downey寫的著名的Think X series三大卷。其實是三本精緻的小冊子,如果想快速地掌握Python在統計方面的操作,好好閱讀這三本書,認真做習題,答案鏈接在書里有。這三本書學通了,就可以上手用Python進行基本的統計建模了。
Python For Data Analysis: 作者是pandas的主要開發者,也正是Pandas使Python能夠像R一樣擁有dataframe的功能,能夠處理結構比較復雜的數據。這本書其實analysis講得不多,說成數據處理應該更合適。掌握了這本書,處理各種糟心的數據就問題不大了。
Introction to Python for Econometrics, Statistics and Data Analysis:這本書第一章就告訴你要安裝Numpy, Scipy, Matplotlib, Pandas, IPython等等。然後接下來的十好幾章就是逐一介紹這幾個庫該怎麼用。很全面,但讀起來比較枯燥,可以用來當工具書。
Practical Data Analysis: 這本書挺奇葩,貌似很暢銷,但作者把內容安排得東一榔頭西一棒子,什麼都講一點,但一個都沒講透。這本書可以作為我們學習數據分析的一個索引,看到哪塊內容有意思,就順著它這個藤去摸更多的瓜。
Python Data Visualization Cookbook: 用Python做可視化的教材肯定不少,我看過的也就這一本,覺得還不錯。其實這類書差別都不會很大,咬住一本啃下來就是王道。
Exploratory Data Analysis 和 Data Visualization
Exploratory Data Analysis:John Tukey寫於1977年的經典老教材,是這一領域的開山之作。如今EDA已經是統計學里的重要一支,但當時還是有很多人對他的工作不屑一顧。可他愛數據,堅信數據可以以一種出人意料的方式呈現出來。正是他的努力,讓數據可視化成為一門無比迷人的技術。但這本書不推薦閱讀了,內容略過時。要想完整地了解EDA,推薦下一本:
Exploratory Data Analysis with MATLAB:這本書雖然標題帶了個MATLAB,但實際上內容幾乎沒怎麼講MATLAB,只是每講一個方法的時候就列出對應的MATALB函數。這本書的重要之處在於,這是我讀過的講EDA最系統的一本書,除了對visualization有不輸於John Tucky的講解外,對於高維的數據集,通過怎樣的方法才能讓我們從中找到潛在的pattern,這本書也做了詳盡的講解。全書所以案例都有對應的MATALB代碼,而且還提供了GUI(圖形用戶界面)。所以這本書學起來還是相當輕松愉悅的。
Visualize This:中譯本叫「鮮活的數據」,作者是個「超級數據迷」,建立了一個叫http://flowingdata.com的網頁展示他的數據可視化作品,這本書告訴你該選擇什麼樣的可視化工具,然後告訴你怎樣visualize關系型數據、時間序列、空間數據等,最後你就可以用數據講故事了。如果你只想感受一下數據可視化是個什麼,可以直接點開下面這個鏈接感受下吧!A tour through the visualization zoo(A Tour Through the Visualization Zoo)
Machine Learning & Data Mining
這一塊就不多說了,不是因為它不重要,而是因為它太太太重要。所以這一部分就推兩本書,都是」世界名著「,都比較難讀,需要一點點地啃。這兩本書拿下,基本就算是登堂入室了。其實作為機器學習的延伸和深化,概率圖模型(PGM)和深度學習(deep learning)同樣值得研究,特別是後者現在簡直火得不得了。但PGM偏難,啃K.Daphne那本大作實在太燒腦,也沒必要,而且在數據領域的應用也不算很廣。deep learning目前工業界的步子邁得比學術界的大,各個domain的應用如火如荼,但要有公認的好教材問世則還需時日,所以PGM和deep learning這兩塊就不薦書了。
The Element of Statistical Learning:要學機器學習,如果讓我只推薦一本書,我就推薦這本巨著。Hastie、Tibshirani、Friedman這三位大牛寫書寫得太用心了,大廈建得夠高夠大,結構也非常嚴謹,而且很有前瞻性,納入了很多前沿的內容,而不僅僅是一部綜述性的教材。(圖表也做得非常漂亮,應該是用R語言的ggplot2做的。)這本書注重講解模型和演算法本身,所以需要具備比較扎實的數理基礎,啃起這本書來才不會太吃力。事實上掌握模型和演算法的原理非常重要。機器學習(統計學習)的庫現在已經非常豐富,即使你沒有完全搞懂某個模型或演算法的原理和過程,只要會用那幾個庫,機器學習也能做得下去。但你會發現你把數據代進去,效果永遠都不好。但是,當你透徹地理解了模型和演算法本身,你再調用那幾個庫的時候,心情是完全不一樣的,效果也不一樣。
Data Mining: Concepts and Techniques, by Jiawei Han and Micheline Kamber 數據挖掘的教材汗牛充棟,之所以推薦這本韓家煒爺爺的,是因為雖然他這本書的出發點是應用,但原理上的內容也一點沒有落下,內容非常完整。而且緊跟時代,更新的很快,我看過的是第二版,就已經加進去了social network analysis這種當時的前沿內容。現在已經有第三版了,我還沒看過,但應該也加入了不少新內容。其實這本書並不難讀,只是篇幅較長,啃起來比較耗時。
其實這兩本書里單拎出來一塊內容可能又是幾本書的節奏,比如bayesian方法,再拿出兩三本書來講也不為過,我個人用到的比較多,而且也確實有不少好書。但並非是所有data scientist都要用到,所以這一塊就不再細說。
還有一些印象比較深刻的書:
Big Data Glossary: 主要講解大數據處理技術及工具,內容涵蓋了NoSQL,MapRece,Storage,Servers,NLP庫與工具包,機器學習工具包,數據可視化工具包,數據清洗,序列化指南等等。總之,是一本辭典式的大數據入門指導。
Mining of Massive Datasets:這本書是斯坦福大學Web Mining的講義,裡面很多內容與韓家煒的Data Mining那本書重合,但這本書里詳細地講了MapRece的設計原理,PageRank(Google創業時期的核心排序演算法,現在也在不斷優化更新)講解得也比較詳細。
Developing Analytic Talent: 作者是個從事了十幾年數據工作的geek,技術博客寫得很有個人風格,寫的內容都比較偏門,通常只有具備相關數據處理經驗的人能體會出來,絲毫不照顧初學者的感受。比如他會談到當數據流更新太快時該怎麼辦,或者MapRece在什麼時候不好用的問題,才不管你懂不懂相關基礎原理。所以這本書不太適合初學者閱讀。這本書其實是作者的博客文章的集結,用how to become a data scientist的邏輯把他近幾年的博客文章串聯了起來。
Past, Present and Future of Statistical Science:這本書是由COPSS(統計學社主席委員會,由國際各大統計學會的帶頭人組成)在50周年出版的一本紀念冊,裡面有50位統計學家每人分別貢獻出的一兩篇文章,有的回憶了自己當年如何走上統計學這條路,有的探討了一些統計學的根本問題,有的談了談自己在從事的前沿研究,有的則給年輕一代寫下了寄語。非常有愛的一本書。
其它資料
Harvard Data Science:這是H大的Data science在線課,我沒有修過,但口碑很好。這門課需要費用8千刀左右,比起華盛頓大學的4千刀的Data science在線課雖貴一倍,但比斯坦福的14千刀要便宜將近一半(而且斯坦福的更偏計算機)。如果想自學,早有好心人分享了slides: (https://drive.google.com/folderview?id=0BxYkKyLxfsNVd0xicUVDS1dIS0k&usp=sharing)和homeworks and solutions: (https://github.com/cs109/content)
PyData:PyData是來自各個domain的用Python做數據的人每年舉行一次的聚會,期間會有各路牛人舉行一些規模不大的seminar或workshop,有好心人已經把video上傳到github,有興趣的去認領吧(DataTau/datascience-anthology-pydata · GitHub)
工具
R/Python/MATLAB(必備):如果是做數據分析和模型開發,以我的觀察來看,使用這三種工具的最多。R生來就是一個統計學家開發的軟體,所做的事也自然圍繞統計學展開。MATLAB雖然算不上是個專業的數據分析工具,但因為很多人不是專業做數據的,做數據還是為了自己的domain expertise(特別是科學計算、信號處理等),而MATLAB又是個強大無比的Domain expertise工具,所以很多人也就順帶讓MATLAB也承擔了數據處理的工作,雖然它有時候顯得效率不高。Python雖然不是做數據分析的專業軟體,但作為一個面向對象的高級動態語言,其開源的生態使Python擁有無比豐富的庫,Numpy, Scipy 實現了矩陣運算/科學計算,相當於實現了MATLAB的功能,Pandas又使Python能夠像R一樣處理dataframe,scikit-learn又實現了機器學習。
SQL(必備):雖然現在人們都說傳統的關系型資料庫如Oracle、MySQL越來越無法適應大數據的發展,但對於很多人來說,他們每天都有處理數據的需要,但可能一輩子都沒機會接觸TB級的數據。不管怎麼說,不論是用關系型還是非關系型資料庫,SQL語言是必須要掌握的技能,用什麼資料庫視具體情況而定。
MongoDB(可選):目前最受歡迎的非關系型資料庫NoSQL之一,不少人認為MongoDB完全可以取代mySQL。確實MongoDB方便易用,擴展性強,Web2.0時代的必需品。
Hadoop/Spark/Storm(可選): MapRece是當前最著名也是運用最廣泛的分布式計算框架,由Google建立。Hadoop/Spark/storm都是基於MapRece的框架建立起來的分布式計算系統,要說他們之間的區別就是,Hadoop用硬碟存儲數據,Spark用內存存儲數據,Storm只接受實時數據流而不存儲數據。一言以蔽之,如果數據是離線的,如果數據比較復雜且對處理速度要求一般,就Hadoop,如果要速度,就Spark,如果數據是在線的實時的流數據,就Storm。
OpenRefine(可選):Google開發的一個易於操作的數據清洗工具,可以實現一些基本的清洗功能。
Tableau(可選):一個可交互的數據可視化工具,操作簡單,開箱即用。而且圖表都設計得非常漂亮。專業版1999美刀,終身使用。媒體和公關方面用得比較多。
Gephi(可選):跟Tableau類似,都是那種可交互的可視化工具,不需要編程基礎,生成的圖表在美學和設計上也是花了心血的。更擅長復雜網路的可視化。
Ⅲ 如何成為優秀的新媒體人,新媒體運營是什麼
新媒體運營是一個很大的范疇,並不是單單發發微博、微信不是我想發什麼,而是站在用戶的角度,了解用戶想看到什麼,涉及的內容也是多樣,其中有數據、心理博弈、熱點借勢、大號資源利用、媒介合作、話題引爆,承載著這個時代的更多公關、廣告的職能。
像企業神運營的典範一一杜蕾斯,據傳其微博運營團隊超過10人,背後早已是形成一套有系統的企業文化,在此基礎上投入相當的人力物力來進行新媒體運營,如設計一樣,有一套有理有據的邏輯,而不是運營編輯人員想想段子,做做抽獎,抓抓熱點來做運營。
那麼, 什麼樣的新媒體才是企業需要的呢?
一、新媒體需要網感。何為網感,網感就是能抓住熱點,熟悉數據分析,信息搜索能力。無論是傳統媒體還是新媒體,對網感的把握是關鍵。
二、整合能力。新媒體編輯,素材整合,資源能力上要強。有時你得到幾句話或別人給你一個小爆料,你要可以發展成一篇文章。
第三,文采。所有的事情都可以找到發生的結構和場景,他的存在是有邏輯的,他的發生是有走向的,文采是為這些內在的邏輯服務的,不能只看文章的文字特別。
當我們來談一個合格的新媒體運營的時候,我們在談什麼?
1.理解產品
一切不離產品,脫離產品的運營等於0。很多做新媒體運營的同學喜歡發段子,發雞湯,這樣數據會很好看,轉發很多評論也很真實,但沒有人談你的產品這件事就毫無意義。
新媒體運營的第一點在於理解產品,到什麼程度?熟悉產品的歷史及每一個功能點,理解用戶的使用場景,知道產品最吸引用戶的點在哪兒,能快速定位並解決用戶提出的所有問題,甚至對產品本身有自己的思考,這一切都建立在對產品的理解上。
2.了解用戶
你還在相信網上的95後特徵數據報告嗎?OUT了吧,有沒有想過這些數據的來源是哪兒?對用戶的理解,建立在長期接觸用戶,和用戶打成一片,解決用戶問題的基礎上。
新媒體運營人員每天面對的微博粉絲、微信聽眾都是用戶,他們的喜怒哀樂、喜好與特徵,是通過細心觀察與反復驗證,印入腦子里的。試圖通過看幾篇網上流傳的數據報告了解用戶,是最不靠譜的,我會告訴你我曾經一晚上拍腦袋編出來的數據被多家主流媒體當新聞報道過嗎?
3.懂傳播
現在微博上怎樣最吸粉,微信上用哪種方式能夠引爆朋友圈,大家都在做的H5頁面有什麼訣竅能夠讓粉絲願意擴散。形式一直在變,但方法論卻沒有變過,那就是傳播的邏輯,引爆點、傳播節點、傳播形式三個要素。
所以新媒體運營人員要想的絕對不是出路在哪兒,而是你在這個崗位做過了什麼,重點是在產品、用戶、傳播三個維度上做到多大程度,這就是新媒體運營這份工作經歷的價值點,轉崗只是一個時間與流程上的問題。
我一開始沒有用新媒體運營編輯這個詞,是因為我覺得編輯這個限定詞不能涵蓋真正的新媒體運營這份工作,業內自嘲叫首席微博/微信運營官(CWO)我倒覺得不錯。
梳理完新媒體運營的工作價值,我們來看出路在哪兒:
產品線:
我剛才講過,做新媒體運營的第一點是對自家產品有足夠的理解,而做產品都是相通的,做安全產品的產品經理換去做瀏覽器同樣也能成功,因為他懂的是產品,而不僅僅是安全產品。
懂產品,本質上是對用戶需求與用戶場景的理解,長期和用戶在一起,接地氣,知道普通用戶最需要什麼,最喜歡什麼,至少你懂社交產品的用戶的特**,不然怎麼能在微博微信兩大社交平台上工作呢?
把平常對新浪微博的吐槽轉化成你的產品優化方案吧。至於寫需求文檔、用Axure畫產品原型圖,這些都只是形式上的東西,有人教就能很快學會。更何況做過H5游戲設計吧?這難道不是你的產品經驗?
運營/市場線:
新媒體運營,運營的是新媒體渠道。產品運營,運營的是產品。如果把新媒體賬號當成一個產品呢?你既是產品經理,也是產品運營。對於產品運營線來說,很多時候新媒體都是重要的承載體。
首先不得不說很多公司的活動運營都還是需要在新媒體上執行落地,對於產品內無用戶沉澱的公司,新媒體就是進行用戶運營的外部渠道,比如小米公司的用戶運營渠道矩陣——微博、微信、社區、米聊。
說起來都是很簡單的話,做起來需要仔細去琢磨。市場線我就不多贅述,在很多公司里新媒體運營屬於市場公關體系的,所以應該清楚市場線平常是做什麼工作,轉換的只是渠道載體而已。
Ⅳ 一個真正的新媒體人應該具備哪些條件
一個真正的新媒體人應該具備以下條件:
1、文案
作為一個新媒體運營者,寫文案是最基礎的能力,寫出來的文章要盡可能地被更多人喜歡、點擊,這才是關鍵。平時要多寫作積累。
2、具備捕捉時事熱點的能力
無論是社會熱點新聞還是行業熱點資訊,都要比別人更敏感一些要學會快速跟進熱點。
3、積累渠道的社交能力
渠道推廣在新媒體運營中也是很重要的一個環節,所以在平日里對於渠道的積累也是非常重要的工作,積累渠道最重要的是與人溝通打交道的能力,因此基本的社交能力也是新媒體人要具備的能力之一。
4、用戶運營
新媒體運營要與用戶建立良好的關系,時常與用戶交流,明白用戶真正的需要,改進創新產品,達到很好的用戶體驗。
5、規劃好平台內容的能力
內容建設是在平台搭建初期就要完成的工作,後期雖然也可以變化,但是主體是一定要定下來的,主體一旦確認了,以後就不要再變換了,千萬記住平台的調性一定不要輕易變化。沒有內容、內容質量不高都是留不住粉絲的主要因素。
(4)如何寫大數據媒體人擴展閱讀
發展歷程:
根據新媒體使用主體及受眾群體的變化,新媒體的演進歷程可劃分為精英媒體階段、大眾媒體階段以及個人媒體階段。
1、精英媒體階段
早期使用新媒體的人群在媒介受眾群體中屬於少數派團體,他們具有前衛的媒介傳播意識,也掌握著更先進、更豐富的媒介資源,是新媒體的第一批受益人群。
2、大眾媒體階段
由精英媒體向大眾媒體發展,離不開媒介技術進步所帶來的傳播成本的下降,新媒體以更低廉的傳播成本、更便捷的傳播方式以及更豐富的信息傳播內容成為一種大眾媒體,其傳播的內容及形式從某種程度上甚至改變了人們的生活方式以及對媒介本質的理解。
3、個人媒體階段
伴隨著新媒體技術的不斷發展及普及,以往沒有占據媒體資源和平台,且具備媒介特長的個體,開始逐漸通過網路來發表自己的言論和觀點,通過平台展示給受眾,這是個人媒體階段到來的一個標志。
Ⅳ 如何利用大數據技術提升媒體生產力和傳播影響力
大數據(big
data),是指無法在可承受的時間范圍內用常規軟體工具進行捕捉、管理和處理的數據集合。
有人把數據比喻為蘊
藏能量的煤礦。煤炭按照性質有焦煤、無煙煤、肥煤、貧煤等分類,而露天煤礦、深山煤礦的挖掘成本又不一樣。與此類似,大數據並不在「大」,而在於「有用」。價值含量、挖掘成本比數量更為重要。對於很多行業而言,如何利用這些大規模數據是成為贏得競爭的關鍵。
大數據的價值體現在以下幾個方面:
1)對大量消費者提供產品或服務的企業可以利用大數據進行精準營銷;
2)
做小而美模式的中長尾企業可以利用大數據做服務轉型;
3)
面臨互聯網壓力之下必須轉型的傳統企業需要與時俱進充分利用大數據的價值。
Ⅵ 作為新媒體人必須掌握的六個原創寫作要求分別是什麼
新媒體寫作秘訣
鏈接:
Ⅶ 如何做一個媒體人
在現有條件下,還不錯的!敢於正視一些社會現實問題,特別是對於突出問題不迴避,而且評論相對出中肯犀利。分析有理有據。 只是,傾向於就事論事,因此,有時候看來讓人感覺憋氣而已!如果你不是憂國憂民的話!
1、要有一顆熱愛生活的心。傳媒是時代發展、社會進步的鏡子,關系百姓民生的國家大事、要事以及身邊周遭尋常百姓的趣事、好事等等,都需要我們傳媒人有一顆熱愛生活的、敏感的心和一雙慧眼去發現生活中的真善美、通過新聞報道、廣告策劃,讓老百姓見證時代的變遷、通過媒介感受到生活的快樂和美好。傳媒人首先要是陽光的,有健康心態的,否則,社會中的陰暗面會腐蝕你的價值觀,會讓你在林林總總的社會真實面前迷茫,會讓你在形形色色的社會萬象中絕望。傳媒要帶給人們健康的、積極向上的、能真實反映社會發展的信息而不是和社會發展背道而馳的信息,作為專業傳媒人,我們應該時刻謹記:我們是社會的一面鏡子,我們要積極地讓人們通過這面鏡子感受到生活的美好和希望。
2、 一個合格的傳媒人還應該有一股強烈的社會責任感,一種對政府、社會、大眾負責的社會責任感。傳媒的發達和高度商業化正在將信息的功能不斷擴展延伸,信息消費的功能也日趨多樣化。大眾傳媒也難以逃脫盈利的生存模式,在「義」和「利」之間,傳媒人因為旗幟鮮明地身體力行「社會責任感」。「鐵肩擔道義,妙手著文章」是對新聞人的要求,既要業務精通,還要古道熱腸。當今社會,傳媒無孔不入,從大眾媒介到小眾媒介,從固定媒介到流動媒介、已經形成了一個傳媒的天羅地網。
Ⅷ 洪倍:怎麼用大數據玩轉數字媒體
ITjob阿牛為你講解,夠詳細吧
洪倍:其實我們講的整個數字媒體這個生態圈其實是目前大數據整個領域可能自發玩的最火的一個領域,而且我們講運營商數據是給整個數字媒體提供非常好的基層業務的支撐,我們看整個數字媒體生態圈有什麼樣的角色分工,剛剛其實有講到媒體,各種網站就是媒體,第二個提到廣告,第三個就是受眾,電信用戶,移動用戶,包括寬頻的用戶,也就是我們講的訪客,第四個當然是電商,那就是直銷渠道。第四個是受眾互動,第五個是廣告推送。所以最後我們講互聯網生態圈就是五個維度上積累數據。這是我們看到的一個趨勢,從1980年家裡面開始普及電視,電視是單項的傳播渠道,後來是互聯網,首先是交互的,而且聯結在一起,最後看到互聯網方式越來越多了,從最開始互聯網到移動概念,手機,PAD,最後大家發現又回到了原點,電視化了,上海電視通在數字電視領域已經耕耘很深。所以最後你會發現我們現在所有的受眾移動盤,我們的媒體內容已經在搶占受眾各種各樣的時間,然後又產生各種各樣的數據,這個數據讓我們產生各種各樣的有利於纏身各種各樣的信息,所以它形成了非常好的互聯網的閉環。
大家看到一個圖,都在吃飯,都在玩手機。看微信,微博,包括朋友圈,公司圈,都在微信上進行溝通,所以這也是大量的數據。所以最後你會發現最近十年互聯網包括移動互聯網,你會發現最後死掉的是右下覺,活下來的都是黏度高的,黏度最高的是郵件活得很好,然後慢慢地新聞資訊,我們看到很多傳統的紙媒,電視,都在轉型,他們希望成為一個有觀點的黏度狀態。互聯網營銷方式也在改變,最早是砸大錢在電商欄目買一個好廣告,投電視,慢慢地變成廣告精準。還有買博士倫眼鏡怎麼樣定義受眾,同樣我們看中國好聲音怎麼分受眾,同樣我們可以看到廣告跟社交聯動。怎麼樣聯動?之前我們做了一個案例,一個汽車用戶他有幾百萬的粉絲,這些用戶以什麼樣的關系存在?以前是沒有人知道的,我們用新的趨勢就是顯卡計算,我們知道整個人的關系網是一個什麼樣,是一個圖,所以顯卡天然的是用圖計算,所以我們分析了,發現這樣一個計算品牌的粉絲天然的報了18個團,裡面有兩個是僵屍粉的團,歷史上他有兩家公司加粉,一個是跟他有關系的明星代言人,被他邀請過參加試駕活動,被他邀請過參加拍攝的明星是一個粉絲團。另外一個是經銷商。如果投廣告的話,對這四個粉絲團不要投。所以我們剩下的可能應該是對內,剩下14個團去投廣告,社交跟廣告也在聯動,所以這是大數據分析的比較有典型的案例。
我們再看互聯網也在開始做專題活動,一些不同的季節不同的領域不同的產品做活動,他們通過數據挖掘去營銷策劃這個活動,明天就是雙12,一個月前雙11,雙11就是電商平台的聯動,怎麼樣提高轉化率,我看亞信的同事提到,通過電商數據提高17%的轉化率,意味著未來提高更大的170%的轉化率。
這個是我們歷史上跟客戶做的非常經典的案例,一個是達標率,地域分布、拼刺控制、內容劇目定向。每個人看高八次以上,很多人會覺得非常煩,我相信大家看視頻的時候前面幾十秒廣告很難受。同樣的地域,是不是能夠做廣告,我們發現地域還是有差別,我們跟合作夥伴在考慮怎麼樣分析裡面有多少因為路由的設置導致的錯誤。同樣比如說這個地區沒有4S店,他們就不要做廣告銷售。如果兩個媒體用戶重合度非常高的話,是不是另外一個小的媒體就可以替代掉,或者是補強的作用。
前面是媒體大數據的統計產生。這裡面是微觀的數據,比如說用戶,我們看網站設計,從用戶訪問路徑上來看是不是合理的,訴求是A,但是你的交互是B,所以我們通過路徑方式也是一張圖網,哪條路徑是用戶最喜歡的豎井,哪條路徑是最容易實現用戶購買的路徑,這個是我們幫助客戶提高轉化效率的路徑。同樣的我們也發現有一個非常有趣的數據,看廣告真的沒有用嗎?不是,我們在一些電信網站上發現看廣告的用戶,在看完廣告後三天之後再回到電商平台購買的廣告率是沒有看廣告的三倍。而且這個用戶是忠實的老用戶,而且他的流失率很低,這也是大數據挖掘出來非常有趣的一個現象。
當然這個可以未來跟很多運營商合作,運營商不會幫助虛假信息,怎麼樣判別?比如說亞信,可以非常方便地知道這是機器人,老是在播放,這是亞信和運營商知道的,機器人他不斷地刷COOKIE,它是模擬的手段。
剛剛講到異常數據甄別六大維度,我們看到運營商裡面很多,我們作弊的時候最大的作弊就是機器人,被機器控制的人,或者叫機器人,運營商本身做安全的時候已經有了一定的模型。還有整個廣告的行業更干凈,讓廣告主願意花更多的錢,同時為他產生更多的價值。
剛剛我們講的都是一些冷冰冰的數字,我們發現更多的是實現價值,廣告第一個是不是能夠看到?在什麼樣的環境下被看到,視頻廣告跟普通原來我們看到橫幅的廣告最大的區別是什麼?你會發現視頻在空間上幾乎獨占,但是時間15秒,然後原來的小的按紐廣告在空間不是獨占,但是在時間上永遠是獨占。所以這兩種得到的結果可能空間是存在的,但是效果完全不一樣。
還有提到了副媒體。還有音頻廣告,最近有很多的APP開始搶到了耳朵了,眼睛已經搶了,所以一些聽音樂的軟體開始做了,像司馬拉雅,FM,他們也是開始做廣告的方式,包括今天早上看到的新聞Google已經在美國把戶外的液晶屏成功可以實時定價進行投放,當然它會參照很多的參數比如說地理位置,人流量,以及周邊的廣告交互情況定不同的情況。
最最傳統微觀的就是調研,調研是什麼,我們拿樣本去統計,做統計指標來映射,這個我覺得是比較有趣的東西。怎麼樣建立更好的樣本,我們講樣本最大的問題還是甄別真和假。我們認為運營商的數據天然的有人和數據,人和的分布,甚至是套餐使用情況,消費者的簡單統計可以做簡單的消費行為,當然簡單統計之後要處理敏感數據。我們過去怎麼得到這個人的收入的,現在你還用問嗎,運營商發現每個月20號發簡訊工資已發18500,運營商完全可以知道,但是他不知道是誰。過去說你有每年看過這樣的廣告?這個時候有一個悖論,這次看廣告是不算看廣告呢?只有通過真實的監測數據,我們為廣告提供看過多少次,在哪個媒體看,看的是哪個形式,通過這樣的採集過程中,我們採集了200萬的樣本庫,接下來我們會跟運營商做得更准確,覆蓋更廣,因為現在手機有9個月到12個月的換機周期,我們通過匿名方法把它關聯起來提供一些樣本的持久度。
這個是我們實際在我們這個行業裡面給廣告主做的品牌價值的指標,這些指標其實通過調研的方法計算出來的,當調研樣本比較大的時候它其實就是一個比較大的數據量的統計了,我們有一個資料庫有一個分支是幾萬個樣本庫,那個樣本庫差不多有十幾萬份,那個東西也是非常龐大的,我們看到它是非常款的一張表,分析起來需要一些工作。
這個是所有媒體對比的實時的案例。時間關系我就不講了。
我們回到社交化,移動化,這裡面有幾個東西跟運營商非常有關系,運營商也都在做的,wifi,移動,電信聯通都在做的WIFI接入,最近央視又報道不要介WIFI,可能信息會被偷盜。但是用了wifi它是個網關,隱私都可以提取到。然後我們可以通過一個特定的渠道代碼優惠券到使用優惠券的轉化率,這個是不是夠准確。同樣我們設了兩個條件,針對平時消費運動品的同學去賣隱性眼鏡和平時去火鍋的隱性眼鏡,通過簡訊發出去的優惠券和刷卡發出去的優惠券不一樣。這是直觀的轉化通路。同樣我們廣告在過去很硬,現在慢慢軟化,過去說APPG內制虛擬道具,比如說某某可樂的運動表情,會搭配運動產品讓用戶使用,目的就是積累用戶的行為,我可以針對你用戶的使用記錄,剛剛我們看到用戶的畫像。所以同樣運營商我相信可以做很多這樣的事情。
剛剛我們講的是一些實際應用場景,我們的方法論。其實我這里不太想提的大家非常熟悉的東西,比如HADOOP,比如數據關聯分析,數據建模,數據挖掘。你看這裡面提的東西都是分析,你會發現內部輿情很重要,我們跟內部有一個共識就是廣告費是一個數字,但是它前面是一個符號,正還是負很重要,如果你最近都是負面,大家看到廣告結果,這就是被某個電視台曝過光的品牌。所以我們花了很多力氣去做了這樣一個實驗室,專門做輿情分析,分幾個部分,誰在哪個場合說了什麼樣的話跟哪個品牌有關系,表示怎麼樣。我們新浪微博是我們最大的合作夥伴。爬完輿情之後做情感分析,情感分析我們鑒定規則引擎,能夠快速定論調主題。過去怎麼做情感分析,比如某某對象很好,但是另一個牌子就有點差了,請問這句話過去情感判斷判斷出來什麼?中性,因為有一個好字有一個差字,但是我們的引擎裡面兩個品牌,A品牌好,B品牌差,所以它要被拆解開,因為我們做跟傳統相關的內容。同樣一條好的消息或者是一條壞的消息,怎麼樣被轉發的,轉發到了多少人,它是不是覆蓋到你的粉絲。最後你可以統計出一個你是好事傳千里還是壞事傳千里,這個取決於你最後是正還是負。大家都知道可樂,兩年多都是在可樂瓶上打標簽,可樂這兩年瓶子是我們做的,我們把粉絲挑出300個熱詞,喜歡什麼樣的歌,喜歡什麼樣的自稱,他們把30個比較高大上的正面的詞,然後大家可以超市裡面購買小清新的可樂瓶。然後他們給王力宏送了一箱可樂,王力宏自發地收到一瓶可樂,然後稱為我的歌聲王力宏,我用一箱可樂的成本換了幾十萬次的轉發成功。也就是我們講營銷不僅僅是廣告,很有趣,但是你要依靠數據。
這個當然是回到了最後我們講的PRE的引擎,我們講到了營銷是廣告,還有一個O字,廣告主有自己的陣地,自己的網站,自己的商店,這些廣告主都是自己的OD,這些OD本身沒有什麼流量,我們需要賺流量,剛剛講的社交,有多少人願意分享你,有多少人願意曬單,它其實願意跟你的官方網站帶流,當然這裡面可以唯一打標識。PC互聯網COOKIE是很好的標識,運營商將來的ID是不是可以成為運營商的數字標識。如果一個家庭有多個上網帳號,多個上網帳號,你可以知道這個家庭是可以跟哪個手機綁定。通過這個標識可以在任何環境下面找到定向,因為通過標識可以分析他行為的大概畫像。行為畫像是有很多很多側面,比如說這個是HQ1,回到講人的側面,很多數據源都能夠畫出一個人的側面,但是怎麼畫出一個更全的側面?這是我們今天和運營商討論的層面。我們怎麼把這些側面融合起來,廣告主自己也有一部分,因為你有可能買了廣告主的東西。我們把只有這些全部融合起來,能夠在對的時間,在對的場合,找到對的人說對的話。最近雙11淘寶的話,會發現你搜索的東西還沒買的話,會在微博和其他場合到處看到淘寶關於這部分的廣告。那時候你會覺得淘寶怎麼還聰明,後來多了你可能會反感。這時候你會發現如果我們能夠把這些標簽全部打成ID之後,有這么多的廣告形式,可能都跟你的需求有關系,這個時候當然有的人很害怕,我沒有隱私了,我的世界被探知了,但是你有的時候又覺得我的生活很便利,我出去的時候可能要叫車吧,這個時候會覺得有個社會小助手不斷的在提醒你。
當然這個是我們廣告主怎麼樣跟電視和互聯網跨起來,未來數字化是更好的跨,當然有曲線模型和數據模型,也是基於我們很多經驗挖掘,做到很好的整合。今年我們做了非常有趣的模型,叫做贊助模型。我們通過這個評估大數據的建模方法,讓贊助的東西也變得更加精準,可以被評估。
所以最後我們回到說整合營銷,我們講生態鏈裡面你會發現一個詞其實很重要,剛剛我提到的,對的時間,對的地點,找對的人,說對的話。任何一個操作都是準的,同樣你還能預估,我應該花多少錢,買什麼樣的媒體,我在電商網站怎麼樣備貨,我產品應該怎麼樣設計,我針對不同的人群開發新的產品。
這是我們講的雙閉環的結果,這是廣告主,你會發現大家都在這個雙閉環結構中發展。一開始你發展這個產品,你需要推廣這個產品,這些都是靠數據的力量來幫你提供數據決策,然後在集成過程中會幫你做二次傳播,你在網路渠道銷售,或者在線下銷售,這個評論反饋到網上,這兒評論可以重新設計下一代產品,下一代產品可以同時做推廣,再反饋,再做數據模型。如果這個環做好,就會發現這個產品不斷的做下去,這個產品不會死,因為不斷的有人在裡面把它做更好的正向下去。今天我就說到這兒,待會兒我們有圓桌,會討論更多實際的東西。謝謝大家!
Ⅸ 大數據營銷,軟文廣告怎麼寫
軟文,英文抄是Advertorial,是相對於硬性廣告而言,指由企業的市場策劃人員或廣告公司的文案人員來負責撰寫的「文字廣告」。與硬廣告相比,軟文之所以叫做軟文,做軟文推廣找錦隨推,精妙之處就在於一個「軟」字,讓用戶不受強制廣告的宣傳下,文章內容與廣告的完美結合,從而達到廣告宣傳效果。