㈠ 大数据和传统数据有哪些区别
曾经有一段时间,超市是经过要求收银员键入用户特征来采集用户数据的。超市经过这样的方法来收集用户的数据,对收集的大数据进行分析,来对用户画像与人群定位。
传统记载数据的方法必定只能是小范围的,少数的和准确度欠佳的。而现在的数据获取方法大多是经过URL传输和API接口,大体上数据获取的方法有这样几类:爬虫抓取、用户留存、用户上传、数据买卖和数据同享。自有数据与外部数据是数据获取的两个首要渠道。在自有数据中,咱们能够经过一些爬虫软件有目的的定向爬取。
用户上传数据比如持证自拍照、通讯录、前史通话详单等需要用户自动授权提供的数据,这类数据往往是事务运作中的要害数据。相较于自有数据获取,外部数据的获取方法简单许多,绝大多数都是根据API接口的传输,也有少数的数据选用线下买卖以表格或文件的方法线下传输。
此类数据要么选用明码标价一条数据多少钱,或是进行数据同享,买卖两边承诺数据同享,追求共同发展。至此,咱们看到新时代的数据获取方法相较于传统数据获取的方法愈加多元、愈加高效。相同的大数据与传统数据的传输方法也截然不同。传统数据要么以线下传统文件的方法,要么以邮件或是第三方软件进行传输,而随着API接口的成熟和普及就好像曾经的手机充电接口,从千奇百怪、形形色色到今日的两大首要类别:iPhone体系与Android体系。
关于大数据和传统数据有哪些区别,青藤小编就和您分享到这里了。如果您对大数据工程有浓厚的兴趣,希望这篇文章可以为您提供帮助。如果您还想了解更多关于数据分析师、大数据工程师的技巧及素材等内容,可以点击本站的其他文章进行学习。
㈡ 如何理解传统数据与大数据之间的区别
针对大数据带给教育的机遇与挑战,与读者深入探讨和分享大数据与传统数据的区别,及其行业落地的进展情况。
二、大数据时代潜藏的教育危机
“不得不承认,对于学生,我们知道得太少”——这是卡耐基·梅隆大学(Carnegie Mellon University)教育学院研究介绍中的一句自白,也同样是美国十大教育类年会中出镜率最高的核心议题。这种对于学生认识的匮乏,在21世纪之前长达数百甚至上千年的教育史中并没有产生什么消极的效应,但却在信息技术革命后的近十年来成为教育发展的致命痼疾。
“过去,对于学生来说,到学校上学学习知识具有无可辩驳的重要性,而那是因为当时人们能够接触知识的渠道太少,离开学校就无法获取成体系的知识”斯坦福大学教授Arnetha Ball在AERA(美国教育研究会)大会主旨发言中说道,“但是,互联网的普及将学校的地位从神坛上拉了下来。”Ball的担心不无道理。根据Kids Count Census Data Online发布的数据,2012年全美在家上学(Home-Schooling)的5-17岁学生已达到197万人,相对逐年价下降的出生人口,这一人口比重十分可观。
与此同时,应运而生的则是内容越来越精致的网上课堂,而创立于2009年并迅速风靡全球的可汗学院(Khan Academy)正是其中的杰出代表。从知名学府的公开课到可汗学院,这种网络学习模式受到热捧恰恰证明了:人们对于学习的热情并没有过去,但是人们已经极端希望与传统的学院式授课模式告别。一成不变,甚至“目中无人”的传统集体教学模式在适应越来越多元化、也越来越追求个性化的学生群体时显得捉襟见肘。
可汗学院模式不但支持学生自主选择感兴趣的内容,还可以快速跳转到自己适合的难度,从而提高了学习的效率。学习者没有学习的压力,时长、时机、场合、回顾遍数都可以由自己控制。
可以想象,如果可汗学院的模式进一步发展,与计算机自适应(CAT)的评估系统相联系,让使用者可以通过自我评估实现对学习进度的掌握以及学习资料的精准获取,那么它将形成互联网产品的“闭环”,其优势与力量将是颠覆性的。
而如果传统教育的课程模式不革新,课堂形态不脱胎换骨,教师角色与意识不蜕变,那么学校的存在就只有对现代化学习资源匮乏的学生才有意义;而对于能够自主获得更适宜学习资源的学生来说,去学校可能只是为了完成一项社会角色赋予的义务,甚至谈不上必要性,也就更谈不上愉快的体验或兴趣的驱使了。
大数据的研究可以帮助教育研究者重新审视学生的需求,通过高新的技术以及细致的分析找到怎样的课程、课堂、教师是能够吸引学生的。但问题在于,社会发展给予教育研究者的时间窗口并不宽裕,因为有太多人同样在试图通过大数据挖掘设法瓜分学生们有限的精力与注意力。而且从某种程度上,他们做得远比教育研究者更有动力与诚意。
首当其冲的是游戏的设计者——青少年是其主要消费群体。撇开驰名世界的暴雪公司(Blizzard Entertainment),美国艺电公司(Electronic Arts Inc.),日本任天堂公司(Nintendo)等国际巨鳄不谈;即使是国内的盛大网络,第九城市,巨人科技,淘米网络等游戏公司,亦都早已组建了专业实力强劲的“用户体验”研究团队。他们会通过眼动跟踪,心律跟踪,血压跟踪,键盘与鼠标微操作速率等各种微观行为来研究如何让玩家在游戏中投入更多的时间,更加愿意花真实世界的钱来购买虚拟世界的物品。什么时候应该安排敌人出现,敌人应当是什么级别,主人公需要耗费多少精力才能够将其击败,这些变量都得到了严格的设计与控制,原因只有一个——大数据告诉游戏创作者,这样的设计是最能够吸引玩家持续游戏的。
其次是电影视频、青春小说等链式文化产业。为什么在网站上看视频会一个接一个,无法停止,因为它会根据该账号的历史浏览记录推算出其喜欢看什么样的视频,喜欢听什么类型风格的歌,并投其所好;而畅销网络小说看似并没有“营养”,但里面的遣词造句、语段字数,故事起伏设定,甚至主人公性格的类型都是有相关研究进行支持——读者往往并不喜欢结构严密、精心设计的剧情——这就是为什么情节千篇一律的韩剧受人追捧的原因,他们通过收视率的反复研究,挖掘到了观众最需要的那些元素,并且屡试不爽。
此外还有许多更强大的研究者,比如电子商务,总能通过数据找到你可能愿意购买的商品——他们甚至知道买尿片的父亲更愿意买啤酒。
这些领域看似与我们教育者并无特别关联,但是他们与我们最关心的对象——学生却有着千丝万缕的联系。数百年甚至数十年前,学生并不会面对如此多的诱惑,学校在其生活中占据极大比重,对其影响也最为显着,因此教育者对于学生的控制总是有着充分的自信。但是,当不同的社会机构与产品开始争夺学生的注意力时,教育者的自信就只能被认为是一种无法认清形势的傲慢了——因为在这场“学生争夺战”中,传统学校看上去实在缺乏竞争力。
即使教育研究者愿意放下身段,通过大数据的帮助来悉心研究学生的需求与个性。但是人才的匮乏也是非常不利的一点因素——相比于商业环境下对研究实效的追逐,教育研究的缓慢与空洞显得相形见绌。在互联网企业纷纷抛出“首席数据官”的头衔,向各种数据科学狂人抛出橄榄枝,并且在风险投资的鼓舞下,动辄以百万年薪进行延聘时,大数据研究的前沿阵地必然仍是在互联网行业中最轰轰烈烈地开战。
分析形势后的姿态,以及投入的力度与强度,或许是教育领域在进入大数据研究时最先需要充分考虑的两个先决条件。
三、谁在为大数据欢呼:一场关于“人性”研究的启蒙
孜孜不倦地观测、记录、挖掘海量的数据,有朝一日终会推导出或简约或繁复的方程,以此得以在自然科学的历史丰碑上留名——数百年来,这种对数据的崇拜早已成为了物理学家、化学家、生物学家、天文地理学家们的信念。而牛顿,贝叶斯,薛定谔等一代代巨匠的伟业也揭示了数据对于科学发现的无限重要价值。
相形之下,社会科学领域的研究就要惨淡地多——他们同样看重数据,同样追求统计与分析的“程序正义”,同样勤勤恳恳地设计实验与调研,去寻找成千上万的被试,同样像模像样地去嵌套方程……但是几乎很少有研究结果能够得到普遍的承认,不管是社会学、心理学、经济学、管理学还是教育学。
当然,社会科学领域的研究者们遇到的困难是显而易见的:“人性”与“物性”是不同的,物质世界比较稳定,容易寻找规律;而由人组成的社会极其善变,难以总结。从数据的角度来说,人的数据不如物的数据那么可靠:
首先是人不会像物那样忠实地进行回应:谁知道一个人填写的问卷有多少是注意力不集中填错的、语文水平不高理解错的、还是压根没打算讲真话?此外,人与人本身的差距也大于物与物的差距:两个化学组成相同的物质表现出各种性质几乎是完全一样的,但即使是两个基因完全相同的双胞胎也会因为不同的人生经验,而表现出大相径庭的行为特征。
但这些都还并不关键,最最重要的是:人无法被反复研究。人不是牛顿的木块,不是伽利略的铅球,不是巴普洛夫的狼狗,人不会配合一次次从斜坡上被滑下来,一次次从比萨塔顶被扔下来,一次次流着口水干等着送肉来的铃声。而我们知道,在“科学”的三个标准中,首当其冲的就是“可重复验证”。
换句话说,我们可以获得的关于“人性”的数据不够大,不够多,不够随时随地,因此我们无法从数据中窥见人性。2002年诺贝尔经济学奖授予心理学家丹尼尔?卡尼曼(Daniel Kahneman)时,似乎标示着社会科学领域已经接受了这样一种事实:人类的行为是无法寻找规律、无法预测、难以进行科学度量的。社会科学开始怀疑用纯粹理性的方法是否可以解答关于“人性”的种种现象。与此相映成趣的是2012年的美国大选,奥巴马的团队依靠对网络数据的精准筛选捕捉到了大量的“草根”选民,而对于其喜好与需求的分析与把握更是赢得其信任,从而在不被传统民调与历史数据规律看好的情况下一举胜出。这跨越十年的两个标志性事件让人们对于“数据揭示人性”可能性的认识经历了戏剧性的转变。
如今,迅速普及的互联网与移动互联网悄然为记录人的行为数据提供了最为便利、持久的载体。手机,iPad等贴近人的终端无时不刻不在记录关于人的点点滴滴思考、决策与行为。最最重要的是,在这些强大的数据收集终端面前,人们没有掩饰的意图,人们完整地呈现着自己的各种经历,人们不厌其烦一遍又一遍重复着他们不愿在实验情境下表现出来的行为,从而创造着海量的数据——传统数据研究无法做到的事,传统研究范式苦苦纠结的许多难点,都在大数据到来的那一刹那遁于无形。
大数据的到来,让所有社会科学领域能够藉由前沿技术的发展从宏观群体走向微观个体,让跟踪每一个人的数据成为了可能,从而让研究“人性”成为了可能。而对于教育研究者来说,我们比任何时候都更接近发现真正的学生。
㈢ 大数据分析和传统统计学方法有什么样的关系
大数据处抄理的信息很大,往往一个分析所需的数据分别存储在数百个服务器中,因此大数据分析就需要协调所需服务器,让他们按照我们分析的需要进行配合运作,这是他和传统统计分析的主要不同,在具体方法上,大数据还可能用到数据挖掘的方法,传统分析法往往事先有个分析目标然后用统计的方法验证,数据挖掘是通过算法,用计算机分析数据,让计算机发现数据之间的联系。两者大体如此,如果要详细了解,可以参考相关书籍
㈣ 大数据时代传统社会调查过时了吗
进入大数据时代,现代网络信息技术与智能设备的普及与运用,给传统社会调查方法带来挑战。有学者提出,与通过数据挖掘技术获得海量信息相比,传统社会调查所获取的信息不过是“小数据”。由此引发学界争议:大数据时代是否还需要传统社会调查?在大数据技术与方法广泛应用的时代,传统社会调查方法如何彰显其独特价值?近日,中国社会科学报记者就此采访了相关学者。
大数据技术方便数据采集分析
“移动互联网使得社会行动者的态度、行为被迅速信息化,并被互联网设备记录下来,为科研人员的相关研究提供了以往的信息收集手段无法采集的大量信息。同时也大大提高了人类记录和采集相关信息的能力,极大降低了获取某些信息的成本。”中国人民大学社会与人口学院副教授李丁说。
大数据技术改变了数据的获取、处理和理解方式。据西安交通大学公共政策与管理学院执行院长杜海峰分析,数据获取方式从收集问卷或访谈变成了网络、多媒体等多技术手段的综合运用,更重要的是对象的变化,传统的方法需要科学地从母体中抽样,大数据的数据获取对象可能直接就是母体;数据处理方式从传统的属性数据分析方法,过渡到基于结构的、以智能信息处理为主的综合集成分析;数据理解方式,由传统的统计因果发展到以“相关”特别是不同信息之间关系“凸显”规律的解析。
在哈尔滨工业大学社会学系教授唐魁玉看来,大数据技术不仅在收集数据、整理数据和分析数据上具备优势,而且其带来的巨量交互性数据能够为社会问题的整体性分析提供有效证据。这些变革正在为社会学重新整体性回归“社会事实”奠定新方法论基础,同时也无疑给传统的问卷和深度访谈调查方法带来挑战。
社会调查方法具有特殊优势
既然大数据技术在信息获取与分析领域具有如此凸显的优势,是否意味着传统社会调查将被取代呢?受访学者并不赞同此类观点。
一方面与传统信息采集方式相比,大数据技术目前仍有其局限性;另一方面传统信息采集方式仍具有独特价值。唐魁玉分析说,以抽样调查为例,在一些案例中,抽样调查更加适用于那些有“遗失”的数据和代表性样本。在面对复杂性、人际性社会问题的分析时,大数据方法还不够细致入微。
“大数据一个非常重要的特征是‘价值密度低’,数据内容可能并不是特定研究者所关心的,因此不一定都能满足特定问题研究的需要。”杜海峰提出,对于大数据获得的信息,传统社会调查不但是其必要的补充,也是专项研究更为必要的基础资料。
大数据技术所获取的信息相当于普查和非概率样本,尽管如此,大数据也并非没有边界,如果不能认识或约定其界限,数据虽大,却不能用于科学研究。如李丁所分析,被互联网、智能设备感知和记录的社会行动者并不能覆盖全部的行动者。如果认识不到大数据的覆盖率或者代表怎样的群体,即便样本规模再大,得出来的知识和规律也有可能是误导性的。
此外,大数据的边界还在于变量意义上。“不同企业和研究单位根据其自身需要所采集的数据虽有很大的样本量,但每个样本的变量信息很少。如果不能将这些不同类型的数据库信息串并起来,增加变量即各个研究对象的有效信息量,那么研究价值也非常有限。”李丁说。
李丁认为,传统社会调查获得的信息密度非常高,其目的直接性、设计性、标准化程度更强,效率非常高。“如果不使用传统的社会调查方法,即便今天世界上能力最强的互联网公司可能也无法从现有互联网痕迹数据中获得一个和中国综合社会调查具有同等代表性、信度、效度、信息密度和相同变量的数据集。”
实现两种方法优势互补
正如李丁所说,一方面,在大数据时代背景下,从大数据中提取出有价值的信息和知识,有可能获得有关行动者的新知识、社会运行的新规律;另一方面,研究人员应该认识到大数据的局限性,以及传统研究方式的优势,避免盲目崇拜。传统的调查方式在获得某些高密度的、具有统计代表性的数据上仍具有成本优势和科学性优势。
对于学界出现的将两种方法非此即彼对立起来的争议,唐魁玉认为,我们在对不同类型、不同复杂程度的社会事实和社会问题进行分析时,要恰当地选择和使用传统的社会调查或大数据方法。
未来的社会科学研究或可实现大数据与传统社会调查方法的优势互补。受访学者提出一些设想。李丁认为,传统的质性研究方法和抽样调查方法能够补充大数据的不足,帮助我们理解大数据的社会含义。大数据也能为传统调查研究提供重要的信息补充,质性研究如果能够在既有的访谈、观察的基础上,还能获得受访对象在互联网的痕迹数据、社会交往数据、行动轨迹数据等,就能对研究对象有更全面的了解和把握。
㈤ 大数据技术常用的数据处理方式有哪些
大数据技术常用的数据处理方式,有传统的ETL工具利用多线程处理文件的方式;有写MapRece,有利用Hive结合其自定义函数,也可以利用Spark进行数据清洗等,每种方式都有各自的使用场景。
在实际的工作中,需要根据不同的特定场景来选择数据处理方式。
1、传统的ETL方式
传统的ETL工具比如Kettle、Talend、Informatica等,可视化操作,上手比较快,但是随着数据量上升容易导致性能出问题,可优化的空间不大。
2、Maprece
写Maprece进行数据处理,需要利用java、python等语言进行开发调试,没有可视化操作界面那么方便,在性能优化方面,常见的有在做小表跟大表关联的时候,可以先把小表放到缓存中(通过调用Maprece的api),另外可以通过重写Combine跟Partition的接口实现,压缩从Map到rece中间数据处理量达到提高数据处理性能。
3、Hive
在没有出现Spark之前,Hive可谓独占鳌头,涉及离线数据的处理基本都是基于Hive来做的,Hive采用sql的方式底层基于Hadoop的Maprece计算框架进行数据处理,在性能优化上也不错。
4、Spark
Spark基于内存计算的准Maprece,在离线数据处理中,一般使用Spark sql进行数据清洗,目标文件一般是放在hdf或者nfs上,在书写sql的时候,尽量少用distinct,group by recebykey 等之类的算子,要防止数据倾斜。
㈥ 大数据分析与传统计量分析方法的异同有哪些
首先大数据更趋向自动化,另外数据的维度上较传统统计也有差异,例如平时做app的可能更关注日活,但是大数据可能就会从原有的日活中找到权重,发现新的统计名词,例如tad。总体来说大数据就是自动化的权重比例更为清晰化的统计,这里我们还忽略了模型和数据比对,大数据的模型是串联起来的,数据比对也是可以横向、纵向比对的,相对传统来说灵活性更强。
㈦ 教育大数据分析方法主要包括哪三类
一、大数据与大数据分析概述
随着数据获取、存储等技术的不断发展,以及人们对数据的重视程度不断提高,大数据得到了广泛的重视,不仅仅在IT领域,包括经济学领域、医疗领域、营销领域等等。例如,在移动社交网络中,用户拍照片、上网、评论、点赞等信息积累起来都构成大数据;医疗系统中的病例、医学影像等积累起来也构成大数据;在商务系统中,顾客购买东西的行为被记录下来,也形成了大数据。
时至今日,大数据并没有特别公认的定义。有三个不同角度的定义:(1)“大数据”指的是所涉及的数据量规模巨大到无法通过人工在合理时间内达到截取、管理、处理并整理成为人类所能解读的信息[1]。(2)“大数据”指不用随机分析法(抽样调查)这样的捷径,而采用所有数据进行分析处理的方法的数据[2]。(3)“大数据”是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
通常把大数据的特点归纳为4个V,即数据量大(Volume)、数据类型多(Varity)、数据的价值密度低(Value)以及数据产生和处理的速度非常快(Velocity)。
对大数据进行分析可以产生新的价值。数据分析的概念诞生于大数据时代之前,但传统的数据分析和大数据分析是不同的。传统的数据分析往往是由客户提出一个问题,分析者围绕该问题建立一个系统,进而基于该系统解释这个问题;而大数据分析有时候并没有明确的问题,而是通过搜集数据,浏览数据来提出问题。
另一方面,传统的数据分析是在可用的信息上进行抽样,大数据分析则是对数据进行不断的探索,通过全局分析连接数据,达到数据分析的目的。
传统的数据分析的方法,往往是大胆假设小心求证,先做出假设,再对数据进行分析,从而验证先前的假设;而大数据分析则是对大数据进行探索来发现结果,甚至发现错误的结果,之后再通过数据验证结果是否正确。
因此,传统的数据分析可以看成一种静态的分析,大数据分析可以看成一种动态的分析。尽管如此,大数据分析和传统数据分析也并非是泾渭分明的,传统数据分析的方法是大数据分析的基础,在很多大数据分析的工作中仍沿用了传统数据分析的方法。
基于上述讨论,我们给出“大数据分析”的定义:用适当的统计分析方法对大数据进行分析,提取有用信息并形成结论,从而对数据加以详细研究和概括总结的过程。
大数据分析分为三个层次[3],即描述分析、预测分析和规范分析。描述分析是探索历史数据并描述发生了什么(分析已经发生的行为),预测分析用于预测未来的概率和趋势(分析可能发生的行为),规范分析根据期望的结果、特定场景、资源以及对过去和当前事件的了解对未来的决策给出建议(分析应该发生的行为)。例如,对于学生学习成绩的分析,描述分析是通过分析描述学生的行为,如是否成绩高的同学回答问题较多;预测分析是根据学生的学习行为数据对其分数进行预测,如根据学生回答问题的次数预测其成绩;而规范分析则是根据学生的数据得到学生下一步的学习计划,如对学生回答问题的最优次数提出建议。
大数据分析的过程可以划分为如下7个步骤:(1)业务调研,即明确分析的目标;(2)数据准备,收集需要的数据;(3)数据浏览,发现数据可能存在的关联;(4)变量选择,找出自变量与因变量;(5)定义模式,确定模型;(6)计算模型的参数;(7)模型评估。
我们以预测学生学习成绩为例解释上述过程。首先,我们的目的是根据学生的行为预测学习成绩。接下来,对于传统的方法来说,通过专家的分析确定需要什么数据,比如专家提出对学生成绩有影响的数据,包括出勤率、作业的完成率等,可以从数据源获取这样的数据;大数据分析的方法有所不同,是找到所有可能相关的数据,甚至包括血型等,这些数据与成绩之间的关系未必有影响,就算发现了关系也未必可以解释,但是获取尽可能多的数据有可能发现未知的关联关系。
㈧ 大数据可以用传统方式储存吗
可以的。
大数据从获取到分析的各个阶段都可能会涉及到数据集的存储,考虑到大数据有别于传统数据集,因此大数据存储技术有别于传统存储技术。大数据一般通过分布式系统、NoSQL数据库等方式(还有云数据库)进行存储。
㈨ 传统的数据处理方式能否应对大数据
数据分析行业发展的时间也不短了,以前的数据发展成现在的大数据了。因此有很多人担忧,传统的数据处理方法还是否能够应对大数据,其实这个担忧是正确的,我们不能总是想着一劳永逸,只有居安思危才能够让技术得到发展。下面我们就给大家介绍一下现在传统数据处理方式和现今大数据的具体情况。
首先我们需要说的就是大数据环境下的数据处理需求。其实大数据环境下数据来源非常丰富且数据类型多样,存储和分析挖掘的数据量庞大,对数据展现的要求较高,并且很看重数据处理的高效性和可用性。但是传统数据处理的方法有什么不足呢?传统的数据采集来源单一,且存储、管理和分析数据量也相对较小,大多采用关系型数据库和并行数据仓库即可处理。对依靠并行计算提升数据处理速度方面而言,传统的并行数据库技术追求高度一致性和容错性,根据CAP理论,难以保证其可用性和扩展性。而传统的数据处理方法是以处理器为中心,而大数据环境下,需要采取以数据为中心的模式,减少数据移动带来的开销。因此,传统的数据处理方法,已经不能适应大数据的需求。所以说我们需要马上解决这些问题。
那么大数据的处理流程有什么步骤呢?每个步骤需要什么工具呢?其实大数据的基本处理流程与传统数据处理流程并无太大差异,主要区别在于:由于大数据要处理大量、非结构化的数据,所以在各个处理环节中都可以采用MapRece等方式进行并行处理。
那么大数据技术为什么能够提高数据的处理速度呢?这是因为大数据有并行处理的好工具,这个工具就是MapRece。而大数据可以通过MapRece这一并行处理技术来提高数据的处理速度。MapRece的设计初衷是通过大量廉价服务器实现大数据并行处理,对数据一致性要求不高,其突出优势是具有扩展性和可用性,特别适用于海量的结构化、半结构化及非结构化数据的混合处理。当然,MapRece将传统的查询、分解及数据分析进行分布式处理,将处理任务分配到不同的处理节点,因此具有更强的并行处理能力。作为一个简化的并行处理的编程模型,MapRece还降低了开发并行应用的门槛。这是因为MapRece是一套软件框架,包括Map(映射)和Rece(化简)两个阶段,可以进行海量数据分割、任务分解与结果汇总,从而完成海量数据的并行处理。
关于MapRece的具体情况我们就给大家介绍到这里了,通过这篇文章我们不难发现,传统的数据分析工具是不能够应对大数据的,不过MapRece可以能够更高效地解决问题。
㈩ 传统数据和大数据的区别
传统数据和大数据的区别
无疑,数据信息的大爆炸不断提醒着我们,未来将会因大数据技术而改变。大数据(Big data)通常用来形容数字化时代下创造出的大量非结构化和半结构化数据。大数据无疑是未来影响各行各业发展的最受瞩目的技术之一。2009年时,全世界关于大数据的研究项目还非常有限,从2011年开始,越来越多的管理者开始意识到,大数据将是未来发展不可规避的问题,而到2012年年底,世界财富500 强企业中90%的企业都开展了大数据的项目。IDC的研究显示,到2015年,大数据市场前景将达到169亿美元的规模。当前所有企业的商业数据每隔1.2年就将递增一倍。
那么,大数据为什么成为所有人关注的焦点?大数据带来了什么样的本质性改变?为此,我们与中国计算机学会大数据学术带头人、中国人民大学信息学院院长杜小勇教授进行了访谈。
杜小勇教授认为,大数据带来了三大根本改变:第一、大数据让人们脱离了对算法和模型的依赖,数据本身即可帮助人们贴近事情的真相;第二、大数据弱化了因果关系。大数据分析可以挖掘出不同要素之间的相关关系。人们不需要知道这些要素为什么相关就可以利用其结果,在信息复杂错综的现代社会,这样的应用将大大提高效率;第三、与之前的数据库相关技术相比,大数据可以处理半结构化或非结构化的数据。这将使计算机能够分析的数据范围迅速扩大。
传统数据和大数据的区别
第一、计算机科学在大数据出现之前,非常依赖模型以及算法。人们如果想要得到精准的结论,需要建立模型来描述问题,同时,需要理顺逻辑,理解因果,设计精妙的算法来得出接近现实的结论。因此,一个问题,能否得到最好的解决,取决于建模是否合理,各种算法的比拼成为决定成败的关键。然而,大数据的出现彻底改变了人们对于建模和算法的依赖。举例来说,假设解决某一问题有算法A和算法B。在小量数据中运行时,算法A的结果明显优于算法B。也就是说,就算法本身而言,算法A能够带来更好的结果;然而,人们发现,当数据量不断增大时,算法B在大量数据中运行的结果优于算法A在小量数据中运行的结果。这一发现给计算机学科及计算机衍生学科都带来了里程碑式的启示:当数据越来越大时,数据本身(而不是研究数据所使用的算法和模型)保证了数据分析结果的有效性。即便缺乏精准的算法,只要拥有足够多的数据,也能得到接近事实的结论。数据因此而被誉为新的生产力。
第二、当数据足够多的时候,不需要了解具体的因果关系就能够得出结论。
例如,Google 在帮助用户翻译时,并不是设定各种语法和翻译规则。而是利用Google数据库中收集的所有用户的用词习惯进行比较推荐。Google检查所有用户的写作习惯,将最常用、出现频率最高的翻译方式推荐给用户。在这一过程中,计算机可以并不了解问题的逻辑,但是当用户行为的记录数据越来越多时,计算机就可以在不了解问题逻辑的情况之下,提供最为可靠的结果。可见,海量数据和处理这些数据的分析工具,为理解世界提供了一条完整的新途径。
第三、由于能够处理多种数据结构,大数据能够在最大程度上利用互联网上记录的人类行为数据进行分析。大数据出现之前,计算机所能够处理的数据都需要前期进行结构化处理,并记录在相应的数据库中。但大数据技术对于数据的结构的要求大大降低,互联网上人们留下的社交信息、地理位置信息、行为习惯信息、偏好信息等各种维度的信息都可以实时处理,立体完整地勾勒出每一个个体的各种特征。