导航:首页 > 网络数据 > 大数据存储需求分析

大数据存储需求分析

发布时间:2023-12-15 17:23:07

大数据时代,数据的存储与管理有哪些要求

数据时代的到来,数据的存储有以下主要要求:
首先,海量数据被及时有效地存储。根据现行技术和预防性法规和标准,系统采集的信息的保存时间不少于30天。数据量随时间的增加而线性增加。

其次,数据存储系统需要具有可扩展性,不仅要满足海量数据的不断增长,还要满足获取更高分辨率或更多采集点的数据需求。

第三,存储系统的性能要求很高。在多通道并发存储的情况下,它对带宽,数据容量,高速缓存等有很高的要求,并且需要针对视频性能进行优化。

第四,大数据应用需要对数据存储进行集中管理分析。

❷ 大数据、高性能环境对存储的需求

大数据、高性能环境对存储的需求
一直以来,高性能计算的主要目的就是提高运算速度,来解决大规模科学计算和海量数据的处理问题。高性能计算每秒万亿次级的强大计算能力,使其成为石油、生物勘探、气象预测、生命科学研究等领域的重要技术选择。但是随着数据量以及数据价值的不断增长,金融、电信、互联网等领域对高性能计算的需求不断加大。随着技术的发展,高性能计算系统的处理能力越来越强,任务的计算时间越来越短,对业务的价值不断提高。但是,要想实现快速的任务计算处理,高性能计算系统的存储能力是关键。因为在计算开始,要从存储系统中读取数据;计算结束时,要向存储系统中写入计算后的结果。如果这之间的读取和写入速度不匹配,不仅会拖延高性能项目的完成周期,低延迟还会严重影响高性能创造价值的能力。通常,高性能计算要求存储系统能够满足性能、可扩展性要求,保护投资回报:吞吐量达到几个甚至几十个GB/s,容量能扩展至PB级;透明的访问和数据共享;集中式的智能化管理,高性价比;可按需独立扩展容量和性能等。中桥分析师在深圳华大基因研究院实地测试了EMC Isilon 产品在其HPC 环境下的运行情况,并记录下其结果。
背景
高性能计算(High Performance Computing—HPC )指通常使用很多处理器(作为单个机器的一部分)或者某一集群组织中几台计算机(作为单个计算资源操作)的计算系统和环境。长期以来,高性能计算应用的主要领域是科学与工程计算,诸如高能物理、核爆炸模拟、气象预报、石油勘探、地震预报、地球模拟、药品研制、CAD 设计中的仿真与建模、流体力学的计算等。如今,像金融证券、政府信息化、电信行业、教育、企业、网络游戏等领域对HPC的需求也在迅猛增长。
高性能计算的应用
高性能计算有着广泛的行业应用基础,下面列举几个行业对高性能计算的应用需求:
1. 航空航天行业
在航空航天行业,随着中国航空航天事业的快速发展,尤其是载人航天技术的巨大成功,我国科技人员对空气动力学的数值模拟研究提出了越来越多的需求,常规的计算能力远远无法满足复杂的大型飞行器设计所带来的巨大需求。在航空航天企业的设计过程中,研究人员往往需要把飞机表面分成几百万甚至几千万个离散型的网格点,然后通过高性能计算平台求解方程,得出每个网格点的温度、速度、摩擦力等各种参数,并模拟出连续型的曲线,进而为飞机设计提供宝贵的参考资料。对这类计算来说,网格点分割得越细密,计算结果的精确度也就越好。但是这些大规模设计计算问题不但单个作业计算量庞大,且需不断调整、重复计算,因此高性能在航天航空行业中占据着举足轻重的地位。
2. 能源行业
石油能源作为国家战略资源,对于国家经济、安全、军事等各方面都具有非常重要的战略意义。石油勘探承担着寻找储油构造、确定井位的重要任务。目前的主流做法就是人为的制造相应规模的地震(视勘探地区面积与深度不同),同时在相应的地层遍布若干震波收集点。由于不同材料的地质环境对地震波的影响是有规可循的,所以借助这一点,通过相关的算法,即可以通过对地震波的传递演算来“计算出”地质结构,从而找出我们所需要的能源位置。这种计算量无疑是异常庞大的,由于地震波法勘探收集的数据通常都以TB计,近年来海洋油气勘探所采集的数据甚至开始向PB规模发展。为此,只有借助高性能计算,才能在最短的时间内处理这些海量数据。
3. 生命科学
在现代生命科学领域,以数据为驱动力的改变正引发着巨大的变革。海量生物数据的分析将会增强疾病的实时监控能力和对潜在流行病做出反应的能力,但海量数据的挖掘、处理、存储却面临着前所未有的挑战。特别是随着新一代测序技术的迅猛发展,基因组学研究产生的海量数据正以每12- 18个月10倍的速度增长,已远超越着名的摩尔定律,这使得众多生物企业和科研机构面临强大的数据分析和存储需求。
在国内,生物基因行业的发展势头也不可小觑。2011年1 月30日,国家发改委已批复同意深圳依托华大基因研究院组建国家基因库,这是中国首次建立国家级基因库,首期投资为1500万元。深圳国家基因库是一个服务于国家战略需求的国家级公益性创新科研及产业基础设施建设项目,是目前我国唯一一个获批筹建的国家级基因库,是全球仅次美国、日本和欧洲三个国家级基因库之后的世界第四个国家级基因库。现在,该国家基因库已经收集了100万GB的生物数据,包含基因组、转录组、蛋白质组、代谢组及表型的数据,同时也积累了约四十万份生物样本。预计该基因库最终将达到10亿GB级别的数据容量。深圳国家基因库和国际上已有的基因库相比,它的特点是既有“湿库”也有“干库”:前者把千万种实体的动植物、微生物和人类组织细胞等资源和样本纳入网络;后者汇集巨量的核酸、基因表达、蛋白、表型等多类数据信息,成为“大数据”生物学时代研究生物生长发育、疾病、衰老、死亡以及向产业化推广的利器。
4. 金融行业
金融说到底就是数据。在金融市场中,拥有速度就意味着更高的生产力和更多的市场份额。金融计算模型相当复杂,数据收集越多,计算结果越精确。金融分析师都迫切地需要一个能模拟复杂现实环境,并进行精确处理的金融计算程序,以便对每个投资产品及时地评估投资收益,衡量投资风险,以期获得更好的投资回报。也正因此,高性能计算已经越来越多地应用到全球资本市场,以期在最短时间内实现对市场的动态响应与转换。
5. 气象预报
世纪二十年代初,天气预报方程已基本建立。但只有在计算机出现以后,数值天气预报才成为可能。而在使用并行计算机系统之前,由于受处理能力的限制,只能做到24小时天气预报。高性能计算是解决数值预报中大规模科学计算必要手段。采用高性能计算技术,可以从提高分辨率来提高预报精度。
6. 游戏动漫和影视产业
随着3D、4D电影的兴起和高清动漫趋热,由高性能计算(HPC )集群构成的“渲染农场”已经成为三维动画、影视特效公司不可或缺的生产工具。动漫渲染基于一套完整的程序进行计算,从而通过模型、光线、材质、阴影等元素的组合设定,将动漫设计转化为具体图像。以《玩具总动员》为例,如果仅使用单台工作站(单一处理器)进行动画渲染,这部长达77分钟的影片的渲染时间将会是43年,而采用集群渲染系统,只需约80天。

❸ 大数据的存储

⼤数据的存储⽅式是结构化、半结构化和⾮结构化海量数据的存储和管理,轻型数据库⽆法满⾜对其存储以及复杂的数据挖掘和分析操作,通常使⽤分布式⽂件系统、No SQL 数据库、云数据库等。

结构化、半结构化和⾮结构化海量数据的存储和管理,轻型数据库⽆法满⾜对其存储以及复杂的数据挖掘和分析操作,通常使⽤分布式⽂件系统、No SQL 数据库、云数据库等。

1 分布式系统:分布式系统包含多个⾃主的处理单元,通过计算机⽹络互连来协作完成分配的任务,其分⽽治之的策略能够更好的处理⼤规模数据分析问题。

主要包含以下两类:

1)分布式⽂件系统:存储管理需要多种技术的协同⼯作,其中⽂件系统为其提供最底层存储能⼒的⽀持。分布式⽂件系统 HDFS 是⼀个⾼度容错性系统,被设计成适⽤于批量处理,能够提供⾼吞吐量的的数据访问。

2)分布式键值系统:分布式键值系统⽤于存储关系简单的半结构化数据。典型的分布式键值系统有 Amazon Dynamo,以及获得⼴泛应⽤和关注的对象存储技术(Object Storage)也可以视为键值系统,其存储和管理的是对象⽽不是数据块。

2 Nosql 数据库:关系数据库已经⽆法满⾜ Web2.0 的需求。主要表现为:⽆法满⾜海量数据的管理需求、⽆法满⾜数据⾼并发的需求、⾼可扩展性和⾼可⽤性的功能太低。No SQL 数据库的优势:可以⽀持超⼤规模数据存储,灵活的数据模型可以很好地⽀持 Web2.0 应⽤,具有强⼤的横向扩展能⼒等,典型的 No SQL 数据库包含以下⼏种:

3 云数据库:云数据库是基于云计算技术发展的⼀种共享基础架构的⽅法,是部署和虚拟化在云计算环境中的数据库。

❹ 国内大数据需求所面临的典型存储挑战

国内大数据需求所面临的典型存储挑战
大数据让零售无需店面,在最大限度降低投资同时,加快现金流周转效率。大数据使各行各业商家提高获取优质客户资源和提升利润空间的同时,也使竞争进入“一兵一卒”用户争夺战之中。

大数据时代,企业数据量和数据种类出现飞速增长。大数据时代,全球应用数量从几年前的以十万为单位计算,到了以百万为单位计算。10年前,IT从业人员只是以百万计算,数据生成来源也比较单一,但现在,IT服务使用者已经上升到十几亿的消费者,数据生成来源更为丰富,是名副其实的大数据时代。同时,IT资源的配置和管理要满足高度虚拟化或集群IT架构的需求。企业应用部署效率、业务稳定服务性能,以及动态有效满足OLTP和OLAP性能要求,直接决定着企业核心竞争力。企业要求存储更灵活、更动态、性能更稳定,以支撑大量用户对各种IT服务交付的能力。此外,大数据时代还需要集中、统一和自动化管理的功能。
中国市场针对大数据的需求所面临的典型的存储挑战:
1.业务关键型性能:就“存储是否能满足目前业务关键应用性能”的调查结果显示,接受调查人员(总计455名受访者)中28.1%表示在未来12个月考虑部署新型存储。36.5%用户在未来12-24个月考虑部署新存储。大数据时代,应用使用者的快速增加,对存储并行处理能力提出了更高要求。此外,生产应用虚拟化产生大量随机读取,这就对传统IOPs和时间延迟提出了挑战。
2.存储利用率:大数据时代数据量快速增加。如何通过存储容量优化,降低存储容量和网络资源需求,降低数据保护过程对生产环境的性能影响,是控制大数据存储新增开支的关键。
3. 容量优化系统性能:为了提高存储资源利用率和业务连续性,存储厂商近年纷纷推出各种企业级功能。为了降低存储管理强度,中端以上存储具有多种工作负载性能监控、动态资源配置和自动化端对端管理功能。然而,传统存储控制器处理能力有限,启动这些企业级功能需要消耗存储控制器资源。用户往往要在存储资源优化和生产性能之间做取舍。
4.在大数据时代如何利用各种已有存储资源,为大数据时代的业务发展提供高可扩展和业务连续性是关键。传统存储下,不同厂商的存储之间无法实现快照、复制、备份和恢复,由此带来数据保护的大量开支。同时,带来存储资源浪费。
大数据环境对系统性能要求非常苛刻,要满足应用OLTP和大数据分析OLAP,以及业务关键型应用的低延迟需求,传统地通过增加控制器和硬盘这一解决方式不仅带来高昂的采购、运维成本和占地空间成本,而且还会导致资源的闲置,从而进一步降低了企业的IT总拥有成本。

❺ 大数据对存储平台有哪些特殊要求

伴随着安防大数据时代的来临,安防行业原有的存储技术已经无法满足行业发展新需求,尤其是公共安全视频监控建设联网应用工作对数据联网共享提出了更高的要求,同时以“实战”为根本的公安业务中,大数据深度挖掘极度依赖数据存储系统对非结构化数据分析再处理。云存储技术的出现,在安防行业大数据发展时代无异于革命性的应用,不断地解决了安防存储难题,同时也为视频监控的深度应用与发展提供强大的驱动力。

当今世界,每个人的一言一行都在产生着数据,并且被记录着。各行各业爆炸式增长的数据,正推动人类进入大数据时代。根据相关统计,2017年全球的数据总量为21.6ZB,目前全球数据的增长速度在每年40%左右,预计到2020年全球的数据总量将达到40ZB。数据增长在安防行业表现得尤为明显,在近两年“平安城市”、“ 智能交通”、“ 雪亮工程”等不断开展和深入的过程中,以视频监控为核心代表的行业发展正朝着超高清、智能化和融合应用的方向迈进,系统性工程中现有视频监控系统数据采集量正在呈线性增长。海量数据的出现对高效、及时的存储和处理的要求不断提升。  

从目前行业来看,大数据时代的到来,系统性工程中视频监控系统对存储主要有以下几方面的需求:  

一是海量数据及时高效存储,根据现行的技防法规及标准,一般应用领域视频监控系统数据采集是7x24小时不间断的,系统采集的音视频信息资料留存时限不得少于30日,针对案(事)件信息以及一些特殊应用领域视音频资料存放时间更长,甚至长期保留,数据量随时间增加呈线性增长。  

二是监控数据存储系统需要具备可扩展性,不但满足海量数据持续增加,还需要满足采集更高分辨率或更多采集点的数据需要。  

三是对存储系统的性能要求高。与其他领域不同,视频监控主要是视频码流的存储,在多路并发存储的情况下,对带宽、数据能力、缓存等都有很高的要求,需要有专门针对视频性能的优化处理。  

四是大数据应用需要数据存储的集中管理分析。但现实情况却恰恰相反,一方面是系统性工程在分期建设的过程中,采购的设备并不能保证为同一品牌,实际项目中多种品牌、多种型号比比皆是,给视频监控的存储集中管理带来很大难度。同时,在一些大型的项目中,例如特大城市“天网工程”,高速公路中道路监控所跨区域较大,集中存储较为困难。另外,受网络带宽及老旧设备影响,系统难以形成统一存储、统一监控的中心体系架构,导致数据在应用中调取不及时。  

总体来看,随着系统性安防项目的深入开展以及物联网建设初露峥嵘,大规模联网监控的建设和高清监控的逐步普及,海量视频数据已经呈现井喷式地增长,并冲击着传统的存储系统,遗憾的是原有的存储系统无法满足大数据时代提出的新要求,亟需新的存储技术支撑现有业务模式,同时为人工智能技术在安防领域施展拳脚拓展新的空间。

❻ 大数据存储需要具备什么

大数据存储作为一个数据平台,其并不仅仅是一个用于数据存储的设备,其需要能够提供符合成本效益的规模和能力,消除数据迁移,没有存储孤岛,提供全局可访问的数据保护和保持数据的可用性。
1.提供符合成本效益的规模和能力,不仅需要购买行业标准的服务器和存储产品,同时还要保证产品的扩展能力和性能。而且随着硬件的推移,能够根据需要进行扩展,存储系统需要链郑败圆能够持续保证企业的需求,通过增加存储系统来维持数据增长的性能需求。
2.消除数据棚枯颂迁移,大数据平台必须满足数据增长而不会受到系统约束的能力。

3.拒绝存储孤岛,为了能够充分利用大数据的机会,企业必须能够访问所有的数据,要实现这一点,新的存储平台必须能够满足这个要求,消除那些传统的存储孤岛,而不是简单的添加另一个存储解决方案。
4.提供全局管理方式,一个集中的数据管理方式在大数据增长迅速的年代已经是不可行的了,一个单点故障的成本会很高,一个大数据存储平台必须能够管理分布在全球企业中的数据。

5.保护和维护数据的可用性,数据价值越来越重要,为了防止企业级的产品硬件发生故障,存储平台必须通过智能软件来保持数据的可用性和完整性。

❼ 大数据存储需要具备什么

大数据之大 大是相对而言的概念。例如,对于像那样的内存数据库来说,2TB可能就已经是大容量了;而对于像谷歌这样的搜索引擎,EB的数据量才能称得上是大数据。 大也是一个迅速变化的概念。HDS在2004年发布的USP存储虚拟化平台具备管理32PB内外部附加存储的能力。当时,大多数人认为,USP的存储容量大得有些离谱。但是现在,大多数企业都已经拥有PB级的数据量,一些搜索引擎公司的数据存储量甚至达到了EB级。由于许多家庭都保存了TB级的数据量,一些云计算公司正在推广其文件共享或家庭数据备份服务。有容乃大 由此看来,大数据存储的首要需求存储容量可扩展。大数据对存储容量的需求已经超出目前用户现有的存储能力。我们现在正处于PB级时代,而EB级时代即将到来。过去,许多企业通常以五年作为IT系统规划的一个周期。在这五年中,企业的存储容量可能会增加一倍。现在,企业则需要制定存储数据量级(比如从PB级到EB级)的增长计划,只有这样才能确保业务不受干扰地持续增长。这就要求实现存储虚拟化。存储虚拟化是目前为止提高存储效率最重要、最有效的技术手段。它为现有存储系统提供了自动分层和精简配置等提高存储效率的工具。拥有了虚拟化存储,用户可以将来自内部和外部存储系统中的结构化和非结构化数据全部整合到一个单一的存储平台上。当所有存储资产变成一个单一的存储资源池时,自动分层和精简配置功能就可以扩展到整个存储基础设施层面。在这种情况下,用户可以轻松实现容量回收和容量利用率的最大化,并延长现有存储系统的寿命,显著提高IT系统的灵活性和效率,以满足非结构化数据增长的需求。中型企业可以在不影响性能的情况下将HUS的容量扩展到近3PB,并可通过动态虚拟控制器实现系统的快速预配置。此外,通过HDSVSP的虚拟化功能,大型企业可以创建0.25EB容量的存储池。随着非结构化数据的快速增长,未来,文件与内容数据又该如何进行扩展呢?不断生长的大数据 与结构化数据不同,很多非结构化数据需要通过互联网协议来访问,并且存储在文件或内容平台之中。大多数文件与内容平台的存储容量过去只能达到TB级,现在则需要扩展到PB级,而未来将扩展到EB级。这些非结构化的数据必须以文件或对象的形式来访问。基于Unix和Linux的传统文件系统通常将文件、目录或与其他文件系统对象有关的信息存储在一个索引节点中。索引节点不是数据本身,而是描述数据所有权、访问模式、文件大小、时间戳、文件指针和文件类型等信息的元数据。传统文件系统中的索引节点数量有限,导致文件系统可以容纳的文件、目录或对象的数量受到限制。HNAS和HCP使用基于对象的文件系统,使得其容量能够扩展到PB级,可以容纳数十亿个文件或对象。位于VSP或HUS之上的HNAS和HCP网关不仅可以充分利用模块存储的可扩展性,而且可以享受到通用管理平台HitachiCommandSuite带来的好处。HNAS和HCP为大数据的存储提供了一个优良的架构。大数据存储平台必须能够不受干扰地持续扩展,并具有跨越不同时代技术的能力。数据迁移必须在最小范围内进行,而且要在后台完成。大数据只要复制一次,就能具有很好的可恢复性。大数据存储平台可以通过版本控制来跟踪数据的变更,而不会因为大数据发生一次变更,就重新备份一次所有的数据。HDS的所有产品均可以实现后台的数据移动和分层,并可以增加VSP、HUS数据池、HNAS文件系统、HCP的容量,还能自动调整数据的布局。传统文件系统与块数据存储设备不支持动态扩展。大数据存储平台还必须具有弹性,不允许出现任何可能需要重建大数据的单点故障。HDS可以实现VSP和HUS的冗余配置,并能为HNAS和HCP节点提供相同的弹性。

❽ 大数据行业发展现状与未来前景分析

近年来,全球正大步迈向大数据新时代,数据的高效存储、处理和分析等需求也越来越旺盛。在此背景下,行业大数据得以高速发展,应用于各个领域,根据IDC发布的有关数据预测,2025年市场规模将达到19508亿元的高点。

全球大数据储量呈爆发式增长

随着信息通信技术的发展,各行各业信息系统采集、处理和积累的数据量越来越多,全球大数据储量呈爆炸式增长。根据国际数据公司(IDC)的监测数据显示,2013年全球大数据储量为4.3ZB(相当于47.24亿个1TB容量的移动硬盘),2014年和2015年全球大数据储量分别为6.6ZB和8.6ZB。近几年全球大数据储量的增速每年都保持在40%,2016年甚至达到了87.21%的增长率。2016年和2017年全球大数据储量分别为16.1ZB和21.6ZB,2018年全球大数据储量达到33.0ZB,2019年全球大数据储量达到41ZB。

—— 以上数据及分析均来自于前瞻产业研究院《中国行业大数据市场发展前景预测与投资战略规划分析报告》。

❾ 如何利用大数据进行用户需求分析

1.可视化分析
大数据分析的使用者有大数据分析专家,同时还有普通用户,但是他们二者对于大数据分析最基本的要求就是可视化分析,因为可视化分析能够直观的呈现大数据特点,同时能够非常容易被读者所接受,就如同看图说话一样简单明了。
2. 数据挖掘算法

大数据分析的理论核心就是数据挖掘算法,各种数据挖掘的算法基于不同的数据类型和格式才能更加科学的呈现出数据本身具备的特点,也正是因为这些被全世界统

学家所公认的各种统计方法(可以称之为真理)才能深入数据内部,挖掘出公认的价值。另外一个方面也是因为有这些数据挖掘的算法才能更快速的处理大数据,如
果一个算法得花上好几年才能得出结论,那大数据的价值也就无从说起了。
3. 预测性分析
大数据分析最终要的应用领域之一就是预测性分析,从大数据中挖掘出特点,通过科学的建立模型,之后便可以通过模型带入新的数据,从而预测未来的数据。
4. 语义引擎
非结构化数据的多元化给数据分析带来新的挑战,我们需要一套工具系统的去分析,提炼数据。语义引擎需要设计到有足够的人工智能以足以从数据中主动地提取信息。
5.数据质量和数据管理。 大数据分析离不开数据质量和数据管理,高质量的数据和有效的数据管理,无论是在学术研究还是在商业应用领域,都能够保证分析结果的真实和有价值。
大数据分析的基础就是以上五个方面,当然更加深入大数据分析的话,还有很多很多更加有特点的、更加深入的、更加专业的大数据分析方法。

大数据的技术
数据采集: ETL工具负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。
数据存取: 关系数据库、NOSQL、SQL等。
基础架构: 云存储、分布式文件存储等。

据处理: 自然语言处理(NLP,Natural Language
Processing)是研究人与计算机交互的语言问题的一门学科。处理自然语言的关键是要让计算机地理解地自然语言,所以自然语言处理又叫做自然语言理
解也称为计算语言学。一方面它是语言信息处理的一个分支,另一方面它是人工智能的核心课题之一。
统计分析:
假设检验、显著性检验、差异分析、相关分析、T检验、 方差分析 、
卡方分析、偏相关分析、距离分析、回归分析、简单回归分析、多元回归分析、逐步回归、回归预测与残差分析、岭回归、logistic回归分析、曲线估计、
因子分析、聚类分析、主成分分析、因子分析、快速聚类法与聚类法、判别分析、对应分析、多元对应分析(最优尺度分析)、bootstrap技术等等。

据挖掘: 分类
(Classification)、估计(Estimation)、预测(Prediction)、相关性分组或关联规则(Affinity
grouping or association rules)、聚类(Clustering)、描述和可视化、Description and
Visualization)、复杂数据类型挖掘(Text, Web ,图形图像,视频,音频等)
模型预测 :预测模型、机器学习、建模仿真。
结果呈现: 云计算、标签云、关系图等。

大数据的处理
1. 大数据处理之一:采集

数据的采集是指利用多个数据库来接收发自客户端(Web、App或者传感器形式等)的
数据,并且用户可以通过这些数据库来进行简单的查询和处理工作。比如,电商会使用传统的关系型数据库MySQL和Oracle等来存储每一笔事务数据,除
此之外,Redis和MongoDB这样的NoSQL数据库也常用于数据的采集。
在大数据的采集过程中,其主要特点和挑战是并发数高,因为同时
有可能会有成千上万的用户
来进行访问和操作,比如火车票售票网站和淘宝,它们并发的访问量在峰值时达到上百万,所以需要在采集端部署大量数据库才能支撑。并且如何在这些数据库之间
进行负载均衡和分片的确是需要深入的思考和设计。
2. 大数据处理之二:导入/预处理
虽然采集端本身会有很多数据库,但是如果要对这些
海量数据进行有效的分析,还是应该将这
些来自前端的数据导入到一个集中的大型分布式数据库,或者分布式存储集群,并且可以在导入基础上做一些简单的清洗和预处理工作。也有一些用户会在导入时使
用来自Twitter的Storm来对数据进行流式计算,来满足部分业务的实时计算需求。
导入与预处理过程的特点和挑战主要是导入的数据量大,每秒钟的导入量经常会达到百兆,甚至千兆级别。
3. 大数据处理之三:统计/分析

计与分析主要利用分布式数据库,或者分布式计算集群来对存储于其内的海量数据进行普通
的分析和分类汇总等,以满足大多数常见的分析需求,在这方面,一些实时性需求会用到EMC的GreenPlum、Oracle的Exadata,以及基于
MySQL的列式存储Infobright等,而一些批处理,或者基于半结构化数据的需求可以使用Hadoop。
统计与分析这部分的主要特点和挑战是分析涉及的数据量大,其对系统资源,特别是I/O会有极大的占用。
4. 大数据处理之四:挖掘

前面统计和分析过程不同的是,数据挖掘一般没有什么预先设定好的主题,主要是在现有数
据上面进行基于各种算法的计算,从而起到预测(Predict)的效果,从而实现一些高级别数据分析的需求。比较典型算法有用于聚类的Kmeans、用于

统计学习的SVM和用于分类的NaiveBayes,主要使用的工具有Hadoop的Mahout等。该过程的特点和挑战主要是用于挖掘的算法很复杂,并
且计算涉及的数据量和计算量都很大,常用数据挖掘算法都以单线程为主。

整个大数据处理的普遍流程至少应该满足这四个方面的步骤,才能算得上是一个比较完整的大数据处理。

阅读全文

与大数据存储需求分析相关的资料

热点内容
数据线插头用多少度锡丝 浏览:666
怎么用app查看社保卡余额 浏览:374
苹果手机无线网络信号不好 浏览:383
ue4材质中文教程 浏览:689
打开附带文件在图层 浏览:567
mfc怎么删除数据库 浏览:468
在哪里下载的文件找不到 浏览:821
招标文件中应该证明的内容有 浏览:607
工件编程怎么换平面 浏览:25
明珠三国官方版本 浏览:758
jspop换行 浏览:319
如何用网络画图 浏览:52
dxf编程如何修刀 浏览:344
js音频控制 浏览:112
苹果6p微信发送语音会自己中断 浏览:644
win10拷贝文件到u盘速度慢 浏览:396
怎么把ps源文件字体改清楚 浏览:440
u盘如何恢复win10系统下载 浏览:153
完美世界100级升级攻略 浏览:67
安卓手机去除广告软件 浏览:529

友情链接