❶ 大数据中心服务的主要特征表述错误
大数据中心服务的主要特征主要有:
大型化、虚拟化、综合化
国家大数据中心位于贵州贵安新区的大数据库灾备中心机房丛没大内,有着一根特殊的网络虚拟专线,这条专线跨越了北京与贵州之间2200多公里的距离,实现了国家渗竖与贵州灾备中察银心数据的同步传输和异地备份。
❷ 你觉得贵州成为大数据中心的原因是什么
1、自然条件优越:数据中心承载着海量的数据,需要给服务器更好的散热。而贵州水资源丰富,且平均温度在15度左右。既能为服务器散热和发电提供充足的水资源,又拥有足够低温的客观环境来保障散热。
2、环保指标有保证:贵州省内有9个规模不一的水力发电站,可充分保证能源的清洁与环保。
3、安全因素:数据中心属于中资金投资项目,数据中心等级不同,建筑结构、安全性、电气、制冷、防火系统都会不同,数据中心造价昂贵,因此数据中心的安全性就显得非常重要。贵州地处我国云贵高原,远离环太平洋地震地带,地质灾害很少,因此地质上的安全是选择贵州的一大因素
❸ 贵州大数据什么意思 贵州大数据的解释
1、贵州大数据即贵州大数据中心。
2、2015年7月9日,首个国家级数据中心 ——灾备中心落户贵州,该大数据库灾备中心在贵州揭牌,这标志着大数据专项行动第一阶段任务顺利落。
3、位于贵州贵安新区的国家旅游大数据库灾备中心机房内,有着一根特殊的网络虚拟专线,这条专线跨越了北京与贵州之间2200多公里的距离,实现了国家旅游局北京机房与贵州灾备中心数据的同步传输和异地备份。
4、中国大数据的八大节点和三大核心节点。中国网络的核心层由北京、上海、广州、沈阳、南京、武汉、成都、西安等8个城市的核心节点组成。
5、核心层的功能主要是提供与国际internet的互联,以及提供大区之间信息交换的通路。其中北京、上海、广州核心层节点各设有国际出口路由器,负责与国际internet互联,以及两台核心路由器与其他核心节点互联;其他核心节点各设一台核心路由器。
6、核心节点之间为不完全网状结构。以北京、上海、广州为中心的三中心结构,其他核心节点分别以至少两条高速ATM链路与这三个中心相连。
❹ 中国三大数据中心在哪
北京(中心基地)、贵州(南方基地)和乌兰察布(北方基地)。
中心和南方基地大数据中心于2015年启动,“内蒙古政务云大数据灾备中心”在次年启动,2020年在享有“草原云谷”之称的乌兰察布市集宁区正式投产运营。
2015年1月16日,由蓝汛与北京市供销总社共同投资的蓝讯首鸣国际数据中心项目启动仪式在北京天竺综合保税区举行。据了解,该数据中心是北京首个国家级、超大规模云数据中心,产业园占地面积8万平方米,包含9栋数据中心机房和1栋感知体验中心。
2015年7月9日,首个国家级数据中心——灾备中心落户贵州,该大数据库灾备中心在贵州揭牌,这标志着大数据专项行动第一阶段任务顺利落。位于贵州贵安新区的国家旅游大数据库灾备中心机房内,有着一根特殊的网络虚拟专线,这条专线跨越了北京与贵州之间2200多公里的距离,实现了国家旅游局北京机房与贵州灾备中心数据的同步传输和异地备份。乌兰察布国家大数据灾备游并中心启动大会于2016年07月08日早上八点正式启动,内蒙古自治区主席布小林出席蚂清会议。乌兰察布市委市政府依据自身地理位置优越,地质板块稳定,电力资源丰富,气候冷凉适宜,临近京津冀经济圈核心市场等优势,将信息产业作为战略神物迹性新兴产业来发展,致力于将乌兰察布市打造成面向华北、服务京津的国家级云计算产业基地,为承接高科技产业、加快产业转型升级提供强有力的支撑。市委市政府将为该建设国家大数据灾备中心项目提供充足的土地与极具竞争力的投资政策吸引广大企业参与建设。
❺ 大数据需不需要备份和灾难恢复
大数据需不需要备份和灾难恢复
大数据应用的发展趋势是在拥有大存储容量的同时配备用于执行数据分析的融合硬件设备与分析软件包。这些应用通常不会用于处理运营数据;相反,用户会通过查询数据来分析过去的产品销售、预测趋势和确定未来的客户购买模式。大数据应用通常并不会被定位为关键业务系统,虽然它们也支持销售和营销决策,但是并不会显著影响一些核心运营业务,如客户管理、订单、库存和配送等。
那么,为什么许多领先的企业IT部门都迅速将大数据整合到他们的灾难恢复计划中呢?这些数据量如此之大,会不会给备份带来影响呢?即便是备份了数据,从备份恢复数据是否会花费几天(几周或更长时间)呢?带着这些问题,我们来看一下如何进行大数据的灾难恢复。
数据太大,无法备份
灾难恢复最佳实践包括在指定的时间里将重要数据及时恢复到一致状态的能力。这段时间称为恢复时间目标(RTO),它必须在业务所依赖的运营数据的限制范围之内(最多几个小时)。但是,遇到大数据时该怎么办?大多数公司认为大数据的备份与恢复并不重要。其中包括以下这些原因。
运营系统更重要。在发生灾难之后,最高优先级的工作是恢复那些支持运营系统的数据。这些系统包括会计、订单条目、支付受理、工资等,它们是保证公司正常运营的必要条件。在这些数据恢复之后,第二优先级的工作是支持这些系统的运行。
大数据并不是关键业务系统。预测和趋势分析可能是营销的重要手段,但是这些分析及其相关的查询和用户报表都基于历史数据,而非实时数据。
大数据的体量非常巨大,一个大数据应用所存储的数据量可能是所有运营数据之和的数十倍。这是因为大数据应用工作在数据的历史快照上。十年的历史数据就会包含几千天的快照。它备份在什么介质上,备份需要多长时间,然后需要的备份存储有多大?
备份与恢复流程需要I/O通道容量。在短时间内迁移大容量的数据要求使用较大的容量。备份与恢复会耗尽I/O通道,唯一可行的替代方法是安装足够的附加容量去处理这些任务。
当大数据成为关键业务系统
上面介绍的原因并非适用于所有公司。有一些关注客户的系统也会使用大数据分析,这意味着大数据应用将属于运营处理的一部分。在其他企业中,大数据开始成为一种简单的查询和报表工具。有一些专用查询会慢慢体现其重要作用,然后变成一些常规报表。这些有用的报表会受到管理层的关注,他们会因此将这些报表变成一些重要的操作。最终,管理层会逐渐依赖这些报表来作出运营决策。因此,他们的大数据应用就会逐渐向关键业务系统靠拢。
大数据应用发展成为关键业务系统的趋势是不可避免的。这些应用的安装和配置过程代价高昂且耗费时间,同时也需要由高素质的技术人员来完成。此外,查询数据的业务分析师很少会亲自处理数据。通常他们会使用一些专门用于查询和分析大数据的分析软件包。这些软件同样非常昂贵,同时只有经过大量培训的技术人员才能高效使用这些软件。
公司在大数据应用投入了大量的金钱。公司迫切希望从他们的投资中获取有价值的回报。从数据分析得到的报表可能产生更好的客户服务、更快的产品周转速度和更高的收益。而收益恰恰就意味着关键业务。
大数据备份方法
如果准备在灾难恢复计划过程中恢复全部或部分大数据应用,那么可以考虑选择下面这些备份方法。
最重要的是要记住:大数据主要是历史数据和静态数据。运营数据快照会被提取到一个分段集结区域,进行整理和转换,然后再加载到企业数据仓库和大数据应用中。在此之后,它们都不会更新。这意味着在每一个快照上只需要运行一次备份流程。
最常用的备份方法主要有:
·数据复制。这是一个常用的备份方法。当数据加载到数据仓库或大数据应用程序时,它们会同步传输到一个备份流程中,其中会载入大数据应用程序的一个备份副本。这个流程通常发生在灾难恢复站点中,然后在发生灾难时它仍然保有一份最新的数据。
·虚拟快照。这是一个硬件解决方案,它允许在存储介质上创建整个系统的虚拟备份。数据库写操作会在中断一小段时间,这时管理存储子系统的硬件会对所有文件执行内部复制操作。这个复制流程可能非常快,有时会在几秒钟内完成。在复制完成之后,数据库管理系统又会重新允许执行写操作。
快照提供了超快速的恢复时间,它的假定前提是可以恢复到创建快照的指定时间点。除此之外,恢复到非快照创建的时间点需要有一些方法能够将所有最新数据库变化(日志捕捉)应用到快照中。另一个问题是存储容量。快照可能要求将当前使用的存储加倍。而且,当灾难发生时,当时的快照会作为当前数据,但是还必须分配另一个快照区域,以备应付新的灾难事件。
·本地与远程副本。这是一个经典方法,它由磁盘备份和包含物理磁盘驱动器或数据库的阵列备份构成。DBA使用供应商工具访问那些通常存储为一种压缩私有格式的数据。这些备份会快速地执行和加载,因为它们采用的是内部数据格式。
恢复自动化与测试
灾难计划的另一个重要部分是保证恢复在规定的RTO内完成。对于大数据而言,这通常意味着要使用标准流量或供应商工具实现恢复自动化。聪明的DBA会尽可能自动化更多的任务,从而最大可能减少相对较慢的人为干预。这其中就包括要避免以下行为:
·人工处理备份存储(例如,移动和操作磁带);
·输入命令行;
·检查纸质报表或文档。
在实现恢复自动化之后,要定期测试、测试再测试。记住,大数据总是在不断地增长,而且随着数据量的增加,备份和恢复时间也会增加。
总结
大数据无论部署还是使用都非常耗费时间、金钱和资源。许多公司迫切希望从这些大投入中获取回报,查询和报表能够提供一些宝贵的洞察力,帮助执行决策、应付变化和获得收益。大数据应用最终会变成关键业务系统。在此之前,一定要保证自己的IT基础架构能够备份和恢复这些数据。
❻ 大数据时代,企业安全如何做好容灾备份
讲真,不论是大数据时代,还是其他,只要企业数据很重要就一定要做好容灾备份回。知道9.11事件吧,答五角大楼那么多知名企业,500强的也不少呢,为什么出事以后很多企业都破产了?企业的核心数据因为没有备份,找不到了,想不破产也难哦。企业的核心数据,规范的会由信息部门单独保存,加以运维保护,不规范的也随便保存在个人电脑上了。有先见之明的企业,不论大小,都会采用一定的容灾备份措施,中小企业可以尝试看下和力记易的备份宝,很小巧的一个备份设备,自动备份,不需要专业知识就能操作。
❼ 灾备系统中的数据处理和安全
为了有效减轻和抵御自然或其他突发灾难对企业生存和发展造成破坏,业界曾经要求区分业务连贯性(Business Continuity)和灾难恢复(Disaster Recovery),但随着技术的发展和研究不断深入,这两个概念已经逐渐融合,相关措施一般统为业务连贯性计划(BCP,Business Continuity Plan),国内则习惯性称之为“灾备计划”。
灾备计划的实施中,核心是数据。当前,企业的发展和成功越来越依赖于对数据信息的掌握和管理,数据已经成为企业最重要的财富;灾备系统的部署也正是为了在发生灾难的时候实现数据的恢复并维持相关应用。然而,在目前的技术条件下,建立完善的灾备系统还需要解决数据处理和安全中的一些让人头疼的问题。
1. 灾备系统的数据处理和安全问题
数据量急速增长
根据IDC 2008年3月的报告,2007年各种新增数据的总量(281 ExaByte)较上年增长了约75%,已经超过所有可用存储介质总容量(264 ExaByte)约6%,预计2011年数据总量将达到2006年的10倍。在企业中,除了一般应用的数据急速增长,各种新兴的信息化技术(如ERP、CRM、电子商务等等)在提高效率的同时,也同样会产生大量数据。
急速增长的数据量给灾备系统带来的最直观的问题是存储空间不足,需要购买更多的存储介质(磁带或磁盘)。随着系统总存储容量的增加,除了购买介质本身的支出外,设备部署空间、降温、电能消耗等等附带需求也随之迅速增长。
另一方面,数据量增长也给系统的处理能力带来了巨大压力。与存储介质不同,系统的处理能力(如CPU、I/O总线等)一般较难扩展,通常只能通过硬件整体升级完成,如果不能通过技术手段有效平抑数据量增长对系统处理能力的压力,系统可靠性将面临频繁硬件升级的严峻挑战。同时,对系统的投资也不能得到充分利用。
此外,灾备系统通常都需要异地部署。数据量的增加要求远程数据传输具有更高的带宽;由于传输带宽的限制,传输时间的延长可能会降低系统运行效率,甚至无法及时完成异地数据传输,造成灾备系统不能发挥功效。
保护敏感数据
完整的信息安全保护需要遵循AIC三原则,即对保护数据需要同时关注可用性(Availability)、完整性(Integrity)和机密性(Confidentiality)等三个关键特性。尽管不同的应用场景会有不同的要求,但在系统的设计时必须对这三个特性都予以足够的重视,而目前国内的灾备系统往往仅将视线主要集中在可用性上,对完整性和机密性都缺乏必要的关注。
部署灾备系统是为了能在灾难发生后及时恢复应用,保证相关业务的有效运行。因此数据有效性是系统设计中首要关注的内容,而与此同时,随着信息技术的应用越来越广泛,敏感数据被泄漏甚至篡改的风险也越来越大,一旦发生意外,企业将在激烈的市场竞争中受到沉重,甚至毁灭性的打击。
2. 现有解决方案及不足
为了应对上述问题,存储业界分别提出了相应的解决方案:数据缩减技术可以有效减少备份数据的总量;对敏感数据的严密保护可通过采用加密技术实现。
目前广泛应用的数据缩减技术主要有重复数据删除(Data De-plication)和数据压缩(Data Compression)。重复数据删除技术通过删除存储过程中重复出现的数据块来降低数据总量,数据缩减比通常可达10:1到20:1,即应用重复数据删除技术后的总据量将减少到原始数据量的10%到5%;数据压缩技术通过对数据重新编码来降低其冗余度,从而实现数据量的减少,一般数据的压缩比约为2:1,即数据可被压缩到原大小的一半左右。这两种技术具有不同层面的针对性,并能够结合起来使用,从而实现更高的数据缩减比例。需要注意的是,如果同时应用重复数据删除和数据压缩技术,通常会先应用数据删除技术,然后再使用数据压缩技术,从而尽量减少对系统处理能力的占用。
为了对存储系统的数据进行有效保护,业界于今年初正式通过了IEEE 1619/1619.1存储安全标准。 IEEE1619采用一种新的加密算法模式XTS-AES,有效地解决了块导向存储设备(例如,磁盘驱动器)上的数据加密问题; IEEE 1619.1则主要是针对大的磁盘驱动器,可以采用CBC、GCM等多种AES加密和验证算法模式;其他如密钥管理等后续相关标准的制定也正在有序进行。
然而,尽管有这些方案能够分别应对灾备系统面临的大数据量和安全性问题,在实际的系统设计和部署中仍然存在一些麻烦,分散的技术实现会带来资源占用过多、系统运行效率低、复杂度太高、可靠性低等等各种问题,业界迫切地需要一种新的高集成度的总体解决方案,来全面解决所有的这些问题。
更为突出的问题是,数据保护所引入的加密处理将从根本上限制数据缩减技术的应用,这几种技术之间存在着根本的矛盾:重复数据删除和数据压缩技术的基础是大量数据中存在相似或相同的特性,而加密处理后数据中的相似或相同都将被完全破坏。
3. Hifn Express DR融合技术方案介绍
要想充分利用上述数据缩减和安全保护技术,构建完善的灾备系统,就必须仔细协调这几种处理。作为存储和网络创新的推动者,Hifn凭借对数据缩减和加密处理技术的深刻理解,以及对灾备系统存储应用的准确把握,提出了全新的Hifn Express DR解决方案,如图所示。
基于Hifn Express DR解决方案,数据将在被压缩后再提交进一步处理,以增加系统I/O带宽,从而使现有系统的硬件投资得到最大限度的利用和保护;在内部处理过程中,从I/O模块得到的源数据将首先被解压缩,然后使用特定的算法(一般使用SHA-1/2)计算出数据块的识别信息,以便进行重复数据删除处理;重复数据删除处理的元数据块将会被压缩,以进一步减少数据量。为了实现全面的数据保护,还可以对压缩后的数据块进行加密,加密算法和处理方式严格遵从IEEE 1619系列标准。整个处理过程都将由相关硬件处理单元自动完成,从而极大提高系统处理器和存储单元的工作效率。
通过对重复数据删除、数据压缩和加密技术的综合运用,基于该架构的新一代Hifn Express DR系列加速卡可以帮助客户将灾备系统的数据量减少到原始数据的5%以下,并实现数据的全面安全保护,其处理性能也将达到创纪录的1,600MB/s。