灾备策略变换降低数据损失和恢复时间

日期: 2009-11-18 作者:Linda Tucci翻译:Eric 来源:TechTarget中国 英文

在改善恢复时间目标和最小化数据损失的压力之下,美国大都会人寿保险公司(MetLife,以下简称大都会公司)的IT老兵们利用递减的存储成本和低杠杆度(公司使用过少的负债)的数据中心设计了成本数百万美元的灾备策略,该策略满足了那些目标,消除了安全隐患,而且将在五年内赢得两位数的投资回报率。   专家们表示,美国大都会人寿保险公司采取的杀手锏反映了当前灾备方案的几个趋势,其中包括首席信息官们对内部实现灾备的倾向(他们以前常常选择磁带备份供应商来实现灾备,现在趋向于选择自己内部实现灾备)。   大都会(MetLife)公司,是全美最大的人寿保险公司,该公司两位IT副总裁在着手改善主机数据的数据恢复时间……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

在改善恢复时间目标和最小化数据损失的压力之下,美国大都会人寿保险公司(MetLife,以下简称大都会公司)的IT老兵们利用递减的存储成本和低杠杆度(公司使用过少的负债)的数据中心设计了成本数百万美元的灾备策略,该策略满足了那些目标,消除了安全隐患,而且将在五年内赢得两位数的投资回报率。

  专家们表示,美国大都会人寿保险公司采取的杀手锏反映了当前灾备方案的几个趋势,其中包括首席信息官们对内部实现灾备的倾向(他们以前常常选择磁带备份供应商来实现灾备,现在趋向于选择自己内部实现灾备)。

  大都会(MetLife)公司,是全美最大的人寿保险公司,该公司两位IT副总裁在着手改善主机数据的数据恢复时间。以前该公司的数据只在磁带上备份和场外存储的时候,一次完整恢复最快需要三天,现在该公司的恢复时间目标(RTO)已经通过现场数据镜像缩短为二十八小时,并且磁带仍在使用。该公司负责IT风险管理的副总裁Tom Meenan说,但是数据丢失量达到价值17到41小时的数据,这在大都会公司快速变化的环境下仍然不够好。

  Meenan说:“那几乎相当于企业停止运营两天”,他是负责策略规划服务的副总裁,与Bob Zandoli领导该项目。

  此外,每年四万份的磁带仍然被运往Iron Mountain保存,足见数据被盗或者丢失的安全风险意义重大。

  因此,灾备策略的目标围绕着改善恢复时间目标,限制数据丢失,消除站外磁带安全风险,还要加上考虑该项目本身的成本。而且在IT实现双核之前,他们已经把恢复时间目标降低到了四到六个小时,潜在的数据丢失降到了十五分钟,所有这些都是通过升级内部技术和终止过时的磁带备份实践来实现的。

  灾备策略不只是为了预防灾难

  财务服务不是唯一透过停机时间镜头审查灾备策略的部门。按照Forrester研究公司对存储和灾备决策者的最新调查,除了领先竞争对手这一驱动力,停机的成本是驱使灾备升级最主要的原因。


  麻省剑桥顾问公司的分析师Stephanie Balaouras说:“时代不同了,公司现在意识到,他们需要担忧的不只是巨大的灾难,而且甚至还有能引起对代价高昂的停机的恐惧”。

  事实上,大都会公司这一拥有五万六千名员工的纽约保险业巨头,已经从单纯的人寿保险供应商进化成为了成熟的金融服务公司,随着这一转换来临的是对技术日益增长的依赖,对监管义务和名誉保护的增长。

  支撑大都会公司的是一个主三层数据中心(它的主机位于纽约市伦斯勒)和一个备用三层数据中心(该数据中心位于120英里以外的美国宾夕法尼亚州斯克兰顿)。数据主要存储在Unix和Windows服务器。

  Meenan和Zandoli提议采用站外磁带策略,使用远程磁盘镜像(把数据)从一个站点移动到第二个站点。该公司有的是楼层空间;只需要一台主机就够了。

  该项目还使得大都会公司自己内部实现了灾备,对于IT组织来说,一个重要的考虑就是重视客户服务。按照Forrester研究机构的调查,内包(自己来完成本来应该承包出去的工作)趋势迅猛发展。受挫于外部供应商是一个原因。

  Balaouras说:“许多公司把灾备带回内部来做,是由于对恢复目标的需求超出了共享IT基础设施用磁带能满足的范围,而且还有低成本技术的支付能力。”也就是说,灾备供应商还在努力以更加廉价的方式满足更苛刻的恢复目标要求,她表示。

  负担得起主机镜像

  还有一个问题也是计划要考虑的因素:Zandoli的工程师团队已经考虑向大都会公司提供所谓的敏捷数据中心,这种概念是像Gartner这样的顾问公司所倡导的。这是一种具有适应性的技术基础设施,提供灵活性、高可用性、高效性、良好的客户反映,并在业务变化期间的高级数据保护,总之都是很划算的方式。要达到这一点,该团队需要重新整理数据中心的存储磁盘。

  Zandoli说道:“我们可以把磁盘的重新整理任务加入该灾备项目,根据摩尔定律,我们可以使它自己筹资,因为在我们整理磁盘时,可以降低运行费用。”

  大都会公司采用了IBM公司的存储设备,特别是199TB TISC,177TB SISC,一共有376TB。Zandoli说,彻底整理这些磁盘,比过去三年前整理节约成本达百分之七十以上,节约的这部分费用可以购买一台新的,类似的主机,与过去购买相同数量的存储磁盘相近。实际上,他购买的主机,主要适用于复制,相当于“一文不花”。

  大都会公司的主数据中心每天运行大约一万八千MIPS(每秒百万条指令)。二级站点有能力承载所有主站点带回来的数据,正常情况下每天运行两千MIPS。因为引擎只有在你需要的时候才运行,Zandoli说,“软件授权的费用并没有成为一个巨大的问题”。该公司在两个数据中心之间铺设了OC-48光纤,但是“那部分成本被重新审查大量存储的力量吸纳了”。

  除了充分利用斯克兰顿数据中心的设施,大都会公司通过降低存储基础设施的需求和开支得以节约,而且结束了对第三方供应商在紧急情况下的传输,存储和恢复磁盘活动的依赖。这些成本的节约使得该公司可以无需额外投入成本就获得了该项目需要的资金。将节约的成本计算在内的话,这数百万美元的项目第一年只花了大约一百五十万美元。第二年它完全是自己供给的,而且会在五年后带来两位数的投资回报。该项目花了一年就完成了。

  好事里头总会有坏事

  那么我们不得不牺牲的是什么呢?

  在两个站点之间一百二十英里的距离意味着他们可能比两个数据中心相聚九十英里远的情况会多丢失一些数据,九十英里是同步传输数据的极限距离。而且,Meenan说,额外的损失还有“最坏的情况下,每十五分钟,我们认为我们就会损失一分钟” 。

  相反,两个站点之间一百二十英里的距离还达不到二百英里(在毁灭性的灾难,像飓风,地震或者森林火灾,有时推荐的距离是二百英里)。然而,Meenan和Zandoli表示,有一份三十页的评估报告指出两个站点同时发生的最坏天气影响顶多是下雪。

  Zandoli说:“你猜怎么样:我们已经可以安然无恙地度过暴风雪”,而且他们有经过时间考验的计划,可以让人们安心工作。

  他们可以在两个站点之间设置一个“地堡”式的数据中心,作为灾备策略的一部分,这样会增加数百万美元的成本;或者也可以在九十英里以外建立一个新的数据中心。这两种选择他们都考虑过,最终又都否决了,因为不值得花这份钱。

作者

Linda Tucci
Linda Tucci

Executive Editor Linda Tucci oversees news and e-zine projects for SearchCIO.com and SearchCIO-Midmarket.com. She has covered CIO strategy since joining TechTarget in 2005, focusing most recently on big data, mobile computing and social media. She also writes frequently about the CIO role and CIO careers for SearchCIO.com's weekly CIO Matters column. Prior to joining TechTarget she was a business columnist for the St. Louis Post-Dispatch. Her freelance work has appeared in The Boston Globe and T

翻译

Eric
Eric

相关推荐