首页 XX存储方案建议书

XX存储方案建议书

举报
开通vip

XX存储方案建议书XX 大学存储方案建议书 XXX公司 二○一一年三月 目 录 1    存储技术发展趋势    3 1.1    主流存储协议介绍    3 1.2    走向万兆的存储    5 2    数据中心存储的挑战和要求    9 2.1    数据中心业务的挑战    9 2.2    数据中心存储的基本要求    9 3    ****数据中心存储需求分析    12 3.1.    ****应用现状描述    12 3.2.    ****存储系统主要存在问题    12 3.3.    ****数据中心存储需...

XX存储方案建议书
XX 大学存储方案建议书 XXX公司 二○一一年三月 目 录 1    存储技术发展趋势    3 1.1    主流存储协议介绍    3 1.2    走向万兆的存储    5 2    数据中心存储的挑战和要求    9 2.1    数据中心业务的挑战    9 2.2    数据中心存储的基本要求    9 3    ****数据中心存储需求分析    12 3.1.    ****应用现状描述    12 3.2.    ****存储系统主要存在问 快递公司问题件快递公司问题件货款处理关于圆的周长面积重点题型关于解方程组的题及答案关于南海问题     12 3.3.    ****数据中心存储需求总结    13 4    ****万兆IP SAN存储方案设计    13 4.1    **数据中心建设目标    13 4.2    数据中心建设原则    13 4.3    **数据中心总体方案详细介绍    14 4.3.1    万兆IP SAN总体架构介绍    14 4.3.2    **数据中心万兆IP SAN网络存储架构设计    16 4.3.3    存储空间配置设计    17 4.3.4    RAID类型配置建议    18 4.3.5    数据库优化部署建议    19 4.3.6    数据在线保护方案    22 4.3.7    数据备份方案规划    23 4.3.8    方案的可扩展性    28 4.4    万兆IP SAN存储方案特点总结    29 4.4.1    最高的存储性能    29 4.4.2    最可靠的全冗余保障    30 4.4.3    最先进的组网扩展    30 4.4.4    最完善的数据安全策略    31 4.4.5    最为合理的投资    31 5    方案相关产品和关键技术介绍    31 6    售后服务体系介绍    32 1 存储技术发展趋势 1.1 主流存储协议介绍 信息或数据在IT系统中,总是必然处于“计算”、“存储”、“传输”三个状态之一。这三个方面也正好对应于整个IT技术的三个基础架构单元——计算、存储和网络。 传统上,主机系统既负责数据的计算,也在通过文件系统、数据库系统等手段对数据进行逻辑和物理层面的管理,而存储设备,则是以直连存储(DAS)方式连接在主机系统中。然而,由于历史发展的原因,各种 标准 excel标准偏差excel标准偏差函数exl标准差函数国标检验抽样标准表免费下载红头文件格式标准下载 和各种版本的操作系统、文件系统拥挤在用户的系统环境中,使数据被分割成杂乱分散的“数据孤岛” (data island),无法在系统间自由流动,自然也就谈不上设备的充分利用和资源共享。 有鉴于此,人们开始寻找存储网络化和智能化的 方法 快递客服问题件处理详细方法山木方法pdf计算方法pdf华与华方法下载八字理论方法下载 ,希望通过提高存储自身的数据管理能力,独立于主机系统之外,以网络方式连接主机和存储系统,以设备资源透明的方式为计算提供数据服务。从而将数据管理的职能,从标准混乱、应用负荷沉重的主机中分离出来。 在网络存储的发展过程中,SAN(存储区域网络)和NAS(网络附加存储)得到了迅速的发展。 NAS是一种直接利用局域网,基于文件的存储架构,存储数据的传输也是基于局域网。NAS的最大优点是可以很容易实现异构平台的文件共享,NAS的另一个优点在于其扩展性,因为存储单元可以比较容易地加入到网络中。然而,NAS存储在数据备份或存储过程中会占用网络的带宽,可扩展性有限,并且访问需要经过文件系统格式转换,所以是以文件一级来访问,不适合Block级的应用,尤其是要求使用裸设备的数据库系统。 而SAN存储架构的出现弥补了NAS的不足,为存储系统的发展产生了巨大的推动力。SAN(Storage Area Network)存储区域网络,是一种通过网络方式连接存储设备和应用服务器的存储架构,这个网络专用于主机和存储设备之间的访问。当有数据的存取需求时,数据可以通过存储区域网络在服务器和后台存储设备之间高速传输。 SAN的诞生,使存储空间得到更加充分的利用以及安装和管理更加有效。在SAN网络中,所有的数据传输在高速、高带宽的网络中进行,SAN存储实现的是直接对物理硬件的块级存储访问,提高了存储的性能和升级能力。 早期的SAN采用的是光纤通道(FC,Fiber Channel)技术,所以早期的SAN多指采用光纤通道的存储局域网络(FC SAN)。FC光纤通道技术使得存储系统的可升级性、稳定性、可用性和性能都大大加强,而集中管理这一特性更是显著降低了总拥有成本。因此,FC SAN迅速在重要业务和高性能应用领域得到普及,如数据中心环境。 然而,在过去8年以FC协议为主的SAN存储系统建设中,人们逐渐发现FC协议虽然基本解决了传输速度和扩大容量的问题,却难以完全承担起存储系统独立化的重任。FC SAN的互操作性仍是实施过程中存在的主要问题。SAN本身缺乏标准,尤其是在管理上更是如此。虽然光纤通道(Fibre Channel)技术标准的确存在,但各家厂商却有不同的解释,于是,互操作性问题就像沙尘暴一样迎面扑来,让人猝不及防。这就导致了FC兼容性差、成本高昂、扩展能力差、异构化严重的问题。 在存储以SAN的名义独立走上IT舞台的同时,IP和以太网技术在网络领域突飞猛进,在同样1997-2005的8年中,主流商用协议标准从10M发展到了10G,整整提升了1000倍,行业的发展动力和技术标准的成熟性已无可争辩。IP技术已经成为整个IT行业中最成熟、最开放、发展最迅速、成本最低、管理最方便的数据通讯方式。在经历了FC SAN发展的过渡性尝试后,整个行业开始考虑将FC传输技术替代为更加成熟可靠、成本更低的IP技术,以适应广域网数据应用、大规模服务器数据集中、海量数据存储等应用对新一代存储系统的要求,同时为“随需应变”的IT新时代到来,奠定坚实的开放化标准基础。2003年,以IBM等公司共同发起的iSCSI(Internet SCSI)协议,通过IETF组织的审议,公布为RFC标准。iSCSI协议实际就是将标准的SCSI存储访问指令,打包到TCP/IP中进行传输。 iSCSI标准一经公布,就以其低成本、高可管理性、天然的跨广域数据传输和管理能力、海量组网能力得到了业界的青睐。基于iSCSI协议构建的IP SAN存储,已崭露头角,成为新一代存储系统的标准,成为IT新时代围绕IP技术进行的网络与存储融合的标志性技术。 由于iSCSI协议将SCSI数据传输的基础从封闭昂贵的FC协议转移到IP之上,使存储系统突破了长期困扰着存储系统的兼容性、成本和管理性桎梏,使存储网格、广域数据传输、大规模服务器数据集中、远程容灾、高性能交换式存储架构等存储技术脱下昂贵的外衣,成为广大行业客户均能轻松获得的最新存储技术。 2006年底,XX存储销售额过亿,当年Q4在IP存储领域51.9%的份额,引起了包括IDC、Gartner在内的业界知名咨询机构的广泛关注。从这一年开始,各大咨询机构开始将IP SAN和FC SAN分开,对中国市场的IP SAN进行单独的分析。与此同时,各大存储厂家也开始支持IP存储的相关协议,越来越多的用户开始接受IP存储,开始认可IP存储的发展方向。 此后IP存储的发展就开始进入了快车道,2007~2008年先后发生的多次厂家之间收购:DELL收购EqualLogic(IP存储)、Brocade收购Foundry(以太网)、HP收购LeftHand(IP存储),都无一例外的验证了一点,各存储领域的厂家,都开始涉足IP存储、以太网的路线。近日,IDC公司发布的数据显示,2008年中国IP存储市场用户投资额同比增长达74.4%,远远超过整体外部存储市场增幅。 随着iSCSI技术的完善,数据块级的存储应用将变得更为普遍,存储资源的通用性、数据共享能力都将大大增强,并且更加易于管理。随着千兆以太网的普及以及万兆以太网络的成熟,IP存储必然会以其性价比、通用性、无地理限制等优势飞速发展,iSCSI技术将联合SCSI、TCP/IP,共同开创网络存储的新局面! 1.2 走向万兆的存储 当今网络存储领域应用最广泛的两大技术是FC存储和IP存储,二者发展历程和未来趋势如下: 上图中,红线代表IP存储的发展过程,黑线表FC存储,可以看到: FC存储技术发展缓慢,前景不明,FC网络将被以太网替代。虽然经过10年的发展,FC端口速度却仅有4Gbps;下一代8Gbps的FC存储标准目前处于停滞状态,正在讨论是否停止FC的发展,转而采用FCoE技术。而FCoE技术则意味着FC网络将被淘汰,SAN网络统一到以太网技术上。 IP存储发展迅速,成为广泛应用的主流网络存储技术,是目前所有第三方知名咨询机构认可的存储技术发展方向。从上图可以看到,在iSCSI作为网络存储标准化技术以来,仅仅经过4年时间就达到了10Gbps的速度(FC达到4Gb用了近10年时间),并且在4~5年内将达到100Gbps的速度。 权威分析机构IDC公司近日发布的数据显示,2008年中国IP存储市场用户投资额同比增长达74.4%,远远超过整体外部存储市场增幅。而下述Garter和IDC提供的报告已经明确的显示,iSCSI的主机接口数和存储设备出货量保持高速增长,已经成为网络存储系统的主流技术。 在这种情况下,各大存储厂家也开始进行IP存储产品的研发和推广,越来越多的用户开始接受IP存储,开始认可IP存储的发展方向。2007~2008年先后发生的多次厂家之间收购:DELL收购EqualLogic(IP存储)、Brocade收购Foundry(以太网)、HP收购LeftHand(IP存储),都无一例外的验证了一点,各存储领域的厂家,都开始涉足IP存储、以太网的路线。 存储界万兆大事记: 2008年中EMC推出CX4系列的新型终端产品,明确表示09年中开始支持万兆iSCSI。 2008年中IBM推出DS5000系列的新型终端产品,明确表示09年中开始支持万兆iSCSI。 2008年7月低,博科公司宣布以30亿美金收购路由器专业厂商网捷网络公司(Foundry Networks),FC SAN领域领导者的博科向世界宣布:他们将正式进入以太网市场!2009年4月SNW春季大会,博科推出了8000系列架顶式交换机,配置24个用于连接聚合增强型以太网的10Gb以太网端口,还推出两款FCoE聚合网络适配器,正式发布基于万兆的数据中心产品。 综上所述,无论是iSCSI存储还是FCoE标准的制定,近几年基于以太网的技术更新也让用户在构建数据中心时有了更多选择。特别是当10Gb/s以太网进入商用后,所有的厂商和用户都在评估,是光纤通道更具优势,还是iSCSI更经济实惠。 也许很多人仍旧不愿意承认,以太网会一统天下,但至少有一点可以肯定,融合是大势所趋,这也是很多人看好FCoE的重要原因。博科和思科,网络及存储领域的主流厂商,包括EMC、Emulex、Intel、NetApp、QLogic等都在密切关注基于万兆FCoE的进展,但存储走向万兆已经无可争议。 2 数据中心存储的挑战和要求 2.1 数据中心业务的挑战 随着数据中心规模的不断扩大,数据中心对存储系统的要求也不断提高,主要体现在下述方面: ? 处理数据量越来越大 数据量不断增大是数据中心发展的趋势之一,除了传统的以数据库为典型代表的结构化数据之外,大量的图片、影音文件、设计文件等非结构化数据更是推动了数据中心数据量的爆炸式增长,数十TB,上百TB,甚至PB级的数据中心也是大量涌现。 如何应对如此大量的数据,是数据中心存储系统要面临的挑战之一。 ? 数据处理种类越来越复杂 除了数据量大之外,业务种类的多样性也是数据中心的一大特点。由此导致的就是数据处理种类越来越复杂。ERP、OA和公文流转、网站、图形图像处理、商业智能等多种业务在一个数据中心并存是再平常不过的。而每个业务应用大致需要经历数据创建、积累、使用、转换、归档的过程,不同阶段对数据处理都有不同的要求。 如何满足越来越复杂的数据处理种类,也是数据中心存储系统要面临的挑战之一。 ? 处理及时性越来越迫切 一个大型数据中心每秒钟可能就要处理成千上万笔交易,除了航空订票、商场交易等常见在线交易之外,在特定的业务高峰期,数据中心需要承载的业务交易更是巨大,像大型运动会的订票、公务员考试查询等特定业务,数据中心同时面临的可能就是上百万的并发请求。在高性能计算和商业智能领域,传统的一次数据分析和计算,可能需要几天甚至几个星期的时间,但在新的业务形势下,这些时间都被大大缩短。 因此,如何提高数据中心的处理及时性,也是数据中心存储系统要面临的挑战之一。 2.2 数据中心存储的基本要求 数据中心业务的挑战,对存储系统提出了如下基本要求: (1)整体性能要求高 数据中心整体性能的提升实际上以最终的输出效果来评判的。这个效果与业务处理流程、底层硬件平台等息息相关。 如果将数据库软件和上层业务软件纳入讨论范畴,无疑将大大增加数据中心建设的难度,而且对于数据中心而言更多的是还要为上层业务部门提供足够充足的业务资源。这类似于目前流行的 “云计算”。数据中心为气象台所提供的是气象数据的处理能力。这种处理能力可以通过将整个数据处理过程分解,发现作为底层的动作是相同的。从前端采集数据进入数据中心开始,一个经典的数据处理流程是由计算、传输和存储三大部分组成的, 三大部分相互制衡形成了一个有机的整体。 IT系统组成图 ? 强大的计算能力 计算能力的提升是多方面的。包括了数据库软件的升级优化、操作系统的优化和计算机硬件的优化。从计算机硬件来看,计算机的内部总线、处理器和缓存等方面,计算能力发生了巨大飞跃。而且通过数据服务器和中间件服务器的架构,可以最大限度的发挥小型机的强大计算能力,而且具备随着业务增长做弹性扩展的能力。 从目前调查的大多数计算中心的情况来看,很多时候服务器的CPU不是过载而是在等待状态,其所等待的是数据的传输和读写过程。当然具体的应用,需要实际考察硬件环境和实际运行状态才能够确定。 ? 顺畅的数据传输 数据中心的数据传输至关重要,通常是由数据中心交换机来完成数据库服务器、中间件服务器和业务服务器的连接。目前采用10Gb链路进行数据中心建设是数据中心建设的主力思路,所采用的技术主要是InfiniBand和10Gb以太网技术。 InfiniBand因为其技术的封闭性和产业链的不完整,应用相对狭窄,以太网技术因为标准化和完善的产业链支撑而获得广泛的应用。在世界500强超级计算机链接方式中,有超过57%选择了以太网连接。 按照目前服务器与存储连接后的数据传输方式来说,采用4Gb FC连接方式最大传输速度在350MB/s,传输4GB文件所需要的时间为12s,10Gb以太网连接方式最大传输速度为850MB/s,4GB文件所需要的传输时间为4.8s。对于超大数据块的传输采用10Gb技术已经成为必然选择。 ? 高效的数据读写 服务器最慢的部件是什么? 是硬盘。 在采用集中式存储的IT系统中,存储的磁盘阵列如果不能够有足够高的性能,将会成为整个IT系统的木板。高性能的磁盘阵列将是构建整个高效IT系统的基石。其效率主要体现在三个方面: ? 数据传输的带宽、 ? 每秒钟的读写次数(IOPS)、 ? 读写延迟。 以时延为例,大型数据库应用系统每秒钟的读写次数在上万次是正常水平,传统的SATA硬盘(7200转)读写延迟为十几毫秒、FC(15000转)和SAS(15000转)硬盘读写延迟为2-3毫秒、固态硬盘读写延迟为0.09毫秒。几万次读写所消耗的时间是非常巨大的,每次的等待所带来的都是整个CPU的等待和业务结果的推迟。 (2)数据高可靠,业务高连续性 数据和业务越来越集中的情况下,意味着风险的越来越集中,一旦数据中心发生故障将会发生严重的生产事故,比如台北桃园机场因IT故障导致停飞长达6小时、银联因为数据中心故障导致长达数小时无法刷卡消费。 数据中心可靠性的保障,不仅仅是单个设备的可靠性,还包括了架构的可靠性和应急制度的可靠性,只有全方位的考虑才能保障意外情况发生的万无一失。 (3)最成熟的架构与最先进的技术相结合 IT技术,尤其是存储相关技术,近几年发展非常迅猛。万兆IP SAN、SSD、SAS、多核处理器、大容量缓存等等,带来了存储性能的提升,同时因为技术发展的必经阶段,可能带来很多未知问题,因此系统设计既要采取先进技术以提高整个数据中心建设的前瞻性,又要充分考虑技术的成熟性,避免由于技术的不成熟性导致的风险。对此,基本策略可以采取最安全整体架构和最先进技术相结合的方式实现。 3 ****数据中心存储需求分析 3.1. ****应用现状描述 略,根据实际需要添加。 3.2. ****存储系统主要存在问题 基于****现有的IT建设情况,我们可以看到存储有以下主要问题: 一、 没有统一的数据集中规划 从****的数据中心现状来看,存储品牌虽然多,但全部按照但系统的应用考虑,实际全部采用分散存储的方式,没有统一的集中存储方案,因此从存储的应用和维护的角度来看,存在多个异构系统,形成了几个SAN的孤岛,从而导致数据管理困难,未来的数据中心容灾建设无从下手; 二、 主系统应用性能不高 由于两台DS4800分别为84A和82A,其内存配置分别为8GB和4GB,而为了实现系统的高可用性,采用了镜像模式,造成了这个系统的存储性能以DS4800低配的82A为主,因此从目前应用的情况来看,当PDM系统进行大量工作时性能不足; 三、 数据备份策略滞后 备份采用网络备份,由于各系统的数据存储没有集中,目前数据中心的数据备份只能全部通过TSM备份软件,然后通过业务网络向两台IBM的N3650 NAS产品中进行备份,备份数据流与业务网络完全重合,备份是对公司业务影响很大,因此备份只能在下班时间进行,并且备份时间很长,无法实现全面细化的数据保护; 四、 存储系统的扩展性不强 由于各系统的存储系统基本是各自为政,因此当存储的性能和容量需要扩展时,只能按多个系统自行进行扩展,扩展方式受到了极大的限制,比如CAAP系统和ERP的数据库系统,全部采用DAS的存储方式,其性能和容量的扩展都受到了很大的限制,最终只能更换; 五、 管理繁琐负载,数据风险大 由于由于各系统的存储系统基本是各自为政,造成多个存储系统的数据管理也是独立、特殊的,因此运维部门必须对多个系统采用不同的维护方式,数据管理分散,各系统的数据安全也没有统一的管理,数据安全存在比较大的风险。 3.3. ****数据中心存储需求总结 基于****数据中心的现状,对于新的数据中心建设需求归纳如下: 一、 需要建立统一的数据存储体系,实现采用集中的数据存储体系进行所有数据的集中; 二、 需要建立标准化的数据存储体系,在标准化的平台上,保证未来多系统大规模数据存储的具有良好的兼容性和扩展性; 三、 需要建立全面的数据安全保证体系,数据中心需要重新制定全面的数据保护及备份测策略,以保证整个数据中心数据能够全面的应对软硬件灾难,最大程度的保护业务连续性; 四、 需要建立简单可行的数据管理体系,存储的本质是数据管理,数据中心的建设要建立起简单、高效的数据管理平台,以实现存储资源利用的最大化; 五、 需要建立容灾建设的基础,容灾是数据中心建设的重要目标,因此数据中心的建设必须为后期的容灾建设打好基础,避免重复投资并最大程度的保护现有投资。 4 ****万兆IP SAN存储方案设计 4.1 **数据中心建设目标 XX公司此次的数据中心建设规划是在科学、经济、合理的投资下,为****建立一个全面的数据中心体系架构,对所有系统数据集中存储管理的同时,全面考虑数据安全和业务连续性,方案将基于业界目前最为先进的100Gb网络和万兆存储设备为核心的体系架构进行建设,将全面**数据中心未来全面5年发展的需要。 同时,本次方案全面考虑提供本地逻辑容灾和远程物理容灾的手段。在****中心节点实现PDM业务应用、ERP应用系统、电子邮件系统、办公自动化系统等的全面整合和关键业务数据的集中存储、数据安全保护;同时考虑未来在异地建立一个数据级容灾备份中心,RTO,RPO均达到国家的最高要求,并能按需扩展,支持下一步将该数据级容灾备份中心建设成应用级容灾备份中心。 4.2 数据中心建设原则 为了全面保证****数据中心建设目标,在数据中心存储系统规划、建设、实施、运行和完善的过程中,必须应遵循以下建设原则: (1)开放性:系统符合开放性设计原则,具备优良的可扩展性、可升级性,可以支持开放系统平台,运行于现有的技术标准之上; (2)兼容性:与现有系统需要完全兼容,各个构成子系统必须紧密衔接、高度集成,构成一个整体; (3)稳定性:要保证系统运行的稳定性,使系统运行风险降至最低; (4)业务连续性:完善的远程容灾解决方案,满足业务连续性的需要; (5)技术先进性:系统设计应采用当前先进而成熟的技术,不仅可以满足本期工程的需求,也应把握未来的发展方向。 (6)可扩充性:在系统设计时应充分考虑可扩充性,从而确保新功能、新业务的增加在原有的系统平台上扩展和实现。 (7)高可靠性:系统平台具有高可靠性,支持服务器平台的高可用性集群技术;具备先进的容灾的设计;充分保证系统的高扩展能力和高容错能力,具有通道负载自动均衡能力和存储系统性能调节能力,提供极为充分的可靠性各项指标设计。 (8)高可用性:在不停机情况下,实现不停机扩容、维护、升级等服务,提高性能以满足新的业务需求。具备7×24×365连续工作的能力,系统的可用性应大于99.999%。在自动化管理软件支持下可以实现磁盘数据的在线(不停机)备份。 (9)成熟性:应尽量选用经过大量运用、成熟可靠的系统。 (10)可管理性:要求配置实时性能监测管理软件。可对主机、存储等设备CPU使用率、内存使用率、交换区使用情况、I/O操作、队列状态、磁盘空间、卷磁盘错误、系统事件、系统中各进程对系统资源占用等性能和操作数据等服务器性能进行实时监控和管理。 (11)可实施性:选用成熟的技术,成熟的案例经验和设计方案,制定详细的技术实施方案。 (12)经济性原则:在满足所有需求的前提下,选择最合适的设备及管理软件,使系统具有较好的性价比。 (13)充分保护用户现有投资:采用先进技术,将现有存储系统无缝的整合在新系统中,实现对用户现有设备的有效利用,达到保护用户现有投资的目标。 4.3 **数据中心总体方案详细介绍 4.3.1 万兆IP SAN总体架构介绍 ****数据中心的存储系统主要将应用于数据库管理和超大图纸文件编辑的PDM业务,是典型的对系统持续读写性能要求较高,并主要采用大文件数据块存储方式。所以,方案选择以万兆为核心的IP SAN网络存储作为这些业务系统的基础存储平台。其系统架构如下图所示: 方案说明: 第一,方案首先选用XX公司高端企业级存储产品XX型号 作为存储系统系统的核心,实现关键数据的集中存储,满足这些应用对数据I/O高速、稳定响应的需要; 第二,方案为XX公司的XX型号磁盘阵列配置了XXTB的实际可用容量,通过强大的软件功能,实现存储到主机系统的灵活在线配置,支持在线的数据迁移,简化存储系统的管理; 第三,方案充分考虑到存储系统对XX学校现有业务和大型运输PDM系统未来的扩展性需求,采用存储精简配置功能,先虚拟化为主机提供30TB的存储空间,在未来需求出现是在进行磁盘的扩容,并进行在线的容量扩展,最合理的进行投入,并有效保护用户对现有设备的投资; 第四,方案充分考虑的****作为中国**行业的重点企业,对数据安全性的特殊性要求,采用了存储在线、存储近线、磁带库离线和CDP数据连续保护相结合的三级数据保护方案,全面应对可能发生的软硬件灾难,为数据的安全性和业务连续性提供最大的保障; 第五,方案为****数据中心未来的异地容灾建设奠定了坚实的基础,此次方案XX公司采用全网基于万兆以太的技术核心,未来的容灾系统可以基于**数据中心的万兆以太网络进行建设,实现无缝连接。 总之,方案设计为**数据中心构建了一个统一的、整体部署的存储系统架构。完全满足业务连续性、高可用性&高可靠性、容灾保护、存储管理性能监测与调整等功能与需求,提供用户100%的数据可用性,完全可以支持业务高性能、7×24×365的运行;完全符合满足招标文件的要求和用户业务的实际需要。 方案设计的细节描述,请参考以下章节的详细描述。 4.3.2 **数据中心万兆IP SAN网络存储架构设计 万兆IP SAN网络存储环境应分为三个层次,主机层、网络层和存储层。 ● 主机层 **数据中心核心业务的应用,服务器主要进行超大图形文件编辑处理和数据库运行,属于典型的大文件读写和OLTP应用,所以应用对访问带宽性能的要求非常高。为了满足这一要求,方案建议在关键业务的IBM主机一端安装万兆的TOE网卡,提供双冗余万兆数据接入通道,从而为每一个关键业务应用提供冗余的数据存储通道。 对于其他业务主机,可采用千兆网卡接入。所有需要连接存储的服务器,只要安装千兆网卡,并安装软件的iSCSI Initiator,就可以通过以太网获得存储设备,从而不需要购置价格昂贵的HBA卡。主流的操作系统AIX\Solaris\Linux\Windows都支持这种千兆网卡加软件的iSCSI Initiator的实现方式。对于那些对于CPU负荷比较重的服务器,可以安装通过iSCSI的HBA卡的方式连接到系统,将部分存储运算交给HBA卡完成,从而减轻主机CPU的负荷。 该存储还可为应用主机提供多链路负载均衡和故障切换功能。方案为接入IP SAN的主机提供了基于主机的MPIO功能,业务主机可以利用多通道之间的流量负载均衡能力来提高数据访问的效率,并同时具备了数据通道之间的失败切换功能,保证了关键业务应用的可靠性。为了实现多链路冗余,服务器需要配置2块专用的存储访问网卡。 ● 网络层 SAN网络中网络层是非常关键的一个部分,它负责将主机和存储系统连接在一起,并且提供一个高灵活性、高扩展性的环境,以适应业务系统不断发展带来的主机和存储系统的扩展。在SAN网络设计中,方案采用冗余的网络设计思路——由2台XX公司最高端的企业级交换机为核心构成全冗余的万兆IP SAN存储网络,为主机和存储系统提供高速、强壮的连接路径。 ● 存储层 存储层或者说整个IP SAN网络存储系统的核心设备是磁盘阵列,我们采用的是XX公司性能最高、功能最强、扩展性最大的万兆磁盘阵列系统――XX型号,构成**数据中心业务存储系统的核心。 XX系列产品采用创新的万兆体系架构,突破传统的设计限制,大幅提升产品性能。体系架构如下: 图 IX3000体系架构 采用双控制器架构,控制器、磁盘柜、缓存、硬盘等关键组件都采用冗余设计,保障系统的5个9的高可靠性。体系架构有如下技术特点: 对该系列的存储介绍 4.3.3 存储空间配置设计 **数据中心的应用现在是多样化的,既有如PDM系统等对数据库应用要求非常高的系统,也有此次技改建设将建立的超大图形文件并行读写要求极高的大型运输机的管理系统,同时还有大量的类似于OA、邮件等非结构化数据应用的次要系统,因此在提供足够存储空间的同时,合理的采用存储空间和RAID方式,最合理、最优化的实现存储系统的性能是至关重要的。 1. 主存储空间配置设计 做介绍 2. 备存储空间配置设计 做介绍 4.3.4 RAID类型配置建议 目前业界主流的RAID类型主要是RAID5和RAID10,选择哪一种RAID类型,需要根据企业实际情况和业务系统正常运行所需等各个角度综合考虑。RAID类型的选择,取决于两个基本因素,即成本和性能。 从成本角度考虑,应该尽可能选择RAID5。因为在不考虑HotSpare磁盘的情况下,使用RAID5具有N-1块磁盘的可用存储空间;而使用RAID10则只有N/2块磁盘的可用存储空间。很明显,RAID5具有更高的磁盘空间利用率,其中N为用于创建RAID的实际磁盘数量。 从性能角度考虑,需要对读和写的性能分别进行分析。对于读操作的性能,主要取决于Cache的命中率,在Cache命中率都一样的情况下,RAID5和RAID10的性能不会有太大区别。而对于写操作的性能,由于RAID5和RAID10在写操作上的机制有很大的差别,对于同样的一个写操作,一般情况下在RAID10上只需要2个I/O即可完成,而在RAID5上则需要4个I/O才能完成。而且RAID5上写入数据的过程中还需要对数据盘进行校验,会进一步降低写入的性能。 因此,我们建议对于I/O并发要求非常高、且随机事务量较大的数据库系统采用RAID10的策略,而对于I/O并发访问要求较低,且大部分是顺序读写的系统可以考虑采用RAID5。 1. RAID数量配置建议 对于Oracle数据库,我们建议至少分为3个独立的RAID,分别用于存放数据文件和OCR /Voting disk、日志文件、归档和Falsh Recovery Area,减少I/O争用,提高性能。 对于DB2数据库,我们建议将数据文件、索引和日志文件分开存放在3个独立的RAID,同样也是为了减少I/O争用,提高性能。 对于其他应用系统,如果软件开发商没有具体的需求,我们初步建议采用一个独立的RAID即可。 综上所述,对于**数据中心新建的协同平台系统,共需要配置9个RAID。 2. 磁盘数量配置建议 从性能角度考虑,我们建议以上系统全部配置RAID10的方式,在不考虑热备盘的情况下,共需要20×1024/450=45.5,即需要46块磁盘的裸容量。如果全部采用RAID10的方式,需要有一倍的磁盘用于镜像冗余,即至少需要配置46×2=92块磁盘。另外,我们建议每个RAID至少预留1块热备盘,那么还需要9块热备盘。因此我们建议配置450GB的SAS磁盘的数量共计:92+9=101块。每个磁盘柜共可配置XX块磁盘,因此共需要7个DEU。 如果要兼顾性能和成本,那么我们建议对于WindChill的Ooracle数据仓库系统、Delmia(三维工艺)的DB2数据库采用RAID10的方式,而其他如WindChill系统的电子仓库、Delmia应用系统和LCA应用系统采用RAID5的方式。但是,由于目前还没有确认各个系统各自分别需要多大的存储空间,因此如果采用RAID10和RAID5并存的方案,还无法最终确认所需的磁盘数量。 4.3.5 数据库优化部署建议 针对应用系统和数据库的优化主要涉及四个层面:存储设备上的部署、主机和操作系统的配置、应用程序的设计以及数据库的设计。各个层面都有各自相应的优化建议,并且在项目的不同阶段应该采取合适的优化手段,我们建议在项目的各个阶段应该分别执行如下优化收到: ? 项目设计即项目实施前阶段:应该考虑存储的整体规划、数据库的结构设计、应用程序结构设计和主机硬件配置(如CPU、内存等)等方面; ? 项目实施阶段:应该重点关注主机操作系统参数的调整、数据库通用参数(如SGA等)的调整等 ? 系统试运行阶段:通过收集、分析主机和数据库性能参数的指标,采取相应的优化措施,逐步将系统调整到最佳状态; ? 系统正式上线运行后:根据业务实际运行情况,进行一些细微的调整,例如创建索引,优化SQL语句等 我们主要针对数据库在存储设备上的优化部署提供建议,并在主机和数据库层面提供优化的一般性原则,具体优化细节需要综合考虑业务系统和应用程序的实际特征,由软件开发商提供具体的优化建议。对于数据库在存储上的优化部署,必须把握一个原则,那就是如何提供高I/O的性能,降低I/O的响应时间。下面以Oracle数据库为例简要说明我们提供的优化建议,其他类型的数据库(如DB2)可能会有细微的差别,但是总体上的原则是一致的。 1. 存储优化部署建议: I/O的性能是响应系统时间的最大组成部分,尤其是磁盘的I/O,由于磁盘操作要比数据缓冲慢10000 倍左右。因此如果可以令I/O最小化,或者减少由于磁盘上的文件竞争而带来的瓶颈,就可以大大地改善数据库的性能。 1) 跨磁盘分布数据,避免I/O争用。对性能要求不同的数据库、数据文件分开存放;频繁访问和连接的表可选择单独存放;必要情况下可以将数据库的表和索引分开存放。 2) 从数据I/O中隔离服务器范围的 I/O。将有大量 I/O 要求的系统数据库放置到单独的物理磁盘和控制器上,而不与应用程序数据库放在一起。 3) 将频繁更新的数据库的数据文件和日志文件分开存储。当数据库频繁改动时日志文件上会产生大量的IO,通过将数据文件和日志文件分开存储,可以减少I/O争用提高性能,同时能够提高数据的安全性,而且当数据库出现故障需要通过日志进行恢复时,可以提高恢复的速度。另外,对于Oracle数据库来说,当日志文件单独存储时往往是顺序写入,而如果将数据文件和日志文件存储在相同的区域时,将变成随机写入。 4) 将随机磁盘I/O和顺序磁盘I/O分开。 2. 主机系统的优化建议 1) 主机的CPU 资源的不足会令数据库的查询等操作变得很慢。因此,对于并发I/O访问要求高的数据库和应用系统,其主机上必须配置足够的CPU。 2) 可用于 Oralce 的内存数量也会影响 SQL 的性能,特别是在数据缓冲和内存排序方面。 3) 应该尽量避免频繁分页,当内存出现频繁分页现象时,说明内存容量已经不足。由于内存页是与磁盘上的交换区进行交互的,频繁的内存分页将会引起磁盘I/O的提高。 4) 主机操作系统上应该调整的其他参数包括:物理磁盘队列深度调整、启用异步IO、启用RFC1323、设置合理的TCP参数(如发送/接收缓冲区)、每个用户的进程数等。 3. 数据库自身的优化建议 1) 对于典型的OLAP环境,单位时间内处理的事务量相对来说较少,每个事务执行的时间相对较长,读写的数据量比较多。在这种环境下应该尽量使用数据库的分区技术、并行技术,并结合Oracle的RAC技术以提高处理效率。而OLTP环境则相反,由于单位时间内处理的事务量非常大,数据库需要频繁的调用、解析SQL语句,因此在这种环境下,语句应该尽量简单一些,而且尤其需要关注SQL语句的优化,减少逻辑读。 2) SGA区的调整:从Oracle10g开始,建议采用自动共享内存管理(ASMM)来简化内存管理的任务。采用ASMM后,我们不再需要手工设置shared pool、database buffer cache等若干内存池的大小,而是为SGA设置一个总的大小尺寸即可。Oracle 10g数据库会根据系统负载的变化,自动调整各个组件的大小,从而使得内存始终能够流向最需要它的地方。 3) 合理设置Oracle排序区sort_area_size的大小:当排序的空间需求超出sort_area_size的大小时,就会在临时表空间中进行排序即磁盘排序,由于磁盘的排序的速度比内存排序要慢很多,因此我们应该尽量让大部分的排序操作在内存区域内完成。但是如果无限制的增加排序区的大小,肯定会导致内存的浪费,从而影响数据库整体的性能。可行的方案是在系统正常运行过程中,定时监控内存排序和磁盘排序的数据,并根据这些数据设置一个合理的、均衡的值。另外,通过优化SQL语句,减少一些不必要的排序也是可行和有效的方法。 4) 消除不必要的大表和全表搜索:不必要的大表和全表搜索导致大量不必要的 I/O ,从而影响整个数据库的性能。我们建议如果对一个表的查询返回的行较少(例如低于20%),则可以通过增加索引的方法来避免全表扫描,索引的类型主要包括标准的B树索引、位图索引和基于函数的索引。 4.3.6 数据在线保护方案 1. 方案描述 ****是我国**行业的龙头企业,因此需要对数据提供100%的安全保证,通过对全球数据中心进行的关于各种灾难对数据造成损害的统计数据来看,有93%以上的灾难实际是发生在数据中心内部的硬件故障、病毒损害、人为误操作、软件BUG等故障,因此此次方案设计建议采用数据连续保护方案进行全面的数据保护。 图片 首先,为了避免硬件故障给**数据中心造成损失,方案建议如上图:按图描述优点 其次,对于类似于病毒、人为误操作和软件BUG等故障,方案建议:写自己的建议 1、 2、 3、。 4、 说明: 1、在恢复数据过程中所使用的独立的服务器上,需要安装和应用服务器相同版本的操作系统、数据库或应用程序。通过这种方式可以实现在恢复数据时,不用停止在线业务系统的正常运行,极大的提高了业务系统的连续性。 2、在没有配置独立的服务器的情况下,也可以将资源或者回滚后的副本磁盘直接分配给原应用服务器,但前提是需要在原应用服务器上先暂停业务系统和数据库的运行,目的是为了防止信息冲突。 3、用于查看或者副本磁盘数据的独立服务器,可以选择新增一台;或者可以选择与应用服务器具有相同操作系统版本的备份服务器,可节省投资。 2. 复制和策略设置 描写 4.3.7 数据备份方案规划 (1)备份系统硬件的配置 备份系统首先是磁带库、磁带机等硬件设备的选型。而设备的选择取决于备份数据量的大小及备份策略的设置,由以下 公式 小学单位换算公式大全免费下载公式下载行测公式大全下载excel公式下载逻辑回归公式下载 可以计算出所需磁带库容量及备份速度。 磁带库容量 = (全备份数据量*全备份保留次数+ 差量备份数据量*差量备份保留次数+增量备份数据量*增量备份保留次数)*(1+冗余比例) 备份速度 = 最大全备份数据量/备份窗口时间 依据通常的备份策略经验,磁带库的容量应为数据总量的4~5倍左右。根据需求分析和发展预计,**数据中心在未来几年中的在线业务数据的总量约为35TB。方案建议数据备份总容量应为140~175TB左右。若选择中间值160TB,采用当前通用的LTO 4代磁带机,则需要为磁带库配置至少200个以上的有效磁带槽位。 (2)建立备份磁盘空间形成D2D2T模式 由于磁带备份的速度和磁带库本身机械故障的考虑,方案建议利用**数据中心已有的存储和方案配置的IX3080存储的部分空间构成备份的磁盘空间缓冲区,具体方案请见后面对已有存储利用的章节,首先将数据通过已有的IBM TSM软件备份到磁盘空间上,再将数据迁移到到磁带库上,形成D2D2T的数据备份方式,这样可以大幅提高备份效率,并保证了磁带系统的故障对备份系统造成的影响,并降低维护难度。 (3)采用Lan_Free + NDMP的高效备份方式 ● 数据备份系统硬件的连接 方案推荐将配置的磁带库和备份服务器都接入存储网络中,以期利用高速的专用链路进行最有效的数据备份。 ● LAN_Free的备份策略: 对于关键业务应用服务器,如PDM等系统,由于可以通过专用备份网络,现将数据备份到磁盘缓冲空间上,再通过备份如软件的迁移功能将数据通过磁带库和LTO 4磁带机备份到磁带上。因而,方案推荐采用LAN_Free的备份方式来完成数据备份的操作,备份数据全部通过专用备份网络直接传送到磁盘备份缓冲空间,TCP/IP业务网络中只传输极少量的控制信息,因而,与传统的基于LAN的备份方式相比,能够极大地提升系统数据备份的速度,节省了宝贵的业务网络地带宽,提高了备份操作的灵活性。 在存储环境中的业务应用服务器,方案推荐配置备份软件磁带机共享模块,使服务器能够共享磁带库中的磁带机,实现LAN_Free的数据备份。对于有数据库应用的服务器,还需要配置相应的数据库备份模块来完成数据库的在线备份(例如:DB2备份插件,Oracle备份插件)。 ● NAS存储系统实现NDMP的备份策略: ◆ 备份服务器向磁带库发送指令,将磁带装进磁带机; ◆ 通知NAS系统通过NDMP协议将数据发送到备份服务器中,由备份服务器传送到连接在SAN网中的磁带库上。 (4)选用与业务应用特性相适应的备份策略 一个好的备份系统,除了配备好的软硬件之外,更需要有良好的备份策略和管理规划来进行保证,备份策略的选择要统筹考虑备份的数据总量、带宽、数据吞吐量、备份时间窗口和对恢复的时间要求等因素。根据**数据中心业务系统的实际情况,方案推荐对应数据库(例如:Oracle)与操作系统、应用程序等不同的业务数据类型,分别制定相应的备份策略以满足不同业务应用的数据保护要求。 ● 数据库备份策略建议 l 从应用角度划分,以Oracle为代表的数据库系统的备份,可以分为脱机与在线备份两种方式 脱机备份是指在数据库系统加载而未打开方式的情况下进行的备份,有时也称冷备份。冷备份进行时,实际是将数据库关闭并将其相关文件作为文件系统的一部分进行备份,但与普通的文件系统备份不同,它需要数据库备份代理和/或数据库系统的支持。而在线备份是数据库打开方式下进行的备份,有时也称热备份,此时数据库的应用除性能上受到备份任务的影响外,数据库应用仍然是可用的,而脱机备份时数据库是不可用的。 方案建议对OA/Mial系统、PDM系统和配件系统的数据库服务器中的关键业务数据进行在线的备份,并且在数据库运行较长时间后或系统进行了较大的结构性修改后进行一次脱机备份。 l 从数据库的备份内容方式划分,数据库备份又分为物理与逻辑备份两种方式 物理备份主要是通过数据库自身备份工具如Oracle的RMAN与Veritas数据库备份代理将数据库的相关文件,如Oracle系统的控制文件、数据文件、日志文件进行备份。通常可以对单个的数据文件或整个数据库进行备份。目前大型数据库备份通常选择物理备份。逻辑备份有时也称导出,它创建数据库对象的逻辑拷贝并存入一个二进制文件,逻辑备份的工具如Oracle Export,它实际上利用SQL从对象中读取数据并将其存入二进制文件,导入工具如Oracle Import利用该文件恢复这些特定数据库对象到数据库中。 这两种备份方式各有特点,逻辑备份不提供时间点(Point-in-Time)恢复,而且不能和归档日志重做日志文件联用进行数据库的恢复;物理备份时如果由于某种原因,磁盘上的数据块被破坏,物理备份将产生该块的拷贝,错误将影响备份。而使用逻辑备份时,由于在导出表时进行全面表扫描,所以这种破坏不会影响备份。因此这种情况下,在导出时这种损坏将被检测到,并且导出失败。另外,逻辑备份还可以辅助数据库进行内部数据表的恢复。 根据不同的备份方式的特点,方案建议在**数据中心关键的数据库系统采用物理备份为主,同时使用逻辑备份作为辅助备份方式。这两种备份策略的具体实现如下所述: ? 物理备份 Oracle数据库物理备份使用在线备份方式进行。每周进行一次完全备份,每天进行一次差分增量备份,每周三进行一次累积增量备份。 如果需要,可以将完全备份分几次进行。比如,**数据中心数据库有SYSTEM、USERS、TEMP、ROLLBACK表间,**数据中心数据存放在USERS表空间中,由USERS1.DBF(大小为5GB)、USERS2.DBF(大小为3GB)和USERS3.DBF(大小为3GB)组成。则将 SYSTEM、TEMP、ROLLBACK划分成一组进行完全备份、USERS1.DBF划分成一组进行完全备份,USERS2.DBF和USERS3.DBF划分成一组进行完全备份。这样做就可以避免一次完全备份的数据量过大耗时过程。 完全备份与差分备份的时间可以设定在数据库业务量较少的时间内进行,如每天的2:00AM~6:00AM。 为了保证备份数据的安全性,方案建议对备份数据进行冗余保护。比如可以定制作如下的备份策略:完全备份保存周期为一个月,将每月未的完全备份进行保存,周期为一年(可以更长);每天的增量备份,保存周期为一个月。数据恢复时首先恢复最近一次的全备份,然后再恢复所有的增量备份,数据恢复的过程是自动执行的。 ? 逻辑备份 数据库逻辑备份使用export等导出工具进行,方案建议**数据中心以**数据中心或者表的方式导出数据库。每周作一次完全备份,可以安排在周日的0:00~2:00AM进行,其余每天在类似时间内作一次差分增量备份。导出产生的数据文件可以保存在一个合适的位置。在备份管理系统中选定这些文件件作为一个备份作业,使用磁带保存相应的备份。而备份保存的周期与物理备份相同。如下面表格所示: 星期/磁带(盘) 日 完全(合并) 一 增量 二 增量 三 增量 四 增量 五 增量 六 增量 第一周 1-5 6 7 8 9 10 11 第二周 12-16 6 7 8 9 10 11 第三周 17-21 6 7 8 9 10 11 第四周 22-26 6 7 8 9 10 11                 在上表中,数字代表磁带的编号,每周日使用五盘磁带进行数据的物理备份(全备份),周一到周六各使用一盒磁带进行数据的逻辑备份(增量备份)(也可以改成差量备份),即6盒磁带,这样共需要26盘磁带。 当然,以上的备份策略只是一个参考,具体的备份与磁带轮换策略需要根据**数据中心**数据中心的实际业务情况进行调整。 ● 操作系统、应用和中间件数据备份策略建议 对于操作系统、应用和中间件等文件型数据的备份,可以将要备份的数据划分成两部分:一部分是纯操作系统、中间件数据;另一部分是系统中的应用数据。通常来讲,操作系统数据只有安装系统软件包或改变一些系统配置时才会改变,对于它的备份可以比较灵活,只需要在系统变更后进行一次操作系统全备份即可,也可以定义在备份策略中每周做一次全备份。 对于应用数据,它与应用密切相关,相对而言,它的数据变化也会较为频繁。在这里,建议每周做一次全备份,每天做差分增量备份,每周三做累计增量备份。具体的备份策略安排如下: ? 自动的文件数据备份策略 当备份服务器和预定程序设置完成后,客户机可以选择以下三种方式中的任何一种进行备份: ? 在预定的时间启动预定备份(Schedule模式); ? 在任何时间,通过GUI管理程序或行命令人工进行立即备份; ? 客户机上的**数据中心通过代理程序启动面向**数据中心的备份。 ● 数据的恢复方式 l 数据库恢复 在数据恢复的过程中,方案推荐通过授权,进一步让系统管理员选择数据恢复的目标客户机。这样,在某个客户机由于特殊原因不能及时修复的情况下,我们可以临时在其它系统上恢复所需要的数据,保证数据的可操作性。 以Oracle数据库为例,利用恢复管理器RMAN可以恢复整个数据库、某些表空间或数据文件。以下以完全和不完全恢复的数据库为例对恢复过程作了简单一描述。关于Oracle数据库恢复的其他详细内容请参考《Oracle 备份与恢复 手册 华为质量管理手册 下载焊接手册下载团建手册下载团建手册下载ld手册下载 》。方案强烈建议,在出现故障后,一定要充分讨论恢复的步骤的正确性,确保恢复过程是安全可靠的。否则,就可能造成不可恢复的结果。 ? 整个数据库完全恢复实现步骤 ? 用RESTRICT方式启动实例并安装数据库 这一步是可选的,应限于在丢失或损坏的数据库文件的原有位置失效(即磁盘损坏)时采用。对于控制文件中保存的路径必须重新命名,指定到新的位置。 ? 用RMAN恢复所有的数据文件。 ? 确保所要恢复的数据文件联机。 ? 使用recover恢复整个数据库。 ? 打开数据库 ? 整个数据库的不完全恢复的实现步骤 假定运行Oracle应用程序的DBA不慎两次运行了同一个批作业,从而导致数据库的破坏。这就要求从备份中恢复,并且前滚到每二次作业之前的一个时间点。 ? 关闭应用程序,然后关闭数据库。 ? 以RESTRICT方式启动,并且安装数据库。 ? 如果需要将数据文件改动到指定位置。 ? 从备份中恢复所有数据文件。 ? 确保所有数据文件联机。 ? 用UNTIL CACEL或UNTIL TIME恢复数据库到指定时间。 ? 逻辑故障恢复 ? 从备份磁带恢所有的导出文件到指定的磁盘位置。 ? 用import程序由完全导出文件中导入需要恢复的表。 ? 用import程序由增量导出文件中导入上表,重复执行该步骤直到恢复到**数据中心所期望的备份为止。 ? 删除磁盘上的导出文件。 l 系统灾难恢复方案 对于业务系统中服务器的操作系统环境、中间件、应用程序和静态的数据的恢复,则有两种方式。 ? 系统恢复的通常步骤 对于软件或硬件造成的服务器操作系统不能启动的情况,通常的恢复方式是: ① 首先重新安装操作系统,并打好各种系统补丁,做好分区; ② 安装NetBackup 备份软件客户组件; ③ 由磁带备份恢复中间件、应用软件和静态数据; ④ 根据实际情况,对数据库进行恢复。 总之,上述的全局备份和恢复的策略由系统管理员通过备份服务器上的备份管理软件的图形管理界面进行集中的定制。所有的备份操作都自动地由备份管理软件控制执行,减轻了系统管理员的工作负担,消除了因人为操作错误造成数据丢失的隐患。 4.3.8 方案的可扩展性 此次提供的方案具备高度的可扩展性,主要体现在如下两个方面: ? 存储资源的整合 考虑到****现有的多元化的应用系统环境和存储系统,为了使新建的存储系统具备良好的异构系统存储平台的连接能力,又可以实现存储资源的统一调动和灵活的分配,支持在线的数据迁移,简化存储系统的管理,有效保护用户对现有设备的投资。方案为建议配置XX公司的高端存储虚拟化产品XX产品名称将原有的存储进行虚拟化,通过产品强大的虚拟化功能,能够接入和管理现有的存储设备,同时需要强调的是XX产品名称具有极强的存储虚拟化功能,可以利用SED功能保证数据结构不发生任何改变,实现系统无缝接入,对主机实现透明化接入,鉴于原有的数据卷镜像结构,可以基于镜像功能继续实现。 方案通过XX产品名称强大的虚拟化技术,将原有的IBM和新增的存储系统集合到同一个存储池中。这样可以使用统一的管理平台实现对内部和外部存储资源的统一管理,统一分配,可以按照应用系统的性能要求分配相应的存储资源。从主机的角度看,和原有存储资源功能完全相同,而且整个虚拟化的过程无需数据迁移。 ? 其他存储利用办法 保护XX项目原有存储的投资也是此次方案设计的重要环节,目前该项目原有的XX产品,首先建议原有XX的存储的数据迁移到核心存储上,曙光的存储可以提供给数据中心的测试使用,或者将空间提供给备份服务器,作为数据备份的空间使用,XX型号的存储建议人提供给工装系统使用,具体办法可以先将空间以IP SAN的方式提供给数据中心的PC服务器,然后由服务器建立FTP服务器将空间提供给工装系统使用。 ? 升级为异地灾备 提供的远程复制功能支持在远程办公地点与数据中心之间通过IP网络对关键业务数据进行策略性增量复制,轻松的实现数据的异地备份,并在发生意外灾难时对数据进行快速恢复,确保用户业务的持续性。 4.4 万兆IP SAN存储方案特点总结 4.4.1 最高的存储性能 此次的万兆IP SAN方案为**数据中心提供了目前业界最高的存储性能,从上图我们可以看到,10Gb的万兆iSCSI的存储带宽比4Gb的FC高出了近3倍,非常适合****PDM系统的应用,完全可以满足****任何业务系统的存储需求。 4.4.2 最可靠的全冗余保障 如上图所示,对数据中心来讲,系统运营的可靠性非常重要,方案不仅从存储的SAN网络方面进行了考虑,并且基于对IP网络的深层次理解,从数据中心的接入、连接和存储三个架构方面都采用多冗余、5个9的硬件架构设计,为数据中心设计了端到端的设备全面硬件安全性保证。 4.4.3 最先进的组网扩展 **数据中心的建设目标需要保证5年的发展,因此方案必须从技术、性能方面具备全面的扩展性,而此次计的数据中心万兆IP SAN存储系统核心基于10Gb 和100Gb,完全采用了业界目前最为先进的网络技术,代表着未来5年的网络发展方向,如上图我们可以看到方案基于万兆以太网这一业界最为标准的平台,支持数据中心的弹性扩展、广域互联和分层级联,充分避免了传统数据中心的局域网孤岛的限制,全面保证了西飞数据中未来的扩展性需求。 4.4.4 最完善的数据安全策略 此次的方案充分的考虑了****作为我国最为重点的**企业,在数据中心的存储方案设计全面考虑了数据中心的安全性,如上图,从端点接入、网络安全、应用安全、存储数据安全一直到数据备份和容灾均设计了详细的针对性方案,为数据中心的数据安全和业务连续性提供100%的保证。 4.4.5 最为合理的投资 从上图我们可以看到规划的万兆IP SAN方式提供最为合理的投资成本,在保证业界最高性能的同时可以将业务网络和存储网络整合,****的数据中心建设将节省非常昂贵的网络改造成本,在保证业界最高存储性能的同时提供了最合理的数据中心存储投资方案。 5 方案相关产品和关键技术介绍 略 6 售后服务体系介绍 略
本文档为【XX存储方案建议书】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
is_005190
暂无简介~
格式:doc
大小:709KB
软件:Word
页数:40
分类:互联网
上传时间:2018-11-21
浏览量:9