当前位置:文档之家› 数据中心虚拟化为何离不开大二层网络技术

数据中心虚拟化为何离不开大二层网络技术

数据中心虚拟化为何离不开大二层网络技术
数据中心虚拟化为何离不开大二层网络技术

数据中心虚拟化为何离不开大二层网络技术?

一.为什么需要大二层?

1. 虚拟化对数据中心提出的挑战

传统的三层数据中心架构结构的设计是为了应付服务客户端-服务器应用程序的纵贯式大流量,同时使网络管理员能够对流量流进行管理。工程师在这些架构中采用生成树协议(STP)来优化客户端到服务器的路径和支持连接冗余。

虚拟化从根本上改变了数据中心网络架构的需求。最重要的一点就是,虚拟化引入了虚拟机动态迁移技术。从而要求网络支持大范围的二层域。从根本上改变了传统三层网络统治数据中心网络的局面。

2. 虚拟机迁移与数据中心二层网络的变化

在传统的数据中心服务器区网络设计中,通常将二层网络的范围限制在网络接入层以下,避免出现大范围的二层广播域。

如图1所示,由于传统的数据中心服务器利用率太低,平均只有10%~15%,浪费了大量的电力能源和机房资源。虚拟化技术能够有效地提高服务器的利用率,降低能源消耗,降低客户的运维成本,所以虚拟化技术得到了极大的发展。但是,虚拟化给数据中心带来的不仅是服务器利用率的提高,还有网络架构的变化。具体的来说,虚拟化技术的一项伴生技术—虚拟机动态迁移(如VMware的VMotion)在数据中心得到了广泛的应用。简单来说,虚拟机迁移技术可以使数据中心的计算资源得到灵活的调配,进一步提高虚拟机资源的利用率。但是虚拟机迁移要求虚拟机迁移前后的IP和MAC地址不变,这就需要虚拟机迁移前后的网络处于同一个二层域内部。由于客户要求虚拟机迁移的范围越来越大,甚至是跨越不同地域、不同机房之间的迁移,所以使得数据中心二层网络的范围越来越大,甚至出现了专业的大二层网络这一新领域专题。

3. 传统网络的二层为什么大不起来?

在数据中心网络中,“区域”对应VLAN的划分。相同VLAN内的终端属于同一广播域,具有一致的VLAN-ID,二层连通;不同VLAN内的终端需要通过网关互相访问,二层隔离,三层连通。传统的数据中心设计,区域和VLAN的划分粒度是比较细的,这主要取决于“需求”和“网络规模”。

传统的数据中心主要是依据功能进行区域划分,例如WEB、APP、DB,办公区、业务区、内联区、外联区等等。不同区域之间通过网关和安全设备互访,保证不同区域的可靠性、安全性。同时,不同区域由于具有不同的功能,因此需要相互访问数据时,只要终端之间能够通信即可,并不一定要求通信双方处于同一VLAN或二层网络。

传统的数据中心网络技术, STP是二层网络中非常重要的一种协议。用户构建网络时,为了保证可靠性,通常会采用冗余设备和冗余链路,这样就不可避免的形成环路。而二层网

络处于同一个广播域下,广播报文在环路中会反复持续传送,形成广播风暴,瞬间即可导致端口阻塞和设备瘫痪。因此,为了防止广播风暴,就必须防止形成环路。这样,既要防止形成环路,又要保证可靠性,就只能将冗余设备和冗余链路变成备份设备和备份链路。即冗余的设备端口和链路在正常情况下被阻塞掉,不参与数据报文的转发。只有当前转发的设备、端口、链路出现故障,导致网络不通的时候,冗余的设备端口和链路才会被打开,使得网络能够恢复正常。实现这些自动控制功能的就是STP(Spanning Tree Protocol,生成树协议)。

由于STP的收敛性能等原因,一般情况下STP的网络规模不会超过100台交换机。同时由于STP需要阻塞掉冗余设备和链路,也降低了网络资源的带宽利用率。因此在实际网络规划时,从转发性能、利用率、可靠性等方面考虑,会尽可能控制STP网络范围。

4. 大二层也是为了流通的要求

随着数据大集中的发展和虚拟化技术的应用,数据中心的规模与日俱增,不仅对二层网络的区域范围要求也越来越大,在需求和管理水平上也提出了新的挑战。

数据中心区域规模和业务处理需求的增加,对于集群处理的应用越来越多,集群内的服务器需要在一个二层VLAN下。同时,虚拟化技术的应用,在带来业务部署的便利性和灵活性基础上,虚拟机的迁移问题也成为必须要考虑的问题。为了保证虚拟机承载业务的连续性,虚拟机迁移前后的IP地址不变,因此虚拟机的迁移范围需要在同一个二层VLAN下。反过来即,二层网络规模有多大,虚拟机才能迁移有多远。

传统的基于STP备份设备和链路方案已经不能满足数据中心规模、带宽的需求,并且STP协议几秒至几分钟的故障收敛时间,也不能满足数据中心的可靠性要求。因此,需要能够有新的技术,在满足二层网络规模的同时,也能够充分利用冗余设备和链路,提升链路利用率,而且数据中心的故障收敛时间能够降低到亚秒甚至毫秒级。

二、大二层需要有多大

既然二层网络规模需要扩大,那么大到什么程度合适?这取决于应用场景和技术选择。

1. 数据中心内

大二层首先需要解决的是数据中心内部的网络扩展问题,通过大规模二层网络和VLAN 延伸,实现虚拟机在数据中心内部的大范围迁移。由于数据中心内的大二层网络都要覆盖多个接入交换机和核心交换机,主要有以下两类技术。

虚拟交换机技术

虚拟交换机技术的出发点很简单,属于工程派。既然二层网络的核心是环路问题,而环路问题是随着冗余设备和链路产生的,那么如果将相互冗余的两台或多台设备、两条或多条链路合并成一台设备和一条链路,就可以回到之前的单设备、单链路情况,环路自然也就不存在了。尤其是交换机技术的发展,虚拟交换机从低端盒式设备到高端框式设备都已经广泛应用,具备了相当的成熟度和稳定度。因此,虚拟交换机技术成为目前应用最广的大二层解

决方案。

虚拟交换机技术的代表是H3C公司的IRF、Cisco公司的VSS,其特点是只需要交换机软件升级即可支持,应用成本低,部署简单。目前这些技术都是各厂商独立实现和完成的,只能同一厂商的相同系列产品之间才能实施虚拟化。同时,由于高端框式交换机的性能、密度越来越高,对虚拟交换机的技术要求也越来越高,目前框式交换机的虚拟化密度最高为4:1。虚拟交换机的密度限制了二层网络的规模大约在1万~2万台服务器左右。

隧道技术

隧道技术属于技术派,出发点是借船出海。二层网络不能有环路,冗余链路必须要阻塞掉,但三层网络显然不存在这个问题,而且还可以做ECMP(等价链路),能否借用过来呢?通过在二层报文前插入额外的帧头,并且采用路由计算的方式控制整网数据的转发,不仅可以在冗余链路下防止广播风暴,而且可以做ECMP。这样可以将二层网络的规模扩展到整张网络,而不会受核心交换机数量的限制。

隧道技术的代表是TRILL、SPB,都是通过借用IS-IS路由协议的计算和转发模式,实现二层网络的大规模扩展。这些技术的特点是可以构建比虚拟交换机技术更大的超大规模二层网络(应用于大规模集群计算),但尚未完全成熟,目前正在标准化过程中。同时传统交换机不仅需要软件升级,还需要硬件支持。

2. 跨数据中心

随着数据中心多中心的部署,虚拟机的跨数据中心迁移、灾备,跨数据中心业务负载分担等需求,使得二层网络的扩展不仅是在数据中心的边界为止,还需要考虑跨越数据中心机房的区域,延伸到同城备份中心、远程灾备中心。

一般情况下,多数据中心之间的连接是通过路由连通的,天然是一个三层网络。而要实现通过三层网络连接的两个二层网络互通,就必须实现“L2 over L3”。

L2oL3技术也有许多种,例如传统的VPLS(MPLS L2VPN)技术,以及新兴的Cisco OTV、H3C EVI技术,都是借助隧道的方式,将二层数据报文封装在三层报文中,跨越中间的三层网络,实现两地二层数据的互通。这种隧道就像一个虚拟的桥,将多个数据中心的二层网络贯穿在一起。

另外,也有部分虚拟化和软件厂商提出了软件的L2 over L3技术解决方案。例如VMware 的VXLAN、微软的NVGRE,在虚拟化层的vSwitch中将二层数据封装在UDP、GRE报文中,在物理网络拓扑上构建一层虚拟化网络层,从而摆脱对网络设备层的二层、三层限制。这些技术由于性能、扩展性等问题,也没有得到广泛的使用。

三、结束语

大规模二层网络的需求目前已经非常的清晰,各厂商都提出了有针对性的技术和方案,满足大二层的当前要求和未来扩展需求。但从实际应用情况来看,除了虚拟交换机技术在成

熟度和应用性方面得到验证,其他的相关技术仍然在完善过程中。同时,业界也希望加快相关技术的标准化进程,从而加强各厂商设备的兼容性和互通性,降低用户的部署和维护成本。

大二层网络演绎

大二层网络演绎 (1)数据中心为什么需要大二层网络? 在开始之前,首先要明确一点,大二层网络基本上都是针对数据中心场景的,因为它实际上就是为了解决数据中心的服务器虚拟化之后的虚拟机动态迁移这一特定需求而出现的。对于普通的园区网之类网络而言,大二层网络并没有特殊的价值和意义(除了某些特殊场景,例如WIFI漫游等等)。 所以,我们现在所说的大二层网络,一般都是指数据中心的大二层网络。 1传统数据中心网络架构 传统的数据中心网络通常都是二层+三层网络架构,如下图所示。 我们看到,这种网络架构其实和园区网等网络的架构是一样的,这种架构相当于零售行业的“加盟店”形式,而与之相对应的“三层到边缘”架构,以及我们下面要谈到的“大二层”架构,就相当于“直营店”了。

之所以采用这种网络架构,是因为这种架构非常成熟,相关的二三层网络技术(二层VLAN+xSTP、三层路由)都是成熟的技术,可以很容易的进行部署,也符合数据中心分区分模块的业务特点。 但是这种网络架构对于数据中心来说,其实是隐藏着一个弱点的,是什么呢?且容我卖个关子,后面再讲。 2服务器虚拟化趋势 由于传统的数据中心服务器利用率太低,平均只有10%~15%,浪费了大量的电力能源和机房资源。所以出现了服务器虚拟化技术。服务器虚拟化技术是把一台物理服务器虚拟化成多台逻辑服务器,这种逻辑服务器被称为虚拟机(VM),每个VM都可以独立运行,有自己的OS、APP,当前也有自己独立的MAC地址和IP地址,它们通过服务器内部的虚拟交换机(vSwitch)与外部实体网络连接。 通过服务器虚拟化,可以有效地提高服务器的利用率,降低能源消耗,降低客户的运维成本,所以虚拟化技术目前得到了广泛的应用。(至

数据中心IRF虚拟化网络架构与应用

数据中心IRF虚拟化网络架构与应用
1 概述
网络已经成为企业IT运行的基石,随着IT业务的不断发展,企业的基础网络架构也不断调整和演化, 以支持上层不断变化的应用要求。 在传统数据中心网络的性能、安全、永续基础上,随着企业IT应用的展开,业务类型快速增长、运行 模式不断变化,给基础网络带来极大运维压力:需要不断变化结构、不断扩展。而传统的网络规划设计依 据高可靠思路,形成了冗余复杂的网状网结构,如图1所示。
图1 企业数据中心IT基础架构网状网 结构化网状网的物理拓扑在保持高可靠、故障容错、提升性能上有着极好的优势,是通用设计规则。 这样一种依赖于纯物理冗余拓扑的架构,在实际的运行维护中却同时也承担了极其繁冗的工作量。 多环的二层接入、full mesh的路由互联,网络中各种链路状态变化、节点运行故障都会引起预先规划配 置状态的变迁,带来运维诊断的复杂性;而应用的扩容、迁移对网络涉及更多的改造,复杂的网络环境下 甚至可能影响无关业务系统的正常运行。 因此,传统网络技术在支撑业务发展的同时,对运维人员提出的挑战是越来越严峻的。 随着上层应用不断发展,虚拟化技术、大规模集群技术广泛应用到企业IT中,作为底层基础架构的网 络,也进入新一轮技术革新时期。H3C提供的网络虚拟化技术IRF2,以极大简化网络逻辑架构、整合物理 节点、支撑上层应用快速变化为目标,实现IT网络运行的简捷化,改变了传统网络规划与设计的繁冗规则。

2
2.1
基于 IRF 虚拟化的数据中心 server farm 网络设计
数据中心的应用架构与服务器网络
对于上层应用系统而言,当前主流的业务架构主要基于C/S与B/S架构,从部署上,展现为多层架构的 方式,如图2所示,常见应用两层、三层、四层的部署方式都有,依赖于服务器处理能力、业务要求和性能、 扩展性等多种因素。
图2 多层应用架构 基础网络的构建是为上层应用服务,因此,针对应用系统的不同要求,数据中心服务器区的网络架构 提供了多种适应结构,如图3展示了4种H3C提供的常用网络拓扑结构:
图3 多种数据中心server farm结构 根据H3C的数据中心架构理解和产品组合能力,可提供独立的网络、安全、优化设备组网,也可以提 供基于框式交换平台集成安全、优化的网络架构。Server farm 1&2是一种扁平化架构,多层应用服务器

数据中心技术指针

中国数据中心技术指针 前言 第一章数据中心概述 本章节简介 随着世界向更加智能化、物联化、感知化的方向发展,数据正在以爆炸性的方式增长,大数据的出现正迫使企业不断提升自身以数据中心为平台的数据处理能力。同时,云计算、虚拟化等技术正不断为数据中心的发展带来新的推动力,并正在改变传统数据中心的模式。因此,企业需要关注优化IT和基础设施,应用灵活设计与自动化工具以及制定规划保证数据中心与业务目标保持一致,从而推动企业数据中心从为业务提供基础应用支持向提供战略性支持转变。数据中心(data center)通常是指对电子信息进行集中处理、存储、传输、交换、管理等功能和服务的物理空间。计算机设备、服务器设备、网络设备、存储设备等通常被认为是数据中心的关键IT设备。关键IT设备安全运行所需要的物理支持,如供配电、制冷、机柜、消防、监控等系统通常被认为是数据中心关键物理基础设施。 本章节结构 1.1 数据中心功能的演进 1.2数据中心的建设基本内容 1. 3 数据中心建设原则与目标 1.4 参考法规 第二章数据中心分级与总体要求 本章节简介 数据中心是为数据信息提供传递、处理、存储服务的,因此必须非常可靠和安全,并可适应不断的增长与变化的要求。数据中心满足正常运行的要求与多个因素有关:地点、电源保证、网络连接、周边产业情况等,这些均与可靠性相关。可靠性是数据中心规划中最重要的一环。为了满足企业高效运作对于正常运行时间的要求,通信、电源、冷却、线缆与安全都是规划中需要考虑的问题。一个完整的、符合现在及将来要求的高标准数据中心,应满足需要一个满足进行数据计算、数据存储和安全联网设备安装的地方,并为所有设备运转提供所需的保障电力;在满足设备技术参数要求下,为设备运转提供一个温度受控的环境,并为所有数据中心内部和外部的设备提供安全可靠的网络连接,同时不会对周边环境产生各种各样的危害,并具有足够坚固的安全防范设施和防灾设施。 本章节结构 2.1 概述 2.2 数据中心的组成、分类和分级 2.3 数据中心供配电系统的特点及要求 2.4 数据中心空调系统特点及环境要求 2.5 数据中心的其他相关要求 2.6 数据中心网络规划设计方法论

TRILL大二层的网络方案

在云计算时代下,数据中心内部一般采用分布式架构处理海量数据存储、挖掘、查询、搜索等相关业务,服务器和服务器之间需要进行大量的协同工作,在服务器之间产生了大量的东西向流量。其次,数据中心普遍采用虚拟化技术,虚拟化的直接后果是使单位计算密度极大提升,物理服务器吞吐量将比虚拟化之前成数倍提升。还有为了更大幅度地增大数据中心内业务可靠性、降低IT成本、提高业务部署灵活性、降低运维成本高,需要虚拟机能够在整个数据中心范围内进行动态迁移。 上面这些是云计算时代下的数据中心业务需求,这些需求促进了数据中心网络架构的演进,催生了大二层网络架构的诞生,TRILL便是一种构建数据中心大二层组网的技术。 本文旨在分析云计算时代下数据中心对网络架构的需求,并提出华为基于TRILL的解决方案,帮助用户在建设数据中心网络时,能选择合适的网络解决方案以更好满足云计算业务需求。 云计算时代下数据中心对网络架构要求

? 虚拟机任意迁移 作为云计算的核心技术之一,服务器虚拟化已经得到越来越广泛的应用。为了更大幅度地增大数据中心内业务可靠性、降低IT成本、提高业务部署灵活性、降低运维成本高,需要虚拟机能够在整个数据中心范围内进行动态迁移,而不是局限在一个汇聚或接入交换机范围内进行迁移。 传统数据中心一般采用二层+三层组网架构,POD内采用二层组网,POD间通过三层网络进行互联。VM只能在一个POD内进行迁移,如果需要跨二层区域迁移,需要更改VM 的IP地址,如果没有负载均衡器LoadBalance屏蔽等手段,应用会中断。 在云计算时代,为提升大量闲置服务器的资源利用率,计算虚拟化技术已经逐步在IDC 进行应用。IDC运营商为了更充分的利用数据中心资源,VM需要更大的迁移范围,可以通过TRILL构建的大二层网络来实现。 ? 无阻塞、低延迟数据转发

数据中心虚拟化为何离不开大二层网络技术

数据中心虚拟化为何离不开大二层网络技术? 一.为什么需要大二层? 1. 虚拟化对数据中心提出的挑战 传统的三层数据中心架构结构的设计是为了应付服务客户端-服务器应用程序的纵贯式大流量,同时使网络管理员能够对流量流进行管理。工程师在这些架构中采用生成树协议(STP)来优化客户端到服务器的路径和支持连接冗余。 虚拟化从根本上改变了数据中心网络架构的需求。最重要的一点就是,虚拟化引入了虚拟机动态迁移技术。从而要求网络支持大范围的二层域。从根本上改变了传统三层网络统治数据中心网络的局面。 2. 虚拟机迁移与数据中心二层网络的变化 在传统的数据中心服务器区网络设计中,通常将二层网络的范围限制在网络接入层以下,避免出现大范围的二层广播域。 如图1所示,由于传统的数据中心服务器利用率太低,平均只有10%~15%,浪费了大量的电力能源和机房资源。虚拟化技术能够有效地提高服务器的利用率,降低能源消耗,降低客户的运维成本,所以虚拟化技术得到了极大的发展。但是,虚拟化给数据中心带来的不仅是服务器利用率的提高,还有网络架构的变化。具体的来说,虚拟化技术的一项伴生技术—虚拟机动态迁移(如VMware的VMotion)在数据中心得到了广泛的应用。简单来说,虚拟机迁移技术可以使数据中心的计算资源得到灵活的调配,进一步提高虚拟机资源的利用率。但是虚拟机迁移要求虚拟机迁移前后的IP和MAC地址不变,这就需要虚拟机迁移前后的网络处于同一个二层域内部。由于客户要求虚拟机迁移的范围越来越大,甚至是跨越不同地域、不同机房之间的迁移,所以使得数据中心二层网络的范围越来越大,甚至出现了专业的大二层网络这一新领域专题。 3. 传统网络的二层为什么大不起来? 在数据中心网络中,“区域”对应VLAN的划分。相同VLAN内的终端属于同一广播域,具有一致的VLAN-ID,二层连通;不同VLAN内的终端需要通过网关互相访问,二层隔离,三层连通。传统的数据中心设计,区域和VLAN的划分粒度是比较细的,这主要取决于“需求”和“网络规模”。 传统的数据中心主要是依据功能进行区域划分,例如WEB、APP、DB,办公区、业务区、内联区、外联区等等。不同区域之间通过网关和安全设备互访,保证不同区域的可靠性、安全性。同时,不同区域由于具有不同的功能,因此需要相互访问数据时,只要终端之间能够通信即可,并不一定要求通信双方处于同一VLAN或二层网络。 传统的数据中心网络技术, STP是二层网络中非常重要的一种协议。用户构建网络时,为了保证可靠性,通常会采用冗余设备和冗余链路,这样就不可避免的形成环路。而二层网

技术术语-数据中心及网络设计

·POD (Point of delivery) POD作为数据中心基本物理设计单元,通常包含服务器机柜、接入网络机柜、汇聚网络柜、以及相应的空调、UPS等弱电配套设施。 灵活易扩展,提高投资利用率,提高能源利用率,适应于计算虚拟化需求。 基于POD模块化设计的IDC物理布局。 汇聚区域(POD):由多个重复的POD组成。每个POD包括服务器,存储和网络设备,完成一种戒者多种业务。 核心区域:连接多个POD,包括核心交换机,出口路由器等设备。 ·IGP设计 内部网关协议 用于自治系统中的一种路由协议。最常用的内部网关协议包括路由信息协议(RIP)、开放最短路径优先协议(OSPF)和中间系统到中间系统路由协议(IS-IS)。 ·ToR接入 架顶模式 是数据中心服务器机柜布线的方式。采用TOR方式布线时,每个服务器机柜的上端部署1~2台接入交换机,服务器直接接入机柜内的交换机上,交换机上行端口通过网线、光纤、铜缆接入到网络机柜中的汇聚交换机上。当采用是TOR方式布线时,汇聚交换机又被称为机架交换机。 ·EoR接入 是数据中心服务器机柜布线的方式。采用EOR布线方式时,每排或每两排机柜的最边端摆放2个网络机柜,其他机柜作为服务器机柜安装配线架,配线架上的网线、光纤、铜缆延伸到最边端的网络机柜上,网络机柜中安装接入交换机。服务器在服务器机柜中,服务器网卡通过跳线连接机柜中的配线架。当采用是EOR布线方式时,汇聚交换机又被称为行间交换机。 ·MOR ·OSPF 开放式最短路径优先 开放式最短路径优先是在Internet团体中作为RIP(路由选择信息协议)的后继者而提议的链路状态分层IGP(内部网关协议)路由选择算法。OSPF具有最低代价路由选择、多路径路由选择和负载平衡等特点。OSPF是从IS-IS协议的早期版本演变而来的。另参见IS-IS。 ·OSPF动态协议 ·OSPF区域(Area0,1,2…N) ·BGP BGP是一种用于域间的动态路由协议。当BGP运行于同一自治系统内部时,被称为IBGP;当BGP运行于不同自治系统之间时,称为EBGP。

大二层网络技术

1传统STP技术应用分析 STP就是IEEE 802、1D中定义得一个应用于以太网交换机得标准,这个标准为交换机定义了一组规则用于探知链路层拓扑,并对交换机得链路层转发行为进行控制.如果STP发现网络中存在环路,它会在环路上选择一个恰当得位置阻塞链路上得端口-—阻止端口转发或接收以太网帧,通过这种方式消除二层网络中可能产生得广播风暴。然而在实际部署中,为确保网络得高可用性,无论就是数据中心网络还就是园区网络,通常都会采用具有环路得物理拓扑,并采用STP阻塞部分端口得转发。对于被阻塞端口,只有在处于转发状态得端口及链路发生故障时,才可能被STP加入到二层数据帧得转发树中。 图1 STP引起得带宽利用率不足得问题 STP得这种机制导致了二层链路利用率不足,尤其就是在网络设备具有全连接拓扑关系时,这种缺陷尤为突出。如图1所示,当采用全网STP二层设计时,STP将阻塞大多数链路,使接入到汇聚间带宽降至1/4,汇聚至核心间带宽降至1/8。这种缺陷造成越接近树根得交换机,端口拥塞越严重,造成得带宽资源浪费就越严重。 可见,STP可以很好地支持传统得小规模范围得二层网络,但在一些规模部署虚拟化应用得数据中心内(或数据中心之间),会出现大范围得二层网络,STP在这样得网络中应用存在严重得不足.主要表现为以下问题(如图2所示).

图2 STP得低效路径问题示意图 1、低效路径 ?流量绕行N-1跳 ?路由网络只需N/2跳甚至更短 2、带宽利用率低 ?阻断环路,中断链路 ?大量带宽闲置 ?流量容易拥塞 3、可靠性低 ?秒级故障切换 ?对设备得消耗较大 4、维护难度大 ?链路引起拓扑变化复杂 ?容易引发广播风暴 ?配置、管理难度随着规模增加剧增 由于STP存在以上种种不足,其难以胜任大规模二层网络得管理控制. 2IRF技术应用分析 H3C IRF(Intelligent Resilient Framework)就是N:1网络虚拟化技术。IRF可将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备作为单一设备管理与使用。 IRF虚拟化技术不仅使多台物理设备简化成一台逻辑设备,同时网络各层之间得多条链路连接也将变成两台逻辑设备之间得直连,因此可以将多条物理链路进行跨设备得链路聚合,从而变成了一条逻辑链路,增加带宽得同时也避免了由多条物理链路引起得环路问题。如图3所示,将接入、汇聚与核心交换机两两虚拟化,层与层之间采用跨设备链路捆绑方式互联,整网物理拓扑没有变化,但逻辑拓

数据中心IRF2虚拟化网络架构与应用

数据中心IRF2虚拟化网络架构与应用 文/刘新民 网络已经成为企业IT运行的基石,随着IT业务的不断发展,企业的基础网络架构也不断调整和演化,以支持上层不断变化的应用要求。 在传统数据中心网络的性能、安全、永续基础上,随着企业IT应用的展开,业务类型快速增长,运行模式不断变化,基础网络需要不断变化结构、不断扩展以适应这些变化,这给运维带来极大压力。传统的网络规划设计依据高可靠思路,形成了冗余复杂的网状网结构,如图1所示。 图1 企业数据中心IT基础架构网状网 结构化网状网的物理拓扑在保持高可靠、故障容错、提升性能上有着极好的优势,是通用设计规则。这样一种依赖于纯物理冗余拓扑的架构,在实际的运行维护中却同时也承担了极其繁冗的工作量。 多环的二层接入、Full Mesh的路由互联,网络中各种链路状态变化、节点运行故障都会引起预先规划配置状态的变迁,带来运维诊断的复杂性;而应用的扩容、迁移对网络涉及更多的改造,复杂的网络环境下甚至可能影响无关业务系统的正常运行。 因此,传统网络技术在支撑业务发展的同时,对运维人员提出的挑战是越来越严峻的。 随着上层应用不断发展,虚拟化技术、大规模集群技术广泛应用到企业IT中,作为底层基础架构的网络,也进入新一轮技术革新时期。H3C IRF2以极大简化网络逻辑架构、整合物理节点、支撑上层应用快速变化为目标,实现IT网络运行的简捷化,改变了传统网络规划与设计的繁冗规则。 1. 数据中心的应用架构与服务器网络 对于上层应用系统而言,当前主流的业务架构主要基于C/S与B/S架构,从部署上,展现为多层架构的方式,如图2所示,常见应用两层、三层、四层的部署方式都有,依赖于服务器处理能力、业务要求和性能、

数据中心网络高可用技术

dstandardizati onofsafetyproducti on,a ndstrivetoachieve"intri nsicallysafe".Ninethpit safetysecti ona ndisaunitofsecurityofficersre sponsi bleformine safetydutie sandsupervisetheimpl ementationofthefoll ow-upt o,andimpleme ntationofthesystem,prose cuti on.PartImanagementsystems...Y ouca nusebrazi erswhe n,2--3metersfromthegrounda ndputt hefireout beforethew ork,confirmthe nofirebeforetheyca nleave;Highway11non-staffinthemarginw ithin50m,radi usofthe excavationw ork,a ndw orkingwit hin6metresofthee dgeandstayundert heum brellaheadi ng;12,blasti ngintot hepit personnelmustfoll owthe shooti ngguar d'scommand,hi detosafety;13non-miningve hicles(includingbicycle s,a nimal-drawnvehicle,m otorvehicles,etc)will beba nne dfromenteri ngthe pitsandot herpr oductionarea onpainofheavyfines,resulti ngina cci dentst obei nvestigatedforresponsi bility;14shooti ngthefoll owi ngmechanicalsafetydistancesa sfollow s:categ orynameme cha nical cannonsshall owholesa ndpopshooti ngexpose dblasti ngunits:metersdiggin gmachinerigcargunpowder othere qui pment-pitequipme nt,especi allyanel ectrica lswitchandavarietyofsafetydevi ces,i nadditiont ospecifyingt heuseofresponsi blepersonnel,ba nanytouching ofother personnel;16foundthat powerli nesorca blesbreakinggr oundbeforewithouta scertai ningw hethert hecharged,prohi bitsa nyonefromtouching,andshouldleave5metersaway,andimmediatelynotifytheper sonchecki ng;17withoutthel eadership'sconsent,are notall owedt otakethestrippedtr uck s,watertankers,oilta nkers,asare sultoftheca 数据中心网络高可用技术 高可用性,金融数据中心建设中最受关注的问题之一。高可用性设计是个系统 工程,其内容涉及构成数据中心的四个组成要素(网络、计算、存储、机房基 础设施)的多方面内容,本文聚焦网络系统,阐述了多种网络高可用技术在数 据中心的部署最佳实践。 一、高可用性的定义 系统可用性(Availability)的定义公式为: Availability =MTBF / ( MTBF + MTTR ) ×100% MTBF(Mean Time Between Failure),即平均无故障时间,是描述整个系统可靠性(reliability)的指标。对于一个网络系统来说,MTBF是指整个网络的各组件(链路、节点)不间断无故障连续运行的平均时间。 MTTR(Mean Time to Repair),即系统平均恢复时间,是描述整个系统容错能力(fault-tolerant capability)的指标。对于一个网络系统来说,MTTR是指当网络中的组件出 现故障时,网络从故障状态恢复到正常状态所需的平均时间。 从公式可看出,提高MTBF或降低MTTR都能提高网络可用性。造成数据中心网络不可用 的因素包括:设备软硬件故障、设备间链路故障、维护升级、用户误操作、网络拥塞等事 件。针对这些因素采取措施,如提高软硬件质量、减少链路故障、避免网络拥塞丢包、避 免用户误操作等,使网络尽量不出故障、提高网络MTBF指标,也就提升了整网的可用性 水平。然而,网络中的故障总是不可避免的,所以设计和部署从故障中快速回复的技术、 缩小MTTR指标,同样是提升网络可用性水平的手段。 在网络出现故障时,确保网络能快速回复的容错技术均可以归入高可用技术。常用的网络 高可用技术可归为以下几类: 单设备的硬件冗余:冗余电源、冗余风扇、双主控、板卡支持热插拔; 物理链路捆绑:以太网链路聚合,基于IRF的跨设备以太网链路聚合; 二层冗余路径:STP、MSTP、SmartLink; 三层冗余路径:VRRP、ECMP、动态路由协议多路径; 故障检测:NQA、BFD、OAM、DLDP; 不间断转发:GR、热补丁升级; L4-L7多路径:状态热备、非对称路径转发。 在进行高可用数据中心网络规划时,不能只将上述技术进行简单叠加和无限制的冗余,否 则,一方面会增加网络建设整体成本,另一方面还会增加管理维护的复杂度,反而给网络 引入了潜在的故障隐患。因此在进行规划时,应该根据网络结构、网络类型和网络层次, 分析网络业务模型,确定数据中心基础网络拓扑,明确对网络可用性最佳的关键节点和链 路,合理规划和部署各种网络高可用技术。 二、数据中心网络高可用部署方案

华为数据中心虚拟化解决方案

1项目技术方案 对于XXX项目中众多应用系统,采用华为FusionSphere虚拟化技术,将上述部分应用服务部署到虚拟化化的高性能物理服务器上,达到高可靠、自动化运维的目标。众多物理服务器虚拟化成计算资源池(集群),保障虚拟化平台的业务在出现计划外和计划内停机的情况下能够持续运行。本项目采用华为FusionSphere虚拟化计算技术实现, 通过云平台HA、热迁移功能,能够有效减少设备故障时间,确保核心业务的连续性,避免传统IT,单点故障导致的业务不可用。 易实现物理设备、虚拟设备、应用系统的集中监控、管理维护自动化与动态化。 便于业务的快速发放, 缩短业务上线周期,高度灵活性与可扩充性、提高管理维护效率。 利用云计算技术可自动化并简化资源调配,实现分布式动态资源优化,智能地根据应用负载进行资源的弹性伸缩,从而大大提升系统的运作效率,使IT 资源与业务 优先事务能够更好地协调。 在数据存储方面,通过共享的SAN存储架构,可以最大化的发挥虚拟架构的优势; 提供虚拟机的HA、虚拟机热迁移、存储热迁移技术提高系统的可靠性;提供虚拟 机快照备份技术(HyperDP)等,而且为以后的数据备份容灾提供扩展性和打下基础。 云平台:采用华为FusionSphere云平台,提供高可用性的弹性虚拟机,保障业务系统的连续性与虚拟机的安全隔离。 备份系统:采用华为FusionSphere HyperDP备份节点建立完整的数据保护系统。整个备份云可实现集中管理,负载均衡。 数据中心包含云管理、计算资源池、存储资源池,备份系统为可选。 Figure图1 单数据中心方案拓扑

XXX 应用系统集群 Exchange Sharepoint 终端终端 业务网络 管理网络 存储网络 网络连线防火墙 防火墙 XXX 项目数据中心架构分为: 接入控制:用于对终端的接入访问进行有效控制,包括接入网关,防火墙等设备。接入控制设备不是解决方案所必须的组成部分,可以根据客户的实际需求进行裁减。 虚拟化资源池:通过在计算服务器上安装虚拟化平台软件,然后在其上创建虚拟机。存储用于向虚拟机提供系统盘、数据盘等存储资源。 资源管理:云资源管理及调度,主要是对各种云物理资源和虚拟资源进行管理。创建虚拟机时,为虚拟机分配相应的虚拟资源。包括云管理服务器、集群管理服务器、安装服务器

云数据中心运维问题解析

云数据中心运维问题 解析 Revised on November 25, 2020

1、云计算时代的到来,数据中心的运行管理工作必然会产生新的问题,提出新的要求,您认为,数据中心运维工作发生了哪些改变云计算是当下的技术热点,云数据中心是提供云计算服务的核心,是传统数据中心的升级。 无论是传统的数据中心,还是云数据中心,从他们的生命周期来看,运维管理都是整个生命周期中历时最长的一个阶段。 云数据中心的运维工作需要我们仔细分析,认真对待。从开源云计算社区openstack发布的模块来看,截止2014年11月,社区共有项目模块450个左右,模块数量前三的类型是“运维”、“易用性”、“上层服务”,其中运维模块数量第一,占到了153个。可见云计算的技术动向基本上围绕“如何运维”和“如何使用”。 我们今天的话题就先来说一说云数据中心运维的变化。说到云数据中心运维工作的变化,就要分析云的特点。云时代数据中心最明显的特点就是虚拟化技术的大量应用,这使得运维管理的对象发生了变化: 一、云数据中心运维对象数量激增。虚拟化技术将1台物理服务器虚拟为多台虚拟服务器,如果数据中心支撑业务需求规模不变的话,所需要的物理服务器数量将会减少,这与很多人认为的运维服务器数量激增是不符的,那么这个“激增”认识是如何产生的呢。可以这样分析,由于虚拟化技术进一步提高了数据中心各种资源的使用效率,同时大幅提高了业务需求响应能力,所以多个传统数据中心合并为一个云数据中心在技术上成为了可能。很多跨国企业采用云计算技术,实现数据中心10:1到20:1的合并效果,也就是说如果原来在全

球建设1000个数据中心,那么现在可以由50到100个云数据中心实现对业务的支撑,在一个合并后的云数据中心内,所要运维的服务器数量绝对可以称得上“激增”,这里所说的服务器既包括物理服务器也包括虚拟服务器。与此同时,运维岗位也就是运维人员虽然也进行了调整,但是人员增加的幅度远低于设备的增涨幅度,也就是人均运维设备数量增加了很多,在这种情况下,如果不借助工具、系统,很难完成运维工作。 二、在传统数据中心中,设备都是物理的、真实的,位置也是相对固定,对业务系统来讲,交换网络、服务器、存储设备对象之间关联也是比较固定的,管理起来相对直观。在云数据中心,虚拟化带来了资源的池化,使得一切管理对象变成虚拟的、可灵活迁移的逻辑存在。虚拟资源可以随时创建、删除,再加上高可用需求、性能优化需求带来的虚拟资源迁移,虚拟资源所在的位置变得不固定了,虚拟资源与物理资源的关系也被解耦了,原来很多能说得清、找得到的资源现在不借助工具就再也无法说得清、找得到了。 三、在传统数据中心中,设备监控主要是采集故障、性能数据,容量一般来讲还不是运维层面的问题,而是规划的问题,当然这也带来了业务系统竖井、数据中心竖井的问题,以及业务资源申请周期长的问题。在云数据中心中,容量不仅是规划问题,同时也是一个运维问题。也就是说,在日常工作中,需要随时采集资源池容量数据,不仅要看资源池的总容量,还要看容量在各个物理宿主机上分布情况,以便满足高可用和迁移的需要。 四、云数据中心在管理虚拟设备时,接口的标准化问题。在传统数据中心内,物理设备已经形成了接口标准,提供运维数据,如snmp、netflow等。而对虚拟化设备,还没有形成国标或行标,对虚拟设备的运维还需要采用厂家标

基于SDN的未来数据中心网络定稿版

基于S D N的未来数据中心网络精编W O R D 版 IBM system office room 【A0816H-A0912AAAHH-GX8Q8-GNTHHJ8】

基于S D N的未来数据中心网络伴随着互联网的高速发展,互联网数据中心也迅速发展。尤其是云计算的发展,使得更多的应用处理集中到云端,促使云计算数据中心的规模急剧增长。Google、微软、腾讯等互联网公司新建的云数据中心规模都超过10万台物理服务器。未来的互联网流量将以云计算数据中心为核心,未来的互联网将是以云计算数据中心为核心的网络。 数据中心网络面临的主要问题 随着数据中心规模的快速增长以及云计算的部署,在网络的管理、业务的支撑、绿色节能等方面对数据中心网络提出了很高的要求。●集中高效的网络管理要求大型云计算数据中心普遍具有数万台物理服务器和数十万台虚拟机。如此大规模的服务器群需要数千台的物理网络设备、数万台的vSwitch进行连接和承载。这样大规模的数据中心网络需要集中统一管理,以提高维护效率;需要快速的故障定位和排除,以提高网络的可用性。●高效灵活的组网需求云计算数据中心网络规模大,组网复杂,在网络设计时,为了保障网络的可靠性和灵活性,需要设计冗余链路,保护链路,部署相应的保护机制。在现有数据中心组网中大量采用的VRRP、双链路上联、SPT等技术,存在着网路利用率低、容易出现故障,且仅能实现局部保护的问题。●虚拟机的部署和迁移需求云计算数据中心部署了大量的虚拟机,并且虚拟机需要根据业务的需要进行灵活的迁移。这就需要数据中心网络能够识别虚拟机,根据虚拟机的部署和迁移灵活配合部署相应的网络策略。●虚拟多租户业务支撑要求云计算数据中心需要为用户提供虚拟私有云租用服务,租户需要可以配置自己的子网、虚拟机IP地址、ACL,管理自己的网络资源。需要数据中心网络支持虚拟多租户能力,支持大量的租户部署,实现租户的隔离和安全保障等。●全面的数据中心IaaS要求在云计算数据中心中,云计算技术的引入,实现了计算资源和存储资源的虚

云计算数据中心网络虚拟化技术

云计算数据中心网络虚拟化技术 Network1:VM 本地互访网络,边界是Access Switch ,包括物理服务器本机VM 互访和跨Access Switch 的不同物理服务器VM 互访两个层面。 Network2:Ethernet 与FC 融合,就是FCoE ,边界仍然是Access Switch 。 Network3:跨核心层服务器互访网络,边界是Access Switch 与Core Switch 。 Network4:数据中心跨站点二层网络,边界是Core Switch 。 Network5:数据中心外部网络,边界是Core Switch 与ISP IP 网络。 在大规模数据中心部署虚拟化计算和虚拟化存储以后,对网络产生了新的需求。 1) 虚拟机(VM)之间的互通,在DC 内部和DC 间任 意互通、迁移和扩展资源。 2) 更多的接口,更多的带宽,至少按照一万个万兆端口容量构建资源池。 3) 二层网络规模扩大,保证业务与底层硬件的透 明和随需部署。 4) 数据中心站点间二层互联,DC 资源整合,地域 无差别,构建真正的大云。 5) 服务器前后端网络融合,DC 内部网络整合。 李 明 杭州华三通信技术有限公司 杭州 100052 摘 要 云计算带来的超大规模数据中心建设,对数据中心网络提出了新的需求,网络虚拟化技术是解决这些新需求的有效手段,通过系统论述数据中心网络虚拟化技术中涉及的控制平面虚拟化技术和数据平面虚拟化技术,分析了业界主要厂商的技术实现和新的虚拟化标准协议的技术原理,为数据中心网络虚拟化技术的发展提出了一个较为清晰的演进路径。 关键词 云计算;数据中心;网络虚拟化技术 云计算最重要的技术实现就是虚拟化技术,计算虚拟化商用的解决方案得到了较成熟的应用,而存储虚拟化已经在SAN 上实现得很好了,在网络虚拟化技术方面,业界主流厂商都提出了自己的解决方案,本文分析了数据中心中网络虚拟化的实现相关技术和发展思路。 最早的网络虚拟化技术代表是交换机集群Cluster 技术,多以盒式小交换机为主,当前数据中心里面已经很少见了。而新技术则主要分为两个方向,控制平面虚拟化与数据平面虚拟化。在探讨网络虚拟化技术之前,先定义一下云计算数据中心各种网络类型,数据中心网络流量的根本出发点是Server ,结合云计算最适合的核心-接入二层网络结构,各种网络分类如图1所示。 Client Network5 Network4 Network3 Network2Network Core Layer Access Layer Physical Server(PS) VM/PS VM VM VM/PS DC Sitel DC Site2 图1 网络分类

IDC网络技术方案

江苏有线昆山IDC网络技术方案 1.1 数据中心网络建设需求 1.1.1现有IDC机房网络分析 江苏有线昆山分公司现有数据中心机房网络采用传统以太网技术构建,基础架构为二层组网结构,核心设备为一台华为NE80路由器,接入交换机为各种主流品牌交换机(H3C,HUAWEI,DLINK等),网管与非网管交换机都有。随着各类业务应用对业务需求得深入发展,业务部门对资源得需求正以几何级数增长,传统得IT 基础架构方式给管理员与未来业务得扩展带来巨大挑战。具体而言存在如下问题: ●维护管理难:在传统构架得网络中进行业务扩容、迁移或增加新得服务 功能越来越困难,每一次变更都将牵涉相互关联得、不同时期按不同初衷 建设得多种物理设施,涉及多个不同领域、不同服务方向,工作繁琐、维 护困难,而且容易出现漏洞与差错、比如数据中心新增加一个业务类型, 需要调整新得应用访问控制需求,此时管理员不仅要了解新业务得逻辑 访问策略,还要精通物理得防火墙实体得部署、连接、安装,要考虑就是 增加新得防火墙端口、还就是需要添置新得防火墙设备,要考虑如何以及 何处接入,有没有相应得接口,如何跳线,以及随之而来得VLAN、路由等 等。当这样得网络资源需求在短期内累积,将极易在使得系统维护得质量 与稳定性下降,同时反过来减慢新业务得部署,进而阻碍公司业务得推进 与发展。 ●资源利用率低:传统架构方式对底层资源得投入与在上层业务所收到得 效果很难得到同比发展,最普遍得现象就就是忙得设备不堪重负,闲得设 备资源储备过多,二者相互之间又无法借用与共用、这就是由于对底层网 络建设就是以功能单元为中心进行建设得,并不考虑上层业务对底层资 源调用得优化,这使得对网络得投入往往无法取得同样得业务应用效果 得改善,反而浪费了较多得资源与维护成本、 ●服务策略不一致:传统架构最严重得问题就是这种以孤立得设备功能为 中心得设计思路无法真正从整个系统角度制订统一得服务策略,比如安 全策略、高可用性策略、业务优化策略等等,造成跨平台策略得不一致性, 从而难以将所投入得产品能力形成合力为上层业务提供强大得服务支 撑。

大二层网络技术

大二层网络技术背景及主要技术方向 一、为什么需要大二层 传统的三层数据中心架构结构的设计是为了应付服务客户端-服务器应用程序的纵贯式大流量,同时使网络管理员能够对流量流进行管理。工程师在这些架构中采用生成树协议(STP)来优化客户端到服务器的路径和支持连接冗余,通常将二层网络的范围限制在网络接入层以下,避免出现大范围的二层广播域; 虚拟化从根本上改变了数据中心网络架构的需求,既虚拟化引入了虚拟机动态迁移技术。从而要求网络支持大范围的二层域。从根本上改变了传统三层网络统治数据中心网络的局面。具体的来说,虚拟化技术的一项伴生技术—虚拟机动态迁移(如VMware的VMotion)在数据中心得到了广泛的应用,虚拟机迁移要求虚拟机迁移前后的IP和MAC地址不变,这就需要虚拟机迁移前后的网络处于同一个二层域内部。由于客户要求虚拟机迁移的范围越来越大,甚至是跨越不同地域、不同机房之间的迁移,所以使得数据中心二层网络的范围越来越大,甚至出现了专业的大二层网络这一新领域专题。 【思考1、IP及MAC不变的理由:对业务透明、业务不中断】【思考2、IP及MAC不变,那么为什么必须是二层域内?IP不变,那么就不能够实现基于IP的寻址(三层),那么只

能实现基于MAC的寻址,既二层寻址,大二层,顾名思义,此是二层网络,根据MAC地址进行寻址】 传统网络的二层为什么大不起来 在数据中心网络中,“区域”对应VLAN的划分。相同VLAN 内的终端属于同一广播域,具有一致的VLAN-ID,二层连通;不同VLAN内的终端需要通过网关互相访问,二层隔离,三层连通。传统的数据中心设计,区域和VLAN的划分粒度是比较细的,这主要取决于“需求”和“网络规模”。 传统的数据中心主要是依据功能进行区域划分,例如WEB、APP、DB,办公区、业务区、内联区、外联区等等。不同区域之间通过网关和安全设备互访,保证不同区域的可靠性、安全性。同时,不同区域由于具有不同的功能,因此需要相互访问数据时,只要终端之间能够通信即可,并不一定要求通信双方处于同一VLAN或二层网络。 传统的数据中心网络技术, STP是二层网络中非常重要的一种协议。用户构建网络时,为了保证可靠性,通常会采用冗余设备和冗余链路,这样就不可避免的形成环路。而二层网络处于同一个广播域下,广播报文在环路中会反复持续传送,形成广播风暴,瞬间即可导致端口阻塞和设备瘫痪。因此,为了防止广播风暴,就必须防止形成环路。这样,既要防止形成环路,又要保证可靠性,就只能将冗余设备和冗余链路变成备份设备和备份链路。即冗余的设备端口和链路

虚拟化数据中心的网络安全设计

虚拟化数据中心给网络安全带来了一些挑战,尤其是虚拟机的迁移,计算集群主机的加入与离开等都是传统数据中心所没有的。为解决这些问题虚拟化数据中心的网络建设需要引入新思路和新技术,如VLAN扩展,安全策略上移,网络安全策略跟随虚拟机动态迁移等。 虚拟化数据中心的网络安全设计 数据中心虚拟化是指采用虚拟化技术构建基础设施池,主要包括计算、存储、网络三种资源。虚拟化后的数据中心不再象传统数据中心那样割裂的看待某台设备或某条链路,而是将整个数据中心的计算、存储、网络等基础设施当作可按需分割的资源集中调配。 数据中心虚拟化,从主机等计算资源的角度看,包含多合一与一分多两个方向(如图1所示),都提供了计算资源被按需调配的手段。由于虚拟化的数据中心是计算、存储、网络三种资源深度融合而成,因此主机虚拟化技术能够顺利实现必须由合适的网络安全策略与之匹配,否则一切都无从谈起。前者出现较早,主要包括集群计算等技术,以提升计算性能为主;而后者主要是近几年出现的在一台物理X86系统上的多操作系统同时并存的技术,以缩短业务部署时间,提高资源使用效率为主要目的。 图1 计算虚拟化的两种表现形式

虚拟化后数据中心面临的安全问题 传统数据中心网络安全包含纵向安全策略和横向安全策略,无论是哪种策略,传统数据中心网络安全都只关注业务流量的访问控制,将流量安全控制作为唯一的规划考虑因素。而虚拟化数据中心的网络安全模型则需要由二维平面转变为三维空间,即增加网络安全策略(如图2所示),网络安全策略能够满足主机顺畅的加入、离开集群,或者是动态迁移到其它物理服务器,并且实现海量用户、多业务的隔离。。 图2 数据中心虚拟化安全模型 虚拟化数据中心对网络安全提出三点需求: 1、在保证不同用户或不同业务之间流量访问控制,还要支持多租户能力; 2、网络安全策略可支撑计算集群中成员灵活的加入、离开或者迁移; 3、网络安全策略可跟随虚拟机自动迁移。 在上述三个需求中,第一个需求是对现有网络安全策略的增强。后两个需求则需要一些新的规划准则或技术来实现,这给当前网络安全策略带来了挑战。 应对之道 VLAN扩展 虚拟化数据中心作为集中资源对外服务,面对的是成倍增长的用户,承载的服务是海量的,尤其是面向公众用户的运营云平台。数据中心管理人员不但要考虑云主机(虚拟机或者物理机)的安全,还需要考虑在云平台中大量用户、不同业务之间的安全识别与隔离。 要实现海量用户的识别与安全隔离,需要为虚拟化数据中心的每一个租户提供一个唯一的标识。目前看开,VLAN是最好的选择,但由于VLAN数最多只能达到4096,无法满足虚拟化数据中心业务开展,因此需要对VLAN进行扩展。如图3所示,VLAN扩展的有以下两个

数据中心网络架构

数据中心网络架构 7.6.2.3.1、网络核心 网络核心由2台双引擎万兆交换机构成,通过千兆实现各个功能分区的接入,同时交换机之间采用双千兆捆绑的方式实现高速互联。 为了保证各个功能分区的高可靠性,与各个功能分区的汇聚交换机或接入交换机采用双链路冗余连接。 网络为二层架构,要采用千兆接入层交换通过千兆线路上行到两台核心交换层交换机。服务器接入采用双网卡千兆上行,接入交换机采用万兆上行到核心交换机。 应急信息系统对网络安全、信息安全有着很高的要求,因此通过合理的防火墙、IPS和ASE部署,可以使网络对非法请求、异常攻击和病毒具有非常好的防御,同时可以对各种敏感和非法信息、网址和电子邮件进行有效的过滤。 7.6.2.3.2、全交换网络 建议采用全交换网络来保证网络的高性能。应急指挥中心服务器群规模不大,网络结构采用两层交换机即可。 在核心汇聚层采用高性能核心交换机,未采用路由器,主要的考虑基于以下两点: (1)交换机性能高,接口密度高,适合在数据中心的核心位置部署;相比而言路由器的性能和接口密度则远低于交换机; (2)交换机设备工作在二层,业务扩展灵活方便;

7.6.2.3.3、服务器接入的二层模式 在工作模式上,核心汇聚交换机工作在路由模式(三层),服务器接入层交换机工作在交换(二层)模式。 三层接入的好处在于配置管理相对简单,上行汇聚设备的报文比较“纯净”,都是单播报文。而三层接入的问题主要在服务器扩展性、灵活性以及L4/L7设备的部署上。 对于应急系统来说,服务器的扩展能力是一个非常重要的问题,在实际的部署中,经常会要求服务器之间做二层邻接,如果采用二层接入,可以很方便的实现VLAN的部署。 三层接入带来的另一个问题是L4/L7设备(如服务器Load-Balacne)的部署。Load-Balance通常部署在汇聚层,可以实现对服务器访问流量的分担,以及服务器健康状态的检查,对于某些负载均衡算法或服务器健康检查算法来说,必须要求服务器和Load-balance设备二层邻接,因此数据中心不建议采用三层接入。 对于二层接入方式,可以通过MSTP或SmartLink技术解决链路冗余问题。在MSTP中,端口的阻塞是逻辑上的,只对某些STP实例进行阻塞,一个端口可能对一个STP实例阻塞,但对另一个STP实例是可以转发的。合理的使用MSTP,可以做到链路的负载分担。而且,因为映射到一个MSTP实例的VLAN 可以灵活控制,并且引入了域的概念,使得MSTP在部署时有很好的扩展性。SmartLink提供了一种二层链路冗余技术,可以部分替代STP的功能,并且保证200毫秒的链路切换时间,可应用在HA要求较高的环境。 因此建议在数据中心的服务器区采用二层接入方式。 根据应急指挥应急指挥系统的需求,数据中心由以下几个功能区组成: (1)核心网络区: 由高速网络交换机组成,提供核心交换能力,同时部署安全和应用优化设备,保证数据安全和系统性能。 (2)核心数据库区: 由运行HA 系统的高效UNIX 主机组成,提供数据高速访问能力(3)应用区:

相关主题
文本预览
相关文档 最新文档