首頁(yè)>>廠(chǎng)商>>交換機/ACD系統平臺廠(chǎng)商>>H3C

發(fā)表評論分享按鈕

云時(shí)代數據中心虛擬化管理探討

符斌 2011/11/22

  虛擬化技術(shù)由于其在提高基礎設施可靠性和提升資源利用效率等方面的巨大優(yōu)勢,應用越來(lái)越廣泛。同時(shí),虛擬化技術(shù)本身也在快速發(fā)展,虛擬網(wǎng)絡(luò )接入領(lǐng)域,802.1Qbg、802.1Qbh等標準相繼推出,虛擬服務(wù)器高可用方面,HA、FT、DRS、DPS、vMotion等技術(shù)也在不斷演進(jìn)。相應的虛擬化管理技術(shù)必須同步發(fā)展,才能解決虛擬化帶來(lái)的需求。

一、虛擬化的技術(shù)和管理需求

  1 主流的服務(wù)器虛擬化技術(shù)簡(jiǎn)介

  在數據中心服務(wù)器領(lǐng)域,虛擬化技術(shù)目前仍處于快速發(fā)展的階段,IDC統計數據表明,VMware和Hyper-V處于領(lǐng)導者地位。KVM陣營(yíng)由于Redhat的加入,將成為第三支最有力量的參與者(如圖1所示)。

虛擬化產(chǎn)品市場(chǎng)份額

圖1:虛擬化產(chǎn)品市場(chǎng)份額

  從技術(shù)發(fā)展方向來(lái)看,服務(wù)器虛擬化的有四種分類(lèi)(如表1所示),其中完全虛擬化技術(shù)是目前使用最為普遍的技術(shù),VMware、Hyper-V、KVM、XEN等產(chǎn)品均已支持該技術(shù)。

虛擬化技術(shù)分類(lèi)

表1:虛擬化技術(shù)分類(lèi)

  2.虛擬化對管理的影響因素之一:vSwitch

  服務(wù)器虛擬化引入了虛擬網(wǎng)絡(luò )交換機(vSwitch)的概念,如圖2所示,使用虛擬化軟件技術(shù)仿真出來(lái)的二層交換機,位于物理服務(wù)器中。vSwitch創(chuàng )建虛擬的網(wǎng)絡(luò )接口(vNIC)鏈接VM,并使用物理網(wǎng)卡連接外部的物理交換機。

vSwtich結構

圖2:vSwtich結構

  vSwitch的出現,對傳統的網(wǎng)絡(luò )管理方式產(chǎn)生了巨大的影響,主要體現在以下幾點(diǎn)。

  1)從網(wǎng)絡(luò )管理的范圍來(lái)看,不僅要覆蓋物理網(wǎng)絡(luò )設備(交換機、路由器、防火墻等),還要延伸到服務(wù)器內的網(wǎng)絡(luò )交換功能,因此需要有不同于SNMP/CLI等傳統的管理手段來(lái)管理實(shí)現對vSwitch的管理。

  2)從網(wǎng)絡(luò )的可視性來(lái)看,由于虛擬服務(wù)器和物理網(wǎng)絡(luò )之間多了一層vSwitch,使得傳統的基于網(wǎng)絡(luò )設備的網(wǎng)絡(luò )可視化管理手段失效(比如流量無(wú)法全部感知影響流量分析管理、終端接入無(wú)法感知影響網(wǎng)絡(luò )拓撲分析)

  3)從網(wǎng)絡(luò )的可控性來(lái)看,由于一個(gè)物理網(wǎng)絡(luò )接口下面將連接一個(gè)復雜的網(wǎng)絡(luò )結構,接入層的管控能力從原來(lái)針對一個(gè)終端擴展成針對一個(gè)網(wǎng)絡(luò )(包含多個(gè)VM終端),需要有手段區分每個(gè)VM終端來(lái)達到接入層的控制(而不僅僅是區分接入接口,因為接入接口下移到服務(wù)器內部的vSwitch上了)。

  3.虛擬化對管理的影響因素之二:遷移

  為提供VM系統的可靠性,服務(wù)器虛擬化技術(shù)提供了VM遷移、高可用性(HA)、熱備容錯、資源池調度等特性,這些特性都會(huì )影響VM的物理部署位置,不僅使虛擬服務(wù)器在數據中心網(wǎng)絡(luò )中的物理位置的可視性變得困難,并且使得服務(wù)器接入物理網(wǎng)絡(luò )設備需要一定的網(wǎng)絡(luò )資源配置,其接入位置的動(dòng)態(tài)性就要求物理網(wǎng)絡(luò )配置能提供隨需而動(dòng)的管理能力。

  以下以VMware舉例,介紹這幾種特性及對網(wǎng)絡(luò )管理的影響和需求。

  3.1 VM遷移-vMotion

  vMotion有幾種實(shí)現,目前對VM服務(wù)中斷影響最小、遷移性能最佳的實(shí)現方式是在線(xiàn)遷移(Live Migration),如圖3所示。一般物理機之間要采用SAN或NAS之類(lèi)的集中式共享外存設備,同時(shí)考慮操作系統內存執行狀態(tài)的遷移[注:主流的內存遷移技術(shù)是預拷貝技術(shù),通過(guò)多個(gè)輪次的增量拷貝,直至內存不再更新。不在此詳述],停機時(shí)間非常短暫。

vMtoion示意圖

圖3:vMtoion示意圖

  3.2 高可用性HA

  有兩種HA模式:1)物理服務(wù)器故障,可在具有備用容量的其他生產(chǎn)服務(wù)器中自動(dòng)重新啟動(dòng)受影響的所有虛擬機(如圖4左所示);2)VM操作系統出現故障,HA 會(huì )在同一臺物理服務(wù)器重啟啟動(dòng)受影響的虛擬機(如圖4右所示)。

HA場(chǎng)景示意圖

圖4:HA場(chǎng)景示意圖

  3.3 熱備容錯(Fault Tolerance):

  如圖5所示,原始實(shí)例創(chuàng )建一個(gè)在另一臺物理服務(wù)器上運行的實(shí)時(shí)影子,VM故障時(shí)可不重啟完成切換,防止由硬件故障導致的應用程序中斷,相當于熱備份。

FT場(chǎng)景示意圖

圖5:FT場(chǎng)景示意圖

  3.4 動(dòng)態(tài)資源調度

  基于預先設定的規則,跨資源池動(dòng)態(tài)平衡計算、分配資源。如圖6所示,管理員可以將Exchange server和Apache Server移動(dòng)到其他物理服務(wù)器,使SAP系統得到更多的空閑資源。

動(dòng)態(tài)資源調度示意圖

圖6:動(dòng)態(tài)資源調度示意圖

  4.遷移對網(wǎng)絡(luò )管理的影響和需求分析

  在上述場(chǎng)景中,VM位置都發(fā)生了改變,VM能否正常運行,不僅需要在服務(wù)器上的資源合理調度,網(wǎng)絡(luò )連接的合理調度也是必須的。

VM、網(wǎng)絡(luò )遷移示意圖

圖7:VM、網(wǎng)絡(luò )遷移示意圖

  如圖7所示,如果把虛擬機VM1從物理服務(wù)器pSrv1遷移到物理服務(wù)器pSrv2上,其網(wǎng)絡(luò )連接從原來(lái)的由pSRV1上虛擬交換機vSwitchA的某個(gè)VSI(屬于VLAN100的端口組)接入到邊緣物理交換機Edge Switch1,變成由pSRV2上vSwitchB的某個(gè)VSI接入到Edge SwitchB。若遷移后對應的Edge Switch的網(wǎng)絡(luò )配置不合適,則VM1遷移后就可能不能正常使用。比如原先對VM1的訪(fǎng)問(wèn)設置了ACL,以屏蔽非法訪(fǎng)問(wèn);或設置了QoS,以保障VM1上業(yè)務(wù)運行帶寬等服務(wù)質(zhì)量。都需要在發(fā)生VM創(chuàng )建或vMotion時(shí)同步調整相關(guān)的網(wǎng)絡(luò )連接配置。并且,為了保證VM的業(yè)務(wù)連續性,除了虛擬化軟件能保證VM在服務(wù)器上的快速遷移,相應的網(wǎng)絡(luò )連接配置遷移也需要實(shí)時(shí)完成,即網(wǎng)絡(luò )需要具有“隨需而動(dòng)”的自動(dòng)化能力,這也就需要利用虛擬化軟件提供管理API。目前主要的API技術(shù)有如下幾種。

  4.1 VMware ESX/ESXi的管理API

  VMware對外提供的管理接口主要是vShpere API(如圖8所示),管理系統可通過(guò)調用API接口對VMware進(jìn)行管理。

VMware管理接口

圖8:VMware管理接口

  4.2 Hyper-V的管理API

  微軟的Hyper-V提供了類(lèi)似VMware vCenter的集中管理產(chǎn)品SCVMM(System Center Virtual Machine Manager),并可以提供WMI和powerShell形式的API接口管理能力。

  4.3 通用的虛擬化API

  為解決虛擬化產(chǎn)品管理的兼容性問(wèn)題,業(yè)界出現了針對虛擬化的通用API技術(shù),典型的是Libvert技術(shù)(如圖9所示)。注:Libvert目前支持KVM、Xen、VMware等主流虛擬化產(chǎn)品。

Libvert技術(shù)架構

圖9:Libvert技術(shù)架構

二、虛擬化趨勢下的可視性管理

  服務(wù)器虛擬化后,虛擬服務(wù)器規模劇增,以及虛擬化軟件的遷移特性使虛擬服務(wù)器在數據中心網(wǎng)絡(luò )中的物理位置的可視性變得困難。當業(yè)務(wù)系統異常時(shí),需要從服務(wù)器、網(wǎng)絡(luò )各方面進(jìn)行分析診斷,對網(wǎng)絡(luò )管理員來(lái)講,需要清楚虛擬服務(wù)器VM位于哪個(gè)物理服務(wù)器、通過(guò)哪個(gè)物理網(wǎng)絡(luò )交換機接口接入網(wǎng)絡(luò ),甚至需要了解vSwitch上的網(wǎng)絡(luò )配置(比如VLAN),特別是服務(wù)器和網(wǎng)絡(luò )的邊界鏈接的可視性。如果對這些信息無(wú)法可視化管理,就無(wú)法有效的分析和定位故障。

  因此需要使用服務(wù)器虛擬化管理技術(shù)將虛擬化網(wǎng)絡(luò )相關(guān)信息納入到統一的資源可視化管理中。

  1.虛擬資源視圖

  通過(guò)虛擬資源視圖,可以查看物理服務(wù)器、虛擬交換機、VM的資源從屬關(guān)系信息。同時(shí)在虛擬交換機管理視圖中,其提供了服務(wù)器中虛擬網(wǎng)絡(luò )的配置能力(端口數量、端口組、VLAN、和物理網(wǎng)卡的綁定關(guān)系等)。在虛擬機的管理視圖中,可以提供分配的計算資源、GuestOS信息的可視性等功能。

  2.虛擬網(wǎng)絡(luò )拓撲

  拓撲是最為直觀(guān)的管理方式,通常的網(wǎng)絡(luò )拓撲由于沒(méi)有計算虛擬化相關(guān)數據,無(wú)法得到各個(gè)虛擬服務(wù)器VM和物理服務(wù)器、vSwitch的從屬和鏈接關(guān)系,各個(gè)VM是零落到整個(gè)拓撲、不同網(wǎng)段中的獨立節點(diǎn),而且VM的數量遠遠大于物理服務(wù)器的數量,最終出現的是一個(gè)大量、雜亂、無(wú)關(guān)的拓撲。

  通過(guò)虛擬網(wǎng)絡(luò )拓撲可以解決這個(gè)問(wèn)題,管理系統在拓撲計算中使用虛擬網(wǎng)絡(luò )的拓撲數據,提供清晰簡(jiǎn)潔的物理拓撲,所有虛擬節點(diǎn)都聚合到物理服務(wù)器節點(diǎn)上;同時(shí)又能體現物理服務(wù)器內部的虛擬世界。如圖10所示,可以看到展示物理服務(wù)器(ESX)、虛擬交換機(vSwitch)、虛擬機(VM)之間的從屬或連接關(guān)系。同時(shí),通過(guò)ESX和物理交換機之間的連接關(guān)系,可展示ESX所在的物理位置。

虛擬網(wǎng)絡(luò )拓撲實(shí)例

圖10:虛擬網(wǎng)絡(luò )拓撲實(shí)例

三、虛擬化趨勢下的流量可視性管理

  數據中心中不僅僅存在著(zhù)外部對數據中心應用的訪(fǎng)問(wèn)流量,在數據中心內部應用之間反而存在著(zhù)更為大量的數據交換,掌握這部分流量的分布以及對網(wǎng)絡(luò )的需求,對保障其業(yè)務(wù)的正常運行有更大的意義。而當業(yè)務(wù)大量部署在虛擬服務(wù)器上時(shí),如何感知虛擬服務(wù)器之間的流量就變得非常重要。

  1.從網(wǎng)絡(luò )側分析虛擬化流量的可視性

  對于傳統虛擬化技術(shù)中的VEB vSwitch模式,虛擬機VM之間的相互流量直接在vSwitch上交換,網(wǎng)絡(luò )是無(wú)法感知的(如圖11所示)。因此通過(guò)傳統的網(wǎng)流分析手段分析流量比較困難。

VEB模式流量模型

圖11:VEB模式流量模型

  目前正在形成標準的VEPA(802.1Qbg)方案中,VM間的流量必須通過(guò)外部網(wǎng)橋進(jìn)行交換(如圖12所示),網(wǎng)絡(luò )具有完全的流量可視性,只要網(wǎng)流分析管理軟件能夠將觸角延伸到VEPA外部網(wǎng)橋上即可。該模式要求對應網(wǎng)橋支持NetStream、NetFlow、SFlow能力。
VEPA、Multi-Channel模式流量模型

圖12:VEPA、Multi-Channel模式流量模型

  2.從服務(wù)器內部分析虛擬化流量的可視性

  除了從網(wǎng)絡(luò )側進(jìn)行流量的可視性感知,還可以以一定的手段從虛擬機內部進(jìn)行進(jìn)行流量分析。比如,利用vSwitch端口的混雜模式特性,當vSwitch的相應端口配置為混雜模式時(shí),與該端口連接的探測服務(wù)器就能鏡像觀(guān)測到該vSwitch上的所有流量。當然,探測服務(wù)器就必須作為一個(gè)VM才能連接到vSwitch上。

  如圖13所示,流量采集器(探針)可以作為一個(gè)VM部署到需要監控的物理服務(wù)器上,并將采集的流量數據輸出到外部的流量分析軟件進(jìn)行分析。該方式要求探針部署到服務(wù)器內部,而不是重要網(wǎng)絡(luò )節點(diǎn)附近。相當于降低了探針的部署位置,部署的數量可能會(huì )比較多。

基于vSwitch端口混雜模式的流量采集

圖13:基于vSwitch端口混雜模式的流量采集

四、虛擬趨勢下的自動(dòng)化配置遷移

  1.基于VMware vCenter的配置遷移方案

基于VMware的虛擬網(wǎng)絡(luò )配置遷移原理

圖14:基于VMware的虛擬網(wǎng)絡(luò )配置遷移原理

  如圖14所示,該方案的關(guān)鍵在于網(wǎng)管系統的虛擬化環(huán)境的拓撲可視化能力,定位出VM連接到的物理網(wǎng)絡(luò )交換機的接入位置以下發(fā)VM對應的網(wǎng)絡(luò )配置。如圖17所示,一個(gè)VM可能有一個(gè)或多個(gè)vNic,通過(guò)一個(gè)或多過(guò)vSwitch連接到外部物理交換機。如果要準確定位VM連接的物理網(wǎng)絡(luò )交換機的接入位置,vSwitch和pSwitch都需要支持必要的二層拓撲協(xié)議,比如LLDP協(xié)議。以VMware產(chǎn)品為例,其最新版本(vSphere5.0)已經(jīng)開(kāi)始支持LLDP協(xié)議,但僅在vDS(虛擬網(wǎng)絡(luò )分布式交換機)上支持LLDP,普通的vSwitch并不支持,虛擬服務(wù)器接入位置定位的準確性很難保證。

VM的物理網(wǎng)絡(luò )接入位置定位

圖15:VM的物理網(wǎng)絡(luò )接入位置定位

  除此之外,本方案還存在一個(gè)控制精細度問(wèn)題。在VEB vSwtich模式下,多個(gè)VM可以通過(guò)一個(gè)物理接口連接到鄰接物理交換機,即VM和物理接口是N:1的關(guān)系。如圖16所示。

VEB、Multi-Channel物理端口映射對比

圖16:VEB、Multi-Channel物理端口映射對比

  在此模式下,對物理交換機的配置控制粒度只能到物理接口級,針對數據中心“隨需而動(dòng)”的配置自動(dòng)化遷移,通常情況下會(huì )出現多個(gè)VM的配置都重復下發(fā)到一個(gè)物理接口上,很難做到針對每一個(gè)VM的精細化網(wǎng)絡(luò )配置管理。

  2.基于802.1Qbg的配置遷移方案

  擬定義的802.1Qbg標準(目前是draft1.6版本)在解決這些問(wèn)題上提出了新的思路。

  802.1Qbg標準首先解決了精細化控制最優(yōu)的解決方法,即在鄰接物理交換機出現了vPort的概念。這類(lèi)邏輯虛接口可以實(shí)現和VM對應的vNic/VSI的1:1對應關(guān)系。VM遷移時(shí),只需在對應的鄰接物理交換機上動(dòng)態(tài)創(chuàng )建一個(gè)vPort,并將VM對應的網(wǎng)絡(luò )配置Profile綁定到vPort上。不會(huì )對其他vPort產(chǎn)生影響。同時(shí)遷移前對應的鄰接物理交換機只需要簡(jiǎn)單的將對應的vPort邏輯接口刪除即可,不存在反向去部署的復雜性問(wèn)題。

  其次,802.1Qbg的VDP特性解決了VM接入定位準確性的問(wèn)題,即通過(guò)VDP通告,鄰接物理交換機學(xué)習到連接接入的VM信息和對應的網(wǎng)絡(luò )連接配置信息,并主動(dòng)向網(wǎng)管系統請求對應的網(wǎng)絡(luò )連接配置profile,減少了網(wǎng)管系統進(jìn)行VM接入位置定位的步驟。

  該方案過(guò)程如圖17所示。

支持VDP的虛擬網(wǎng)絡(luò )配置遷移

圖17:支持VDP的虛擬網(wǎng)絡(luò )配置遷移

  整體來(lái)看,引入802.1Qbg VDP后,不依賴(lài)網(wǎng)管系統對VM接入物理網(wǎng)絡(luò )的定位能力,提高了網(wǎng)絡(luò )配置遷移的準確性和實(shí)時(shí)性。同時(shí),服務(wù)器系統管理員和網(wǎng)絡(luò )管理員職責劃分也將更加明確。對系統管理員來(lái)講,只需要關(guān)注網(wǎng)絡(luò )提供的虛擬服務(wù)器到鄰接交換機的鏈接;而對網(wǎng)絡(luò )管理員而言,則只需要關(guān)注針對不同的應用系統(或VSI類(lèi)型)應提供什么樣的網(wǎng)絡(luò )接入配置。這樣在IaaS中,網(wǎng)絡(luò )和服務(wù)器之間就產(chǎn)生了一種服務(wù)概念的抽象――鏈接即服務(wù)(CaaS,Connection as a service)。

五、結束語(yǔ)

  虛擬化服務(wù)器、網(wǎng)絡(luò )的融合管理已經(jīng)成為當前企業(yè)IT、數據中心建設IaaS能力的必要元素,各廠(chǎng)商都在相關(guān)領(lǐng)域進(jìn)行嘗試,也出現了不同的虛擬化軟件廠(chǎng)商和網(wǎng)絡(luò )廠(chǎng)商的聯(lián)盟,不同的實(shí)現方案。另一方面,標準化工作和管理技術(shù)的研究也在快速進(jìn)行,在虛擬化管理領(lǐng)域我們仍需緊跟虛擬化技術(shù)的發(fā)展,才能更好地提供可視、可控的虛擬網(wǎng)絡(luò )管理能力。
共 3 頁(yè):1 2 3 

C114中國通信網(wǎng)



相關(guān)閱讀:
H3C助力山西移動(dòng)數據中心業(yè)務(wù)承載網(wǎng)絡(luò ) 2011-11-17
H3C發(fā)布數據中心網(wǎng)絡(luò )高端認證項目 2011-11-04
H3C選用ENTROPIC寬帶接入芯片提供高頻解決方案 2011-10-19
香港大學(xué)借H3C技術(shù)創(chuàng )新教學(xué)環(huán)境 部署先進(jìn)網(wǎng)絡(luò )架構 2011-10-13
H3C專(zhuān)注的勝利 崛起威脅思科 2011-09-15

熱點(diǎn)專(zhuān)題:  云計算   數據中心
分類(lèi)信息:  云計算_與_數據中心  云計算_與_電信  數據中心_與_電信
亚洲精品网站在线观看不卡无广告,国产a不卡片精品免费观看,欧美亚洲一区二区三区在线,国产一区二区三区日韩 舟曲县| 宜君县| 武强县| 庆元县| 孙吴县| 政和县| 伊宁县| 香港 | 大城县| 喀喇| 定陶县| 太谷县| 东莞市| 石渠县| 静乐县| 鹿泉市| 黄大仙区| 浦北县| 衡东县| 汉川市| 辽源市| 堆龙德庆县| 保康县| 耿马| 阿坝县| 西丰县| 白银市| 綦江县| 塘沽区| 南阳市| 普格县| 乌鲁木齐市| 林州市| 商都县| 叙永县| 中方县| 措美县| 鹿泉市| 繁昌县| 南通市| 横峰县| http://444 http://444 http://444 http://444 http://444 http://444