從2006年開(kāi)始出現的云計算概念,其熱度一直持續到今天,并有愈演愈烈之勢,幾乎所有企業(yè)IT業(yè)務(wù)都在向云計算演進(jìn)。在此期間,數據中心網(wǎng)絡(luò )設備更是以每年40%以上的速度增長(cháng),其中數據中心級核心交換機可以說(shuō)是整個(gè)云計算網(wǎng)絡(luò )架構的一個(gè)關(guān)鍵節點(diǎn)。
何以誕生?
數據中心級交換機之所以誕生,背后有著(zhù)深刻的原因。根本的支撐是整個(gè)IT業(yè)界的應用模型發(fā)生了革命性的變化,從Client/Server的流量模型向Server/Server流量模型演進(jìn),從單播為主的流量模型到Incast和多播流量的大量使用。同時(shí)伴隨著(zhù)的是大量企業(yè)關(guān)鍵業(yè)務(wù)IT化,企業(yè)客戶(hù)對IT的投資更加活躍,大規模服務(wù)器集群、虛擬化、大數據等技術(shù)的成熟都對網(wǎng)絡(luò )提出了更高的業(yè)務(wù)要求。
從附表的分析中我們可以發(fā)現,業(yè)務(wù)應用的需求驅動(dòng)加上產(chǎn)品技術(shù)的成熟是數據中心核心交換機成功的關(guān)鍵。所以當我們設計下一代的數據中心核心交換機時(shí),也謹遵守這一規則。
現狀如何?
當前條件下,主流網(wǎng)絡(luò )設備廠(chǎng)商的數據中心級核心交換機基本具備如下特點(diǎn):
1.較高可擴展性可擴展性的應用場(chǎng)景主要集中在如下3個(gè)方面:
首先是高速擴展的數據中心,它需要容納更多的服務(wù)器接入、更高的接入端口速率、更大的數據吞吐量,來(lái)滿(mǎn)足不斷新增的服務(wù)器接入需求。要達成這一目標,需要依賴(lài)更高性能的硬件,生產(chǎn)出高密度、高速接口的新網(wǎng)絡(luò )設備。
其次是虛擬機遷移的支持,需要一個(gè)可擴展的大二層網(wǎng)絡(luò )來(lái)匹配虛擬機應用。使虛擬機的靈活部署可以在更廣大的物理場(chǎng)點(diǎn)之間實(shí)現。這就需要新協(xié)議、新硬件特性的支持,比如全新的二層路由協(xié)議TRILL,還有跨數據中心的L2互連支持。
最后是網(wǎng)絡(luò )架構擴展的需求,現代數據中心網(wǎng)絡(luò )架構越來(lái)越趨向于采用模塊化的方式,它易部署、易維護、易管理,能有效提高部署效率,降低運維的復雜度。
2.網(wǎng)絡(luò )設備的自身虛擬化能力網(wǎng)絡(luò )設備自身的虛擬化應用場(chǎng)景主要集中在如下3個(gè)方面:
首先是簡(jiǎn)化網(wǎng)絡(luò )拓撲,降低網(wǎng)絡(luò )運維的復雜性。比較典型的業(yè)務(wù)特性是雙(多)機集群。目前業(yè)界比較成熟的是雙機集群;而多機集群的技術(shù)難度遠大于雙機集群,現在還處于試水階段;另外還包括接入層交換機的各種矩陣擴展方式,虛擬堆疊技術(shù)等等。
其次是網(wǎng)絡(luò )資源共享、靈活調配。目前已有多個(gè)廠(chǎng)家提供虛擬交換機技術(shù)來(lái)達成這一目標。虛擬交換機幫助用戶(hù)快速部署網(wǎng)絡(luò ),并提升網(wǎng)絡(luò )資源的利用率,包括機房空間、供電、設備板卡等,是一個(gè)不可多得的好技術(shù)。
最后是網(wǎng)絡(luò )對虛擬機的感知以及網(wǎng)絡(luò )適配。它要求網(wǎng)絡(luò )可以以虛擬機的顆粒度進(jìn)行管理。這類(lèi)技術(shù)是現在業(yè)界在實(shí)現上最不成熟的一環(huán),目前有802.1BR、802.1Qbg、甚至是帶外網(wǎng)管實(shí)現……一線(xiàn)廠(chǎng)商或多或少都有自己的方案,但最終誰(shuí)能占據主流市場(chǎng)尚未可知。
3.多業(yè)務(wù)支持和網(wǎng)絡(luò )融合多業(yè)務(wù)支持和網(wǎng)絡(luò )融合的應用場(chǎng)景主要集中在如下3個(gè)方面:
首先是對復雜網(wǎng)絡(luò )業(yè)務(wù)的支持。譬如,支持多租戶(hù)、移動(dòng)IP、VPN等。這需要引入各種創(chuàng )新的協(xié)議和硬件芯片(如各種VPN技術(shù)、VxLAN/NvGRE、IPv6等)。如果用芯片直接適配復雜業(yè)務(wù)的處理,可以獲得較高的處理性能;目前基本都在啟動(dòng)階段,沒(méi)有成熟應用。
其次是對傳統業(yè)務(wù)的集成。常用的傳統業(yè)務(wù)有防火墻、網(wǎng)絡(luò )分析、負載均衡設備等。通常的做法是用多業(yè)務(wù)板塊在設備層面進(jìn)行集成。由于這些復雜業(yè)務(wù)不能在A(yíng)SIC上直接實(shí)現,所以用加載CPU的業(yè)務(wù)板卡來(lái)實(shí)現是一個(gè)比較快速、靈活的解決方案。好處是可以支持多種業(yè)務(wù),甚至允許用戶(hù)自定義;缺點(diǎn)是性能一般都不太高。
最后看網(wǎng)絡(luò )融合。在數據中心,最主要的內容就是對傳統的FC網(wǎng)絡(luò )和HPC網(wǎng)絡(luò )進(jìn)行融合。目標是實(shí)現Everything over Ethernet。10GE和DCB等新技術(shù)的出現使得Ethernet可以承載原來(lái)所不能承載的異種網(wǎng)絡(luò ),如FCoE、RDMAoE等等。
缺憾在哪?盡管數據中心級的核心交換機在業(yè)務(wù)和技術(shù)上取得了很大突破,但目前還存在不少缺憾,主要包括:
1.網(wǎng)絡(luò )擴展能力有限在設備的可擴展性上,核心交換機能滿(mǎn)足支撐未來(lái)5年乃至10年的網(wǎng)絡(luò )擴展需求的廠(chǎng)家幾乎沒(méi)有;究其根本原因就是設備架構設計和網(wǎng)絡(luò )業(yè)務(wù)快速擴張速度的不匹配。
服務(wù)器虛擬化后,對二層的數據交換產(chǎn)生了巨大需求,但二層網(wǎng)絡(luò )由于天生的缺陷,網(wǎng)絡(luò )節點(diǎn)的可擴展性非常有限。
一些傳統的二層網(wǎng)絡(luò )技術(shù),如STP等,只解決了二層網(wǎng)絡(luò )的破環(huán),卻在如何做大二層網(wǎng)絡(luò )上并未涉及,在多個(gè)數據中心之間如何實(shí)現虛擬機的二層互通,現在也沒(méi)有一個(gè)非常成熟的方案。
2.網(wǎng)絡(luò )虛擬化和應用虛擬化分離應用虛擬化以后,客戶(hù)的業(yè)務(wù)、應用將變得更加靈活,調整起來(lái)會(huì )變得更加動(dòng)態(tài)、頻繁。
網(wǎng)絡(luò )虛擬化如何跟隨業(yè)務(wù)、應用的變化進(jìn)行動(dòng)態(tài)適配,快速、自動(dòng)地進(jìn)行部署變更,也是一道很大的考題。
3.網(wǎng)絡(luò )行為開(kāi)放有限隨著(zhù)客戶(hù)應用環(huán)境的日益復雜,許多客戶(hù)都提出了網(wǎng)絡(luò )行為定制化的需求。因為每個(gè)客戶(hù)的網(wǎng)絡(luò )環(huán)境都有其特點(diǎn),而廠(chǎng)家生產(chǎn)的標準化設備不能滿(mǎn)足所有客戶(hù)的特殊行為需求,所以業(yè)界出現了通過(guò)一個(gè)開(kāi)放式標準接口來(lái)控制網(wǎng)絡(luò )設備行為的思潮。
OpenFlow/OpenStack/SDN等技術(shù)應運而生。盡管目前這些技術(shù)還比較稚嫩,和設備的適配上也不完美,但誰(shuí)也不能斷言將來(lái)這種將網(wǎng)絡(luò )控制的細節充分開(kāi)放給外部應用的架構就一定走不通。
不管最終采用了什么技術(shù)——控制和轉發(fā)完全分離、網(wǎng)絡(luò )設備直接提供API接口、開(kāi)放式平臺提供中間件……定制客戶(hù)化的網(wǎng)絡(luò )行為這一業(yè)務(wù)需求是不可忽略的。
4.“數據中心”和“園區網(wǎng)”核心的重復投資兩套核心設備固然能解決安全性問(wèn)題,但勢必帶來(lái)物理設備雙份投資,同時(shí)管理和維護成本也會(huì )相應提高。
從客戶(hù)的角度看,使用同一硬件平臺支持數據中心和園區網(wǎng),能獲得統一的管理、雙核心物理耦合(通過(guò)虛擬交換機來(lái)實(shí)現)、便捷的部署和運維等優(yōu)點(diǎn)。
從技術(shù)角度看,數據中心和園區網(wǎng)共享核心交換機是大勢所趨。
5.極高的電力成本比較歷代核心交換機的功耗會(huì )發(fā)現最近幾代設備的電力消耗越來(lái)越大。如果客戶(hù)把這些新型的交換機安裝在傳統供電設計的數據中心機房,那么供電就是個(gè)大問(wèn)題,而且溫度越高、對設備可靠性的沖擊就越大。
把數據中心級核心交換機的功耗降下來(lái)是一個(gè)非常重要的課題,有助于提高設備的可靠性,節約日益緊張的能源,降低對設備機房的安裝要求。