在最初著(zhù)手設計集裝箱式數據中心時(shí),我將它們視為一種針對驗收測試、安裝中斷、布線(xiàn)和總體性能等多年來(lái)一直困擾IT部門(mén)的眾多問(wèn)題的解決方案。隨著(zhù)技術(shù)的不斷發(fā)展,我們找到了一些能夠消除電能使用效率(PUE)值居高不下的辦法。
反過(guò)來(lái),這也促使x64服務(wù)器的設計具有更高的效率。花大量精力提升單元冷卻效率這種提供寒冷空氣環(huán)境的傳統理念已經(jīng)成為了歷史。
能夠降低PUE值的因素有許多種。多核x64 CPU的出現讓傳統的1U服務(wù)器在保持了原有的功率的同時(shí),極大地提升了電源使用效率。與CPU匹配的低功耗內存使得當今的服務(wù)器擁有更優(yōu)秀的GFLOPS/watt指標。與此同時(shí),電源供應效率也得到了大幅提升,這降低了服務(wù)器的熱負載。
最大的突破在于人們已經(jīng)意識到冷卻與集裝箱內的服務(wù)器引擎之間必需實(shí)現分離。我們目前已經(jīng)嘗試了水冷、屋頂制冷和側壁制冷等方式。在這一過(guò)程中,如果我們在服務(wù)器上使用了更大的風(fēng)扇,溫度會(huì )出現下降,在放滿(mǎn)機架的相同房間內,我們可以使用5英寸或更大的風(fēng)扇進(jìn)行冷卻。(在技術(shù)層面,更大的風(fēng)扇和更合理的空氣流幾乎是金科玉律,因此5英寸的風(fēng)扇肯定比3/4英寸的風(fēng)扇冷卻效果要好。)
與此同時(shí),大量研究顯示,在美國和歐盟的許多地區高溫天氣的時(shí)間并不長(cháng),在北方許多地方基本上就沒(méi)有炎熱天氣。針對零環(huán)境溫度設計集裝箱式服務(wù)器群的理念開(kāi)始被廣泛接受。
進(jìn)氣口溫度為40℃ 的x64 商用現貨服務(wù)器可裝入集裝箱內。通常,?-U服務(wù)器集群采用大型風(fēng)扇進(jìn)行冷卻并共用冗余電源。需要注意的是,這些服務(wù)器并不是刀片式服務(wù)器,刀片式服務(wù)器的基礎架構和復雜的包裝方式會(huì )限制冷卻作業(yè)。老舊的大型機和小型機也存在同樣的問(wèn)題。
40℃(104F℉)對于許多位于北方地區的集裝箱式數據中心來(lái)說(shuō)非常理想,但是為了獲得許多附加的好處,這一溫度需要提升。磁盤(pán)驅動(dòng)器通常環(huán)境溫度指標為55℃。40℃這一溫度可能也適合這些驅動(dòng)器,但是溫度最好是提升至45℃(113℉)。
環(huán)境溫度指標為70C的SSD以及60℃或 65℃的新硬盤(pán)驅動(dòng)器正在解決這一問(wèn)題。以后帶有硬盤(pán)的服務(wù)器都將能滿(mǎn)足45℃這一目標。
另一個(gè)方案是將所有的這些存儲都放入統一的機架中或集裝箱中。這種方案非常適合虛擬化云模式。它們允許服務(wù)器進(jìn)氣溫度達到45℃。需要在驅動(dòng)器之間進(jìn)行冷卻和輸送空氣流的存儲單元可以進(jìn)行更好的優(yōu)化,這樣一來(lái)它們也能夠在進(jìn)氣溫度為45℃的環(huán)境中工作。
這樣會(huì )給PUE帶來(lái)什么影響呢?放置集裝箱的“車(chē)間”擁有非常出色的PUE。沒(méi)有了冷卻負載,這些電力將會(huì )用于照明和人員辦公。集裝箱的電力負載幾乎全部是計算機設備的。開(kāi)銷(xiāo)主要是冷卻風(fēng)扇,但是大型風(fēng)扇的設計將會(huì )大幅減少。集裝箱式數據中心的PUE凈值在零環(huán)境溫度中低于1.10。
此外,還有一些降低服務(wù)器電力使用的小技巧,這其中包括使用大型共用式電力供應系統為服務(wù)器集群集中供應12V直流電。
我們還可以在單個(gè)服務(wù)器機架上采取一些其它措施,如使用尺寸更大的風(fēng)扇,但是這需要安裝排氣管道。我們的宗旨是創(chuàng )建更為綠色環(huán)保的數據中心。
那么下一步發(fā)展趨勢是什么呢?在2014年晚些時(shí)候,我們或許會(huì )看到內存與CPU將在模塊中實(shí)現緊密整合。如果這成為了現實(shí),那么服務(wù)器的性能將出現大幅提升,同時(shí)電力使用量將會(huì )出現下降。這意味著(zhù)參與運行的設備數量將會(huì )減少,處理過(guò)程將更節能,數據中心的總用電量將下降,但是PUE可能會(huì )出現小幅增長(cháng)。
此外,我們還將會(huì )看到微軟服務(wù)器的出現。這些低功耗、高密度服務(wù)器能夠與冷卻設置實(shí)現更完美的匹配。