同時(shí)白皮書(shū)還詳細闡述了通過(guò)華為AI Fabric方案打造零丟包、低時(shí)延、高吞吐的智能無(wú)損網(wǎng)絡(luò )的獨特技術(shù)優(yōu)勢和客戶(hù)價(jià)值。白皮書(shū)的發(fā)布,對于企業(yè)構建下一代數據中心網(wǎng)絡(luò )具有很高的參考價(jià)值。
分析數據顯示,全球2000家跨國公司中,67%的CEO已將數字化確定為公司戰略的核心。數字化過(guò)程中產(chǎn)生大量的數據,使用AI從海量數據中挖掘智慧成為共同的選擇。華為GIV(Global Industry Vision)預測,到2025年企業(yè)對AI的采用率將達到86%,AI成為企業(yè)重塑商業(yè)模式、提升客戶(hù)體驗和開(kāi)創(chuàng )未來(lái)的關(guān)鍵推動(dòng)力。
白皮書(shū)認為,AI也正驅動(dòng)著(zhù)ICT架構的變革,存儲介質(zhì)從HDD(Hard Disk Drive)變成SSD(Solid State Drive),時(shí)延降低了100倍,處理數據的CPU變成GPU甚至專(zhuān)用的AI芯片,計算性能提升了100倍。
網(wǎng)絡(luò )通信時(shí)延成為瓶頸,正促使網(wǎng)絡(luò )通信從TCP/IP向RDMA(Remote Direct Memory Access,即遠程直接數據存取)演進(jìn)。另一方面,分布式應用架構的普及帶來(lái)服務(wù)器間大量協(xié)作,多點(diǎn)對一點(diǎn)的流量和大字節數據包交互,加劇了網(wǎng)絡(luò )擁塞。
白皮書(shū)指出,通信協(xié)議的演進(jìn)、應用架構的變化均呼吁網(wǎng)絡(luò )的變革,需要更智能的調度和無(wú)損的轉發(fā),實(shí)現零丟包、低時(shí)延、高吞吐的智能無(wú)損數據中心網(wǎng)絡(luò )。
在今年10月舉辦的HUAWEI CONNECT 2018上,華為發(fā)布了AI Fabric智能無(wú)損數據中心網(wǎng)絡(luò )方案,可幫助客戶(hù)構建與傳統以太網(wǎng)兼容的RDMA網(wǎng)絡(luò ),為數據中心帶來(lái)零丟包、低時(shí)延和高吞吐的極致性能。
本次白皮書(shū)詳細解讀了華為AI Fabric在擁塞管理和流量控制方面的獨特算法創(chuàng )新,一張網(wǎng)可承載LAN(局域網(wǎng))、SAN(存儲區域網(wǎng)絡(luò ))和IPC (進(jìn)程間通信)三種流量的融合開(kāi)放性和智能交換機硬件架構的長(cháng)期演進(jìn)能力。
根據國際權威第三方獨立測試機構歐洲高級網(wǎng)絡(luò )測試中心EANTC的測試結論,華為AI Fabric可有效縮短高達40%的HPC節點(diǎn)間通信時(shí)長(cháng),大幅提升AI訓練等創(chuàng )新業(yè)務(wù)效率。
RDMA網(wǎng)絡(luò )的普及是正在發(fā)生的趨勢,已經(jīng)在行業(yè)領(lǐng)先的部分互聯(lián)網(wǎng)企業(yè)得到部署,智能無(wú)損數據中心網(wǎng)絡(luò )成為AI時(shí)代網(wǎng)絡(luò )的變革方向之一。華為AI Fabric是順應時(shí)代發(fā)展的創(chuàng )新方案,加速了數據計算和存儲的效率,可為企業(yè)帶來(lái)數十倍的ROI(投資回報率)。
王雷
華為數據中心網(wǎng)絡(luò )領(lǐng)域總經(jīng)理
最后,華為AI Fabric已在互聯(lián)網(wǎng)、金融等行業(yè)領(lǐng)先的企業(yè)中成功商用實(shí)踐,幫助某互聯(lián)網(wǎng)企業(yè)提升AI訓練效率,加速無(wú)人駕駛商用進(jìn)程;助力招商銀行分行云提升20%存儲性能,引領(lǐng)零售銀行3.0時(shí)代。
下載華為《AI Fabric,面向AI時(shí)代的智能無(wú)損數據中心網(wǎng)絡(luò )》白皮書(shū):
https://e.huawei.com/cn/material/onLineView?MaterialID=c52d2372f2eb47dcb1038b8570f83c80&utm_medium=sm&utm_source=weixin&utm_campaign=EEBGHQ197102L
下載華為《AI Fabric,面向AI時(shí)代的智能無(wú)損數據中心網(wǎng)絡(luò )》白皮書(shū):
