日前,社交網(wǎng)絡(luò)巨頭Facebook公司已經(jīng)進(jìn)級(jí)了毗連其處事器的網(wǎng)絡(luò),以應(yīng)對(duì)內(nèi)部數(shù)據(jù)流量的增長(zhǎng)。新的快速主干網(wǎng)絡(luò)(EBB)可以緩解其數(shù)據(jù)中心內(nèi)的網(wǎng)絡(luò)擁塞,并為最終用戶提供更好的處事。
所有用戶流量都保存在現(xiàn)有網(wǎng)絡(luò)上,又稱為‘Classic Backbone’。
一個(gè)差異的挑戰(zhàn)
在已往十年中,Facebook公司在美國(guó)和歐洲的數(shù)據(jù)中心利用單一廣域網(wǎng)(WAN)主干網(wǎng)舉辦互連,該網(wǎng)絡(luò)承載了用戶流量和內(nèi)部處事器之間的流量。
內(nèi)部流量由與用戶交互不直接相關(guān)的各類操縱構(gòu)成,譬喻將圖片和視頻移動(dòng)到冷存儲(chǔ)或復(fù)制異地?cái)?shù)據(jù)以舉辦劫難規(guī)復(fù)等。
按照網(wǎng)絡(luò)工程師Mikel Jimenez和Henry Kwok的博客文章,Facebook內(nèi)部數(shù)據(jù)中心流量的增長(zhǎng)速度遠(yuǎn)遠(yuǎn)快于用戶流量,直到開(kāi)始滋擾前端成果。
“跟著新的數(shù)據(jù)中心的成立,我們意識(shí)到需要將跨數(shù)據(jù)中心與面向互聯(lián)網(wǎng)的流量分為差異的網(wǎng)絡(luò),并對(duì)其舉辦優(yōu)化。在不到一年的時(shí)間里,我們構(gòu)建了新的跨數(shù)據(jù)中心主干網(wǎng)絡(luò)的第一個(gè)版本,稱為快速主干網(wǎng)(EBB),從那今后我們一直在增長(zhǎng)。”工程師在文章中表明說(shuō)。
在建設(shè)EBB時(shí),美國(guó)云服務(wù)器 韓國(guó)vps云主機(jī),Facebook公司將其網(wǎng)絡(luò)的物理拓?fù)浞謩e為四個(gè)并行平面,就像在2014年設(shè)計(jì)數(shù)據(jù)中心架構(gòu)時(shí)一樣。該公司還開(kāi)拓了專有的模塊化路由平臺(tái)來(lái)提供內(nèi)部網(wǎng)關(guān)協(xié)議(IGP)和動(dòng)靜通報(bào)成果。
Jimenez和Kwok在文章中寫道:“我們的新網(wǎng)絡(luò)的第一次迭代是利用內(nèi)部網(wǎng)關(guān)協(xié)議(IGP)和全網(wǎng)內(nèi)部BGP協(xié)議(IBGP)拓?fù)洳季值耐昝缊F(tuán)結(jié)來(lái)構(gòu)建的,以實(shí)現(xiàn)根基的數(shù)據(jù)包路由。下一步是添加一個(gè)流量矩陣預(yù)計(jì)器和中央節(jié)制器來(lái)執(zhí)行假設(shè)‘靜態(tài)’拓?fù)涞牧髁抗こ毯瘮?shù)。最后的迭代將內(nèi)部門布式網(wǎng)絡(luò)平臺(tái)Open/R替代了原有的IGP,將漫衍式版本與中央節(jié)制器完全集成。”
由此發(fā)生的網(wǎng)絡(luò)可以或許實(shí)現(xiàn)清潔的拆分妨礙域,并可及時(shí)響應(yīng)流量峰值。接下來(lái),Facebook公司打算擴(kuò)展網(wǎng)絡(luò)節(jié)制器成果,以更好地打點(diǎn)流量擁堵。