cookieOptions = {...}; ‧ 雲端運算數據中心綜合布線發展趨勢 - 3S Market「全球智慧科技應用」市場資訊網

3S MARKET

3S MARKET
2016年7月11日 星期一

來源:CPS中安網 作者:TechTarget中國 


雲端運算是最近幾年最熱門的話題之一,我們的生活越來越離不開雲、網路訂票、購物、訂房、訂餐等各種應用層出不窮。雲端運算改變了人們的生活方式,也改變了資料中心的技術發展路線,為了滿足不斷湧現的網路應用,和不斷成長的資料傳輸需求,雲端運算資料中心網路佈線正面臨以下七大發展趨勢:
 

1、高性能計算(100/40Gbps 做主幹,25/10Gbps到伺服器)
傳統的乙太網以10為倍數成長,從經濟的角度來說,價格和功耗都會很高,難以滿足快速增長的資料中心市場需求。

下一代的乙太網以4為倍數增長,100Gbps做主幹,25Gbps到伺服器,主幹採用24芯或者12MPO光纖纜線,支持100Gbps40Gbps到主幹;水平採用Cat.8銅纜或者Cat.6A銅纜,支持25Gbps10Gbps到伺服器。

2、網路架構扁平化(Spine-leaf 架構與 ToR佈線)
傳統的資料中心資料流,主要在伺服器和客戶機之間流動,我們一般稱之為南北向的流動,雲端運算資料中心資料流,主要在資料中心服務器之間流動,我們稱之為東西向流動。這種東西走向的大量資料的交換,要求資料中心採用扁平化的骨幹,和分支兩級網路架構,這種「胖樹」架構能夠實現,無阻塞、低延遲、快速交換,也促使網路佈線結構做相應的改變。


傳統資料中心佈線採用主配線區、水平配線區和設備配線區三層結構的佈線方式,雲端運算數據中心佈線結構趨向扁平化,佈線結構簡化為主配線區和中間配線區兩層結構,設備機櫃則通常採用櫃頂交換機,到伺服器跳線直連的方式,這種方式方便統一管理,另外能夠顯著降低部署時間。

3、模組化
傳統的資料中心基建、供電、制冷、網路佈線分批部署,成本高、部署速度慢、功耗高。模組化資料中心將機櫃、供配電、制冷、佈線、安防等基礎設施整合為一體,一次性交付,有利於資料中心快速部署、靈活擴容、降低功耗。

4、光進銅退
虛擬化驅動數據中心採用更高性能、更多芯數的光纖,雲端運算的資料中心由於採用ToR佈線結構,不存在水平佈線,光纜和銅纜的比重大約是7:3甚至更高。

隨著光纖芯數和密度的不斷提高,雲端運算資料中心需要採用更專業的光纖管理設備,提供熔接保護、彎曲半徑保護、剩餘纜線儲存和物理保護,以及路由管理,從而保證網路的7x24小時可靠營運,同時方便日後的跳線管理和維護。
 
5、智慧化
雲端運算資料中心是一個生態系統,它提供基本的基礎設施或者統一的管理平台,甚至統一的軟體服務。隨著雲端運算資料中心投入營運,用戶流量不斷增多,管理範圍不斷擴大,管理員面臨越來越大的壓力:大量的資產管理、頻繁的移動、增加、變更維護、多站點的管理……

為了有效地管理這個生態系統,雲端運算資料中心通過採用資料中心基礎設施管理,以及自動基礎設施管理等智慧化手段,實現即時、遠端監控資料中心主要的基礎設施,包括供電、溫度、安防、佈線,因而大大提高資料中心可視化和管理效率。

6、集中式管理
傳統資料中心採用分布式的管理方式,列頭櫃集中放置接入交換機和水平配線架,用來統一管理一列的設備。雲端運算的資料中心採用集中管理方式,所有的設備機櫃採用光纖上連到主配線區(MDA)/中間配線區(IDA),在主配線區(MDA)/中間配線區(IDA)內,集中放置光纖配線機架(ODF)和分支(Spine)交換機。這種集中管理方式有利於統一管理,可以提高交換機設備端口使用率,另外可以減少管理員足跡。


7、交叉連接
傳統的資料中心佈線一般採用互連的連接方式,即採用跳線直接連接水平配線架和交換機。互連方式優點是配線架的數量少,缺點是日後管理維護需要在交換機上進行,容易造成有源設備故障,甚至網路當機。

雲端運算數據中心一般在主配線區或中間配線區,採用交叉連接連接方式,即交換機採用跳線連接到一個影射配線架上,日常維護中如網路需求變化,比如需要對跳線增加、移動或者變更(MAC),管理員無須在交換機上進行插拔,只須在影射配線架和水平配線架之間進行跳線操作。
 

這種交叉連接方式的好處包括:

管理界面清晰,有源設備和無源設備放置在不同的管理機櫃;無須在交換機上進行跳線操作,減少有源設備故障;方便日後跳線管理維護(MAC,移動,增加,變更),僅需在配線機櫃內操作;方便線路查找,配線架上提供清楚的標籤系統;採用統一長度的跳線,減少服務差別。

                                                                                                                                                                                                                            

0 comments: