數據中心內部和數據中心之間網絡連接的容量需求不斷增加,推動了部署新的和改進的光通信設備的需求。面對開發創新解決方案來應對這一挑戰的任務,工程師必須處理和鞏固無數的設計選擇,這些設計選擇受到各種各樣的限制。
舉幾個例子,最佳解決方案可能取決于技術要求,例如最低數據速率、最大延遲、電光帶寬、鏈路距離、可升級性(到更高的速度和/或其他/更多波長),以及需要遵循標準的要求和這些標準如何演變。
就此意義而言,用于模擬和比較替代解決方案的自動化設計工具是不可或缺的。
我們給出了系統級和組件級的設計實例,說明了建模、分析和優化數據中心內和數據中心間應用的光互連的技術選擇和設備參數方面的挑戰。對光收發機組件的性能調整至關重要的是相應的電子和光學部件的集成協同設計。我們展示了一個無縫的設計流程,將發射機/接收機電路的模擬(如串行化/反串行化、DAC/ADC、驅動放大器/TIA等)與光纖鏈路的模擬連接起來,從而能夠研究和優化整個系統的性能。
此外,我們還比較了多?;A設施解決方案的優勢和挑戰,例如,利用寬頻寬多模光纖傳輸的多模VCSEL的PAM4調制,以及利用Mach-Zehnder調制器和可調諧DFB激光器在SMF光纖鏈路上進行WDM操作的單模解決方案。
對光互連仿真輔助設計的需要
數據中心是設計和部署更多、更大容量光鏈路需求背后的驅動力。數據中心內部和數據中心之間的互聯網流量正在迅速增長,預計在2016年至2021年期間將增長兩倍,達到約20.6 ZB。越來越需要帶寬的終端用戶應用程序,如云存儲、高性能計算、流視頻和在線游戲,確保了這一趨勢將繼續下去。
圖1:光互連應用環境
圖1顯示了光互連的應用空間,從用于連接同一建筑內的服務器和機架的數據中心內部鏈路開始。它們的長度從幾米到幾百米不等。同一園區內不同建筑的集群之間的連接可達2-4公里,而數據中心互連(DCI)鏈路通常相距數十公里。城域/邊緣接入網中的數據中心通常通過~40-80公里的點對點鏈路連接。
很明顯,光互連所處的環境是極為多樣化的。這與城域和長途電信網絡形成鮮明對比,后者的傳輸要經過數百或數千公里的光纖;雖然后者也需要不同的長度和容量,但它們都基于單一的底層技術和收發器架構: 使用單模光纖的雙偏振同相/正交調制器和偏振分集相干接收機。另一方面,光互連不能充分服務于這種一刀切的光學技術解決方案,因為這在性能和成本方面都并非優選。
數據中心內部和數據中心之間不同的應用場景需求,意味著必須采用截然不同的技術。事實上,近年來已經看到幾十個專有和IEEE標準,以及定義高速光互連系統的多源協議(MSA)的擴散。為了滿足部署和操作數據中心的嚴格成本要求,這些標準化工作至關重要。較短的線路因部署的更廣泛,從而比長途線路對成本更敏感。此外,數據中心內部的鏈路需要非常低的功耗,可能只有幾瓦的量級,而電信級相干收發機則需要幾十瓦的功耗。最后,應用場景還將規定其性能需求:例如,超算(HPC)或金融應用程序往往需要具有超低延遲的數據傳輸。
圖2.適用于寬帶工作的多模VCSELs和多模光纖PAM4傳輸鏈路的仿真原理圖
達到特定系統必要規格的同時保持最低限度的成本和功耗,需要找到其中的微妙平衡; 使用仿真輔助設計軟件可以大大簡化這一過程。需要考慮端到端鏈路的全部復雜性,這意味著需要光學子系統和電子子系統的協同設計和協同仿真。根據目標的仿真細節的級別,可能需要運行專門的電子設計自動化(EDA)工具,與對應的光子設計自動化工具(PDA)相結合。
系統架構師需要能夠量化物理缺陷對特定系統的影響,除了系統中設備和組件外,還包括需要考慮系統的調制格式、發送端或接收端模擬/數字信號處理、行編碼、前向糾錯(FEC)等。設計人員可以使用模擬工具來評估組件選項并探索它們的公差,以達到總體上符合某個目標標準或MSA。此外,這些模擬工具也可以用于可行性研究,來比較不同的技術和未來的系統概念。
光互連的技術和系統趨勢
傳輸介質是光互聯系統的基本設計選擇之一:多模光纖(MMF)和單模光纖(SMF)都有廣泛的應用。對于長度在100-300米以下的鏈路,目前基于VCSEL的MMF鏈路占主導地位,因為與SMF鏈路相比,其成本效益顯著。然而, MMF的性能不足以滿足更長的長度需求,必須使用單模傳輸。
通過查看主要制造商之一生產的光纖量,可以確定當今典型數據中心中光纖的預期長度:數據顯示從2016年[2],在企業數據中心中,90%的鏈路長度低于100m,平均為48.7 m。這意味著基于VCSEL的MMF鏈路是迄今為止在此類數據中心中部署最廣泛的。然而,近年來,由谷歌、微軟、亞馬遜、阿里巴巴等公司建造的所謂的“超大規?!?A href="http://www.537mt.com/site/CN/Search.aspx?page=1&keywords=%e6%95%b0%e6%8d%ae%e4%b8%ad%e5%bf%83&column_id=ALL&station=%E5%85%A8%E9%83%A8" target="_blank">數據中心激增。這些公司部署的鏈路的絕對數量正在推動未來的趨勢,并且對未來趨勢是一個很好的指示。這樣的數據中心要大得多,其70%的鏈路都在100m以上,平均在164.5 m。
圖3 200GBASE-FR4光收發器的設計示例
因此,光互聯系統設計人員不僅要處理增加鏈路速度的需求,還要處理不斷增長的傳輸距離。有必要推動基于VCSEL的多模光纖技術,以提供更高的性能和可靠性,使其可運行至300米或以上,或轉向基于單模光纖的解決方案,潛在地使用成本效益高的硅光子集成方案。毫無疑問,MMF將繼續存在,但也應注意,一些主要的光互聯客戶(例如微軟[3])非常直言不諱地要求從現在開始在其數據中心中僅部署單模鏈路:原因是他們希望構建面向未來的系統,并在接下來的10-15年中保持相同的SMF安裝。從長遠來看,這樣的策略實際上可以節省成本。
就增加容量而言,首先要攻克的是提高符號率。我們看到,新興的標準使信號速率翻了一番,達到50Gbaud甚至更高。其次,多階調制格式正在商業化部署,首個光學四階脈沖幅度調制(PAM4)標準已于2017年被IEEE批準[4]。100G-LR MSA [5]進一步說明了這種趨勢:通過使用PAM4和53.125 Gbaud符號速率,可以實現單波長106.25 Gbit / s(包括KP4 Reed-Solomon FEC開銷)。使用標準SMF(SSMF)在色散(CD)低的O波段(1310 nm)中可以達到10 km的目標距離。
圖4 集成的EPDA環境包括Keysight PathwaveADS(底部)和VPI DesignSuite(頂部)工具。
上面和下面的原理圖表示信號路徑的光學和電氣部分。
左上角圖形顯示了TOSA輸出的光譜和L0-L3通道的EAM傳遞函數(選擇的調制范圍為L0和L3)。
底部的眼圖顯示了PAM4發射機輸出處的信號(左)、接收端輸入處的信號(中)和均衡后的信號(右)。
當然,這并不意味著二進制開-關鍵控(OOK)被拋棄了。事實上,更高速率的OOK可能是低延遲鏈路的理想選擇,因為有動力使用低開銷(或不使用)FEC和低復雜度均衡。當前技術通常只能通過使用不同的物理光纖路徑或(粗)波分復用(WDM)實現光通道并行化,才能實現100G、200G或400G。在IEEE 802.3bs 200GBASE-FR4標準[4]中,通過1295-1310 nm范圍內的4個波長,每個波長承載53.125 Gbit/s PAM4,實現總吞吐量達到212.5 Gbit/s??蛇_2公里的目標傳輸距離使該標準適用于園區內連接。
WDM不僅用于SMF:最新的OM5 MMF標準不僅具有較高的有效模帶寬(EMB),可以實現更高的速率,還針對所謂的短波WDM,使用了具有不同通道波長的多個多模VCSEL。在IEEE 802.3cm 400GBASE-SR4.2 BiDi新興標準[6]中,每個并行多模光纖通道攜帶兩個波長,分別用于發射和接收。每個波長均使用26.5625 Gbaud PAM4調制,可在OM5光纖上達到150m的傳輸距離。
圖5. 上圖:完整的DP-16QAM傳輸鏈路仿真原理圖,包括兩個IQ發射機,單模傳輸光纖,極化分集數字相干接收機和數字信號處理;
下圖:IQ馬赫-曾德爾調制器的內部結構。
由于低成本和低功耗的要求,直接檢測技術是40km以下光互連的首選技術。但是,對于更長的距離,必須轉變為正交幅度調制(QAM)和相干接收:新興的IEEE 802.3ct 400GBASE-ZR標準[7]旨在達到80 km的SSMF傳輸,基于60Gbaud的單波長(c波段)、雙偏振(DP) 16QAM調制。
在本文的其余部分中,我們基于使用VPI Design Suite 10.1 [8]進行的仿真,介紹了四個典型的光互連設計研究方案。選擇它們是為了突出上面討論的技術趨勢,并作為當今已使用的各種技術和系統的典型代表。然后,我們指出了關鍵的建模挑戰,不僅涉及單個光器件和電器件,還涉及包括用于調制碼型產生,均衡等的發射和接收側數字信號處理(DSP)在內的端到端系統。最后,還討論了針對每個系統量身定制的性能評估和預測。