人工智能和光纖技術對數據中心的影響
大規(guī)模部署人工智能的大多數科技公司正在為當今和未來的網絡設計單模并行光纖解決方案。這有三個簡單的原因。
本文引用地址:http://2s4d.com/article/201808/390324.htm(1)成本和距離
目前的市場趨勢是首先開發(fā)和發(fā)布并行光纖解決方案,WDM解決方案緊隨其后,因此并行光學解決方案的數量要高得多,從而降低了制造成本。與2km和10km WDM解決方案相比,它們還支持更短的距離,因此企業(yè)不需要部署過多復雜的組件來冷卻激光器,并在兩端復用和解復用信號。雖然人們已經看到這些“超大規(guī)?!睌祿行脑O施的規(guī)模,但調查數據顯示,在這些設施中單模光纖的平均部署長度尚未超過165m,因此無需購買更昂貴的WDM收發(fā)器來驅動他們不需要支持的距離。
并行單模也比WDM解決方案使用更少的電能,正如之前從谷歌的例子中看到的電源使用情況,為了減少數據中心最大的運營成本,任何可以做的事情都是一件好事。
(2)靈活性
部署并行光學器件的主要優(yōu)勢之一是能夠采用高速交換機端口,例如40G,并將其分解為4×10G服務器端口。端口突破提供了巨大的規(guī)模經濟,因為突破低速端口可以顯著減少電子設備的機箱或機架安裝單元的數量從3:1(并且數據中心資產并不便宜)并且使用更少的電能,需要更少的冷卻設施,并且可以進一步降低能源費用,調查數據表明這相當于單模解決方案節(jié)省了30%的成本。光纖收發(fā)器供應商還確認,所有銷售的并行光纖收發(fā)器中的很大一部分都是為了利用這種端口分支功能而部署的。
(3)簡單明晰的遷移
主要交換機和收發(fā)器供應商的技術路線圖為部署并行光學器件的客戶顯示了非常清晰和簡單的遷移路徑。而大多數科技公司都在遵循這條路線,所以當光學器件可用,并且從100G遷移到200或400G時,它們的光纖基礎設施仍然存在,無需升級。那些決定使用雙工雙光纖基礎設施的企業(yè)可能會發(fā)現自己希望升級到100G以上,但WDM光纖系統可能無法在其遷移計劃的時間范圍內提供。
對數據中心設計的影響
從網絡連接的角度來看,這些網絡是高度網狀的光纖基礎設施,以確保沒有一臺服務器相互之間有兩個以上的網絡躍點。但是這樣的帶寬需求甚至從脊柱交換機到葉脊交換機的傳統3:1超額配置比率還不夠,并且更典型地用于來自不同數據大廳之間的超級脊柱的分布式計算。
由于交換機I/O速度的顯著提高,網絡運營商正在努力提高利用率,提高效率,提供超低的延遲。
此外,在谷歌公司最近宣布推出最新的人工智能硬件之后,傳統的數據中心設計轉向了另一個轉變,這是一種名為Tensor Processing Unit(TPU 3.0)的定制專用集成電路(ASIC),在巨大的吊艙設計中,將其功能提高了8倍。但是,在芯片中加入更多的計算能力也會增加驅動它的能量,從而增加熱量,這就是為什么數據中心采用液體冷卻為芯片提供冷卻的原因,因為TPU 3.0芯片產生的熱量已經超出了之前數據中心冷卻解決方案的限制。
結論
人工智能是下一波業(yè)務創(chuàng)新浪潮。它可以帶來運營成本節(jié)約,額外的收入流,簡化的客戶互動,以及更高效的數據驅動的工作方式,其具有很多優(yōu)勢。最近的一次小組討論證實了這一點,專家當時表示使用聊天機器人的網站如果效率不高且客戶關注度不夠,客戶就會放棄對話,并且很難再次合作。
因此,人們必須接受這項技術并將其用于其業(yè)務優(yōu)勢,這也意味著采用不同的方式思考數據中心的設計和實施。由于專用集成電路(ASIC)的性能顯著提高,人們最終會看到I/O速度的提高,甚至更深層次地推動網絡連接的發(fā)展。企業(yè)的數據中心需要超高效的高速光纖網絡、超低延遲、東西方向的脊柱和葉脊網絡,以適應企業(yè)日常生產流量,同時支持機器學習培訓。
人們已經看到了主要的科技公司如何接受人工智能以及如何部署并行單工模式幫助他們實現比傳統雙工方法更高的資本和運營成本,傳統的雙工方式從一開始就承諾降低成本。但是隨著數據中心的運營以及繼續(xù)發(fā)展,專業(yè)人員的習慣和交流方式在不斷變化,提高了網絡速度,并增加了復雜性?,F在安裝正確的布線基礎設施解決方案將使企業(yè)從一開始就獲得更大的經濟利益,保留并吸引更多客戶,并使企業(yè)的數據中心設施能夠蓬勃發(fā)展。
評論