如何使用SAS Switch 技術(第二部分優(yōu)化服務)
共享啟動盤的服務
本文引用地址:http://2s4d.com/article/283643.htm在基于SAS Switch的硬件構架之上易于實現(xiàn)一系列的優(yōu)化服務。比如共享啟動盤的管理。在機群上的每個服務器都需要一個裝有該機器應該運行的操作系統(tǒng)的盤卷,此外通常還需要提供虛存對換空間以及根文件系統(tǒng)。前者作為操作系統(tǒng)的軟件映像通常是只讀的,且在大型數(shù)據(jù)中心中,不同機器之間采用重復的操作系統(tǒng)的映像的可能性很高。后者通常需要可寫,并且機器之間共享的可能性不大,但后者通常所需的空間較小。要為成百上千的服務器結點管理這些盤卷,既需要硬件成本,又是個運維的負擔。提供低成本,便利,有可靠的啟動盤卷服務,是一個有價值的挑戰(zhàn)。
有了SAS Switch我們可以試圖在物理盤的層次支持共享啟動盤卷的。 采用把一個(或采用一對共享盤來提供熱備份)高性能的盤(例如SAS SSD) 在物理上創(chuàng)建多個分區(qū)??捎袃深惙謪^(qū),第一類存放共享的操作系統(tǒng)的靜態(tài)映像,不同分區(qū)對應于機群上可能要使用的不同的操作系統(tǒng)版本,第二類分區(qū),是用于存放單臺機器的根文件系統(tǒng),因此需要為每臺單獨服務器創(chuàng)建一個根文件系統(tǒng)分區(qū)。把這個共享啟動盤連接到SAS Switch的拓撲上,然后可通過SAS Switch 把該盤共享給所有需要通過它來啟動的服務器結點。在服務器側,需要安裝一個UEFI BIOS應用,用以負責接受SAS Switch的管理配置(包括使用SAS Switch所指定的盤,特定分區(qū)上找到操作系統(tǒng)映像,并用另一個所指定的分區(qū)上找到根文件系統(tǒng))來進行物理服務器的啟動操作。

在上圖所展示的例子中,兩臺服務器(server 0, server 1)通過SAS Switch共享了一個啟動盤。 其中服務器0 采用了OS分區(qū)1上的操作系統(tǒng),并把自己的根文件系統(tǒng)放在私有的RFS1分區(qū)上,而服務器1同樣采用了OS分區(qū)1上的操作系統(tǒng),而把根文件系統(tǒng)放在了私有的RFS2分區(qū)上,因此兩太服務器在運行時不會互相干擾。
這樣的簡單方法,會導致系統(tǒng)的可靠性下降。如果共享的啟動盤發(fā)生硬件故障,會導致整個機群的不能啟動??梢酝ㄟ^在系統(tǒng)中配置兩個或多個共享啟動盤來提高系統(tǒng)可靠性。比如通過SAS Switch為每臺服務器結點配置3個共享啟動盤以及在啟動盤上的相應分區(qū)。在服務器的UEFI 啟動應用上,當發(fā)現(xiàn)第一個啟動盤正常工作時,切換到使用第二或第三個啟動盤。并且還需要把3個共享啟動盤安裝在不同的故障域內(例如:位于不同的JBOD當中,甚至在不同的機架中)。這樣,單個共享啟動盤的故障不會導致整個機群的故障。
采用共享的啟動盤,除了可以消除每臺服務器內安裝兩個啟動盤的成本,還帶來其他運維上的便利性。操作系統(tǒng)和應用的升級可以通過在共享的啟動盤上更新操作系統(tǒng)映像分區(qū)的數(shù)據(jù)來完成,而不需要對每臺服務器結點的映像進行逐一更新。而當服務器結點硬件發(fā)生故障時,只需更新服務器,而不需重新安裝操作系統(tǒng)和軟件。這些可在大規(guī)模數(shù)據(jù)中心中節(jié)約大量的運維成本。
動態(tài)業(yè)務的彈性遷移和保護
在一個SAS Switch構成的域內由于所有服務器結點都能訪問到所有存儲資源,這為動態(tài)業(yè)務的彈性遷移和保護提供了基礎。
以一個Hadoop大數(shù)據(jù)分析的業(yè)務機群為例。 在該例子中,初始配置了10臺服務器和20個數(shù)據(jù)盤。每個服務器上分配了2個HDFS數(shù)據(jù)盤。通過機群管理系統(tǒng)對系統(tǒng)的運行狀態(tài)進行性能評測和監(jiān)控,這包括了動態(tài)測量每臺服務器的CPU使用效率,IOPS, 帶寬等,并且對每個盤的IOPS和帶寬也進行檢測。動態(tài)檢測的結果發(fā)現(xiàn)Hadoop結點上CPU的使用效率只有18%。 管理調度層 (通過人工干預或自動調度的策略)決定對該Hadoop 機群進行資源的重新配置,并決定把計算服務器結點減少到2個,并把原有的20個HDFS數(shù)據(jù)盤重新分配到剩余的2個服務器上,每個服務器接管10個HDFS 數(shù)據(jù)盤。新的資源配置通過管理接口配置到SAS Switch上。這個重新配置可在Hadoop業(yè)務在線的情況下完成。被釋放的8個空閑的CPU可重新分配給機群上的其他業(yè)務使用。即使在沒有其他業(yè)務可利用這8個CPU的情況下,也可以把把它們設置到睡眠等節(jié)省電能的狀態(tài)。而剩余的2個CPU在重新配置完成后繼續(xù)執(zhí)行原有的Hadoop計算業(yè)務。重新配置后剩余的CPU可基本達到接近100%的利用效率。
對需要高可靠性的業(yè)務,也可通過SAS Switch實現(xiàn)業(yè)務保障。例如采用1:1或N:1的保護倒換的方法,在一個服務器結點發(fā)生故障時,把該結點承擔的業(yè)務調度到機群內一個空閑的服務器結點,并且把原有分配給發(fā)生故障的服務器的存儲資源重新分配給替換的服務器結點,這樣的動態(tài)替換可在業(yè)務在線的情況下完成,從而保證業(yè)務的持續(xù)性。
超融合存儲
目前存儲業(yè)界對超融合存儲(例如: Nutanix, VMWare VSan)或稱 Server SAN的技術有很多關注。這類技術正在經(jīng)歷高速增長的發(fā)展。對傳統(tǒng)的SAN和存儲系統(tǒng)造成了嚴重的沖擊。
該技術有3個突出的特點:1)采用標準服務器而不采用專門的硬件系統(tǒng)來實現(xiàn)存儲業(yè)務層的功能。2)完全采用軟件技術來實現(xiàn)機群內的所有服務器直接連接的存儲(DAS)資源的池化。3)采用機群內的服務器結點既運行存儲業(yè)務,也運行用戶的應用。即用戶的業(yè)務應用程序和超融合的存儲業(yè)務共生在同一服務器結點上。
表面看來,該技術應該可消除專門用于連接存儲資源的存儲交換網(wǎng)絡(如SAN等Storage Fabric),還可消除傳統(tǒng)的專用存儲系統(tǒng)硬件。而完全采用通用服務器的硬件系統(tǒng)。但是,生產(chǎn)服務器的廠商卻有不同的看法:超融合存儲軟件極大地催生了對SAS Switch 這類簡單的后端存儲Fabric技術,以及存儲資源解耦合的硬件構架在刀片和機架服務器上的應用,即采用高密度刀片或機架服務器+SAS Switch+JBOD的硬件構架來實現(xiàn)超融合系統(tǒng)。
歸納下來有如下原因:
1)通過把盤從刀片或機架服務器內部挪到更便宜的JBOD上,優(yōu)化了“地價”成本,從而使得服務器計算結點密度提高,成本降低。這個優(yōu)化的思路在本文的第一部分已有論述。
2)由于用戶應用程序和存儲業(yè)務共生在同一個CPU上,而用戶應用對硬件資源的需求最優(yōu)配比千差萬別,難以向所有用戶推薦統(tǒng)一的集成了CPU和存儲資源的磚塊服務器型號。而要根據(jù)用戶的具體應用來進行優(yōu)化,這就需要把存儲和計算解耦合。
3)在公有云,VDI等許多應用場景,需要支持在同一個機群硬件設施上支持多個房客(Multi-Tenant),而出于數(shù)據(jù)安全的考慮,許多客戶要求服務提供方保證他們的私有數(shù)據(jù)和其他訪客的數(shù)據(jù)在物理上隔離(即存放在物理隔離的盤上,物理上保障其他用戶的虛擬機不可能訪問到他們的私有數(shù)據(jù))。這樣的物理隔離在SAS Switch上很方便就可實現(xiàn)。
綜上所述,我們十分欣慰地看到,SAS Switch 在大型數(shù)據(jù)中心以及企業(yè)存儲領域的許多應用場景已經(jīng)開始進入大規(guī)模部署的階段。我們過去幾年所提倡的解耦合,存儲資源池化的設想也隨之變成現(xiàn)實。在中國數(shù)據(jù)中心的天蝎2.0的機架上,我們看到了基于SAS Switch的產(chǎn)品日趨成熟。這催生了中國數(shù)據(jù)中心在這個技術路線上的超越美國率先進入了存儲池化的時代,讓云技術更先進,更有彈性,更經(jīng)濟,更環(huán)保。而在國際市場上,我們也看到了主流服務器廠商以及各類數(shù)據(jù)中心的積極跟進。2015年 SAS Switch 正當時。
評論