亚洲成精品动漫久久精久,九九在线精品视频播放,黄色成人免费观看,三级成人影院,久碰久,四虎成人欧美精品在永久在线

掃一掃
關注微信公眾號

Facebook分享高密度數據中心改造經驗
2010-11-15   網絡

Facebook龐大的用戶基數給其數據中心帶來了巨大的壓力,當 Facebook的用戶基數突破了5億的時候,這意味著Facebook需要更多的服務器,更大面積的數據中心。為了解決這一問題,Facebook研究的是如何在有限的空間內提高服務器計算效率,從而應付急劇膨脹的業務增長。

在數據中心內部大量的采用高密度機架,對于管理這些機架和冷卻是一個巨大的挑戰。最近,Facebook為數據中心配備了全新的高密度服務器,在效能方面有了很大提升,每年能夠節省280萬千瓦電力,相當于減少排放溫室氣體1088噸。而且Facebook還和大家一起分享了這一高密度數據中心的改造經驗。

小規模 高收益

Facebook改良后的數據中心位于硅谷,面積僅為14560平方英尺。但可別小看了這個不大的面積,其計算能力非常高,而且還采用了空氣冷卻方式,有效降低制冷成本。盡管改良后的數據中心面積較小,但其效率卻高于原來56000平方英尺的數據中心。

這個高密度數據中心的散熱通道寬度為八英尺,通道的地磚采用打孔設計,以增強空氣流通性。里面的服務器為45U設計,前面板部分經過了改造,安裝了氣流分析、冷通道控制等設施,同時減少了服務器風扇能源,從而提高散熱質量。Facebook的服務器和數據中心工程師Amir Michael發明了一個新的配電設計,這個配電設計免除了傳統的數據中心不間斷電源(UPS)和數據中心配電單元(PDU)。新的設計把數據中心的UPS和電池備份功能轉移到儲藏柜,每個服務器電力供應增加了一個12伏的電池。這個發明其實是來源于谷歌的一個靈感,因為之前谷歌曾經發布過集成一個12伏電池的一種電源,并允許它作為一種車載UPS。這種數據中心,除了具有能源高效的數據外,公司也把這種設計作為一個主要的因素。電源使用效率(PUE)額定值在1.1到1.2之間。

冷通道的控制

第一步是處理冷通道上的設計問題。在分析冷通道和高架地板的空氣壓力后,Facebook安裝了一個冷通道控制系統,這個系統包括塑料的屋頂以及在每個通道的末端設置推拉門。數據中心工程的負責人 Jay Park和他的團隊還將地面的瓷磚換掉,用實心的磚來取代傳統的兩孔磚。另外,Facebook還采取多種措施,密封冷空氣使其無法外溢,最大限度的提高冷空氣的冷卻效率。

第二個步驟是針對風扇的效率。由于冷通道控制系統能夠更好的控制氣流,所以這就允許Facebook來降低服務器的風扇頻率,這有利于服務器能夠更好的發揮風扇的性能。Park說,我們針對服務器的運行情況做出監測,來使風扇的效率能夠更好的適應服務器的負載。然后,我們和服務器制造商進行溝通,他們提供了一個更加合理的服務器風扇解決方案給我們。

推動行業的發展

Facebook公布他們的高密度數據中心改造解決方案的目的之一就是為了促進行業內相關方面的發展。在上述中的許多策略,如冷通道的控制,更換地板磚以及調整入口溫度等等,這些措施在任何小型數據中心都可以很方便的測試。至于優化服務器風扇風速之類的措施,則對于一些大型數據中心來說比較容易---購買數量眾多的服務器才能讓廠商做出改變。

不過Park說,服務器廠商也應該接受來自小型數據中心的建議。他建議這些數據中心可以嘗試和服務器供應商進行溝通,看他們是否愿意這樣做。當有足夠多的企業有這樣的要求的時候,這就成了一個行業的新標準。此外Facebook還表示可以通過簡化電力到服務器的方法降低電力開支。不僅這樣,除了提高效率,新的設計在設備采購方面也節省了巨大的成本。因為公司不需要再購買傳統的UPS和PDU系統,這樣便可以節省百萬美元,如果整個行業都發生采用這樣的轉變,那將是巨大的一個改觀。在硬件設施方面Facebook同樣采取了措施。像是一般的服務器使用208V電源配置到服務器,大多數電源也可以支持230V和240V的配置,而Facebook新的分配計劃是要求277V的電源配置到服務器。為此他們也在和電力供應商合作創建能接受277V輸入電壓的電源供應器。

在解決了氣流和風扇的問題后,Facebook的冷卻能力大幅度提升,冷卻通道的入口溫度從51度調整為67度,此外,Facebook還加大了利用室外新鮮空氣進行空氣冷卻的面積,從原來的2200個小時(大約三個月/每年)增加到6700個小時(超過個9個月/每年)。

熱詞搜索:

上一篇:企業桌面虛擬如何走向標準化
下一篇:企業數據中心:節能冷卻的十大絕招

分享到: 收藏