您的位置:首頁>>管理中心>>行業資訊>>新聞資訊正文
 
IBM在KVM虛擬化上運行OLTP基準測試
新聞ID號:  41664 無標題圖片
資訊類型:  交流培訓
所屬類別:  其他
關 鍵 字:  IBM/虛擬化
內容描述:  IBM公司已進行的基準測試可以解釋在真實世界虛擬化環境中是如何執行事務處理的,在Red Hat的KVM虛擬機管理程序上進行了一個TPC-C測試,并基于此給出了其開銷。
發布時間:  2013/3/7 16:19:40
更新時間:  2013/3/7 16:19:40
審核情況:  已審核開通[2013/3/7 16:19:40]
瀏覽次數:  共 2640 人/次
新聞來源:  ~
鏈    接:  ~
責任編輯:  ~
發 布 者:  電源在線
圖片文件
原文件名:~
保存文件:~
路徑文件:~
管理操作:  修改  設置為未審核    發布新聞資訊
內    容:

    至頂網

    IBM公司已進行的基準測試可以解釋在真實世界虛擬化環境中是如何執行事務處理的。

    當去年年底事務處理委員會(TPC)拋出TPC-VMS服務器虛擬化基準測試規范時,就有人抱怨該規范并不符合最終用戶的實際需求:他們把運行了事務處理工作負載的虛擬化服務器與裸機進行比較,并基于此給出了其開銷。

   但是,IBM公司有時候是很大度的,因此它在Red Hat的KVM虛擬機管理程序上進行了一個TPC-C測試,而不是TPC-VMS。

    在基于雙插槽Xeon E5服務器上安裝KVM,IBM并沒有采取任何TPC-VMS動作,這是刻意選擇并用于混淆物理和虛擬服務器之間比較的,從而確定虛擬化費用。這種比較是很重要的,特別是對于諸如事務處理這樣I/O密集型的工作負載。

    在二十世紀九十年代初,TPC-C在線交易處理基準測試出現時,內存的價格是非常昂貴的,而TPC-C數據庫必須存儲在磁盤驅動器上。CPU都是適度供電的,其價格也是非常昂貴的,而服務器中I/O子系統的負載都是相當高的。但是,如今的雙插槽服務器都配有多個TB級主內存,并具有大量的I/O容量,因此,TPC-C數據庫的很大一部分基本上都是在內存中運行。

    到底是多大的一部分,無法說出具體的數字。它不是一個SAP HANA內存駐留數據庫設置,但有了現代數據庫和操作系統中固有的緩存信息,一個運行TPC-C測試的現代服務器要比二十年前本質上的磁盤驅動數據庫更接近于HANA實例。當然,這里的磁盤驅動器是用于I/O的,但那也是因為測試要求磁盤容量能按最終用戶的要求而擴展。

    諸如TPC-C這樣的測試推動了多核芯片配備大內存容量和高帶寬的發展趨勢,這樣也就促使這樣的高端配置成為了業界標配,也讓我們認為是理所當然的。很多人都認為基準測試是無用的,也許他們忘記了它對系統架構和軟件設計的影響。但是,如果仔細觀察的話就會發現,事實上也需要基準測試來推動實際創新。

    當然, 最好的做法還是做好自己的測試。如果所有的數據用于數以百萬計的服務器,那么這樣一個大數據項目是值得這樣做的,這將是真正有趣的事情,可能也是有用的。

    在藍色巨人測試運行KVM的TPC-C設置中,專家們使用了一個配有兩個八核Xeon E5-2690處理器、主頻達到2.9GHz的System x3650 M4服務器。對于這臺機器,IBM增加了768GB的主內存和四個Qlogic 8Gb/秒光纖通道適配器,連接九個DS3524磁盤陣列和一個DS3512磁盤陣列,其中共有44個硬盤驅動器和72 個SSD,共計總容量40.3TB。

    這臺特殊的服務器運行了Red Hat企業版Linux 6.4、IBM公司的DB2 9.7關系型數據庫以及Red Hat的KVM虛擬機管理程序,它能夠支持1,040,400個用戶,并以每分鐘1,320,082次處理吞吐量的速度處理新命令。(即使另外有其他四個必須運行、只使用半數不到CPU資源的工作負載,TPC-C測試的新命令部分還是計算在正式結果中。)

    IBM去年夏天Flex x240節點上運行測試,這與在System x3650 M4上測試KVM幾乎完全相同。

    這個Flex x240服務器配有兩個主頻為2.9GHz的Xeon E5-2690型處理器、相同的768GB主內存、兩個8Gb/秒光纖通道卡,連接一組DS35XX磁盤陣列。IBM有三個DS3512磁盤,配有24個磁盤和112個固態硬盤,它支持1,196,160個用戶,并以每分鐘1,503,544次處理的速度執行新命令,它運行Red Hat 企業版Linux 6.2和DB2 9.7。

    與上述的System x3650 M4虛擬化相比,這臺Flex x240節點的固態硬盤略重,磁盤驅動器略輕。我們假定,兩臺服務器上的磁盤不是性能瓶頸,并不是性能差別的實質性原因(當然,你應當擁有足夠的磁盤和主內存來驅動CPU),并假定與系統相連的這個磁盤和固態硬盤的總容量達到了TPC-C測試所要求驅動更多用戶時的容量限制,那么你可能會誤認為Flex x240服務器比System x3650 M4支持更多用戶數量,是由于它運行裸機的原因。當然,你還必須假定,RHEL 6.2和6.4之間所造成的性能差異是相當小的。 {$page$} 

    如果相信這一切假定和假設,那么KVM在單位時間命令處理次數上的開銷是12%,而如果你看看用戶,這個數字大約是13%左右。

    如果像IBM公司只是測試裸機,并在完全相同的服務器(使用VMware的ESXi、Red Hat的KVM以及微軟公司的Hyper-V管理程序)上運行相同的工作負載,這一切就值得好好玩味一番了。但同樣,這也太容易了,這很容易讓公司得出錯誤的比較結果,從而做出錯誤的采購決策。

    TPC-VMS測試說明了目前TPC測試的三個副本:較舊的TPC-C OLTP基準測試(模擬倉庫操作)、TPC-E在線股票經紀基準測試、TPC-H數據倉庫測試,以及它在服務器的單一管理程序實例上的TPC-DS決策支持/大數據測試。

    順便說一句,還沒有人運行過TPC-VMS測試,IT供應商可能會開始重復IBM公司剛剛完成的事情,并試圖讓人們看到虛擬化開銷。他們很可能會有所發現,或者坦白說他們不會得到什么回報。

    配置和管理上的靈活性是值得付出一堆CPU周期資源的,如果不是這樣的話,Xen、Hyper-V以及KVM都不會出現。▇

主站蜘蛛池模板: 99热婷婷国产精品综合| 色综合久久无码中文字幕| 亚洲色偷偷综合亚洲AV伊人| 国产精品欧美亚洲日本综合| 五月综合激情婷婷六月色窝| 久久乐国产综合亚洲精品| 麻豆精品久久精品色综合| 人人狠狠综合88综合久久 | 99久久综合国产精品免费| 亚洲综合无码精品一区二区三区 | 久久乐国产综合亚洲精品| 狠狠狠色丁香婷婷综合久久五月| 天天综合久久一二三区| 国产综合精品久久亚洲| 狠狠色狠狠色综合| 天天看天天摸色天天综合网| 亚洲狠狠婷婷综合久久蜜芽| 97久久天天综合色天天综合色hd| 亚洲欧美另类成人综合图片| 色婷婷综合缴情综免费观看| 日韩欧美国产综合在线播放| 无翼乌无遮挡全彩老师挤奶爱爱帝国综合社区精品 | 色8激情欧美成人久久综合电| 狠狠色噜狠狠狠狠色综合久| 色天使久久综合网天天| 色综合合久久天天综合绕视看| 97SE亚洲国产综合自在线观看| 色综合久久中文综合网| 成人综合久久精品色婷婷| 国产精品 综合 第五页| 亚洲狠狠综合久久| 婷婷五月综合缴情在线视频| 亚洲欧美日韩综合在线播放| 色狠狠成人综合色| 久久婷婷五月综合成人D啪| 亚洲乱码中文字幕综合234| 国产综合精品蜜芽| 久久久亚洲裙底偷窥综合| 综合三区后入内射国产馆| 狠狠色噜噜狠狠狠狠色综合久AV | 亚洲激情综合网|