<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          干貨:該從哪些關(guān)鍵指標衡量HPC存儲系統(tǒng)?

          共 6601字,需瀏覽 14分鐘

           ·

          2021-01-05 17:07



          對高性能計算存儲系統(tǒng)的購買者來說,總擁有成本(TCO)通常被認為是一個重要的考慮因素。由于HPC用戶對TCO的定義不同,因此很難根據(jù)預定義的一組屬性進行比較。


          考慮到這一事實,Hyperion Research最近進行了一項全球范圍的研究,以便更好地了解高性能計算(HPC)存儲系統(tǒng)的總擁有成本(TCO),初始購置成本以及簡易安裝、運維給用戶所帶來的收益之間的關(guān)系。

          該調(diào)查針對HPC數(shù)據(jù)中心規(guī)劃者、HPC存儲系統(tǒng)經(jīng)理,采購決策者,關(guān)鍵影響者以及HPC存儲系統(tǒng)用戶。Hyperion在其報告TCO對HPC存儲購買者的重要性?中發(fā)表了他們的調(diào)查結(jié)果(文末附報告),并在Panasas用戶會議上也發(fā)表了他們的結(jié)論(發(fā)布會議如下視頻鏈接)。

          https://www.youtube.com/embed/86P5T2J5P8o?rel=0&t=3s&autoplay=1

          Hyperion Research結(jié)果表明,HPC組織(用戶)所謂的存儲購買標準和存儲系統(tǒng)購買后客戶遇到的操作問題之間存在嚴重脫節(jié)。更重要的是,報告非常清楚地說明了運維問題對存儲生產(chǎn)力和TCO造成的破壞性影響。


          • 被調(diào)查的網(wǎng)站中,近50%的站點存儲系統(tǒng)每月會出現(xiàn)一次故障,甚至更頻繁。
          • 停機時間從不到一天到一周以上,一天的停機成本從10萬美元到100多萬美元不等。
          ?
          HPC存儲系統(tǒng)故障需要更長時間恢復:HPC存儲的可靠性因素相對復雜,調(diào)查中當問及存儲系統(tǒng)故障恢復需要多長時間時,受訪者表示,40%的HPC站點通常需要兩天以上時間才能將存儲系統(tǒng)業(yè)務完全恢復。


          HPC存儲系統(tǒng)故障會導致嚴重的生產(chǎn)力損失:調(diào)查表明,78%的HPC站點去年都出現(xiàn)了存儲故障問題,這對用戶的工作效率產(chǎn)生了負面影響。


          HPC存儲故障造成嚴重損失:根據(jù)調(diào)查,高性能計算存儲系統(tǒng)的平均故障頻率為每年9.8次。調(diào)查從存儲系統(tǒng)故障中恢復的平均時間是1.7天。而且,據(jù)受訪者稱,他們的平均停工時間花費為每天12.7萬美元。

          一個典型故障例子:下圖表生動地展示了美國一所著名大學的HPC存儲故障情況,這所大學經(jīng)常發(fā)生高性能計算存儲中斷事故,每次花了好幾天時間才恢復系統(tǒng)運行。這所大學的業(yè)務恢復過程如下圖所示,周一發(fā)生故障,直到周日才完全恢復。

          https://www.vanderbilt.edu/accre/category/cluster-status-notice/

          從Hyperion調(diào)查報告可以得出的結(jié)論:在購買HPC存儲系統(tǒng)時,某些數(shù)據(jù)(例如I /O性能和購置成本)很容易衡量。然而,一些較難衡量的東西常常被忽略。具體來說,持續(xù)的運營成本以及架構(gòu)不一致和復雜的存儲解決方案可能對生產(chǎn)率和質(zhì)量成果產(chǎn)生時間的負面影響。

          調(diào)查一開始,要求參與者確定他們最重要的購買標準,他們的回應如下圖所示。毫不意外,性能一直是HPC存儲中的關(guān)鍵指標。正如預期的那樣,購買價格和總擁有成本是第二重要的購買標準。實際上,幾十年來,高性能和價格/性能一直是HPC存儲購買的驅(qū)動力。


          我們注意到運維人員數(shù)量/技能,恢復/彈性能力和軟件支持指標排名比較靠后。然而這些標準排名靠后令Panasas的員工感到失望。因為Panasas是一家專注于數(shù)據(jù)管理要求,存儲彈性和領導力強大的存儲公司。但接受調(diào)查的HPC組織似乎并不關(guān)心這些標準,這似乎是對Panasas多年來投入大量時間和精力的否定。

          可以得出結(jié)論:這些操作問題似乎被大多數(shù)HPC組織所忽視。

          當被問及最大的運營挑戰(zhàn)是什么時,HPC組織困惑地給出了與購買標準列表類似的回答。好像HPC存儲的購買者僅優(yōu)先考慮性能和價格,而不考慮操作問題。似乎忽略先前購買標準所引起后續(xù)操作上的麻煩。


          HPC組織為了獲得價格合理的高性能而舍棄了對可靠性,易于管理和良好支持的應有期望?;蛘撸琀PC組織可能根本不相信還有其他選擇,因為他們認為,所有HPC存儲產(chǎn)品都是復雜且不可靠的。

          Panasas認為它是一個高性能且可靠的HPC存儲系統(tǒng),在最具挑戰(zhàn)性的存儲基礎架構(gòu)運營方面,Panasas通過一站式、易運維設備和方案獨特地緩解這些問題,該解決方案不但價位上全覆蓋,而且提供最快的并行文件系統(tǒng):

          • 存儲專家招聘/培訓:Lustre、GPFS和BeeGFS文件系統(tǒng)需要專門的存儲專業(yè)知識,而這些專業(yè)知識很難學習和積累。Panasas PanFS并行文件系統(tǒng)不需要任何深厚的技術(shù)技能即可進行日常管理。
          • 存儲系統(tǒng)安裝時間和成本:根據(jù)調(diào)查,有56%的存儲系統(tǒng)需要數(shù)周的時間安裝,Panasas系統(tǒng)通常一天即可完成安裝。
          • 調(diào)優(yōu)和優(yōu)化時間和成本:Panasas PanFS幾乎不需要人工和技術(shù)密集的調(diào)優(yōu)即可保持最佳性能,因此保證存儲系統(tǒng)的每個部分(CPU,NIC,DRAM和存儲介質(zhì))處于均衡和優(yōu)化狀態(tài),各種工作負載的性能可預測,無需手動調(diào)整或重新配置。
          • 系統(tǒng)管理時間和成本:無論規(guī)模大小,60%的站點需要一位以上的專業(yè)人員來管理其存儲系統(tǒng),Panasas存儲通常只需要一名兼職管理員來管理。
          • 系統(tǒng)停機時間:42%的受訪者表示每周或每月都有停機發(fā)生。Panasas現(xiàn)網(wǎng)部署案例已證明長達8年無計劃外停機事件發(fā)生。
          ?

          Panasas認為Panasas可以在性價比方面滿足最苛刻的HPC存儲要求。PanFS的系統(tǒng)的性能大約是Lustre,GPFS和BeeGFS類似配置系統(tǒng)的兩倍。因此,HPC組織無需在性能和價格之間進行權(quán)衡。


          通過比較,Panasas認為,在HPC存儲世界里,只有自己才能提供低接觸式設備解決方案所需的性能、簡單性、可靠性和強大的技術(shù)支持。

          ?
          Panasas針對運行PanFS文件系統(tǒng)的Panasas ActiveStor UltraLustre,IBM Spectrum Scale(GPFS)、DDNBeeGFS并行文件系統(tǒng)在性能方面進行了比較。由于比較對象都是橫向擴展并行文件系統(tǒng),因此從理論上講它們的最大性能是無限的,因此比較時需要采用相對公平的配置。

          實際上,這些并行文件系統(tǒng)方案都具有不同的外形尺寸,不同的服務器/JBOD和硬盤驅(qū)動器(HDD)數(shù)量(在此分析中,統(tǒng)一采用HDD磁盤)。下圖顯示了解決方案和不同外形尺寸配置示例。


          如何比較這些不同尺寸和性能的系統(tǒng)呢?整個測試采取了Panasas基準測試工程師(對Luster和GPFS進行過基準測試)的建議,將每個硬盤驅(qū)動器(HDD)的吞吐量看做一個可比較的性能指標,因為每個驅(qū)動器帶寬是比較不同硬件和軟件體系結(jié)構(gòu)存儲系統(tǒng)性能(MB/s)的唯一方法。

          另外,磁盤數(shù)量對系統(tǒng)空間,總體擁有成本和性能效率產(chǎn)生主要影響,這也是高性能文件系統(tǒng)考慮和設計的目標。為了獲得HPC系統(tǒng)級比較指標,作者將每個HDD吞吐量數(shù)乘以100得到每100個驅(qū)動器的吞吐量,并以GB/s表示測試結(jié)果。

          1)、IBM Spectrum Scale(GPFS)性能對比


          先從IBM Elastic Storage Server (ESS)開始,數(shù)據(jù)來源與官方已發(fā)布性能結(jié)果。IBM公開材料詳細介紹了ESS性能(如下鏈接第7頁)。

          https://www.ibm.com/support/pages/sites/default/files/inline-files/$FILE/BuildingandDeployingElasticStorageServer-ESS_0.pdf

          以GL4S型號為例,配置334個磁盤驅(qū)動器(HDD)的GL4S吞吐量為24 GB/s,即每塊HDD磁盤的吞吐量為71.86 MB/s,將每個HDD吞吐量數(shù)乘以100可得100 HDD的吞吐量為7.2 GB/s。IBM宣傳的讀取吞吐量,在本文中,作者重點介紹讀吞吐量(因為這是大多數(shù)供應商提供的最容易獲取的基準值)。
          ?
          但是請注意,IBM GPFS的寫入速度可能比讀取速度慢2倍(如下鏈接)。之所以選擇GL4S,是因為GL4S每個HDD的速度比GL6S要快一點,但是讀者可以計算出所有IBM ESS系統(tǒng)性能,無論大小,都可以拿100 *單個HDD吞吐量值作比較(進一步支持基于HDD的性能指標)。

          http://files.gpfsug.org/presentations/2015/SOEHME-UKUG-Performance-Update-v0.5.pdf

          對比發(fā)現(xiàn),4個具有PanFS和96個HDD的ASU Panasas ActiveStor Ultra的讀取吞吐量為12,465 MB/s或100塊HDD讀取吞吐量為13.0 GB/s。對比結(jié)果表明Panasas ActiveStor Ultra的讀取性能比GPFS快近2倍。


          PanFS的寫性能幾乎是一樣的(PanFS的寫入性能比GPFS快近4倍)。值得注意的是IBM ESS的GPFS采用分散數(shù)據(jù)放置模式,其中數(shù)據(jù)被隨機寫入磁盤,分散模式寶貴之處在于可以在文件系統(tǒng)寫滿時保持統(tǒng)一的性能,避免因碎片而導致性能損失,這是大多數(shù)文件系統(tǒng)中不常見的流行功能。在PanFS文件系統(tǒng)不但保持類似一致的性能,而且表現(xiàn)出更高的性能。

          Panasas認為,秘訣在于PanFS的最新版本采用多層智能數(shù)據(jù)布局架構(gòu),該架構(gòu)可為每種數(shù)據(jù)類型匹配正確的存儲類型:

          • 小文件存儲在低延遲閃存SSD
          • 大文件存儲在低成本,大容量,高帶寬的HDD
          • 元數(shù)據(jù)存儲在低延遲NVMe SSD
          • 數(shù)據(jù)和元數(shù)據(jù)操作以NVDIMM內(nèi)部日志方式執(zhí)行
          • 未修改的數(shù)據(jù)和元數(shù)據(jù)存儲在DRAM

          由于PanFS新寫入的數(shù)據(jù)保存在NVDIMM中,因此數(shù)據(jù)是完全異步寫入的,數(shù)據(jù)最后以有效的方式合并寫入在HDD上,在順序區(qū)域中累積新寫入的數(shù)據(jù)可減少數(shù)據(jù)碎片,因此以后讀取數(shù)據(jù)也將是順序的。此外,ActiveStor Ultra基于負載均衡設計,適當數(shù)量的CPU,內(nèi)存,存儲介質(zhì)和網(wǎng)絡(從NIC到磁盤)都沒有硬件瓶頸,提供最大性能和最佳的性價比。

          2)、Lustre性能對比

          對于Lustre,作者查看了來自著名大型網(wǎng)站的Parallel File Systems(如下鏈接67、68頁)的數(shù)據(jù),656塊HDD可以提供50000MB/s的吞吐量,100塊HDD的吞吐量=50000 MB/s /656*100 = 7.6 GB/s。

          https://www.hpc.kaust.edu.sa/sites/default/files/files/public/Seagate_Best_Practices-2017.pdf

          Lustre系統(tǒng)測試結(jié)果顯示,Cray性能最好,Seagate ClusterStore相對PanFS的結(jié)果如下所示。

          ?
          除了使用Scatter模式GPFS和PanFS之外,大多數(shù)文件系統(tǒng)的性能會隨著時間的推移而降低,一些Lustre用戶對此感到擔憂。文章The Effects of Fragmentation and Capacity on Lustre File System Performance(如下鏈接15、16頁)進行了詳細描述,下圖描述Lustre性能下降趨勢。

          http://wiki.lustre.org/images/1/18/Wed07-KaitschucJohn-PaF_LUG2017v2.pdf
          ?
          ?
          3)、BeeGFS性能對比

          然后看一下BeeGFS,從BeeGFS網(wǎng)站可以了解不同配置的性能系統(tǒng),從沒有保護的高性能RAID 0系統(tǒng)到性能比較低的ZFS系統(tǒng)。

          https://www.beegfs.io/content/documentation/#whitepapers

          由于BeeGFS建議為每臺服務器配置24至72個磁盤,并配置多個RAID 6組,每個RAID 6組通常使用10或12個HDD。對于每個集群或大量客戶端的企業(yè)環(huán)境,作者選擇ThinkParQ編寫的性能白皮書建議配置(如下鏈接第5頁)。

          https://www.beegfs.io/docs/whitepapers/Picking_the_right_Number_of_Targets_per_Server_for_BeeGFS_by_ThinkParQ.pdf

          測試結(jié)果顯示,48塊HDD提供3,750 MB/s吞吐量,100塊HDD可以提供3,750 MB/s/48*100 = 7.8 GB/s吞吐量。下面是BeeGFS和Panasas ActiveStor Ultra的測試結(jié)果對比表。


          最后,看看緩存和不開啟緩存的影響。上述測試結(jié)果(包括Panasas ActiveStor Ultra的結(jié)果)是沒有開啟Cache的性能。在此,我們可以看下另一種并行文件系統(tǒng)解決方案:基于Lustre的DDN EXAScaler SFA18K(幻燈片21頁)。

          https://www.slideshare.net/insideHPC/whamcloud-lustre-for-hpc-and-ai
          ?
          數(shù)據(jù)顯示,400塊HDD可達吞吐量為60,000 MB/s 100塊HDD提供60,000 MB/s /400* 100 = 15.0 GB/s吞吐量。DDN沒有透露這些結(jié)果是否采用緩存的結(jié)果。Lustre確實具有直寫的高速緩存技術(shù)(數(shù)據(jù)先寫在高速緩存中,以便后續(xù)回讀)。

          盡管SFA18K數(shù)據(jù)手冊(下面鏈接1)的緩存信息描述很少,但是以前的SFA14K 是具有512 GB DDR4 RAM的很大緩存(下面鏈接2)。但再進一步了解DDN后,作者現(xiàn)在假設這些是采用緩存后的結(jié)果。

          https://www.ddn.com/products/converged-storage-platform-sfa18k/
          https://www.ddn.com/products/converged-storage-platform-sfa14k/

          Panasas ActiveStor Ultra也有非常大的緩存(每個ASU節(jié)點32 GB DDR4 RAM),Cache直寫回讀緩存測試顯示,100塊HDD吞吐量為25.4 GB/s。大緩存可能會對應用程序性能明顯提升,這就是為什么Panasas和DDN會在系統(tǒng)中采用大緩存硬件。下圖顯示了Panasas和DDN之間的比較性能。

          ?
          總結(jié)一下:下面顯示不同并行文件系統(tǒng)的性能對比(非緩存性能)。在給定的一組硬件(100塊HDD,性能瓶頸不在存儲控制器)和軟件(并行文件系統(tǒng)),PanFS的吞吐量幾乎是其他并行文件系統(tǒng)的兩倍。


          當然,這只是通過公共信息簡單評估并行文件系統(tǒng)的高性能存儲系統(tǒng)的相對性能。隨著每個站點應用程序組合和用例都不同,需要針對特定基準測試獲得工作負載。但這確實表明,與這些系統(tǒng)相比,基于PanFS的Panasas ActiveStor Ultra的性能是具備競爭力的。
          ?
          然而,在TCO節(jié)省方面,Hyperion Research調(diào)查發(fā)現(xiàn)一系列有關(guān)運維的相關(guān)問題,如:HPC存儲系統(tǒng)每月幾乎平均的停機時間,每次業(yè)務中斷平均需要近2天時間恢復,平均每天的停機成本為127,000美元等。如果將這些發(fā)現(xiàn)聯(lián)系在一起,并在在HPC存儲系統(tǒng)5年生命周期內(nèi)轉(zhuǎn)化成TCO。下表的數(shù)據(jù)將講述一個令人驚訝的故事。

          ?
          從數(shù)據(jù)看,HPC存儲系統(tǒng)停機帶來的投入成本相當驚人,此外,人員配備和系統(tǒng)調(diào)優(yōu)帶來的成本開支巨大。Panasas認為將其解決方案用于HPC存儲,則估計可節(jié)省數(shù)百萬美元。結(jié)果表明,Panasas的成本節(jié)省是所調(diào)查平均HPC存儲系統(tǒng)的35倍以上。
          ?
          從市場趨勢來看,越來越多的公司正在使用高性能計算應用(例如大規(guī)模仿真,探索和AI深度學習)來保持競爭力,支持研究創(chuàng)新,并向客戶提供最佳解決方案。但是,如果你的公司像大多數(shù)公司一樣,也很難正確選擇出能夠支持這項重要工作的存儲系統(tǒng)。

          備注:HPC市場2018年服務器收入$13.7 B,其中超級計算系統(tǒng)$5.4 B(單系統(tǒng)>$500K),區(qū)域級計算系統(tǒng)$2.5B (單系統(tǒng)$250-500K),部門級計算系統(tǒng)$3.9B(單系統(tǒng)$250K-100K),工作站$2B(<$100K)。

          高性能計算存儲系統(tǒng)以強勁的速度增長(7.0%復合年增長率),從2018年的55億美元增長到2023年的70億美元。高性能計算存儲系統(tǒng)的需求正變得越來越復雜和多樣化。
          https://www.slideshare.net/insideHPC/hpc-market-update-from-hyperion-research-april-2019

          以下內(nèi)容將對Hyperion Research原報告數(shù)據(jù)解讀,對HPC存儲、傳統(tǒng)存儲存在問題進行剖析,以及分析下構(gòu)建AI和HPC存儲系統(tǒng)6大要素。


          談談傳統(tǒng)HPC存儲的問題:盡管Lustre和Spectrum Scale等傳統(tǒng)HPC存儲功能強大,但它們也可能極其復雜且極難管理,異構(gòu)系統(tǒng)承載不同HPC工作負載,存儲系統(tǒng)調(diào)優(yōu),優(yōu)化和維護帶來巨大成本開銷,隨著系統(tǒng)在生命周期內(nèi)不斷擴展,可靠性問題和性能瓶頸在所難免。

          再來看看傳統(tǒng)企業(yè)存儲的問題:傳統(tǒng)企業(yè)存儲系統(tǒng)更易于管理,但其性能通常不足以處理數(shù)據(jù)密集型、要求苛刻的應用程序。

          筆者認為,HPC市場應用復雜,需求旺盛,趨勢在于HPC存儲和企業(yè)存儲不斷融合,Panasas也只是目標客戶一個可選項,那么,如何構(gòu)建存儲系統(tǒng),讓自己的存儲成為AI和HPC場景的另一個優(yōu)選存儲方案呢,個人認為主要有以下6方面:

          • 1、沒有性能限制(擴展性):HPC存儲解決方案在擴展時應該沒有性能限制,無論是Scale Out還是Scale Up架構(gòu)。因此性能按需擴展可以快速解決不斷變化的存儲需求,通過靈活擴展系統(tǒng),快速發(fā)揮每個節(jié)點全部性能價值。
          • 2、始終如一的高性能(性能一致):無論數(shù)據(jù),應用程序,用戶和工作負載的復雜性如何,都提供始終如一的快速存儲。
          • 3、智能數(shù)據(jù)放置(數(shù)據(jù)多層布局):多層智能數(shù)據(jù)布局架構(gòu),為不同數(shù)據(jù)類型匹配正確的存儲類型,元數(shù)據(jù)和數(shù)據(jù)的獨立存放,數(shù)據(jù)路徑并行,無瓶頸。充分發(fā)揮不同存儲介質(zhì)性能特征,以最低的成本提供最高的性能。
          • 4、易于部署,管理和擴展(TCO):存儲易于操作,即插即用,不需要深入的技術(shù)技能來管理。系統(tǒng)管理員應該能夠在幾秒鐘內(nèi)完成容量和性能配置和擴展,一個IT管理員可以處理任何規(guī)模的存儲系統(tǒng)。
          • 5、可靠(系統(tǒng)Down機率):HPC存儲的可靠性隨規(guī)模而加劇,存儲應該自動從故障中恢復,并且沒有單點故障。智能軟件(AI或機器學習)可以自動協(xié)調(diào)恢復和修復過程。
          • 6、系統(tǒng)自動調(diào)優(yōu)(系統(tǒng)自調(diào)優(yōu)):系統(tǒng)調(diào)優(yōu)需深厚存儲系統(tǒng)知識,熟悉存儲系統(tǒng)工作方式。人工調(diào)優(yōu)耗時、復雜且容易出錯,存儲系統(tǒng)需要具備自我調(diào)優(yōu)能力,系統(tǒng)一旦經(jīng)過調(diào)優(yōu),就可以優(yōu)化絕大多數(shù)HPC應用的性能,而不需要隨著工作負載的變化而重新進行調(diào)整。

          為了確定HPC存儲系統(tǒng)關(guān)鍵挑戰(zhàn),TCO和初始購買成本關(guān)系,Hyperion Research針對亞洲、歐洲和北美的HPC系統(tǒng)規(guī)劃者、管理者、存儲經(jīng)理、采購決策者和系統(tǒng)用戶進行了現(xiàn)場調(diào)研,性能是排名第一的指標,TCO和價格并列第二。


          接受調(diào)研站點的員工人數(shù),從不足500到超過10000人規(guī)模不等。

          該研究涵蓋了各種規(guī)模的組織,年收入從不足500萬美元到超過100億美元不等。

          調(diào)研的行業(yè)主要集中在有代表性的政府、科研和主流行業(yè)。

          調(diào)研區(qū)域,具有代表性的區(qū)域包括:北美、亞洲和歐洲。

          調(diào)查站點的高性能計算系統(tǒng)的綜合存儲容量如下

          調(diào)查站點每年存儲容量的增長情況

          HPC存儲增長的最常見的驅(qū)動因素是迭代(多次運行)模擬的疊加。如今,應用計算過程可能涉及數(shù)百次或數(shù)千次的迭代,在制造業(yè)(參數(shù)化建模)、金融服務業(yè)(隨機建模)和天氣/氣候部門(集成建模),出于監(jiān)管和責任的原因,在應用生命周期內(nèi),所有的數(shù)據(jù)都需要存儲下來。

          雖然對HPC存儲TCO沒有統(tǒng)一的定義,但人們普遍認為有三個因素對節(jié)省TCO有貢獻:人員(調(diào)優(yōu))、生產(chǎn)率(性能下降/業(yè)務中斷)和運維。

          受訪站點的存儲人員規(guī)模各不相同,從每個站點一個到五個不等。

          不同站點,高性能計算存儲人員的年成本相差很大,假設站點雇用多個人員來管理存儲運維,支持成本高達50萬美元。

          在接受調(diào)查的網(wǎng)站中,超過四分之三的網(wǎng)站在過去一年中曾出現(xiàn)過存儲問題降低生產(chǎn)率的情況。每八個站點中就有一個在過去12個月內(nèi)發(fā)生了超過10次性能問題。

          在接受調(diào)查的網(wǎng)站中,約有一半的站點每月需調(diào)優(yōu)一次或更頻繁地調(diào)優(yōu)存儲系統(tǒng),而另一半則表示從未這樣做過。

          有相當一部分站點表示,他們每月或每周都經(jīng)歷存儲系統(tǒng)故障,有些被定義為非常嚴重的故障。

          在大多數(shù)情況下,存儲系統(tǒng)從故障中恢復需要不到24小時,但在有些情況下,這個過程需要一周或更長時間。

          但是,即使從存儲系統(tǒng)故障中恢復只需一天,損失也可能很高超過100,000美元。

          據(jù)統(tǒng)計,受訪者安裝一個高性能計算存儲系統(tǒng),所需時間可能從不到一天到一個多星期不等。

          TCO在HPC領域被廣泛使用,雖沒有統(tǒng)一標準定義,但由用戶結(jié)合應用自己的定義就和另一個購買標準—“價格”聯(lián)系在一起,為了應對大規(guī)模異構(gòu)仿真、分析、訓練等挑戰(zhàn),高性能計算存儲系統(tǒng)宕機現(xiàn)象,會增加成本,降低生產(chǎn)率。

          Hyperion Research建議高性能計算站點客戶在做出購買決定前,對大量的存儲供應商進行評估。在供應商的產(chǎn)品、策略和支持方面再三考量,從而獲得TCO帶來的長遠期巨額紅利。




          轉(zhuǎn)載申明:轉(zhuǎn)載本號文章請注明作者來源,本號發(fā)布文章若存在版權(quán)等問題,請留言聯(lián)系處理,謝謝。


          推薦閱讀

          更多架構(gòu)相關(guān)技術(shù)知識總結(jié)請參考“架構(gòu)師技術(shù)全聯(lián)盟書店”相關(guān)電子書(35本技術(shù)資料打包匯總詳情可通過“閱讀原文”獲取)。

          全店內(nèi)容持續(xù)更新,現(xiàn)下單“架構(gòu)師技術(shù)全店打包匯總(全)”,后續(xù)可享全店內(nèi)容更新“免費”贈閱,價格僅收188元(原總價290元)。



          溫馨提示:

          掃描二維碼關(guān)注公眾號,點擊閱讀原文鏈接獲取架構(gòu)師技術(shù)全店資料打包匯總(全)電子書資料詳情。


          瀏覽 147
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚洲成人黄色网 | 操操影院| 欧美黄色成人影片下载大全 | 看真人一级毛片 | www.AV视频在线观看 |