<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          因買不到RTX 3090,小哥自己搭建了一個專業(yè)級機器學習工作站

          共 9399字,需瀏覽 19分鐘

           ·

          2021-04-08 22:12

          ↑ 點擊藍字 關(guān)注極市平臺

          作者丨Emil Wallner
          源丨AI科技評論
          編輯丨極市平臺

          極市導讀

           

          一名機器學習研究員自己搭建了一個機器學習工作站,它擁有4個NVIDIA RTX A6000和一個32核的AMD EPYC 2、192 GB的GPU顯存和256GB的RAM。 >>加入極市CV技術(shù)交流群,走在計算機視覺的最前沿

          Emil Wallner是一名自學成才的獨立機器學習研究員。在這篇文章中,他將向我們展示,自己是如何圍繞專業(yè)級顯卡NVIDIA RTX A6000,一步一步搭建起一個僅需價值19萬人民幣的機器學習工作站。
          RTX A6000具備了RTX消費級顯卡上同樣的光線追蹤特性,并與數(shù)據(jù)中心使用的A40進行了區(qū)分。RTXA6000采用了完整的GA102芯片,這意味著它擁有10752個CUDA核心,可提供高達38.7 TFLOPs的單精度計算性能(比消費級顯卡 top-1 GeForce RTX 3090高出3.1 TLFOPs)。
          圖注:RTX A6000和RTX 3090的性能對比(來源:expreview)
          這是我建立的第一個工作站。(見頭圖)
          它擁有4個NVIDIA RTX A6000和一個32核的AMD EPYC 2、192 GB的GPU顯存和256GB的RAM。我花費了2.5萬歐元(約19萬人民幣)來搭建它,其中關(guān)鍵部件大概2萬歐元。
          圖注:所有主要部件的價格列表
           
          1

          GPU

          在AMD的GPU機器庫變得更加穩(wěn)定之前,NVIDIA是唯一的選擇。由于NVIDIA最新的Ampere微架構(gòu)明顯優(yōu)于上一代產(chǎn)品,因此我僅采用了Ampere GPU。
          NVIDIA具有三種主要的GPU類型:
          • 消費級:RTX 3080 / RTX 3090
          • 專業(yè)級(prosumer,或稱生產(chǎn)性消費級):A6000
          • 企業(yè)級:A100
          每一類顯卡都有對應(yīng)的容易配置的GPU數(shù)量:
          • 消費級:兩個RTX 3080s / RTX 3090s
          • 專業(yè)級:四個A6000
          • 企業(yè)級:8個A100或A6000(PCIe),或16個A100(SXM4),或20個A100(基于PCIe的模塊化刀片節(jié)點)
          當然,你也可以嘗試突破這些限制,但會增加風險,并犧牲可靠性和便利性。

          非企業(yè)級GPU的限制

          我們概述一下消費級顯卡和專業(yè)級顯卡的一些限制。
          主要限制:
          • PCIe轉(zhuǎn)接卡的主板限制:14個GPU(每個GPU x8 Gen 4.0)
          • 每個插槽的用電量限制:8個GPU(美國為4個)
          • 消費級電源限制:5個GPU(2000W)
          • 標準PC機箱尺寸:4個雙插槽GPU
          空間和環(huán)境限制:
          • 堆疊的顯卡彼此相鄰:4個A6000 / 3070或2個3080/3090
          • 熱量限制:2個GPU(最好是水冷式)
          • 消費者供應(yīng)量:1個GPU(大多數(shù)商店只允許購買一個消費級GPU,并且通常僅在發(fā)布后3到12個月內(nèi)可購買)
          我嘗試過購買5臺RTX 3090,由于供應(yīng)問題等待了四個月之后,我選擇了采用四臺RTX A6000。
          根據(jù)Lamda Labs和Puget Systems的說法,雙槽式鼓風機3080和3090太熱,無法在標準尺寸的主板上可靠地將四個相鄰的鼓風機安裝在一起。因此,你需要采用PCIe轉(zhuǎn)接卡、水冷設(shè)備或限制電源使用。
          在露天設(shè)備中使用PCIe轉(zhuǎn)接卡會使硬件暴露在灰塵下。水冷式則需要維護,并且在運輸過程中有泄漏的危險。限制功率是非標準的做法,可能會導致可靠性下降和性能損失。
          對于3臺以上的GPU工作站,很多人選擇300W或更低功率的顯卡,即RTX 3070及以下,或A6000及以上。
          由于大多數(shù)主流的云GPU都是16 GB的GPU內(nèi)存,因此當今的大多數(shù)模型都是為16 GB的顯卡設(shè)計的,并且我們正朝著40 GB的方向發(fā)展。因此,具有最低內(nèi)存的卡在重寫軟件中會有增加的開銷,以適應(yīng)較低的內(nèi)存限制。

          為什么存在8-GPU消費級工作站?

          人們在網(wǎng)上看到的超過5個GPU消費級設(shè)備,通常是具有多種電源的加密設(shè)備。
          由于加密裝置不需要高帶寬,因此它們使用特定的USB適配器來連接GPU。這是一個無需電力即可傳輸數(shù)據(jù)的適配器。因此,GPU和主板的電源是分開的,從而減少了混合電路的問題。
          但是,適配器的質(zhì)量通常很差,小的焊接錯誤可能會損壞硬件并著火。而且,特別不建議將它們用于需要PCIe轉(zhuǎn)接卡以實現(xiàn)75W功率的機器學習工作站。
          加密工作站還使用了一些標準質(zhì)量較差的采礦電源或翻新企業(yè)電源。由于人們傾向于將它們放置在車庫或集裝箱中,因此他們會承受額外的安全風險。


          2

          專業(yè)級顯卡和企業(yè)級顯卡的功能 

          對于Ampere系列,NVIDIA很難將高端消費卡用于具有2個以上GPU的工作站。很多跡象都表明了這一點,比如:3槽寬度、高功率,并且有多家制造商中斷了3090的2寬度鼓風機版本。
          因此,專業(yè)級和企業(yè)級Ampere卡的主要賣點是支持3個以上GPU工作站,進行24/7/365的工作負載。
          專業(yè)級和企業(yè)級顯卡還具有一些附加功能。
          主要功能(與RTX 3090相比):
          • 快1.1-2倍(取決于GPU、二進制浮點格式和模型)
          • 1.7-3.3倍的內(nèi)存
          • 能耗更低(更適合堆疊卡)
          • 數(shù)據(jù)中心部署(非營利組織可以獲取消費卡許可)
          其他不錯的功能:
          • ECC內(nèi)存(防錯內(nèi)存)
          • 每個GPU和MIG(僅限企業(yè)級)可有多個用戶
          • NVSwitch(A100 SXM4),更快的GPU到GPU的通信
          80GB GPU可以提供針對特定型號的優(yōu)勢,但是很難說它們是否具有足夠的計算能力來從大型模型中有效受益。最安全的選項是40GB版本。
          通常,我不會針對NLP、CV或RL設(shè)置特定的工作負載。它們的性能會有所不同,但是由于機器學習的格局變化如此之快,因此不值得針對特定的工作負載進行過度優(yōu)化。
          有關(guān)更深入的比較,請閱讀Tim Dettmers的GPU指南。請?zhí)貏e注意Tensor Core、稀疏訓練、限制GPU功率和低精度計算等部分的內(nèi)容。
          Tim Dettmers的GPU指南:https://timdettmers.com/2020/09/07/which-gpu-for-deep-learning/

           
          3

          服務(wù)器限制

          消費級設(shè)備主要受電源限制,而服務(wù)器設(shè)備主要受重量、機殼大小和網(wǎng)絡(luò)開銷的限制。
          主要限制:
          • 帶有消費級部件的服務(wù)器:4個PCIe GPU
          • PCIe服務(wù)器的限制:10個雙插槽GPU(標準服務(wù)器的寬度)
          • 重量:10個PCIe GPU或4個SMX4 GPU(30千克)
          附加限制:
          • PCIe服務(wù)器機箱的聯(lián)網(wǎng)限制:8個雙插槽GPU(2個雙插槽用于聯(lián)網(wǎng))
          • SXM4服務(wù)器的機箱數(shù)量限制:16個GPU(168千克)
          • PCIe刀片服務(wù)器限制:20個雙插槽GPU
          這里的關(guān)鍵限制是網(wǎng)絡(luò)開銷。一旦連接一臺或多臺服務(wù)器,就需要軟件和硬件來管理系統(tǒng)。我強烈推薦觀看Stephen Balaban關(guān)于構(gòu)建用于機器學習的GPU集群的概述視頻。
          Building a GPU cluster for AI:https://www.youtube.com/watch?v=rfu5FwncZ6s
          第二個關(guān)鍵問題是重量和維修。
          帶有8臺SXM4的服務(wù)器重約75kg。因此,理想情況下你得擁有一臺服務(wù)器升降機。與PCIe服務(wù)器隨附的更多標準零件相比,SXM4更難以維修。
          A100和A6000也有不帶內(nèi)置風扇的版本。這些需要帶有十幾個10K + RPM風扇的服務(wù)器機箱。由于可以熱插拔風扇,因此它們將具有更多的容錯能力。


          4

          速度基準

          Lambda Labs擁有最佳的GPU基準測試和整體基準測試。
          基準采用了PyTorch的幾個模型的半精度平均值。
          Lambda Labs:
          • https://lambdalabs.com/blog/tag/benchmarks/
          • https://lambdalabs.com/gpu-benchmarks

          FP16 PyTorch Lambda實驗室基準
          在速度方面,A100是A6000的1.4倍。但是A6000的速度是3090的1.2倍,是3080的兩倍。
          另一個值得注意的基準是PCIe和SXM4之間的比較。NVIDIA的A100 PCIe只能連接到另一個GPU,而NVIDIA的A100 SXM4可以同時連接到8至16個GPU。

          F16 PyTorch Lambda Labs 基準
          從理論上說,NVIDIA的NVswitch和SXM4的帶寬提高了10倍,但是在8-GPU設(shè)置下,與PCIe解決方案相比,它僅快了10%。由于每個GPU上SXM4的速度提高了8%,因此NVswitch的影響很小。
          對于8-GPU系統(tǒng),這應(yīng)該是很小的差異。Lamda Labs的首席執(zhí)行官表示,對于大型集群中的某些用例,他們可以實現(xiàn)2倍的改進。因此,它主要針對多個8-GPU系統(tǒng)。具有數(shù)百個GPU規(guī)模的DGX A100 SuperPOD系統(tǒng)也值得研究。
          另外,在網(wǎng)絡(luò)基準測試中,請注意GB / s和Gb / s的區(qū)別。GB / s比Gb / s快八倍。

          第一次測試我的機器學習工作站
           
          5

          GPU定價

          定價近似于實際零售價,為簡化起見四舍五入,沒有增值稅和折扣。
          企業(yè)級(歐元):
          • A100 SMX4(80 GB):€18k
          • A100 SMX4(40 GB):€13k
          • A100 PCIe(40 GB):€9k
          專業(yè)級和消費級(歐元):
          • RTX A6000 / A40(48GB):€4500
          • RTX 3090(24 GB):€1500-2000
          • RTX 3080(10 GB):€800-1300
          • RTX 3070(12 GB):€700-1000
          NVIDIA還提供了創(chuàng)業(yè)和教育折扣,因此每個GPU可以節(jié)省15-30%。
          我在4 x RTX A6000上節(jié)省了約4000歐元。
          SMX4卡作為8 GPU服務(wù)器的一部分出售,由于定制的GPU到GPU的通信使其價格更高,因此上述每個GPU的價格是近似的。

          機器學習工作站預(yù)算

          這些是估計的預(yù)建價格,不含折扣和增值稅。
          高成長的初創(chuàng)公司,大型研究實驗室和企業(yè):
          • €240-340k:8 x A100 SXM4(80 GB)
          • €120-170k:8 x A100 SXM4(40 GB)
          初創(chuàng)企業(yè),研究實驗室和中小型企業(yè):
          • €90k:8 x A100 PCIe(40 GB)
          • €50k:4 x A100 PCIe或8 x RTX A40(無風扇RTX A6000)
          • €25k:4 x RTX A6000(我的裝備)
          • €25k:4 x RTX 3090(液冷)
          • €15k:4 x RTX 3090(加密風格或上限性能)
          學生,業(yè)余愛好者:
          • €10k:4 x RTX 3070
          • €7k:2 x RTX 3090
          • €5k:1 x RTX 3090或2 x RTX 3080
          • €4k:1 x RTX 3080
          • €3k:1 x RTX 3070
          預(yù)算是一方面,但主要的關(guān)注點是放置位置。
          開始時,我們通常將機器放在同一個房間里,以應(yīng)對不便之處。
          隨著機器擴展,我們將需要更多基礎(chǔ)架構(gòu)。我們可以將其移動到單獨的辦公室中,然后將其放置在數(shù)據(jù)中心中,從并置開始,然后從1個數(shù)據(jù)中心攀升至4個數(shù)據(jù)中心,以提高容錯能力。
          我發(fā)現(xiàn)4個GPU的聲音太大,無法在辦公室或家里散熱而產(chǎn)生過多的熱量。想想看,一臺帶有熱風的小型吹葉機,相當于一個1600W的散熱器。
          數(shù)據(jù)中心配置的起始價格為每個GPU每月80-250歐元左右,其中包括每個GPU 25歐元的電費。你可以在此處查詢所有本地數(shù)據(jù)中心配置的報價(https://www.datacentermap.com/quote.html)。如果你計劃在4個以上的GPU上運行24/7/365的工作負載,我強烈建議你這樣做。
          你可以像購買PC一樣輕松地為4 GPU服務(wù)器購買零件。準系統(tǒng)5+ GPU ML服務(wù)器的價格約為7,000歐元。

          6

          CPU

          選擇AMD。
          AMD的內(nèi)部帶寬是Intel的5倍。而且既便宜又更好。大多數(shù)Ampere 機器學習服務(wù)器都使用AMD。
          AMD具有三種主要的CPU類型:
          • 消費級:帶有AM4插槽的Ryzen 5000
          • 專業(yè)級:Ryzen Threadripper第三代,帶有sTRX4,以及用于第一代Pro版本的sWRX8插槽
          • 企業(yè)級:帶有SP3插槽的EPYC 2
          對于1-GPU系統(tǒng),Ryzen非常出色;對于2-4 GPU PC的系統(tǒng),請搭配Threadripper。對于5個以上的GPU系統(tǒng)和服務(wù)器版本,請使用EPYC。
          Threadripper的速度比EPYC快,但EPYC的存儲通道是RDIMM的兩倍,并且能耗更低。如果你打算將計算機用作服務(wù)器,那么我建議選擇EPYC。
          我最終買到了32核的AMD EPYC 2 Rome 7502P。對于處理器,我將每個GPU對應(yīng)八個內(nèi)核作為一個粗略的指導。另外,請注意它們是否支持單處理器、雙處理器或兩種處理器設(shè)置都支持。

          CPU散熱

          對于散熱,Noctua風扇是最安靜、性能最高且最可靠的風扇。它們也很大,因此請確保它們適合你的RAM和機箱。
          對于RGB風扇,我喜歡Corsair的多合一(AIO)液體CPU散熱器。它的顏色是可編程的,并且系統(tǒng)釋放了CPU周圍的空間。它使用了防凍液,泄漏風險很小。
          所有Threadripper和EPYC CPU具有相同的尺寸,從而使散熱器兼容,但是你可能需要安裝支架。另外,請檢查散熱器是否支持你選擇的CPU的功率。
          這是我設(shè)想的頂級配置:
          • 銳龍5000:Noctua NH-D15或Corsair H100i RGB PLATINUM
          • Threadripper:Noctua NH-U14S TR4-SP3或Corsair Hydro系列H100x
          • EPYC:Dynatron A26 2U(用于服務(wù)器)
          由于成本、維護、凍結(jié)風險、運輸風險和缺乏靈活性,我避免采用定制的液冷。
           
          7

          主板

          以下是一些值得考慮的AMD主板:
          • 銳龍5000:MSI PRO B550-A PRO AM4(ATX)
          • Threadripper 3rd Gen:華擎TRX40 CREATOR(ATX)
          • Threadripper Pro:ASUS Pro WS WRX80E-SAGE SE(ETAX)
          • EPYC 2:AsRock ROMED8-2T(ATX)(我的主板)
          我考慮的主要決定因素是PCIe插槽和IPMI。
          如果你打算將機器學習工作站用作普通PC,并希望內(nèi)置支持WIFI、耳機插孔、麥克風插孔和睡眠功能,那么最好使用消費級或?qū)I(yè)級主板。
          就我而言,我使用了雙重用途的專業(yè)級/服務(wù)器主板,該主板支持遠程處理或智能平臺管理接口(IPMI)。通過以太網(wǎng)連接和Web GUI,我可以安裝操作系統(tǒng),打開/關(guān)閉操作系統(tǒng)并連接到虛擬監(jiān)視器。如果計劃進行24/7/365工作負載,則IPMI是理想的選擇。
          CPU插槽具有內(nèi)置芯片組,專業(yè)級和消費級具有附加的芯片組以啟用特定的CPU或功能,例如,Ryzen的B550和Threadripper的TRX40。
          對于Ryzen 5000版本,理想的是具有BIOS刷新按鈕。否則,你需要更早的Gen Ryzen CPU來更新BIOS以與Ryzen 5000兼容。
          5+ GPU的server-only主板很難單獨購買。消費級設(shè)置是模塊化的,而較大的服務(wù)器則是集成的。

          主板尺寸

          主板的標準尺寸為ATX,尺寸為305×244毫米,非常適合服務(wù)器機箱和PC。我主要關(guān)注標準尺寸的ATX板,以避免出現(xiàn)任何機架間距問題。
          其他的外形尺寸因制造商而異,因此你在機箱方面會受到更大的限制。對于消費級機箱而言,這并不是什么大問題,但是對于服務(wù)器機箱而言,其高度不會超過ATX的305毫米。
           
          8

          PCI Express(PCIe)

          下面是我用的主板:AsRock ROMED8-2T(ATX)
          需要著重注意的是要插入GPU的PCIe插槽,也就是上面的垂直灰色插槽。
          連接處位于GPU的最右側(cè)。你能看到,RAM插槽和第一個GPU之間的間隙很緊。
          當你在7插槽板上有四個雙寬度的GPU時,第4個GPU將超過板的底部。因此,您需要一個支持8個PCIe擴展插槽的PC或服務(wù)器機箱。
          對于兩個RTX 3090三插槽卡,你的第一個GPU會覆蓋前三個PCIe插槽和空插槽,而第二個GPU將覆蓋最后三個插槽。
          如果你打算買一個NVlink來連接兩個GPU,它們通常會有2插槽、3插槽和4插槽幾個版本。在上圖中,你需要兩個 2-槽橋。而對于中間有間隙的三槽卡,你需要一個4-槽橋來滿足卡的寬度、3插槽以及1插槽間隙。
          關(guān)于PCIe插槽,有幾點值得了解:
          • PCIe物理長度:圖中每個插槽的長度為x16,GPU的標準長度為89mm。
          • PCIe帶寬:有時,你有一個16插槽的長度,但只有一半的插槽有連接到主板的管腳,使其成為x8帶寬的x16插槽。作為參考,加密鉆機將使用x16適配器,但x1帶寬。
          • 生成速度:上面的板是4.0代。每一代的速度往往是上一代的兩倍。NVIDIA的最新gpu是gen4.0,但在實際應(yīng)用中在gen3.0板上的性能相當。
          • 多GPU要求:對于4-10 GPU系統(tǒng),通常建議每個GPU至少x8 Gen 3.0。

          PCIe通道

          大多數(shù)人需要的另一個東西是PCIe通道的總量,即總的內(nèi)部帶寬。這里給一個網(wǎng)絡(luò)、存儲和多GPU容量的粗略指示。
          主板制造商會使用PCIe通道來優(yōu)先考慮某些功能,例如存儲、PCIe插槽、CPU—CPU直接的通信等。
          作為參考,一個GPU將使用16通道,一個10 GB/s以太網(wǎng)端口使用8通道,一個NVMe SSD將使用4通道。
           
          9

          機箱

          最常用的機器學習工作站機箱是Corsair Carbide Air 540,而對于消費級服務(wù)器,則是Chenbro Micom RM41300-FS81。從聲音、灰塵和運輸?shù)慕嵌葋砜?,這兩種情況是理想的。兩者都能容納RTX3090,但你需要為Chenbro配置一個后端電源連接器。
          我從Thermaltake Core P5鋼化玻璃版開始。從苦行僧的角度來說,這是最好的。但它相當笨重,不能沾染灰塵??紤]到GPU的熱量和噪音,我決定將其轉(zhuǎn)換成帶有Chenbro機箱的服務(wù)器,并將其放入數(shù)據(jù)中心。
          GPU之間的空間比主機箱氣流的影響更大。如果你采用了3+3080/3090,你可能需要開放的加密工作站設(shè)置。然而,這是非常嘈雜和容易沾染灰塵的。理想情況下,你要把它放在一個隔音的房間里,安裝冷卻器和灰塵過濾器。
          Chenbro機箱蓋上有兩個120毫米2700轉(zhuǎn)的風扇,為GPU創(chuàng)造了極好的氣流。


          10

          PSU、RAM和存儲

          如果你已經(jīng)選好了GPU、CPU、主板和機箱,其余的組件會很容易挑選。
          電源:關(guān)于電源,我看了兩個被認為是最好的供應(yīng)商,EVGA和Corsair。我考慮了GPU的總功率,額外的250W,以及保險邊界。這里有一個更精確的功率計算器(https://www.newegg.com/tools/power-supply-calculator/)。我最終得到了EVGA超新星1600W T2。
          RAM:我看了主板供應(yīng)商的推薦,買了一些我可以在網(wǎng)上輕松買到的東西。建議用RAM填充可用的插槽,我希望RAM內(nèi)存能匹配或超過相對應(yīng)的GPU內(nèi)存。據(jù)Tim Dettmers說,內(nèi)存速度對整體性能影響不大。我用的是8 x Kingston 32GB 3200MHz DDR4 KSM32RD4/32ME,所以總共是256 GB。
          NVMe SSD:我檢查了PCpartpicker和Newegg上評級最高的SSD。我的指導原則是在PCIe Gen 4.0的基礎(chǔ)上每GPU配上 0.5 TB。我用了兩個2 TB三星980 Pro 2到M.2 NVMe。
          硬盤驅(qū)動器:我選擇了和SSD一樣的策略,每個GPU對應(yīng)有6TB的存儲空間。最終我采用了2 x 12 TB Seagate IronWolf Pro、3.5英寸、SATA 6Gb/s、7200 RPM、256MB緩存。對于更嚴格的基準測試,可以研究磁盤故障率。
          NVlink:這是一個很好的方法,可以在特定的工作負載上提高百分之幾的性能。不過,它沒有結(jié)合兩個GPU的內(nèi)存,只是一個營銷誤導。
           
          11

          搭建和安裝

          搭建工作站最困難的部分是買到各種零件。(我咋覺得最困難的是錢
          把這些部件組裝起來只需要不到一個小時,但是為了安全起見,你可能需要多花幾個小時。
          我用遠程管理系統(tǒng)安裝了軟件。當我把以太網(wǎng)線插入路由器時,它給我的路由器分配了一個IP地址,然后我把這個IP地址放進瀏覽器,我可以訪問一個web界面來更新BIOS并安裝了Ubuntu20.04 LTS。
          然后我為所有GPU驅(qū)動程序和機器學習庫等安裝了Lambda堆棧,強烈推薦!
          如果你使用的是IMPI,請在BIOS中將VGA輸出更改為internal。否則,如果不刪除GPU,就無法使用IMPI中的虛擬監(jiān)視器。
           
          12

          結(jié)論

          擁有自己的硬件的主要好處是工作流。
          不要在云計算上浪費時間,應(yīng)該鼓勵進行魯棒的實驗。
          親自搭建一個工作站,你會學到很多東西,成為一個受過更多教育的消費者。另外,這是一個寶貴的技能。
          英偉達正在努力讓3+GPU工作站能使用上高端消費卡。對于家里有服務(wù)器的專業(yè)級工作站,我會選擇4 x 3090的開放工作站??臻g更有限的的話,就選擇2 x 3090的工作站。
          如果有了更大的預(yù)算,4 x RTX A6000是一個不錯的選擇,但考慮到噪音和熱量,我會選擇服務(wù)器解決方案,并將其放置在數(shù)據(jù)中心。
          相比A100,A6000 / A40的性價比更高。SMX4太笨拙,與PCIe版本相比性能微不足道。
          我希望大家能構(gòu)建包含大型集群的透明基準,以了解實踐中的好處。
          原文鏈接: 
          https://www.emilwallner.com/p/ml-rig

          推薦閱讀


          RTX 3090的深度學習環(huán)境配置指南:Pytorch、TensorFlow、Keras

          2021-01-25

          保姆級教程:深度學習環(huán)境配置指南!(Windows、Mac、Ubuntu全講解)

          2021-01-21

          如何配置一臺深度學習工作站?

          2020-08-21



          # CV技術(shù)社群邀請函 #

          △長按添加極市小助手
          添加極市小助手微信(ID : cvmart2)

          備注:姓名-學校/公司-研究方向-城市(如:小極-北大-目標檢測-深圳)


          即可申請加入極市目標檢測/圖像分割/工業(yè)檢測/人臉/醫(yī)學影像/3D/SLAM/自動駕駛/超分辨率/姿態(tài)估計/ReID/GAN/圖像增強/OCR/視頻理解等技術(shù)交流群


          每月大咖直播分享、真實項目需求對接、求職內(nèi)推、算法競賽、干貨資訊匯總、與 10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺開發(fā)者互動交流~


          △點擊卡片關(guān)注極市平臺,獲取最新CV干貨

          覺得有用麻煩給個在看啦~  
          瀏覽 176
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  色婷婷在线视频观看免费 | 大香蕉在线伊人 | 一级黄色免费在线播放 | 欧美就是色 | 中文字幕无码一区二区三区一本久 |