<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          2021 年了,TensorFlow 和 PyTorch 兩個(gè)深度學(xué)習(xí)框架地位又有什么變化嗎?

          共 2510字,需瀏覽 6分鐘

           ·

          2021-04-13 11:09

          作者丨思想火龍果、小小將、夕風(fēng)Twilighty
          來(lái)源丨知乎問(wèn)答

          導(dǎo)讀

           

          深度學(xué)習(xí)發(fā)展至今,深度學(xué)習(xí)的框架也出現(xiàn)了百花齊放的局面,16年出世風(fēng)靡世界的TensorFlow和稍晚一年卻隱隱有蓋住其風(fēng)頭的Pytorch,現(xiàn)在兩個(gè)的地位有什么變化嗎?

          回答鏈接:https://www.zhihu.com/question/452749603

          # 回答一

          作者:思想火龍果

          來(lái)源鏈接:

          https://www.zhihu.com/question/452749603/answer/1819357374
          pytorch統(tǒng)治學(xué)術(shù)圈?,F(xiàn)在各大頂會(huì)開(kāi)源代碼沒(méi)有一絲絲的tensorflow2.x,就連谷歌家自己的論文也是只有torch和jax。零零星星一些tf1的開(kāi)源代碼。

          tensorflow2.x難用嗎?真不難用的,基本就是在用keras,tf.data pipeline 和 tf.distribute 用起來(lái)真的省心又快。問(wèn)題就是現(xiàn)在tf2沒(méi)人用啊,也不是不好用,就是你有的pytorch也有,pytorch用得已經(jīng)好好的了為啥還要換呢?然后你又再搞一個(gè)新庫(kù),jax,而且還是用tensorflow寫的,而且還不是像keras,sonet一樣能跟tf混著用的  ,然后google research開(kāi)源代碼要不是pytorch就是jax,連自家都不用別人會(huì)用么。

          谷歌真的挺迷惑的,把keras合并了不去好好搞keras推廣keras,可能再過(guò)兩年 import tensorflow as tf 直接報(bào)warning “tensorflow is deprecated, please use pytorch instead”


          # 回答二

          作者:小小將

          來(lái)源鏈接:

          https://www.zhihu.com/question/452749603/answer/1822694849
          變化太大了,今年面試的實(shí)習(xí)生,當(dāng)問(wèn)他們常用的深度學(xué)習(xí)框架時(shí),他們清一色的選擇了:PyTorch。

          我個(gè)人認(rèn)為幾個(gè)原因?qū)е碌匚荒孓D(zhuǎn):
          (1)PyTorch的易用性更好(當(dāng)一個(gè)框架本身能衍生很多上層框架時(shí),你就能知道它本身是多么不友好了,說(shuō)的就是TF),而且生態(tài)已經(jīng)起來(lái)了,大部分論文開(kāi)源都是用PyTorch;
          (2)TF2看起來(lái)并不太成功,反而破壞TF1的生態(tài)。TF1和TF2往往混雜在一起,讓人摸不著頭腦。
          (3)關(guān)于大家最擔(dān)心的部署優(yōu)化問(wèn)題,其實(shí)目前PyTorch也在不斷提升這塊的劣勢(shì),目前Torch->ONNX->TensorRT已經(jīng)相對(duì)成熟了,其他的端側(cè)框架如ncnn也支持torch了。當(dāng)然動(dòng)態(tài)圖比靜態(tài)圖確實(shí)要多踩一點(diǎn)坑,但帶來(lái)的可能是模型迭代效率的提升。
          (4)關(guān)于分布式訓(xùn)練,TensorFlow可能優(yōu)勢(shì)更大,但可能大部分人最多跑個(gè)單機(jī)多卡就夠了,所以性能上不會(huì)差距太大,而且分布式訓(xùn)練還有很多第三方框架來(lái)支持比如horovod。而且本身PyTorch自帶的DDP也不差。

          其實(shí)我從16年開(kāi)始接觸深度學(xué)習(xí),最早學(xué)習(xí)的框架是theano,當(dāng)TensorFlow出來(lái)后,theano的使用者就慢慢轉(zhuǎn)向了TensorFlow,到19年我又開(kāi)始轉(zhuǎn)向PyTorch。每次轉(zhuǎn)變后,我只能說(shuō)一句話:真香。

          聲明:我的觀察只限于在比較卷的CV領(lǐng)域。

          # 回答三

          作者:夕風(fēng)Twilighty

          來(lái)源鏈接:

          https://www.zhihu.com/question/452749603/answer/1823164065
          全球范圍看,經(jīng)過(guò)16-19年這三年的發(fā)展,PyTorch在學(xué)術(shù)圈的「壟斷」地位基本已經(jīng)站穩(wěn)。這一方面得益于PyTorch一開(kāi)始主打的動(dòng)態(tài)建圖,便于實(shí)驗(yàn)室的學(xué)生們快速迭代模型,試驗(yàn)想法是否work;另一方面也來(lái)自于PyTorch吸收了TF 1.x版本中的某些優(yōu)點(diǎn),doc做的也不錯(cuò),便于初次接觸機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的新人上手,這一點(diǎn)的重要性往往容易被忽視。

          TensorFlow在國(guó)內(nèi)目前處在一個(gè)相對(duì)尷尬的境地,TF 1.x系列面世較早,2015年以及之前就深耕深度學(xué)習(xí)的程序員和在校同學(xué),大部分用框架時(shí)都會(huì)從TF(與TF的雛形,即更早的theano)入手。因此在學(xué)術(shù)界、工業(yè)界都有很深的積淀,工業(yè)界由于項(xiàng)目更「重」,牽一發(fā)而動(dòng)全身(或者應(yīng)該說(shuō)屎山太多),因此目前很多項(xiàng)目仍然停留在TF 1.x(1.1x)上面。因此要說(shuō)TF快涼了,也不客觀。但TF目前面臨一個(gè)比較尷尬的問(wèn)題,Google強(qiáng)推TF 2.0版本,但TF 1.x和2.0版本之間的API差異實(shí)在不小,導(dǎo)致doc的閱讀成本和版本適配成本都相當(dāng)高。

          至于學(xué)術(shù)界,PyTorch在國(guó)內(nèi)學(xué)校也廣受歡迎,TF 2.0我知道有一小部分實(shí)驗(yàn)室在用。但總的來(lái)說(shuō) TF 2.0在這方面相對(duì)于PyTorch確實(shí)沒(méi)有優(yōu)勢(shì),實(shí)驗(yàn)室刷metric的場(chǎng)景下,大家也基本沒(méi)有太多機(jī)會(huì)發(fā)揮出TF在分布式上的一些buff。而與此同時(shí),PyTorch的生態(tài)建構(gòu)肉眼可見(jiàn)地漸入佳境,TorchVision和TorchText兩個(gè)庫(kù)都做的相當(dāng)漂亮,整體Pipeline的舒適度誰(shuí)用誰(shuí)知道。TensorFlow顯然也明白自己要補(bǔ)齊什么短板,Keras可以認(rèn)為就是這樣的嘗試吧,但Keras的封裝做的讓人感覺(jué)總差點(diǎn)味道。至于MXNet、PaddlePaddle之流,在國(guó)內(nèi)的「市場(chǎng)」確實(shí)很小。PyTorch目前的確在蠶食TF的天地,如果在模型部署方面有更穩(wěn)健的突破(包括對(duì)底層C++的某些開(kāi)放和優(yōu)化),那么TF確實(shí)要做出一些大的改變來(lái)應(yīng)對(duì)了。

          推薦閱讀

          TensorFlow 真的要被 PyTorch 比下去了嗎?

          PyTorch稱霸頂會(huì):CVPR論文占比是TensorFlow 4 倍

          OpenAI全面擁抱PyTorch,TensorFlow:我哪里比不上它?

          瀏覽 28
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  一级片在线免费观看 | 国产婷婷一区二区 | 销魂美女一级A片免费看 | 爱福利一区二区三区 | 中文字幕日韩在线观看视频 |