【深度學(xué)習(xí)】2021 年了,TensorFlow 和 PyTorch 兩個(gè)深度學(xué)習(xí)框架地位又有什么變化嗎?
2021年了,大家用TensorFlow還是PyTorch多一點(diǎn)?
觀點(diǎn)一
作者:Yulong
鏈接:https://www.zhihu.com/question/452749603/answer/1826252757
很尷尬的是,業(yè)界大多數(shù)支撐搜廣推場(chǎng)景的模型,還是用tensorflow,而且惡心的是還是tensorflow 1.x,而且更更惡心的是各家攻城獅早期就與master分叉了,開(kāi)始自己魔改tf,給這個(gè)屎山代碼打上各種補(bǔ)丁。這些陳年老碼已經(jīng)穩(wěn)定運(yùn)行上線了,誰(shuí)也不敢說(shuō)從頭開(kāi)始,用pytorch汰換掉。這樣搞出線上故障誰(shuí)背的起?每天是身在tf營(yíng),心在torch。懷念簡(jiǎn)單的model寫(xiě)法,懷念直接寫(xiě)個(gè)if而不需要用詭異的tf.cond。不要管什么variable scope,也不要擔(dān)心是否真的在train還是eval……pytorch團(tuán)隊(duì)趕緊支持大規(guī)模kv partition variable,趕緊開(kāi)發(fā)serving部署啊,快解民于倒懸?。∵z民淚盡tf里,南望torch又一年(ToT)/~~~
觀點(diǎn)二
作者:思想火龍果
鏈接:https://www.zhihu.com/question/452749603/answer/1819357374
pytorch統(tǒng)治學(xué)術(shù)圈。
現(xiàn)在各大頂會(huì)開(kāi)源代碼沒(méi)有一絲絲的tensorflow2.x,就連谷歌家自己的論文也是只有torch和jax。零零星星一些tf1的開(kāi)源代碼。
tensorflow2.x難用嗎?真不難用的,基本就是在用keras,tf.data pipeline 和 tf.distribute 用起來(lái)真的省心又快。問(wèn)題就是現(xiàn)在tf2沒(méi)人用啊,也不是不好用,就是你有的pytorch也有,pytorch用得已經(jīng)好好的了為啥還要換呢?然后你又再搞一個(gè)新庫(kù),jax,而且還是用tensorflow寫(xiě)的,而且還不是像keras,sonet一樣能跟tf混著用的 ,然后google research開(kāi)源代碼要不是pytorch就是jax,連自家都不用別人會(huì)用么。
谷歌真的挺迷惑的,把keras合并了不去好好搞keras推廣keras,可能再過(guò)兩年 import tensorflow as tf 直接報(bào)warning “tensorflow is deprecated, please use pytorch instead”
觀點(diǎn)三
作者:小小將
鏈接:https://www.zhihu.com/question/452749603/answer/1822694849
變化太大了,今年面試的實(shí)習(xí)生,當(dāng)問(wèn)他們常用的深度學(xué)習(xí)框架時(shí),他們清一色的選擇了:PyTorch。
我個(gè)人認(rèn)為幾個(gè)原因?qū)е碌匚荒孓D(zhuǎn):
(1)PyTorch的易用性更好(當(dāng)一個(gè)框架本身能衍生很多上層框架時(shí),你就能知道它本身是多么不友好了,說(shuō)的就是TF),而且生態(tài)已經(jīng)起來(lái)了,大部分論文開(kāi)源都是用PyTorch;
(2)TF2看起來(lái)并不太成功,反而破壞TF1的生態(tài)。TF1和TF2往往混雜在一起,讓人摸不著頭腦。
(3)關(guān)于大家最擔(dān)心的部署優(yōu)化問(wèn)題,其實(shí)目前PyTorch也在不斷提升這塊的劣勢(shì),目前Torch->ONNX->TensorRT已經(jīng)相對(duì)成熟了,其他的端側(cè)框架如ncnn也支持torch了。當(dāng)然動(dòng)態(tài)圖比靜態(tài)圖確實(shí)要多踩一點(diǎn)坑,但帶來(lái)的可能是模型迭代效率的提升。
(4)關(guān)于分布式訓(xùn)練,TensorFlow可能優(yōu)勢(shì)更大,但可能大部分人最多跑個(gè)單機(jī)多卡就夠了,所以性能上不會(huì)差距太大,而且分布式訓(xùn)練還有很多第三方框架來(lái)支持比如horovod。而且本身PyTorch自帶的DDP也不差。
其實(shí)我從16年開(kāi)始接觸深度學(xué)習(xí),最早學(xué)習(xí)的框架是theano,當(dāng)TensorFlow出來(lái)后,theano的使用者就慢慢轉(zhuǎn)向了TensorFlow,到19年我又開(kāi)始轉(zhuǎn)向PyTorch。
每次轉(zhuǎn)變后,我只能說(shuō)一句話:真香。聲明:我的觀察只限于在比較卷的CV領(lǐng)域。
往期精彩回顧 本站qq群851320808,加入微信群請(qǐng)掃碼:
