鏈接:https://www.zhihu.com/question/504050716
編輯:深度學(xué)習(xí)與計(jì)算機(jī)視覺(jué)
聲明:僅做學(xué)術(shù)分享,侵刪
作者:星邪 https://www.zhihu.com/question/504050716/answer/2280529580
不敢妄加評(píng)論,只是個(gè)人意見(jiàn),GitHub上有人總結(jié)了2021 Amazing AI papers,我認(rèn)為比較中肯,基本可以算是今年影響力比較大的論文集錦:https://github.com/louisfb01/best_AI_papers_2021
我認(rèn)為其一是Transformer攻占各個(gè)領(lǐng)域,尤其是Swin Transformer大殺四方;其二是各大研究機(jī)構(gòu)的.預(yù)訓(xùn)練大模型發(fā)布及其在下游任務(wù)的驚人性能,當(dāng)然這也離不開(kāi)self-supervised+transformer;其三就是大家都提到的MAE,當(dāng)然還是離不開(kāi)transformer;還有一個(gè)我認(rèn)為比較重要的是基于NeRF的一系列工作也在今年開(kāi)始爆發(fā),包括CVPR best paper GIRAFFE,不過(guò)這方面工作主要還是集中在國(guó)外研究團(tuán)隊(duì)
作者:Riser https://www.zhihu.com/question/504050716/answer/2285962009
剛剛看了Andrew Ng老師的“贈(zèng)人玫瑰,手有余香”的圣誕寄語(yǔ),并回顧了2021年AI社區(qū)的發(fā)展,并對(duì)未來(lái)社區(qū)的發(fā)展進(jìn)行了展望。
原文鏈接:https://read.deeplearning.ai/the-batch/issue-123/
吳恩達(dá)老師主要談到了:多模態(tài)AI的起飛,萬(wàn)億級(jí)參數(shù)的大模型,Transformer架構(gòu),還有恩達(dá)老師本行—AI生成音頻內(nèi)容,人工智能相關(guān)法律的紛紛出臺(tái),前三個(gè)課題也是我比較關(guān)注的,結(jié)合恩達(dá)老師的talk發(fā)表一點(diǎn)點(diǎn)自己的理解。
個(gè)人覺(jué)得Open AI的 CLIP絕對(duì)是2021多模態(tài)AI的杰出代表,將圖像分類任務(wù)建模為圖文匹配,利用互聯(lián)網(wǎng)大量的文本信息監(jiān)督圖像任務(wù),感覺(jué)“文本+圖像”,甚至“文本+圖像+知識(shí)圖譜"是這塊未來(lái)前景很好的一條線,也有很多l(xiāng)ab已經(jīng)開(kāi)始了這塊的研究。另外Open AI的Dall·E(根據(jù)輸入文本生成對(duì)應(yīng)圖像),DeepMind 的 Perceiver IO (文本、圖像、視頻及點(diǎn)云進(jìn)行分類),斯坦福大學(xué) 的ConVIRT(為醫(yī)學(xué) X 射線影像添加文本標(biāo)簽)也都是這個(gè)課題很好的開(kāi)端。 顯然過(guò)去一年,模型經(jīng)歷了從更大到更大的發(fā)展歷程。 從谷歌參數(shù)量1.6萬(wàn)億的Switch Transformer,到北京人工智能研究院1.75萬(wàn)億的悟道2.0,一次次刷新模型量級(jí)的上線,拋開(kāi)模型量級(jí)不說(shuō),它們最初的motivation和Bert都是一樣的,為許多下游任務(wù)提供更general更好用的語(yǔ)言預(yù)訓(xùn)練模型,或許這種“general learning”的思想也將遷移到CV領(lǐng)域(事實(shí)上,我們做很多任務(wù)也會(huì)遷移imagenet的預(yù)訓(xùn)練模型),更大級(jí)別的general CV model或許需要我們對(duì)圖像的數(shù)據(jù)格式特點(diǎn)和自監(jiān)督訓(xùn)練模式進(jìn)行思考。 另外就是Transformer在各大視覺(jué)頂會(huì)和機(jī)器學(xué)習(xí) 頂會(huì)殺瘋了,Swin Transformer踩著VIT,Detr等眾多視覺(jué)Transformer前驅(qū)的肩膀上拿下ICCV2021 best paper,證明了Transformer在視覺(jué)任務(wù)上的適用性,Transformer在音頻文本等序列任務(wù)基本已經(jīng)被證明革了RNN的命,而這年,我們看到Transformer開(kāi)始挑戰(zhàn)CNN在視覺(jué)任務(wù)的霸主地位,當(dāng)然將這兩者有機(jī)融合也是當(dāng)前很熱很被看好的點(diǎn)。DeepMind 發(fā)布了 AlphaFold 2 的開(kāi)源版本,其使用 transformers 根據(jù)氨基酸序列預(yù)測(cè)蛋白質(zhì)的 3D 結(jié)構(gòu),震驚醫(yī)學(xué)界,對(duì)人類自然生物領(lǐng)域做出了杰出貢獻(xiàn)。這些都證明了Transformer具備良好的普適性,也期待更多更優(yōu)越的模型架構(gòu)出現(xiàn),解決更多的問(wèn)題。 另外不可忽視的就是基于nerf(Neural Radiance Fields)的一系列工作的爆發(fā),幾乎統(tǒng)治了三維重建等很多課題,嚴(yán)格來(lái)說(shuō)nerf是2020年的工作,一直覺(jué)得沒(méi)有拿到當(dāng)年ECCV的best paper很遺憾(當(dāng)然Raft也很強(qiáng)。。),不過(guò)GIRAFFE拿下今年的CVPR2021 best paper也算彌補(bǔ)了這個(gè)遺憾。 總之,2021年很多AI研究依舊激動(dòng)人心,讓我們共同期待和親歷2022 AI 的發(fā)展!??! 作者:匿名用戶 https://www.zhihu.com/question/504050716/answer/2280944226 理論方面感覺(jué)都在灌水。唯一可能可以算關(guān)鍵性進(jìn)展的工作可能是 Proxy Convexity: A Unified Framework for the Analysis of Neural Networks Trained by Gradient Descent; Frei & Gu 2021. 這篇文章是深度學(xué)習(xí)優(yōu)化理論的集大成者。 作者:灰瞳六分儀
https://www.zhihu.com/question/504050716/answer/2280495756 我關(guān)心的領(lǐng)域都比較小,也沒(méi)啥很驚艷的東西 比較火熱的工作中,MAE確實(shí)很有趣,但總覺(jué)得還是沒(méi)有NLP里使用mask那么自然 總感覺(jué)CV中比較自然的自監(jiān)督預(yù)訓(xùn)練的未來(lái)沒(méi)有大家想的這么近,隱約感覺(jué)會(huì)和二維畫(huà)面的三維重建有關(guān) 作者:匿名用戶 https://www.zhihu.com/question/504050716/answer/2279821079 我心中最關(guān)鍵的是clip…我覺(jué)得clip比vit要有意思。當(dāng)然vit也開(kāi)啟了很重要的一個(gè)方向,rethinking architecture for vision tasks dalle是個(gè)非常impressive的work。gan也有很多,比如styleganv3和gaugan2。nerf的followup也有很多。 除此之外,還有ssl吧,但我覺(jué)得都不是本質(zhì)性的breakthrough。。。即便是mae也只是證明了以前的self reconstruction對(duì)vit的backbone十分有效 作者:吃貓的魚(yú) https://www.zhihu.com/question/504050716/answer/2279784861 看到這問(wèn)題腦海中想到的第一個(gè)可能就是今年ICCV的best paper:swin transformer了。這篇論文也是對(duì)當(dāng)前transformer在CV領(lǐng)域的熱門(mén)ViT(Vision Transformer)的一種繼承吧。 包括可以看今年transformer在計(jì)算機(jī)視覺(jué)頂會(huì)CVPR和ICCV上的應(yīng)用,用到transformerz占了很大一部分,可以看到在CV領(lǐng)域使用transformer將會(huì)是一股熱潮。而Swin Transformer更是其中的巔峰之作,目前在CV領(lǐng)域應(yīng)該沒(méi)有效果超過(guò)Swin Transformer的結(jié)構(gòu)的了。 所以我覺(jué)得Swin Transformer可以說(shuō)是今年深度學(xué)習(xí)領(lǐng)域的關(guān)鍵性進(jìn)展了吧。
猜您喜歡:
超110篇!CVPR 2021最全GAN論文匯總梳理!
超100篇!CVPR 2020最全GAN論文梳理匯總!
拆解組新的GAN:解耦表征MixNMatch
StarGAN第2版:多域多樣性圖像生成
附下載 |?《可解釋的機(jī)器學(xué)習(xí)》中文版
附下載 |《TensorFlow 2.0 深度學(xué)習(xí)算法實(shí)戰(zhàn)》
附下載 |《計(jì)算機(jī)視覺(jué)中的數(shù)學(xué)方法》分享
《基于深度學(xué)習(xí)的表面缺陷檢測(cè)方法綜述》
《零樣本圖像分類綜述: 十年進(jìn)展》
《基于深度神經(jīng)網(wǎng)絡(luò)的少樣本學(xué)習(xí)綜述》
? ???