近日,知名外媒《Towards Data Science》統(tǒng)計(jì)了近五年來發(fā)表在各大國際頂級會上引用量排名前十的論文。近五年來,AI學(xué)術(shù)論文的投稿量和接收量都在不斷攀升,包括NeurIPS、AAAI、ACL,ICML、EMNLP等國際頂會。根據(jù)權(quán)威數(shù)據(jù)統(tǒng)計(jì),NeurIPS論文收錄量在2019年呈指數(shù)級增長,領(lǐng)先AAAI近300篇;而AAAI 在2020年創(chuàng)下歷史新高,達(dá)到了1692篇。如何在海量論文庫中發(fā)現(xiàn)最具影響力的論文,谷歌引用次數(shù)是學(xué)者們參考的一項(xiàng)重要指標(biāo),它在一定程度上反映了論文的質(zhì)量。近日,知名外媒《Towards Data Science》按這一指標(biāo),統(tǒng)計(jì)了近五年來發(fā)表在各大國際頂級會上引用量排名前十的論文。根據(jù)統(tǒng)計(jì)結(jié)果顯示,Top 10 論文引用量最高為67514次,最低6995次,全部出自ICLR、NeurIPSR、NeurIPS、ICML以及《Nature》四家期刊,覆蓋深度學(xué)習(xí)、機(jī)器學(xué)、強(qiáng)化學(xué)習(xí)、視覺處理、自然語言處理等多個領(lǐng)域。其中,智能體AlphaGo、Transfromer模型、強(qiáng)化學(xué)習(xí)算法DQN,以及神經(jīng)網(wǎng)絡(luò)優(yōu)化算法Adam全部在列。
大部分論文所屬研究機(jī)構(gòu)為Google Brain 、Facebook AI Research、DeepMind以及Amsterdam University,作者包括我們熟知的AI大佬Ian J. Goodfellow,Kaiming He Thomas Kipf 、Ashish Vaswani 等。下面AI科技評論按引用次數(shù)從低到高的順序?qū)op 10 論文進(jìn)行簡要整理:Top10:Explaining and Harnessing Adversarial Examples作者:Ian J. Goodfellow, J Shlens, C Szegedy ,收錄于 ICLR 2015,引用 6995次.
論文地址:https://arxiv.org/abs/1412.6572
該論文介紹了快速生成神經(jīng)網(wǎng)絡(luò)對抗性示例的方法,并引入了對抗性訓(xùn)練作為正則化技術(shù)。一些機(jī)器學(xué)習(xí)模型,包括最先進(jìn)的神經(jīng)網(wǎng)絡(luò)都容易受到對抗攻擊。如對數(shù)據(jù)集中的示例故意施加微小擾動,模型會對輸入示例進(jìn)行錯誤分類,從而使得擾動的輸入結(jié)果以高置信度輸出不正確的答案。對于這一現(xiàn)象,早期的處理方法集中在非線性和過度擬合上。在本篇論文中,研究人員提出神經(jīng)網(wǎng)絡(luò)模型易受干擾的主要因其線性性質(zhì)。通過定量實(shí)驗(yàn),他們發(fā)現(xiàn)對抗樣本在模型結(jié)構(gòu)和訓(xùn)練集之間的泛化,并由此提出了一種簡單而高效的生成對抗性例子的方法,即快速梯度符號法(Fast Gradient Sign Method)。該方法的主要思想是讓擾動的變化量與梯度的變化方向完全一致,通過增大誤差函數(shù),以對分類結(jié)果產(chǎn)生最大變化。他們認(rèn)為,在構(gòu)造對抗樣本時更應(yīng)該關(guān)心擾動的反向而不是擾動的數(shù)目。經(jīng)實(shí)驗(yàn),該方法可以有效減少M(fèi)NIST數(shù)據(jù)集上maxout網(wǎng)絡(luò)的測試集誤差。 
圖注:在ImageNet上用GoogLeNet快速對抗生成的示例影響力:本篇論文揭示了一個普遍的現(xiàn)象,即攻擊者對輸入進(jìn)行微小的修改就可以顯著降低任何精確機(jī)器學(xué)習(xí)模型的性能。這一現(xiàn)象已經(jīng)在其他任務(wù)和模式(如文本和視頻)中觀察到,并影響了了大量研究工作。Top9:Semi-Supervised Classification with Graph Convolutional Networks
作者:Thomas Kipf 、Max Welling, 收錄于ICLR 2017, 引用7021次
論文地址:https://arxiv.org/abs/1609.02907
這篇論文證明了圖卷積網(wǎng)絡(luò)(GCN)在半監(jiān)督節(jié)點(diǎn)分類任務(wù)中性能優(yōu)越。論文中,研究人員提出了一種可擴(kuò)展的圖結(jié)構(gòu)數(shù)據(jù)半監(jiān)督學(xué)習(xí)方法,該方法基于一種高效地、可直接操作于圖的卷積神經(jīng)網(wǎng)絡(luò)。通過譜圖卷積(spectral graph convolutions)的局部一階近似來激勵卷積結(jié)構(gòu)的選擇,可使模型在圖的邊數(shù)上線性伸縮,并且學(xué)習(xí)編碼局部圖結(jié)構(gòu)和節(jié)點(diǎn)特征的隱藏層表示。通過在引文網(wǎng)絡(luò)和知識圖數(shù)據(jù)集中的大量實(shí)驗(yàn),已證實(shí)該方法比相關(guān)研究有更大的優(yōu)勢。圖注:用圖卷積網(wǎng)絡(luò)變換圖特征實(shí)例
影響:新型藥物或高效能催化劑的發(fā)現(xiàn)需要將分子建模為圖形。圖卷積網(wǎng)絡(luò)把深度學(xué)習(xí)的工具帶到了圖領(lǐng)域,并展示了相比于此前占主導(dǎo)地位的手動方法的優(yōu)越性。
Top8:Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks作者:Alec Radford 、Luke Metz et al. 收錄于 ICLR 2016, 引用 8681次。
論文地址:https://arxiv.org/abs/1511.06434該論文提出了一種深度CNN結(jié)構(gòu)DCGAN,它在圖像生成上獲得了前所未有的效果。近年來,卷積網(wǎng)絡(luò)(Convolutional Networks ,CNNs )的監(jiān)督學(xué)習(xí)在計(jì)算機(jī)視覺應(yīng)用中得到了廣泛應(yīng)用。相對而言,使用CNNs的無監(jiān)督學(xué)習(xí)受到的關(guān)注較少。在本篇論文中,作者彌合了CNNs在有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)方面的差距,提出了一種被稱為深層卷積生成式對抗網(wǎng)絡(luò)的CNN,即Deep Convolutional Generative Adversarial Networks ,簡稱DCGAN。DCGAN模型的基本組成部分是用上采樣卷積層替換生成器中的完全連接層。其完整體系結(jié)構(gòu)如下:
圖注:用于LSUN場景建模的DCGAN生成器
本質(zhì)上,DCGAN是在GAN的基礎(chǔ)上提出了一種訓(xùn)練架構(gòu),并對其做了訓(xùn)練指導(dǎo),比如幾乎完全用卷積層取代了全連接層,去掉池化層,采用批標(biāo)準(zhǔn)化(Batch Normalization, BN)等技術(shù);將判別模型的發(fā)展成果引入到了生成模型中;強(qiáng)調(diào)了隱藏層分析和可視化計(jì)數(shù)對GAN訓(xùn)練的重要性和指導(dǎo)作用。 
DCGAN的網(wǎng)絡(luò)結(jié)構(gòu)可以作為基礎(chǔ)架構(gòu),用以評價(jià)不同目標(biāo)函數(shù)的GAN,讓不同的GAN得以進(jìn)行優(yōu)劣比較。DCGAN的出現(xiàn)極大增強(qiáng)了GAN的數(shù)據(jù)生成質(zhì)量。而如何提高生成數(shù)據(jù)的質(zhì)量(如生成圖片的質(zhì)量)一直是GAN研究的熱門話題。影響:GANs是一種機(jī)器學(xué)習(xí)模型,它能夠生成人、動物或物體的新圖像,GANs的性能決定了機(jī)器學(xué)習(xí)的創(chuàng)造力,以及它在諸多現(xiàn)實(shí)場景中的應(yīng)用能力。就目前來看,該方法仍然是所有目前GAN模型生成圖像的基礎(chǔ)。 Top 7:Mastering the game of Go with deep neural networks and tree search
作者:David Silver 、Aja Huang et al. 2016年被《Nature》收錄,引用9621次。
論文地址:https://www.nature.com/articles/nature16961這篇論文代表了人工智能歷史上的一個重要節(jié)點(diǎn),它所描述的分布式AlphaGo第一次在圍棋游戲中擊敗人類職業(yè)選手。AlphaGo是DeepMind公司針對圍棋游戲而開發(fā)的AI智能體,其在2016年1月首次推出便在行業(yè)內(nèi)引起不小震動。而在此之后,DeepMind不斷優(yōu)化智能體,AlphaGo又陸續(xù)戰(zhàn)勝了世界頂級圍棋選手李世石和柯潔。
圍棋是人工智能最具挑戰(zhàn)性的游戲之一。在這篇論文中,作者提出了一種新的計(jì)算圍棋的方法,該方法使用“價(jià)值網(wǎng)絡(luò)”評估棋子的位置,使用“策略網(wǎng)絡(luò)”選擇落子點(diǎn),通過將兩種網(wǎng)絡(luò)與蒙特卡羅搜索樹(MCTS)相結(jié)合所形成的搜索算法,能夠使AlphaGo達(dá)到99.8%的獲勝率。具體來說,作者采用深度卷積神經(jīng)網(wǎng)絡(luò),將19*19的棋盤看做是一個圖像,使用網(wǎng)絡(luò)構(gòu)建棋盤每個位置的表示。其中價(jià)值神經(jīng)網(wǎng)絡(luò)用于棋面局勢評估,策略神經(jīng)網(wǎng)絡(luò)用于采樣下一步動作,這兩種網(wǎng)絡(luò)能夠有效減少搜索樹的寬度和深度。接下來再使用管道來組織和訓(xùn)練神經(jīng)網(wǎng)絡(luò),管道由多個階段的機(jī)器學(xué)習(xí)過程構(gòu)成。第一階段先構(gòu)建一個監(jiān)督學(xué)習(xí)策略網(wǎng)絡(luò), 訓(xùn)練數(shù)據(jù)來自人類專家棋手的比賽數(shù)據(jù);第二階段訓(xùn)練一個快速走子策略, 這個Rollout Policy可以在走子階段快速采樣獲取落子點(diǎn)。
圖注:AlphaGo采用蒙特卡洛樹搜索獲取最佳的落子點(diǎn)第三階段訓(xùn)練一個強(qiáng)化學(xué)習(xí)策略網(wǎng)絡(luò),通過自我對弈,在監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)最終學(xué)習(xí)結(jié)果基礎(chǔ)上調(diào)整優(yōu)化學(xué)習(xí)目標(biāo)。這里的學(xué)習(xí)目標(biāo)是贏棋,戰(zhàn)勝監(jiān)督學(xué)習(xí)策略網(wǎng)絡(luò),而原始的監(jiān)督學(xué)習(xí)策略網(wǎng)絡(luò)預(yù)測的是跟專家走法一致的準(zhǔn)確率。最后階段訓(xùn)練一個價(jià)值網(wǎng)絡(luò),用于預(yù)測某個棋面局勢下贏棋的概率。以上這些離線訓(xùn)練的策略網(wǎng)絡(luò)和價(jià)值網(wǎng)絡(luò)能夠有效的和蒙特卡羅搜索樹(MCTS)結(jié)合在一起,進(jìn)而在線上進(jìn)行比賽。下圖是分布式版AlphaGo和人類頂級職業(yè)棋手FanHui進(jìn)行的5局對決的終局棋面,AlphaGo以5:0戰(zhàn)勝FanHui。AlphaGo之后,DeepMind又陸續(xù)推出了第二代、第三代智能體,其中,- 第二代AlphaGoZero,只使用自監(jiān)督強(qiáng)化學(xué)習(xí)+無人工特征+單一網(wǎng)絡(luò)+蒙特卡羅搜索
- 第三代AlphaZero,在AlphaGoZero基礎(chǔ)上做了進(jìn)一步的簡化,訓(xùn)練速度更快。
現(xiàn)階段,DeepMind已將AI訓(xùn)練從圍棋游戲擴(kuò)展到了更為復(fù)雜的即時戰(zhàn)略性游戲《星際爭霸2》,所推出的智能體AlplaStar同樣達(dá)到了戰(zhàn)勝頂級職業(yè)選手的水平。影響力:計(jì)算機(jī)程序第一次戰(zhàn)勝人類職業(yè)選手,這是人工智能歷史上的一個重要里程碑。Top 6:Human-level control through deep reinforcement learning作者:Volodymyr Mnih 、Koray Kavukcuoglu et al. 2015年被《Nature》收錄,引用13615次。
論文地址:https://www.nature.com/articles/nature14236本篇論文提出了一種強(qiáng)化學(xué)習(xí)算法Deep Q-Learning,簡稱DQN,它幾乎在所有游戲上超越了之前的強(qiáng)化學(xué)習(xí)方法,并在大部分Atari游戲中表現(xiàn)的比人類更好。人工智能領(lǐng)域的從業(yè)者對DQN可能并不陌生,它被視為深度強(qiáng)化學(xué)習(xí)的開山之作,是將深度學(xué)習(xí)與強(qiáng)化學(xué)習(xí)結(jié)合起來從而實(shí)現(xiàn)從感知(Perception)到動作( Action )的端對端(End-to-end)學(xué)習(xí)的一種全新的算法。 
為了能夠?qū)崿F(xiàn)通用人工智能,即用單一的算法解決某個領(lǐng)域的多類挑戰(zhàn)性任務(wù),作者開發(fā)了一個深度Q網(wǎng)絡(luò)(DQN),它是強(qiáng)化學(xué)習(xí)和深度學(xué)習(xí)的結(jié)合。我們知道,要想模擬現(xiàn)實(shí)世界中成功使用強(qiáng)化學(xué)習(xí),智能體必須從高維感官輸入中獲得對環(huán)境的有效表示,并利用它們將過去的經(jīng)驗(yàn)推廣到新的場景中,而DQN使用端到端強(qiáng)化學(xué)習(xí)可以直接從高維感官輸入中學(xué)習(xí)策略。在深度學(xué)習(xí)方面,作者表示通過卷積神經(jīng)網(wǎng)絡(luò),使用多層的卷積濾波器模仿感受野的作用——靈感來自于Hubel和Wiesel在視覺回路的原始前饋處理,因此,它可以挖掘圖像中局部的空間相關(guān)的信息,建立對于視角和比例縮放自然轉(zhuǎn)換非常魯棒。通過在Atari 2600款游戲中的測試表明,僅接收像素和游戲得分作為輸入的深度Q網(wǎng)絡(luò)超越了之前所有算法的性能,并在49款游戲中達(dá)到與人類玩家相當(dāng)?shù)乃健?/span> 
圖注:DQN算法(藍(lán)色)、SOTA算法(灰色)以及人類玩家(百分比)在Atari游戲中的比較影響力:機(jī)器人、智能制造、智能物流等領(lǐng)域背后的算法已經(jīng)從硬編碼規(guī)則轉(zhuǎn)向強(qiáng)化學(xué)習(xí)模型。DQN是目前最流行的深度強(qiáng)化學(xué)習(xí)算法之一,它在各種應(yīng)用中表現(xiàn)出了優(yōu)異性能,而且不需要人工策略的參與。Top 5:Neural Machine Translation by Jointly Learning to Align and Translate
作者:Dzmity Bahdanau、KyungHyun Cho et al. 收錄于 ICLR 2015, 引用16866次。
論文地址:https://arxiv.org/abs/1409.0473
該論文首次提出將帶有注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)應(yīng)用于機(jī)器翻譯?!白⒁狻北碚鞯氖翘囟ㄔ~,而不是整個句子。與傳統(tǒng)的統(tǒng)計(jì)機(jī)器翻譯不同,神經(jīng)機(jī)器翻譯的目的是構(gòu)建可實(shí)現(xiàn)最大化翻譯性能的單個神經(jīng)網(wǎng)絡(luò)。現(xiàn)有的神經(jīng)機(jī)器翻譯模型通常屬于編碼器-解碼器家族,編碼器將源句子編碼為固定長度的向量的編碼器,解碼器再根據(jù)該固定長度向量生成翻譯。在此基礎(chǔ)上,作者提出使用固定長度的向量可以提高編碼器-解碼器體系結(jié)構(gòu)的性能,并且允許模型自動搜索對象可擴(kuò)展此范圍。后者意味著模型課搜索與預(yù)測目標(biāo)單詞相關(guān)的源句子,而無需進(jìn)行明確的分割。實(shí)驗(yàn)表明,該方法達(dá)到了與最先進(jìn)的基于短語的最新系統(tǒng)相同的表現(xiàn)。此外,定性分析也表明該方法發(fā)現(xiàn)的軟對齊方式與我們的直覺一致。
圖注:英法翻譯的注意矩陣, 較淺的區(qū)域代表單詞之間相似性很高
影響:在機(jī)器翻譯中,RNN等傳統(tǒng)模型試圖將源語句的所有信息壓縮成一個向量。而本篇論文提出模型應(yīng)將每個詞表示為一個向量,然后關(guān)注每個詞,這一認(rèn)識對于神經(jīng)網(wǎng)絡(luò)的構(gòu)建是一個巨大的范式轉(zhuǎn)變,不僅在NLP領(lǐng)域,在ML的所有其他領(lǐng)域均是如此。Top 4:Attention is all you need作者:Ashish Vaswani 、Noam Shazeer 等人;收錄于NeurIPS 2017, 引用18178次;
論文地址:https://arxiv.org/abs/1706.03762該論文提出了一種有效的神經(jīng)網(wǎng)絡(luò)Transformer,它基于注意機(jī)制在機(jī)器翻譯中取得了優(yōu)異的性能。通常來講,序列轉(zhuǎn)導(dǎo)模型基于復(fù)雜的遞歸或卷積神經(jīng)網(wǎng)絡(luò),包括編碼器和解碼器,表現(xiàn)最佳的模型還通過注意力機(jī)制連接編碼器和解碼器。基于此,作者提出了一種新的簡單網(wǎng)絡(luò)架構(gòu),即Transformer,它完全基于注意力機(jī)制,完全消除了重復(fù)和卷積。圖注:基于編解碼器的Transformer架構(gòu)實(shí)驗(yàn)表明,該模型在機(jī)器翻譯任務(wù)上表現(xiàn)良好,具有更高的可并行性,所需的訓(xùn)練時間也大大減少。如在WMT 2014英語到德語的翻譯任務(wù)上達(dá)到了28.4 BLEU,比包括集成學(xué)習(xí)在內(nèi)的現(xiàn)有最佳結(jié)果提高了2 BLEU;在2014年WMT英語到法語翻譯任務(wù)中,創(chuàng)造了新的單模型最新BLEU分?jǐn)?shù)41.8,比文獻(xiàn)中最好的模型的訓(xùn)練成本更小。由此證明了Transformer應(yīng)用于具有大量訓(xùn)練數(shù)據(jù)和有限訓(xùn)練數(shù)據(jù)的英語解析可以很好的概括其他任務(wù)。影響力:在Transformer模型中引入的多頭注意力是最受歡迎的深度學(xué)習(xí)模塊,也是另一主流語言模型BERT的一部分,它取代RNNs和CNNs,成為了處理文本和圖像任務(wù)的默認(rèn)模型。Top 3:Faster R-CNN: towards real-time object detection with region proposal networks
作者:Shaoqing Ren ,Kaming He et al.收錄于NeurIPS 2015, 引用19915次。
論文地址:https://arxiv.org/abs/1506.01497該論文提出了一種用于目標(biāo)檢測的高效端到端卷積神經(jīng)網(wǎng)絡(luò),包括圖像和視頻中。最先進(jìn)的物體檢測網(wǎng)絡(luò)依靠區(qū)域提議算法來假設(shè)物體的位置,基于此,作者在現(xiàn)有研究基礎(chǔ)上,提出了一種區(qū)域提議網(wǎng)絡(luò)(RPN),該網(wǎng)絡(luò)與檢測網(wǎng)絡(luò)共享全圖像卷積特征,從而實(shí)現(xiàn)幾乎免費(fèi)的區(qū)域提議。RPN是一個完全卷積的網(wǎng)絡(luò),能夠同時預(yù)測每個位置的對象邊界和對象性分?jǐn)?shù)。對RPN進(jìn)行了端到端訓(xùn)練,可以生成高質(zhì)量的區(qū)域建議,然后Fast R-CNN再通過這些建議進(jìn)行檢測。作者表明通過共享RPN和Fast R-CNN的卷積特征,具有“注意力”機(jī)制的神經(jīng)網(wǎng)絡(luò)可將這些特征合并為一個網(wǎng)絡(luò)。對于深層VGG-16模型,該檢測系統(tǒng)在GPU上的幀速率為5fps(包括所有步驟),同時在PASCAL VOC 2007、2012和MS COCO數(shù)據(jù)集上實(shí)現(xiàn)了最新的對象檢測精度(每張圖片有300個建議)。在ILSVRC和COCO 2015競賽中,F(xiàn)aster R-CNN和RPN是多個項(xiàng)目上獲得最佳模型的基礎(chǔ)。 
圖注:在PASCAL VOC 2007測試中,使用RPN可以檢測各種比例和寬高比的物體影響:更快速是R-CNN是在工業(yè)場景中被廣泛應(yīng)用的主要原因之一。它在安全攝像頭、自動駕駛和移動應(yīng)用程序中的應(yīng)用極大地影響了我們對機(jī)器的感知。Top2:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift作者:Sergey Ioffe and Szegedy, 收錄于ICML 2015, 引用 25297次。
論文地址:https://theaisummer.com/normalization/該論文提出通過對輸入特征進(jìn)行歸一化的方法,可使神經(jīng)網(wǎng)絡(luò)訓(xùn)練更快,更穩(wěn)定。訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)是一個復(fù)雜的過程,一方面,隨著各層參數(shù)的變化,輸入的分布也會發(fā)生改變,而由于參數(shù)初始化和較低的學(xué)習(xí)效率,會導(dǎo)致訓(xùn)練速度減慢。另一方面,訓(xùn)練飽和的非線性模型非常困難。作者將這兩種現(xiàn)象歸結(jié)為內(nèi)部協(xié)變量偏移,并提出通過歸一化輸入層來解決。即通過將歸一化作為模型體系結(jié)構(gòu)的一部分,并為每次小批量訓(xùn)練執(zhí)行歸一化。這種批處理規(guī)范化處理方法可以顯著提高學(xué)習(xí)率,同時不必對初始化進(jìn)行任何注意,在某些情況下,也無需進(jìn)行輟學(xué)。
論文中指出批歸一化應(yīng)用于最先進(jìn)的圖像分類模型,能夠以相同精度,減少14倍的訓(xùn)練速度擊敗原始模型。論文中,作者展示了使用批歸一化網(wǎng)絡(luò)處理ImageNet分類圖像的結(jié)果:達(dá)到4.82%的top-5測試錯誤,超過了人類評分者的準(zhǔn)確性。影響力:該方法廣泛應(yīng)用于大多數(shù)神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)。批處理規(guī)范化是現(xiàn)代深度神經(jīng)年網(wǎng)絡(luò)獲得最佳結(jié)果的原因之一。Top 1:Adam: A Method for Stochastic Optimization
作者:Kingma and Ba,收錄于ICLR 2015,引用 67514次。
本篇論文在五年里引用量最高接近7萬次,它主要描述了一種新型的隨機(jī)梯度下降優(yōu)化算法(Adam),顯著提高了神經(jīng)網(wǎng)絡(luò)的快速收斂率,在所有模型訓(xùn)練中具有普遍的適用性。基于低階矩的自適應(yīng)估計(jì)的Adam,是一種基于一階梯度的隨機(jī)目標(biāo)函數(shù)優(yōu)化算法。它具有易實(shí)現(xiàn),計(jì)算高效,存儲需求小,對梯度對角線縮放無影響的特點(diǎn),適合處理參數(shù)量、數(shù)據(jù)量較大,非固定目標(biāo)以及嘈雜或稀疏梯度等問題。作者在論文中分析了Adam的理論收斂性,并提供了與在線凸優(yōu)化框架下的最佳結(jié)果相當(dāng)?shù)氖諗俊?/span>
實(shí)驗(yàn)結(jié)果表明,與其他隨機(jī)優(yōu)化方法相比,Adam在實(shí)踐中的效果更好。作者在論文中還進(jìn)一步探討了Adam的變體,即基于無窮范數(shù)的AdaMax。影響:作為優(yōu)化算法的默認(rèn)方法,Adam已訓(xùn)練了的數(shù)以百萬計(jì)的神經(jīng)網(wǎng)絡(luò)。參考來源:https://towardsdatascience.com/top-10-research-papers-in-ai-1f02cf844e26往期精彩:
【原創(chuàng)首發(fā)】機(jī)器學(xué)習(xí)公式推導(dǎo)與代碼實(shí)現(xiàn)30講.pdf
【原創(chuàng)首發(fā)】深度學(xué)習(xí)語義分割理論與實(shí)戰(zhàn)指南.pdf
談中小企業(yè)算法崗面試
算法工程師研發(fā)技能表
真正想做算法的,不要害怕內(nèi)卷
算法工程師的日常,一定不能脫離產(chǎn)業(yè)實(shí)踐
技術(shù)學(xué)習(xí)不能眼高手低
技術(shù)人要學(xué)會自我營銷
做人不能過擬合
點(diǎn)個在看