<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          閱讀人工智能論文的十條建議

          共 9023字,需瀏覽 19分鐘

           ·

          2020-08-07 19:14

          (給機(jī)器學(xué)習(xí)算法與Python實(shí)戰(zhàn)加星標(biāo),提升AI技能)

          在這篇文章中,為了你的閱讀樂趣,我列了今年閱讀人工智能論文的十條建議(以及其他一些進(jìn)一步的閱讀建議)。
          在這個(gè)列表中,我主要關(guān)注那些在不提出新架構(gòu)的情況下推動(dòng)最新技術(shù)的文章,這些文章不包含最新的YOLO或ResNet變體;相反,主要包括了損失公式、理論突破、新優(yōu)化器等方面的最新進(jìn)展。
          對于文章的前半部分,我將重點(diǎn)介紹計(jì)算機(jī)視覺和NLP,因?yàn)檫@些是我最熟悉的主題,并從一兩個(gè)經(jīng)典技術(shù)開始。對于每一篇論文,我都會(huì)總結(jié)其主要貢獻(xiàn),并列出閱讀理由。最后,我在每一篇文章的結(jié)尾都給出了關(guān)于這個(gè)主題的具體閱讀建議,并將其與其他最新進(jìn)展或類似想法聯(lián)系起來。

          1.GloVe (2014)

          Pennington, Jeffrey, Richard Socher, and Christopher D. Manning. “Glove: Global vectors for word representation.” 2014年自然語言處理方法會(huì)議(EMNLP)論文集。
          • 論文鏈接:https://www.aclweb.org/anthology/D14-1162.pdf
          雖然現(xiàn)在的社區(qū)主要關(guān)注神經(jīng)網(wǎng)絡(luò),但許多早期的結(jié)果是通過更簡單的數(shù)學(xué)方法獲得的。GloVe是從經(jīng)典算法出發(fā)的,它是基于減少單詞共現(xiàn)矩陣維數(shù)的單詞嵌入模型。與以前的方法不同,GloVe使用隱式表示法,使其可以擴(kuò)展為大規(guī)模文本語料庫。
          理由1:如果你從自然語言處理(NLP)入手,這是一本很好的讀物,可以幫助你了解單詞嵌入的基本知識(shí)以及它們的重要性。
          理由2:以前并不是所有的東西都是基于Transformers的,閱讀早期的作品是一個(gè)很好的方法去找到一個(gè)“被遺忘的想法”,該想法可以使現(xiàn)有技術(shù)進(jìn)一步發(fā)展。
          • Transformers:http://papers.nips.cc/paper/7181-attention-is-all-you-need
          理由3:許多作者在后來擴(kuò)展了本文中提出的許多概念。如今,詞嵌入已成為自然語言處理(NLP)中的主要內(nèi)容
          進(jìn)一步閱讀:在同一時(shí)期,Google發(fā)布了Word2Vec,另一個(gè)著名的語義向量生成模型。不久之后,這些想法被生物學(xué)界采納,作為表示大蛋白和基因序列的方法。而現(xiàn)在BERT是詞匯表征和語義理解的主導(dǎo)方法。
          • Word2Vec:https://arxiv.org/abs/1301.3781
          • BERT:https://arxiv.org/abs/1810.04805

          2.AdaBoost (1997)

          Freund, Yoav; Schapire, Robert E (1997). “A decision-theoretic generalization of on-line learning and an application to boosting”.
          • 論文鏈接:https://www.sciencedirect.com/science/article/pii/S002200009791504X
          經(jīng)典的機(jī)器學(xué)習(xí)模式根本就不靈活,大多數(shù)公式都有顯著的局限性,這使得它們無法擴(kuò)展到越來越復(fù)雜的任務(wù)中。
          首先解決這個(gè)問題的辦法之一是將現(xiàn)有的最佳模式進(jìn)行投票整合。1997年,F(xiàn)reund和Schapire提出了AdaBoost算法,這是一種元啟發(fā)式學(xué)習(xí)算法,能夠?qū)⒃S多“弱”模型運(yùn)用到“強(qiáng)”分類器中。
          簡而言之,該算法迭代地訓(xùn)練多個(gè)分類器,并將每個(gè)訓(xùn)練樣本重新加權(quán)為“簡單”或“困難”,隨著訓(xùn)練的進(jìn)行,這套系統(tǒng)會(huì)通過更多地關(guān)注較難分類的樣本來進(jìn)化。該算法非常有效,但是遇到復(fù)雜的問題也很容易過度擬合。
          理由1:可以說,神經(jīng)網(wǎng)絡(luò)是弱分類器(神經(jīng)元/層)的集合,然而神經(jīng)網(wǎng)絡(luò)文獻(xiàn)的發(fā)展是獨(dú)立于整體的。讀一篇關(guān)于這個(gè)主題的論文可能會(huì)對為什么神經(jīng)網(wǎng)絡(luò)工作得這么好產(chǎn)生一些見解。
          理由2:許多新手把傳統(tǒng)的機(jī)器學(xué)習(xí)方法視為過時(shí)和“軟弱”的,在幾乎所有事情上都偏愛神經(jīng)網(wǎng)絡(luò)。AdaBoost是一個(gè)很好的例子,說明經(jīng)典的機(jī)器學(xué)習(xí)并不是很弱,而且與神經(jīng)網(wǎng)絡(luò)不同的是,這些模型具有很強(qiáng)的可解釋性。
          理由3:有多少報(bào)紙是從一個(gè)賭徒的故事開始的,他因?yàn)橐淮斡忠淮屋斀o朋友的騎馬賭博而受挫?我也真希望我敢寫這樣的論文。
          進(jìn)一步閱讀:其他流行的集成方法包括隨機(jī)森林分類器、梯度提升技術(shù)和廣受好評的XGBoost軟件包,它以贏得數(shù)次機(jī)器學(xué)習(xí)競賽而聞名,同時(shí)相對容易使用和調(diào)整。這個(gè)家族中最新加入的是微軟的LightGBM,它適用于大規(guī)模分布的數(shù)據(jù)集。
          • 隨機(jī)森林分類器:https://en.wikipedia.org/wiki/Random_forest
          • 梯度提升技術(shù):https://en.wikipedia.org/wiki/Gradient_boosting
          • XGBoost軟件包:https://github.com/dmlc/xgboost
          • LightGBM:https://github.com/microsoft/LightGBM

          3.Capsule Networks (2017)

          Sabour, Sara, Nicholas Frosst, and Geoffrey E. Hinton. “Dynamic routing between capsules.” 神經(jīng)信息處理系統(tǒng)的研究進(jìn)展。
          • 論文鏈接:https://arxiv.org/abs/1710.09829
          神經(jīng)網(wǎng)絡(luò)文獻(xiàn)從感知器模型開始,到卷積神經(jīng)網(wǎng)絡(luò)(CNN)。下一個(gè)飛躍是一個(gè)備受爭議的話題,其中建議之一就是由Sara Sabour,Nicholas Frosst和圖靈獎(jiǎng)獲得者Geoffrey Hinton提出的Capsule Network。
          理解膠囊網(wǎng)絡(luò)的一個(gè)簡單方法是用“膠囊”代替“目標(biāo)檢測器”。每層“目標(biāo)檢測器”都試圖識(shí)別圖像中的相關(guān)特征,以及它的姿態(tài)(方向、比例、傾斜等),通過疊加探測器,可以導(dǎo)出物體的魯棒表示。
          從本質(zhì)上講,膠囊并不像cnn那樣將本地信息聚合到高級功能中,取而代之的是,它們檢測目標(biāo)部分并按層次組合它們以識(shí)別更大的結(jié)構(gòu)和關(guān)系。
          理由1:作為科學(xué)家,我們都應(yīng)該尋找下一個(gè)重大事件。雖然我們不能說膠囊網(wǎng)絡(luò)將是下一個(gè)搖滾明星,但我們可以說他們試圖解決的問題是相關(guān)的,并且對于所有相關(guān)問題,最終會(huì)有人回答。
          理由2:本文提醒我們CNN并不完美,它們對旋轉(zhuǎn)和縮放不變。盡管我們使用數(shù)據(jù)增強(qiáng)來緩解這種情況,但俗話說,沒有一種創(chuàng)可貼能治愈一個(gè)男人。
          理由3:在深度學(xué)習(xí)成為主流之前,許多目標(biāo)檢測方法都依賴于識(shí)別易于發(fā)現(xiàn)的“目標(biāo)部分”并針對數(shù)據(jù)庫/本體執(zhí)行模式匹配。Hinton和他的團(tuán)隊(duì)正在做的是使這種早期方法現(xiàn)代化,這就是為什么我們都應(yīng)該不定期閱讀經(jīng)典。
          進(jìn)一步閱讀:在過去的一年中,Attention機(jī)制引起了很大注意,盡管它沒有嘗試替代或增加卷積,但確實(shí)為全局推理提供了一條途徑,這是現(xiàn)代網(wǎng)絡(luò)中眾多Aquiles腳跟之一。

          4.Relational Inductive Biases (2018)

          Battaglia, Peter W., et al. “Relational inductive biases, deep learning, and graph networks.” arXiv preprint arXiv:1806.01261 (2018).
          • 論文鏈接:https://arxiv.org/pdf/1806.01261.pdf
          這篇文章總結(jié)了深層思維團(tuán)隊(duì)相信的深度學(xué)習(xí)下一個(gè)重要技術(shù):圖神經(jīng)網(wǎng)絡(luò)(GNNs)。
          用作者自己的話說:
          (…)。我們認(rèn)為,組合泛化必須是人工智能實(shí)現(xiàn)類人能力的首要任務(wù),結(jié)構(gòu)化表示和計(jì)算是實(shí)現(xiàn)這一目標(biāo)的關(guān)鍵。正如生物學(xué)合作使用自然和培養(yǎng)一樣,我們反對在“手工工程”和“端到端”學(xué)習(xí)之間的錯(cuò)誤選擇,而是提倡一種從兩者互補(bǔ)優(yōu)勢中獲益的方法。我們將探討如何在深度學(xué)習(xí)架構(gòu)中使用關(guān)系歸納偏差來促進(jìn)對實(shí)體、關(guān)系和組合規(guī)則的學(xué)習(xí)。
          旁注:歸納偏差是學(xué)習(xí)算法對數(shù)據(jù)所做的所有假設(shè)。例如,線性模型假設(shè)數(shù)據(jù)是線性的。如果一個(gè)模型假設(shè)數(shù)據(jù)有一個(gè)特定的關(guān)系,它就有一個(gè)關(guān)系歸納偏差。因此,圖是一種有用的表示。
          理由1:目前的CNN模型是“端到端”的,這意味著它們使用的是原始的,大部分是未經(jīng)處理的數(shù)據(jù)。特征不是由人類“設(shè)計(jì)”的,而是由算法自動(dòng)“學(xué)習(xí)”的。我們大多數(shù)人都被教導(dǎo)特征學(xué)習(xí)會(huì)更好。在本文中,作者提出了相反的觀點(diǎn)。
          理由2:早期的人工智能文獻(xiàn)大多與計(jì)算推理有關(guān),然而計(jì)算直覺占了上風(fēng)。NN不會(huì)對輸入進(jìn)行仔細(xì)考慮;它們會(huì)產(chǎn)生一種相當(dāng)精確的數(shù)學(xué)“預(yù)感”。圖形可能是一種將這種差距與直覺推理聯(lián)系起來的方法。
          理由3:組合問題可以說是計(jì)算機(jī)科學(xué)中最關(guān)鍵的問題,大多數(shù)都處于我們認(rèn)為可處理或可能的邊緣。然而,我們?nèi)祟惪梢宰匀坏?、毫不費(fèi)力地推理。圖神經(jīng)網(wǎng)絡(luò)是答案嗎?
          進(jìn)一步閱讀:GNNs是一個(gè)令人興奮和不斷發(fā)展的領(lǐng)域。從圖論中,我們知道幾乎任何事物都可以被建模為一個(gè)圖。謝爾蓋·伊萬諾夫(Sergei Ivanov)在2020年ICLR會(huì)議上發(fā)表了大量參考文獻(xiàn),列出了GNN的新趨勢。
          • 2020年圖機(jī)學(xué)習(xí)的主要趨勢:https://towardsdatascience.com/top-trends-of-graph-machine-learning-in-2020-1194175351a3

          5.Training Batch Norm and Only BatchNorm (2020)

          Frankle, Jonathan, David J. Schwab, and Ari S. Morcos. “Training BatchNorm and Only BatchNorm: On the Expressive Power of Random Features in CNNs.” arXiv preprint arXiv:2003.00152 (2020).
          • 論文鏈接:https://arxiv.org/abs/2003.00152
          你相信在CIFAR-10上,僅ResNet-151的批處理標(biāo)準(zhǔn)化層就可以達(dá)到+60%的精確度嗎?換句話說,如果你將所有其他層鎖定在它們的隨機(jī)初始權(quán)值,并訓(xùn)練網(wǎng)絡(luò)50個(gè)左右的周期,它的性能將比隨機(jī)的好。我不得不把這篇論文復(fù)制出來親眼看看,“魔力”來自于經(jīng)常被遺忘的批次范數(shù)的γ和β參數(shù):
          批處理標(biāo)準(zhǔn)化操作的完整定義。γ和β是兩個(gè)可學(xué)習(xí)的參數(shù),可在標(biāo)準(zhǔn)化發(fā)生后允許圖層縮放和移動(dòng)每個(gè)激活圖。
          理由1:這是一個(gè)瘋狂的想法,值得一讀。開箱即用的想法總是受歡迎的。
          理由2:你可能會(huì)問自己批歸一化層如何學(xué)習(xí),并且你可能會(huì)想知道為什么有人會(huì)關(guān)心這一點(diǎn)。對于數(shù)據(jù)科學(xué)中的許多事情,我們認(rèn)為批歸一化是理所當(dāng)然的,我們相信這只會(huì)加速訓(xùn)練。但是,它可以做得更多。
          理由3:這篇文章可能會(huì)激起你的興趣,讓你看看所有的公共層都有哪些參數(shù)和超參數(shù)。
          進(jìn)一步閱讀:大多數(shù)課程教導(dǎo)批歸一化層是針對所謂的內(nèi)部協(xié)方差轉(zhuǎn)移問題。最近的證據(jù)表明情況并非如此(https://arxiv.org/abs/1805.11604),相反,作者認(rèn)為BN層使整體損失情況更為平滑。另一個(gè)巧妙的想法是彩票假說,它也是由弗蘭克爾等人提出的。
          • 彩票假說:https://arxiv.org/abs/1803.03635

          6.Spectral Norm (2018)

          Miyato, Takeru, et al. “Spectral normalization for generative adversarial networks.” arXiv preprint arXiv:1802.05957 (2018).
          • 論文鏈接:https://arxiv.org/abs/1802.05957
          在GAN文獻(xiàn)中,Wasserstein損失改善了訓(xùn)練GANs的幾個(gè)關(guān)鍵挑戰(zhàn),然而它規(guī)定梯度必須有一個(gè)小于或等于1的范數(shù)(1-Lipschitz)。損失的最初作者建議將權(quán)重裁剪為[-0.01,0.01],以此來增強(qiáng)小梯度。作為響應(yīng),也有人提出了更干凈的解決方案,使用頻譜范數(shù)作為約束權(quán)重矩陣以生成最多單位梯度的平滑替代方法。
          • Wasserstein損失:https://arxiv.org/abs/1701.07875
          理由1:標(biāo)準(zhǔn)化是一個(gè)比較大的話題,許多特殊屬性可以通過專門的標(biāo)準(zhǔn)化和精心設(shè)計(jì)的激活函數(shù)來實(shí)現(xiàn)。
          理由2:除了作為一個(gè)標(biāo)準(zhǔn),它也是一個(gè)正則化,這是神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)中經(jīng)常被忽視的話題。除了dropout,讀一篇關(guān)于該問題的成功論文讓人耳目一新。
          • dropout:https://en.wikipedia.org/wiki/Dropout_(neural_networks)
          進(jìn)一步閱讀:標(biāo)準(zhǔn)化技術(shù)的其他最新進(jìn)展是組標(biāo)準(zhǔn)化和自適應(yīng)實(shí)例標(biāo)準(zhǔn)化技術(shù),前者以小批量解決了批量范數(shù)的一些缺點(diǎn),而后者則是任意風(fēng)格轉(zhuǎn)換的關(guān)鍵突破之一。

          7.Perceptual Losses (2016)

          Johnson, Justin, Alexandre Alahi, and Li Fei-Fei. “Perceptual losses for real-time style transfer and super-resolution.” 歐洲計(jì)算機(jī)視覺會(huì)議. Springer, Cham, 2016.
          大多數(shù)神經(jīng)網(wǎng)絡(luò)背后的驅(qū)動(dòng)力是損失函數(shù)。在描述什么是好的和什么是壞的損失函數(shù)越是成功,我們就越快收斂到有用的模型中。在文獻(xiàn)中,大多數(shù)損失相對簡單,只能測量低水平的屬性。除此之外,獲取高級語義也是出了名的棘手。
          Perceptual Losses論文認(rèn)為,可以使用預(yù)先訓(xùn)練的網(wǎng)絡(luò)來度量語義相似度,而不是手工設(shè)計(jì)復(fù)雜的損失函數(shù)。在實(shí)踐中,生成值和真實(shí)值的結(jié)果通過預(yù)先訓(xùn)練的VGG網(wǎng)絡(luò)傳遞,并比較特定層的激活情況。相似圖像應(yīng)該有相似的激活。早期圖層捕捉廣泛的特征,而后期圖層捕捉更多細(xì)微的細(xì)節(jié)。
          理由1:損失是生成優(yōu)秀模型最重要的方面之一。沒有一個(gè)合適的反饋信號(hào),任何優(yōu)化過程都不會(huì)收斂。這就是一個(gè)好老師的角色:給予反饋。
          理由2:成功的損失往往具有里程碑意義。在感知損失被發(fā)明之后,GANs所獲得了品質(zhì)的躍升。理解這部作品對于理解大部分后期技術(shù)是必不可少的。
          理由3:這些神經(jīng)損失既神秘又有用。雖然作者對這些模型的工作原理提供了合理的解釋,但它們的許多方面仍然是開放的,就像神經(jīng)網(wǎng)絡(luò)中的大多數(shù)東西一樣。
          進(jìn)一步閱讀:神經(jīng)網(wǎng)絡(luò)的一個(gè)迷人的方面是它們的可組合性。本文利用神經(jīng)網(wǎng)絡(luò)來解決神經(jīng)網(wǎng)絡(luò)問題。拓?fù)鋼p失理論將這種思想推廣到圖像分割問題中。神經(jīng)結(jié)構(gòu)搜索(NAS)文獻(xiàn)使用神經(jīng)網(wǎng)絡(luò)來尋找新的神經(jīng)網(wǎng)絡(luò)。至于計(jì)算機(jī)視覺的其他損失,這里有一個(gè)全面的指南。感謝Sowmya Yellapragada整理了這個(gè)強(qiáng)大的清單:
          • https://medium.com/ml-cheat-sheet/winning-at-loss-functions-2-important-loss-functions-in-computer-vision-b2b9d293e15a

          8.Nadam (2016)

          Dozat, Timothy. “Incorporating nesterov momentum into adam.” (2016).
          我們大多數(shù)人都熟悉SGD、Adam和RMSprop等術(shù)語,有些人還知道一些不太熟悉的名字,如AdaGrad、AdaDelta和AdaMax,但是很少有人花一些時(shí)間來理解這些名稱的含義以及為什么Adam是當(dāng)今的默認(rèn)選擇。Tensorflow捆綁了Nadam,它改進(jìn)了Adam,但是大多數(shù)用戶并不知道。
          理由1:本論文對大多數(shù)神經(jīng)網(wǎng)絡(luò)優(yōu)化器進(jìn)行了全面而直接的解釋。每一種方法都是對其他方法的直接改進(jìn)。很少有論文能在兩頁半的篇幅里涵蓋如此重?cái)?shù)學(xué)的知識(shí)。
          理由2:我們都認(rèn)為優(yōu)化器是理所當(dāng)然的,了解它們的基本原理對改進(jìn)神經(jīng)網(wǎng)絡(luò)非常有用,這就是為什么我們在RMSprop不收斂時(shí)用Adam替換它,或者用SGD替換它。
          進(jìn)一步閱讀:自2016年以來,已經(jīng)提出了許多對優(yōu)化器的其他改進(jìn),有些將在某個(gè)時(shí)候合并到主流庫中。看看 Radam, Lookahead,和Ranger 的一些新想法。
          • Radam:https://arxiv.org/abs/1908.03265v1
          • Lookahead:https://arxiv.org/abs/1907.08610
          • Ranger:https://github.com/lessw2020/Ranger-Deep-Learning-Optimizer

          9.The Double Descent Hypothesis (2019)

          Nakkiran, Preetum, et al. “Deep double descent: Where bigger models and more data hurt.” arXiv preprint arXiv:1912.02292 (2019).
          傳統(tǒng)的觀點(diǎn)認(rèn)為小模型欠擬合,大模型過擬合,然而,在彩虹之上的某個(gè)地方,更大的模型仍然閃耀著光芒。
          本文中,Nakkiran等人有證據(jù)表明,隨著尺寸的增長,一些模型表現(xiàn)出“雙下降”現(xiàn)象,測試精度下降,然后上升,然后再次下降。此外,他們認(rèn)為拐點(diǎn)是在“插值閾值”:一個(gè)模型足夠大來插值數(shù)據(jù)的點(diǎn),換句話說,當(dāng)一個(gè)模型的訓(xùn)練超出了該領(lǐng)域的建議,它就會(huì)開始改進(jìn)。
          理由1:大多數(shù)課程都教授偏差/方差權(quán)衡,顯然,該原則僅在一定程度上適用——需要時(shí)間來復(fù)習(xí)基礎(chǔ)知識(shí)。
          理由2:如果增加的周期數(shù)也越過了插值點(diǎn),我們都應(yīng)該盡早放棄,看看會(huì)發(fā)生什么??偟膩碚f,我們都可以做科學(xué)的分析。
          理由3:這和5很好地提醒了我們還有很多我們不知道的地方。并非我們所學(xué)的一切都是正確的,并且并非所有直觀的知識(shí)都是正確的。
          進(jìn)一步閱讀:一個(gè)更輕松的閱讀是圖像分類的“技巧包”。在這本書中,你將找到幾個(gè)簡單且可操作的建議,用于從模型中提取額外的性能下降元素。
          • 圖像分類的“技巧包”:https://arxiv.org/abs/1812.01187

          10.On The Measure of Intelligence (2019)

          Fran?ois, Chollet. “On the Measure of Intelligence.” arXiv preprint arXiv:1911.01547 (2019).
          • https://arxiv.org/abs/1911.01547
          大多數(shù)人都在努力多走一英里,弗朗索瓦·喬利特正在向月球射擊。
          在這個(gè)列表中,所有提到的文章都進(jìn)一步推動(dòng)了實(shí)踐和理論的發(fā)展。一些技術(shù)已經(jīng)被廣泛采用,而另一些則為融合提供了良好的改進(jìn),然而,比肩人類智力,仍然是一個(gè)神秘而難以捉摸的話題,更不用說奧秘或神秘了。
          時(shí)至今日,人工智能領(lǐng)域朝著通用智能方向的進(jìn)步還只是用“成就”來衡量。每隔一段時(shí)間,一種算法在復(fù)雜的任務(wù)中擊敗了人類,比如國際象棋、dota2或圍棋。每當(dāng)這種情況發(fā)生時(shí),我們都說我們又近了一步?. 然而,這還不足以衡量智力的技能習(xí)得效率。
          在這篇(長篇)文章中,Chollet認(rèn)為:“要想朝著更智能、更人性化的人工系統(tǒng)邁進(jìn),我們需要遵循適當(dāng)?shù)姆答佇盘?hào)?!睋Q句話說,我們需要一個(gè)合適的機(jī)器智能基準(zhǔn),一種智商測試。因此,作者提出了抽象推理語料庫(ARC)。
          ARC可以被看作是一個(gè)通用的人工智能基準(zhǔn),一個(gè)程序綜合基準(zhǔn),或者一個(gè)心理測量智能測試。它的目標(biāo)是人類和人工智能系統(tǒng),這些系統(tǒng)旨在模擬人類一般流體智能的形式。”
          理由1:雖然數(shù)據(jù)科學(xué)很酷很時(shí)髦,但人工智能才是真正的核心。如果沒有人工智能,就不會(huì)有數(shù)據(jù)科學(xué)。它的最終目標(biāo)不是尋找數(shù)據(jù)洞察力,而是構(gòu)建可以擁有自己想法的機(jī)器?;ㄐr(shí)間思考以下基本問題:什么是智力,我們?nèi)绾魏饬浚勘疚氖且粋€(gè)好的開始。
          理由2:在過去的幾十年里,IA社區(qū)被來自數(shù)理邏輯和演繹推理的思想所支配,但是支持向量機(jī)和神經(jīng)網(wǎng)絡(luò)在沒有任何形式的顯式推理的情況下,比基于邏輯的方法更先進(jìn)。ARC是否會(huì)引發(fā)經(jīng)典技術(shù)的復(fù)興?
          理由3:如果Chollet是正確的,我們離創(chuàng)建能夠求解ARC數(shù)據(jù)集的算法還有幾年的時(shí)間。如果你正在尋找一個(gè)可以在業(yè)余時(shí)間使用的數(shù)據(jù)集,這里有一個(gè)可以讓你保持忙碌的數(shù)據(jù)集:
          進(jìn)一步閱讀:2018年,Geoffrey Hinton、Yosha Bengio和Yan LeCun因其在深度學(xué)習(xí)基礎(chǔ)上的先驅(qū)工作而獲得圖靈獎(jiǎng)。今年,在AAAI會(huì)議上,他們就人工智能的未來發(fā)表了自己的看法。你可以在Youtube上觀看:
          • https://youtu.be/UX8OubxsY8w
          我想用杰弗里·辛頓的一句話來結(jié)束這篇文章,我相信這句話概括了這一切:“未來取決于某個(gè)研究生,他對我所說的一切都深表懷疑?!?/span>
          GloVe通過隱式完成了共現(xiàn)矩陣。AdaBoost使數(shù)百個(gè)弱分類器成為最新技術(shù)。膠囊網(wǎng)絡(luò)挑戰(zhàn)了CNN,而圖神經(jīng)網(wǎng)絡(luò)可能會(huì)取代它們。關(guān)鍵的進(jìn)步可能來自歸一化,損失和優(yōu)化器,而我們?nèi)匀挥锌臻g質(zhì)疑批處理規(guī)范和訓(xùn)練過度參數(shù)化的模型。
          我想知道還有多少關(guān)于dropout和ReLU的事情需要去發(fā)現(xiàn)。
          參考鏈接:https://towardsdatascience.com/ten-more-ai-papers-to-read-in-2020-8c6fb4650a9b



          ☆ END ☆
          如果看到這里,說明你喜歡這篇文章,請轉(zhuǎn)發(fā)、點(diǎn)贊。微信搜索「hych666」,歡迎添加我的微信,更多精彩,盡在我的朋友圈
          掃描二維碼添加小編↓

          推薦閱讀

          (點(diǎn)擊標(biāo)題可跳轉(zhuǎn)閱讀)

          集成學(xué)習(xí):一種先進(jìn)的機(jī)器學(xué)習(xí)方法

          北大讀博手記:怎樣完成自己的博士生涯?

          周志華新作《機(jī)器學(xué)習(xí)理論導(dǎo)引》閱讀攻略

          2020年度最佳的23個(gè)的機(jī)器學(xué)習(xí)項(xiàng)目(附代碼)


          老鐵,三連支持一下,好嗎?↓↓↓

          瀏覽 55
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  久久视频这里有精品 | 国产探花视频在线 | 中文字幕日韩电影无码 | 大鸡巴在线视频观看 | 大骚逼网站 |