2021版李宏毅機(jī)器學(xué)習(xí),已更新完畢
點(diǎn)擊下方“AI算法與圖像處理”,關(guān)注一下
重磅干貨,第一時(shí)間送達(dá)
簡(jiǎn)介
李宏毅老師,是寶島臺(tái)灣大學(xué)電機(jī)工程系教授,他分別于2010年和2012年獲得碩士和博士學(xué)位,主要研究機(jī)器學(xué)習(xí)尤其是深度學(xué)習(xí)、語(yǔ)言理解和語(yǔ)音識(shí)別。李宏毅老師的機(jī)器學(xué)習(xí)課程可以說是最具代表性的中文公開課之一,已經(jīng)成為大量國(guó)內(nèi)初學(xué)者的首選。
2021年的機(jī)器學(xué)習(xí)課程已經(jīng)全部更新完畢,全程中文講解,覆蓋的內(nèi)容也非常豐富,視頻均長(zhǎng)約40分鐘。

課程目錄
預(yù)測(cè)本頻道觀看人數(shù)(上)-機(jī)器學(xué)習(xí)基本概念簡(jiǎn)介 預(yù)測(cè)本頻道觀看人數(shù)(下)-深度學(xué)習(xí)基本概念簡(jiǎn)介 機(jī)器學(xué)習(xí)任務(wù)攻略 類神經(jīng)網(wǎng)絡(luò)訓(xùn)練不起來(lái)怎么辦(一):局部最小值( local minima)與鞍點(diǎn)(saddle point)類神經(jīng)網(wǎng)絡(luò)訓(xùn)練不起來(lái)怎么辦(二):批次( batch)與動(dòng)量(momentum)類神經(jīng)網(wǎng)絡(luò)訓(xùn)練不起來(lái)怎么辦(三):自動(dòng)調(diào)整學(xué)習(xí)率( learning rate)類神經(jīng)網(wǎng)絡(luò)訓(xùn)練不起來(lái)怎么辦(四):損失函數(shù)( loss)也可能有影響類神經(jīng)網(wǎng)絡(luò)訓(xùn)練不起來(lái)怎么辦(五):批次標(biāo)準(zhǔn)化( batch normalization)簡(jiǎn)介卷積神經(jīng)網(wǎng)絡(luò)( Convolutional Neural Networks,即CNN)注意力機(jī)制( self-attention)(上)注意力機(jī)制( self-attention)(下)Transformer(上)Transformer(下)生成對(duì)抗網(wǎng)絡(luò)( Generative Adversarial Network,即GAN)(一) – 基本概念介紹生成對(duì)抗網(wǎng)絡(luò)( Generative Adversarial Network,即GAN)(二) – 理論介紹與WGAN生成對(duì)抗網(wǎng)絡(luò)( Generative Adversarial Network,即GAN)(三) – 生成器效能評(píng)估與條件式生成生成對(duì)抗網(wǎng)絡(luò)( Generative Adversarial Network,即GAN)(四) –Cycle GAN自監(jiān)督式學(xué)習(xí)( Self-supervised Learning) (一) – 芝麻街與進(jìn)擊的巨人自監(jiān)督式學(xué)習(xí)( Self-supervised Learning) (二) –BERT簡(jiǎn)介自監(jiān)督式學(xué)習(xí)( Self-supervised Learning) (三) –BERT的奇聞異事自監(jiān)督式學(xué)習(xí)( Self-supervised Learning) (四) –GPT的野望自編碼器( Auto encoder)(上) - 基本概念自編碼器( Auto encoder)(下) - 領(lǐng)結(jié)變聲器與更多應(yīng)用來(lái)自人類的惡意攻擊( Adversarial Attack) (上) – 基本概念來(lái)自人類的惡意攻擊( Adversarial Attack) (下) – 類神經(jīng)網(wǎng)絡(luò)能否躲過人類深不見底的惡意?機(jī)器學(xué)習(xí)模型的可解釋性( Explainable ML) (上) - 為什么神經(jīng)網(wǎng)絡(luò)可以正確分辨寶可夢(mèng)和數(shù)碼寶貝呢?機(jī)器學(xué)習(xí)模型的可解釋性( Explainable ML) (下) - 機(jī)器心中的貓長(zhǎng)什么樣子?概述領(lǐng)域自適應(yīng)( Domain Adaptation)概述增強(qiáng)式學(xué)習(xí)( Reinforcement Learning, RL) (一) – 增強(qiáng)式學(xué)習(xí)跟機(jī)器學(xué)習(xí)一樣都是三個(gè)步驟概述增強(qiáng)式學(xué)習(xí)( Reinforcement Learning, RL) (二) –Policy Gradient與修課心情概述增強(qiáng)式學(xué)習(xí)( Reinforcement Learning, RL) (三) –Actor-Critic概述增強(qiáng)式學(xué)習(xí)( Reinforcement Learning, RL) (四) – 回饋非常罕見的時(shí)候怎么辦?機(jī)器的望梅止渴概述增強(qiáng)式學(xué)習(xí)( Reinforcement Learning, RL) (五) – 如何從示范中學(xué)習(xí)?逆向增強(qiáng)式學(xué)習(xí)機(jī)器終身學(xué)習(xí)( Life Long Learning, LL) (一) - 為什么今日的人工智能無(wú)法成為天網(wǎng)?災(zāi)難性遺忘(Catastrophic Forgetting)機(jī)器終身學(xué)習(xí)( Life Long Learning, LL) (二) - 災(zāi)難性遺忘(Catastrophic Forgetting)的克服之道神經(jīng)網(wǎng)絡(luò)壓縮( Network Compression) (一) - 類神經(jīng)網(wǎng)絡(luò)剪枝(Pruning)與大樂透假說(Lottery Ticket Hypothesis)神經(jīng)網(wǎng)絡(luò)壓縮( Network Compression) (二) - 從各種不同的面向來(lái)壓縮神經(jīng)網(wǎng)絡(luò)元學(xué)習(xí) Meta Learning(一) - 元學(xué)習(xí)跟機(jī)器學(xué)習(xí)一樣也是三個(gè)步驟元學(xué)習(xí) Meta Learning(二) - 萬(wàn)物皆可Meta課程結(jié)語(yǔ) - 最后的作業(yè)并改編《為學(xué)一首示子侄》作結(jié)
課程獲取方法
在公眾號(hào)后臺(tái),回復(fù) "李宏毅2021" ,獲取下載鏈接。
個(gè)人微信(如果沒有備注不拉群!) 請(qǐng)注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱
下載1:何愷明頂會(huì)分享
在「AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析
下載2:終身受益的編程指南:Google編程風(fēng)格指南
在「AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):c++,即可下載。歷經(jīng)十年考驗(yàn),最權(quán)威的編程規(guī)范!
下載3 CVPR2021 在「AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):CVPR,即可下載1467篇CVPR 2020論文 和 CVPR 2021 最新論文
點(diǎn)亮
,告訴大家你也在看
評(píng)論
圖片
表情
