快手廣告算法工程師面試題15道|含解析
10本七月在線內(nèi)部電子書在文末,自取~
公眾號福利
??回復(fù)【100題】領(lǐng)取《名企AI面試100題》PDF
??回復(fù)【干貨資料】領(lǐng)取NLP、CV、ML等AI方向干貨資料



?問題1:ReLU,LeakyReLU
ReLU和LeakyReLU都是常見的激活函數(shù)。 ReLU的表達(dá)式為
LeakyReLU的表達(dá)式為
其中α是一個小于1的常數(shù)。
?
問題2:ReLU的優(yōu)缺點(diǎn)
ReLU的優(yōu)點(diǎn)在于它具有快速收斂和計算的優(yōu)勢,同時還能夠緩解梯度消失的問題。ReLU的缺點(diǎn)是當(dāng)輸入為負(fù)數(shù)時,該激活函數(shù)的導(dǎo)數(shù)為0,從而造成部分神經(jīng)元失活的問題。因此,應(yīng)用ReLU激活函數(shù)時需要注意,確保輸入數(shù)據(jù)的均值為0。
?
問題3:ReLU激活函數(shù)是如何解決梯度消失和梯度爆炸問題的
?
ReLU的梯度在正區(qū)間恒定為1,而負(fù)區(qū)間恒定為0。這使得無論神經(jīng)元的輸出值如何,都不會導(dǎo)致梯度消失或梯度爆炸的問題。因此,ReLU激活函數(shù)能夠有效地解決梯度消失和梯度爆炸問題。
?問題4:什么是梯度消失和梯度爆炸?什么單元更容易出現(xiàn)梯度消失梯度爆炸的問題?
梯度消失指的是在反向傳播過程中,權(quán)重和激活值都小于1,導(dǎo)致梯度不斷縮小,最終導(dǎo)致梯度消失的現(xiàn)象。梯度爆炸則是指在反向傳播過程中,權(quán)重和激活值都大于1,導(dǎo)致梯度不斷增大,最終導(dǎo)致梯度爆炸的現(xiàn)象。其中,輸出值小于0的sigmoid神經(jīng)元更容易出現(xiàn)梯度消失的問題。
?問題5:ReLU如何解決梯度消失問題?
ReLU激活函數(shù)對于非負(fù)的輸入值,其梯度恒定為1,不會縮小,因此能夠有效地避免梯度消失。
?問題6:ReLU之前常用的激活函數(shù)?
以前常用的激活函數(shù)包括sigmoid函數(shù)、tanh函數(shù)、以及softmax函數(shù)等。
?問題7:寫一下sigmoid函數(shù)的表達(dá)式。sigmoid函數(shù)存在的問題
sigmoid函數(shù)的表達(dá)式為


??問題11:卷積層的參數(shù)計算,以及計算量計算。
卷積層的參數(shù)數(shù)量取決于卷積核大小、輸入通道數(shù)量和輸出通道數(shù)量。計算量計算則取決于卷積核大小、輸入圖像大小、輸出通道數(shù)量和步長大小。 ??問題12:m*n的圖像,卷積核為k*k,步長為1,最后生成的圖像大小 對于m×n的圖像,卷積核為k×k,步長為1時,卷積后生成的圖像大小為(m-k+1)×(n-k+1)。 ??問題13:m*n*3的圖像輸入進(jìn)去,輸出會有變化嗎? 輸入的m×n×3的圖像經(jīng)過卷積操作后輸出的通道數(shù)可能會有所變化,但是圖像的寬高不會發(fā)生變化。 ? 問題14:卷積核的k值的取值,為什么取這個值 卷積核的大小k一般為奇數(shù),這是因為奇數(shù)大小的卷積核有中心像素,可以更好地對稱地影響圖像的每個位置。同時,選擇奇數(shù)大小的卷積核還可以保證最終卷積后的圖像不會出現(xiàn)偏差。 ??問題15:ResNet中的Block,怎么用的 ResNet中的Block是指由復(fù)雜的卷積和激活層組成的模塊,可以有效地解決反向傳播中出現(xiàn)的梯度消失和梯度爆炸的問題。ResNet中的每個Block都包含有多個卷積層以及一個Skip Connection,可以逐漸構(gòu)建出一個非常深的神經(jīng)網(wǎng)絡(luò)。當(dāng)網(wǎng)絡(luò)層數(shù)較深時,通過增加Skip Connection的結(jié)構(gòu)可以更好地保留梯度信息,從而提高模型的性能。免費(fèi)送
↓以下10本書電子版免費(fèi)領(lǐng),直接送↓?


掃碼回復(fù)【999】免費(fèi)領(lǐng)10本電子書
? ? ??
(或 找七月在線其他老師領(lǐng)取 )
點(diǎn)擊“ 閱讀原文 ”搶寵粉 福利 ~

