<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          快手廣告算法工程師面試題15道|含解析

          共 3424字,需瀏覽 7分鐘

           ·

          2023-05-25 00:13

          10本七月在線內(nèi)部電子書在文末,自取~

          公眾號福利

          ??回復(fù)【100題】領(lǐng)取《名企AI面試100題》PDF

          ??回復(fù)【干貨資料】領(lǐng)取NLP、CV、ML等AI方向干貨資料

          1d944f9da282d2e12175d9cb261a4985.webp2fd34fba14deb8c4960a8cd557570a3f.webp1d944f9da282d2e12175d9cb261a4985.webp

          ?問題1:ReLU,LeakyReLU

          ReLU和LeakyReLU都是常見的激活函數(shù)。 ReLU的表達(dá)式為 98d9dbc47c4323619934ff4cbb9526c5.webpLeakyReLU的表達(dá)式為 5d1672c2d02ce4fbe073320392aa7cbe.webp其中α是一個小于1的常數(shù)。 ? 問題2:ReLU的優(yōu)缺點(diǎn) ReLU的優(yōu)點(diǎn)在于它具有快速收斂和計算的優(yōu)勢,同時還能夠緩解梯度消失的問題。ReLU的缺點(diǎn)是當(dāng)輸入為負(fù)數(shù)時,該激活函數(shù)的導(dǎo)數(shù)為0,從而造成部分神經(jīng)元失活的問題。因此,應(yīng)用ReLU激活函數(shù)時需要注意,確保輸入數(shù)據(jù)的均值為0。 ? 問題3:ReLU激活函數(shù)是如何解決梯度消失和梯度爆炸問題的 ReLU的梯度在正區(qū)間恒定為1,而負(fù)區(qū)間恒定為0。這使得無論神經(jīng)元的輸出值如何,都不會導(dǎo)致梯度消失或梯度爆炸的問題。因此,ReLU激活函數(shù)能夠有效地解決梯度消失和梯度爆炸問題。 ?問題4:什么是梯度消失和梯度爆炸?什么單元更容易出現(xiàn)梯度消失梯度爆炸的問題? 梯度消失指的是在反向傳播過程中,權(quán)重和激活值都小于1,導(dǎo)致梯度不斷縮小,最終導(dǎo)致梯度消失的現(xiàn)象。梯度爆炸則是指在反向傳播過程中,權(quán)重和激活值都大于1,導(dǎo)致梯度不斷增大,最終導(dǎo)致梯度爆炸的現(xiàn)象。其中,輸出值小于0的sigmoid神經(jīng)元更容易出現(xiàn)梯度消失的問題。 ?問題5:ReLU如何解決梯度消失問題? ReLU激活函數(shù)對于非負(fù)的輸入值,其梯度恒定為1,不會縮小,因此能夠有效地避免梯度消失。 ?問題6:ReLU之前常用的激活函數(shù)? 以前常用的激活函數(shù)包括sigmoid函數(shù)、tanh函數(shù)、以及softmax函數(shù)等。 ?問題7:寫一下sigmoid函數(shù)的表達(dá)式。sigmoid函數(shù)存在的問題 sigmoid函數(shù)的表達(dá)式為

          6a978bfe2736698896f3ba62138daa06.webp

          它的問題是當(dāng)輸入值過大或過小時,其導(dǎo)數(shù)值非常小,從而導(dǎo)致梯度消失和梯度爆炸的問題。 ?問題8:寫一下邏輯回歸的損失函數(shù)。

          d5970abdda4dde4d1e53ad73d4fc5d00.webp

          問題9:講一下交叉熵?fù)p失函數(shù),與KL散度的關(guān)系 ,在二分類和多分類問題中的區(qū)別。 交叉熵?fù)p失函數(shù)是二分類問題中最常用的損失函數(shù),由于其定義出于信息學(xué)的角度,可以泛化到多分類問題中。KL散度是一種用于衡量兩個分布之間差異的指標(biāo),交叉熵?fù)p失函數(shù)是KL散度的一種特殊形式。在二分類問題中,交叉熵函數(shù)只有一項,而在多分類問題中有多項。 ?問題10:卷積神經(jīng)網(wǎng)絡(luò)中常見的層有哪些? 卷積神經(jīng)網(wǎng)絡(luò)中常見的層包括卷積層(Convolutional layer)、池化層(Pooling layer)、全連接層(Fully connected layer),以及批標(biāo)準(zhǔn)化層(Batch normalization layer)等。

          ??問題11:卷積層的參數(shù)計算,以及計算量計算。

          卷積層的參數(shù)數(shù)量取決于卷積核大小、輸入通道數(shù)量和輸出通道數(shù)量。計算量計算則取決于卷積核大小、輸入圖像大小、輸出通道數(shù)量和步長大小。 ??問題12:m*n的圖像,卷積核為k*k,步長為1,最后生成的圖像大小 對于m×n的圖像,卷積核為k×k,步長為1時,卷積后生成的圖像大小為(m-k+1)×(n-k+1)。 ??問題13:m*n*3的圖像輸入進(jìn)去,輸出會有變化嗎? 輸入的m×n×3的圖像經(jīng)過卷積操作后輸出的通道數(shù)可能會有所變化,但是圖像的寬高不會發(fā)生變化。 ? 問題14:卷積核的k值的取值,為什么取這個值 卷積核的大小k一般為奇數(shù),這是因為奇數(shù)大小的卷積核有中心像素,可以更好地對稱地影響圖像的每個位置。同時,選擇奇數(shù)大小的卷積核還可以保證最終卷積后的圖像不會出現(xiàn)偏差。 ??問題15:ResNet中的Block,怎么用的 ResNet中的Block是指由復(fù)雜的卷積和激活層組成的模塊,可以有效地解決反向傳播中出現(xiàn)的梯度消失和梯度爆炸的問題。ResNet中的每個Block都包含有多個卷積層以及一個Skip Connection,可以逐漸構(gòu)建出一個非常深的神經(jīng)網(wǎng)絡(luò)。當(dāng)網(wǎng)絡(luò)層數(shù)較深時,通過增加Skip Connection的結(jié)構(gòu)可以更好地保留梯度信息,從而提高模型的性能。

          免費(fèi)送

          ↓以下10本書電子版免費(fèi)領(lǐng),直接送↓?

          ef05c2117f604ae1a8df98cc268fe34c.webp

          35760ea3448f46bd9eb9b6bb0b1cb7af.webp

          以上8本+2022年Q4面試題-69道》、2022年Q3面試題-83道》共10本, 免費(fèi)送

          掃碼回復(fù)【999】免費(fèi)領(lǐng)10本電子書

          ? ? ??

          (或 找七月在線其他老師領(lǐng)取

          點(diǎn)擊 閱讀原文 ”搶寵粉 福利 ~

          c672f6ea5afae0abbde92c41364766bc.webp

          瀏覽 136
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产日逼视频观看 | 亚洲骚逼 | 成人91无码在线18 | 欧美成人三级在线播放 | 久久综合五月丁香六月 |