<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          圖文并茂!推薦算法架構(gòu)——粗排

          共 2540字,需瀏覽 6分鐘

           ·

          2022-04-25 01:09


          導(dǎo)語 | 粗排是介于召回和精排之間的一個(gè)模塊,是典型的精度與性能之間trade-off的產(chǎn)物。理解粗排各技術(shù)細(xì)節(jié),一定要時(shí)刻把精度和性能放在心中。


          在上篇詳細(xì)解讀!推薦算法架構(gòu)——召回中我們結(jié)合算法架構(gòu)召回進(jìn)行解讀分析,本篇將深入重排這個(gè)模塊進(jìn)行闡述。


          一、總體架構(gòu)


          粗排是介于召回和精排之間的一個(gè)模塊。它從召回獲取上萬的候選item,輸出幾百上千的item給精排,是典型的精度與性能之間trade-off的產(chǎn)物。對(duì)于推薦池不大的場景,粗排是非必選的。粗排整體架構(gòu)如下:




          二、粗排基本框架:樣本、特征、模型


          目前粗排一般模型化了,基本框架也是包括數(shù)據(jù)樣本、特征工程、深度模型三部分。


          (一)數(shù)據(jù)樣本


          目前粗排一般也都模型化了,其訓(xùn)練樣本類似于精排,選取曝光點(diǎn)擊為正樣本,曝光未點(diǎn)擊為負(fù)樣本。但由于粗排一般面向上萬的候選集,而精排只有幾百上千,其解空間大很多。只使用曝光樣本作為訓(xùn)練,但卻要對(duì)曝光和非曝光同時(shí)預(yù)測,存在嚴(yán)重的樣本選擇偏差(SSB問題),導(dǎo)致訓(xùn)練與預(yù)測不一致。相比精排,顯然粗排的SSB問題更嚴(yán)重。



          (二)特征工程


          粗排的特征也可以類似于精排,由于其計(jì)算延遲要求高,只有10ms~20ms,故一般可以粗分為兩類:


          • 普通特征:類似精排,user、context、item三部分。有哪些特征,以及特征如何處理,可以參看精排的特征工程部分。


          • 交叉特征:user和item之間的交叉特征,對(duì)提升模型精度很有幫助。但由于交叉特征枚舉過多,難以離線計(jì)算和存儲(chǔ)。實(shí)時(shí)打分時(shí)又不像user特征只用計(jì)算一次,延遲較高。故對(duì)于交叉特征要謹(jǐn)慎使用。



          (三)深度模型


          粗排目前已經(jīng)基本模型化,其發(fā)展歷程主要分為四個(gè)階段:


          第一代:人工規(guī)則策略,可以基于后驗(yàn)統(tǒng)計(jì),構(gòu)建一個(gè)人工規(guī)則。比如融合item的歷史CTR、CVR、類目價(jià)格檔、銷量等比較核心的因子。人工規(guī)則準(zhǔn)確率低,也沒有個(gè)性化,也不可能實(shí)時(shí)更新。


          第二代:LR線性模型,有一定的個(gè)性化和實(shí)時(shí)性能力,但模型過于簡單,表達(dá)能力偏弱。


          第三代:DSSM雙塔內(nèi)積深度模型。它將user和item進(jìn)行解耦合,分別通過兩個(gè)Tower獨(dú)立構(gòu)建。從而可以實(shí)現(xiàn)item向量離線存儲(chǔ),降低線上predict延遲。主要有兩種范式:


          • item和user均離線存儲(chǔ)。這個(gè)方案只需要計(jì)算user和item的內(nèi)積即可,計(jì)算延遲低。由于user是離線存儲(chǔ)的,故可以使用復(fù)雜的模型,提升表達(dá)能力。但user側(cè)的實(shí)時(shí)性較差,對(duì)于用戶行為不能實(shí)時(shí)捕捉。


          • item離線,user實(shí)時(shí)。item相對(duì)user,實(shí)時(shí)性要求沒那么高。由于一次打分是針對(duì)同一個(gè)用戶的,故user側(cè)只需要實(shí)時(shí)計(jì)算一次即可,速度也很快。目前這個(gè)方案使用較多。


          第四代:item和user隔離,導(dǎo)致二者沒有特征交叉能力,模型表達(dá)能力弱。故又提出了以COLD為代表的第四代模型,輕量級(jí)MLP粗排模型。它通過SE block實(shí)現(xiàn)特征裁剪,并配合網(wǎng)絡(luò)剪枝和工程優(yōu)化,可以實(shí)現(xiàn)精度和性能之間的trade-off。



          三、粗排優(yōu)化


          粗排的幾個(gè)主要問題:


          • 精度和特征交叉問題:經(jīng)典的DSSM模型優(yōu)點(diǎn)很多,目前在粗排上廣泛應(yīng)用,其最核心的缺點(diǎn)就是缺乏特征交叉能力。正所謂成也蕭何敗蕭何,正是由于user和item分離,使得DSSM性能很高。但反過來也是由于二者缺乏交叉,導(dǎo)致模型表達(dá)能力不足,精度下降。典型的精度和性能之間的trade-off。


          • 低延遲要求:粗排延遲要求高,一般只有10ms~20ms,遠(yuǎn)低于精排的要求。


          • SSB問題:粗排解空間比精排大很多,和精排一樣只使用曝光樣本,導(dǎo)致嚴(yán)重的樣本選擇偏差問題。



          (一)精度提升


          精度提升的方案主要有精排蒸餾和特征交叉,主要還是要優(yōu)化特征交叉問題。


          • 精排蒸餾


          精排模型作為teacher,對(duì)粗排模型進(jìn)行蒸餾學(xué)習(xí),從而提升粗排效果,這已經(jīng)成為了目前粗排訓(xùn)練基本范式



          • 特征交叉


          特征交叉可以在特征層面,也可以在模型層面實(shí)現(xiàn)。特征層面就是手工構(gòu)造交叉特征,作為模型底層輸入,仍然可以在獨(dú)立的Tower中。模型層面則使用FM或者M(jìn)LP等實(shí)現(xiàn)自動(dòng)交叉。主要方法有:


          特征蒸餾:teacher和student使用相同的網(wǎng)絡(luò)結(jié)構(gòu),teacher模型使用普通特征和交叉特征,student則只使用普通特征。student從teacher中可以學(xué)到交叉特征的高階信息。



          加入交叉特征:特征層面構(gòu)建手工交叉特征,獨(dú)立的Tower中使用。由于交叉特征難以離線存儲(chǔ),實(shí)時(shí)計(jì)算空間也很大,故這個(gè)獨(dú)立的Tower不能過于復(fù)雜。那我們第一時(shí)間就想到了wide&deep模型。deep部分仍然使用DSSM雙塔,wide部分則為交叉特征。



          輕量級(jí)MLP:模型層面實(shí)現(xiàn)特征交叉,不進(jìn)行獨(dú)立分塔。比如COLD,通過特征裁剪、網(wǎng)絡(luò)剪枝、工程優(yōu)化等方式降低時(shí)延,而不是靠獨(dú)立分塔。



          (二)延遲降低


          精度和性能一直以來都是一個(gè)trade-off,很多方案都是在二者之間尋找平衡。粗排的性能要求更高,其延遲必須控制在10ms~20ms以內(nèi)。性能優(yōu)化有很多常見方法。


          主要有以下方法:


          • 特征裁剪:如COLD,不重要的特征先濾掉,自然就降低了整體延遲。這一層可以做在模型內(nèi),從而可以個(gè)性化和實(shí)時(shí)更新。


          • 量化和定點(diǎn)化:比如32bit降低為8bit,可以提升計(jì)算和存儲(chǔ)性能。


          • 網(wǎng)絡(luò)剪枝:network pruning,包括突觸剪枝、神經(jīng)元剪枝、權(quán)重矩陣剪枝等方法,不展開了。


          • 模型蒸餾:model distillation,上文已經(jīng)提到了,不展開了。


          網(wǎng)絡(luò)結(jié)構(gòu)搜索NAS:使用更輕量級(jí),效果更好的模型??梢試L試網(wǎng)絡(luò)結(jié)構(gòu)搜索NAS。



          (三)SSB問題


          粗排解空間比精排大很多,和精排一樣只使用曝光樣本,導(dǎo)致嚴(yán)重的樣本選擇偏差問題。可以把未曝光樣本的精排打分給利用起來,緩解SSB問題。



           作者簡介


          謝楊易

          騰訊應(yīng)用算法研究員

          騰訊應(yīng)用算法研究員,畢業(yè)于中國科學(xué)院,目前在騰訊負(fù)責(zé)視頻推薦算法工作,有豐富的自然語言處理和搜索推薦算法經(jīng)驗(yàn)。



           推薦閱讀


          詳細(xì)解讀!推薦算法架構(gòu)——召回

          超強(qiáng)指南!推薦算法架構(gòu)——重排

          圖文解讀:推薦算法架構(gòu)——精排!

          第四屆 Techo TVP 開發(fā)者峰會(huì)回來了!這次我們線上見

          來了!Go的2個(gè)黑魔法技巧




          瀏覽 54
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  青青草免费手机视频 | 夜夜操夜夜操夜夜操 | 激情性爱五月天 | 婷婷激情综合网 | 爱情岛亚洲品质自拍视频 |