<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          推薦系統(tǒng)通用用戶表征預(yù)訓(xùn)練研究進(jìn)展

          共 4526字,需瀏覽 10分鐘

           ·

          2021-11-30 16:11



          隨著NLP和CV領(lǐng)域的發(fā)展,涌現(xiàn)出了以BERT,GPT為代表的大規(guī)模語言模型和以ImageNet為代表的各種經(jīng)典視覺模型,如resnet和visual transformer,在各自領(lǐng)域都產(chǎn)生了很大的成功,而且實(shí)現(xiàn)了通用語言/視覺表征能力,例如BERT學(xué)好的語言表征可以被應(yīng)用到各種各樣的下游任務(wù)。受到相關(guān)技術(shù)的啟發(fā),推薦系統(tǒng)最近兩年也出現(xiàn)了一些學(xué)習(xí)用戶通用表征的算法和深度模型,也就是,通過對用戶行為進(jìn)行某種程度預(yù)訓(xùn)練,然后adapt到一些下游任務(wù)中,這些下游任務(wù)包括,跨域推薦和用戶畫像預(yù)測,本文簡要介紹幾種代表性工作, 優(yōu)先并重點(diǎn)介紹了有代碼和數(shù)據(jù)集的論文,以便大家更好的follow。本帖子參考了一些相關(guān)技術(shù)帖。

          Parameter-Efficient Transfer from Sequential Behaviors for User Modeling and Recommendation. SIGIR2020

          作者來自騰訊和谷歌

          代碼+數(shù)據(jù)集:https://github.com/fajieyuan/SIGIR2020_peterrec

          本文提出一種名為PeterRec的通用表征遷移學(xué)習(xí)算法,論文指出,受到以上NLP和CV領(lǐng)域自監(jiān)督+預(yù)訓(xùn)練的啟發(fā),作者也嘗試了對用戶點(diǎn)擊行為進(jìn)行自監(jiān)督建模,以尋求學(xué)到通用的用戶偏好表征,論文提出了5個(gè)與用戶相關(guān)的下游任務(wù)去評測學(xué)到用戶表征能力,其中包括跨域遷移學(xué)習(xí),也就是在冷用戶推薦的場景,通過借助其他domain的用戶行為獲取偏好,另外,本文一個(gè)發(fā)現(xiàn)是這種自監(jiān)督學(xué)習(xí)的用戶表征不僅僅可以做推薦任務(wù),同時(shí)可以去預(yù)測用戶的基礎(chǔ)畫像和更高層次的用戶屬性信息,作者展示了預(yù)訓(xùn)練用戶表征在遷移到用戶年齡,畫像預(yù)測和人生狀態(tài)預(yù)測(如,單身、已婚)的有效性,論文的ablation study展示了通過pretraining可以獲得較明顯的性能提升。該論文的一個(gè)貢獻(xiàn)是建立了推薦系統(tǒng)和NLP、CV領(lǐng)域的橋梁,也是通用用戶表征比較早期的做法,對后續(xù)工作很有啟發(fā),同時(shí),作者也發(fā)布了一套開源代碼和數(shù)據(jù)集(短視頻場景),可以用于預(yù)訓(xùn)練、遷移學(xué)習(xí)、表征學(xué)習(xí)、畫像預(yù)測等重要的推薦系統(tǒng)任務(wù)。

          One Person, One Model, One World: Learning Continual User Representation without Forgetting. SIGIR2021.

          作者來自騰訊和谷歌

          代碼+數(shù)據(jù)集:https://github.com/fajieyuan/SIGIR2021_Conure

          本文作者沿著PeterRec思想,仍然是探究用戶通用表征能力和遷移效果,論文一個(gè)重要的貢獻(xiàn)是提出通用用戶表征的終生學(xué)習(xí)(lifelong learning)機(jī)制,不同于以往的工作,學(xué)習(xí)一個(gè)更長的用戶行為序列,然后將其應(yīng)用于該推薦系統(tǒng),本文的通用表征著手在多個(gè)不同的推薦業(yè)務(wù)場景中進(jìn)行表征持續(xù)學(xué)習(xí),論文預(yù)訓(xùn)練與PeterRec一樣,也就是autoregressive的方式,不同于PeterRec工作,本文不僅可以實(shí)現(xiàn)one4all思想,而且終生學(xué)習(xí)在后續(xù)的任務(wù)中展示出正向的遷移效果,論文的方法比較簡單,采用常規(guī)的pruning技術(shù),移除任務(wù)中冗余參數(shù),這部分模型空間用于學(xué)習(xí)新任務(wù),這種策略在NLP和CV領(lǐng)域非常常見,尤其是各種模型壓縮,加速等場景,論文主要是提出了一個(gè)重要的問題就是實(shí)現(xiàn)用戶表征的可持續(xù)終生學(xué)習(xí)。


          Arxiv第一個(gè)版本給出了幾種遷移學(xué)習(xí)范式的比較

          Perceive Your Users in Depth: Learning Universal User Representations from Multiple E-commerce Tasks. KDD2018.

          作者來自Alibaba團(tuán)隊(duì)。

          Github上暫未找到代碼和數(shù)據(jù)集。

          粗略調(diào)查,本文應(yīng)該是提出通用用戶表征學(xué)習(xí)最早期工作了,主要是阿里巴巴電商場景,建模的backbone是LSTM模型,提出了一種DUPN的模型。論文motivation指出很多已有的工作都是針對單個(gè)推薦任務(wù)場景建模,而如果能夠考慮多個(gè)業(yè)務(wù)目標(biāo),有希望獲取更好的推薦效果,論文的重要技術(shù)點(diǎn)是采用多任務(wù)多目標(biāo)學(xué)習(xí)的方式,通過model用戶的各種行為,包括CTR目標(biāo),L2R目標(biāo),PPP目標(biāo),F(xiàn)IFP目標(biāo)和SPP目標(biāo),集成多個(gè)目標(biāo)理論上能夠?qū)W到更好的用戶表征,但是多個(gè)目標(biāo)如何有效的平衡損失函數(shù)和干擾也是很重要的,對算法人員駕馭能力要求較高,任何一個(gè)loss如果權(quán)重設(shè)置不合適都有可能造成次優(yōu),甚至是有hurt的效果,另外,學(xué)術(shù)界也比較缺少這種實(shí)際的業(yè)務(wù)數(shù)據(jù)(各種用戶點(diǎn)擊交互行為),對于后續(xù)的學(xué)習(xí)會有一些barrier。關(guān)于表征的遷移效果,論文做了一些ablation study主要是關(guān)于推薦系統(tǒng)場景。

          One4all User Representation for Recommender Systems in E-commerce. 2021年arxiv

          論文顯示暫未接受,作者來自NAVER CLOVA
          Github上未找到代碼和數(shù)據(jù)集。但是論文在結(jié)尾提到會發(fā)布這樣一套超大規(guī)模的數(shù)據(jù)集,相信發(fā)布后對推薦系統(tǒng)領(lǐng)域會有比較大的推動作用。

          論文動機(jī)也是認(rèn)為學(xué)習(xí)general-purpose的表征能力在機(jī)器學(xué)習(xí)社區(qū)已經(jīng)取得了很大的成功,同時(shí)指出在電商場景下,學(xué)習(xí)one4all的表征,可以用來做很多下游任務(wù),例如用戶畫像預(yù)測、推送和推薦系統(tǒng)。為此,作者們系統(tǒng)的比較了電商場景下通用用戶表征的建模方式和遷移效果,提出ShopperBERT模型,論文數(shù)據(jù)規(guī)模相當(dāng)龐大,達(dá)到8億點(diǎn)擊行為(PeterRec數(shù)據(jù)接近1億的行為),論文結(jié)果展示出預(yù)訓(xùn)練在多個(gè)下游任務(wù)上可以取得SOTA效果,該論文比較精彩的地方是做了非常廣泛的分析實(shí)驗(yàn),很有參考價(jià)值。

          TUM: Pre-training User Model from Unlabeled User Behaviors via Self-supervision. 2020.findings EMNLP

          作者來自清華和微軟

          代碼:https://github.com/wuch15/PTUM

          用戶專注用戶建模任務(wù),指出傳統(tǒng)的用戶建模需要label數(shù)據(jù),然而,推薦系統(tǒng)大量的用戶行為可以用來建立自監(jiān)督學(xué)習(xí)機(jī)制,論文提出mask行為預(yù)測和next K行為預(yù)測學(xué)習(xí)用戶表征模型,類似的,作者也是在下游任務(wù)(包括CTR預(yù)測和畫像預(yù)測)中檢測了表征的遷移能力,論文來自一個(gè)搜索引擎,具體不詳。

          UPRec: User-Aware Pre-training for Recommender Systems. TKDE2021投稿

          作者來自清華和騰訊
          Github暫未發(fā)現(xiàn)code
          本文作者指出已有的序列建模技術(shù)往往受制于sparse的用戶行為數(shù)據(jù),為了解決這個(gè)問題,作者們提出預(yù)訓(xùn)練機(jī)制,但是已有的用戶行為預(yù)訓(xùn)練技術(shù)只使用了用戶行為序列,缺少異構(gòu)用戶信息,本文我們提出了基于異構(gòu)用戶行為的預(yù)訓(xùn)練模型,稱作UPRec,論文展示了這種預(yù)訓(xùn)練機(jī)制的有效性,作者借鑒已有工作,也做了用戶性別的畫像預(yù)測

          User-specific Adaptive Fine-tuning for Cross-domain Recommendations. TKDE2021,

          作者來自中科院

          暫未找到代碼

          本文作者動機(jī)與以上幾篇論文類似,也是想嘗試通過遷移學(xué)習(xí)解決用戶冷啟動問題,但是不同以上文章,論文提出了一種personalized微調(diào)方式,針對不同的用戶采用不同的policy微調(diào)機(jī)制,作者強(qiáng)調(diào)pre-training的殘差塊不一定需要微調(diào),有些用戶的興趣偏好(尤其是行為比較少的用戶)可能會跟pre-training場景更加相似,那么這種情況大可不需要微調(diào),直接使用pretraining自帶的殘差塊即可。論文通過強(qiáng)化學(xué)習(xí)手段實(shí)現(xiàn)user-specific微調(diào)技術(shù)。效果展示出這種自適應(yīng)微調(diào)效果好于常規(guī)的各種finetune技術(shù)。

          Scaling Law for Recommendation Models: Towards General-purpose User Representations.

          最新arxiv論文,與(4)相同作者,來自NAVER CLOVA;Github上暫未找到代碼和數(shù)據(jù)集。

          動機(jī)就不多說了,還是general-purpose用戶表征的遷移學(xué)習(xí),不過個(gè)人感覺這篇論文寫的非常漂亮,閱讀起來感覺也是非常舒服,論文主要關(guān)注scale效果,大有效仿GPT的感覺,論文提出CLUE算法,基于最新的比較學(xué)習(xí)(contrastive learning),多目標(biāo)學(xué)習(xí)用戶表征,然后探索表征的遷移能力,論文用到的用戶行為達(dá)到驚人的500億(七個(gè)下游任務(wù)),是PeterRec訓(xùn)練樣本的大概500倍,ShopperBERT的60倍以上,有望成為推薦系統(tǒng)領(lǐng)域大模型預(yù)訓(xùn)練的里程碑工作。

          Learning Transferable User Representations with Sequential Behaviors via Contrastive Pre-training.ICDM2021

          作者主要來自中科大, 暫未找到代碼。

          動機(jī)不多提了,很有意思的一點(diǎn),這篇論文的名字也叫CLUE,與(8)相同,好像NLP里面也有這個(gè)名字,論文也是探索性質(zhì),指出PeterRec這種基于item level的訓(xùn)練方式容易破壞用戶表征,或者是一種次優(yōu)的表征,既然是用戶表征就應(yīng)該基于user level,對用戶行為直接做比較學(xué)習(xí),論文嘗試了常見的顯式數(shù)據(jù)提升方式和隱式的dropout方式,證實(shí)方法的有效性。

          Learning Universal User Representations via Self-Supervised Lifelong Behaviors Modeling. 投稿ICLR2022,

          作者來自阿里巴巴,暫未找到代碼和數(shù)據(jù)。

          該論文也是提出了一種通用的用戶表征終生學(xué)習(xí)機(jī)制,起名LURM,LURM包含了幾個(gè)重要的組件(BoI和SMEN),通過比較學(xué)習(xí)學(xué)習(xí)用戶通用表征能力,論文提出了首個(gè)具有建模lifelong行為序列的通用表征算法,論文還沒讀完,看起來比較干,論文呈現(xiàn)比較濃厚的阿里風(fēng)格。不過看openreview審稿意見,論文本次被ICLR2022接受概率可能不太大,被指出實(shí)驗(yàn)部分缺少一些近期相關(guān)baselines的比較(如PTUM和PeterRec),其他評論意見不在此羅列,感興趣的也可以參考o(jì)penreview官網(wǎng)學(xué)習(xí)。整體上講,論文水平感覺還是挺不錯(cuò)的,做了一些有意義的探索,值得學(xué)習(xí)。

          喜歡的話點(diǎn)個(gè)在看吧??
          瀏覽 78
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产亚洲视频免费观看 | 亚洲激情在线 | 成人无码一区 | 久久99久久99久久99国内少妇精品 | 内射学生妹视频在线免费观看 |