2021年,NLP背景的應(yīng)屆生,搜索/推薦/廣告哪個(gè)更適合入坑?
提問:
最近在關(guān)注招聘信息,發(fā)現(xiàn)NLP崗位很少并且范圍很窄。
找工作可能還是選搜廣推,搜索最最相關(guān),感覺和jd要求的技術(shù)棧也比較匹配,競(jìng)爭(zhēng)力相對(duì)強(qiáng),但是感覺和nlp綁定較大,擔(dān)心以后發(fā)展受限。
推薦和廣告很熱崗位也很多,但是感覺經(jīng)歷不太match,jd提及的推薦廣告基礎(chǔ)等也不太熟悉,傳統(tǒng)ml也不太在行,很擔(dān)心競(jìng)爭(zhēng)力不夠。
所以是all in 競(jìng)爭(zhēng)力強(qiáng)的搜索,還是推薦廣告全都投?
bytecoder回答:
作為一名NLP方向搬磚工,這三個(gè)方向都搞過,按照自己的理解,分別來說一下NLP在這三個(gè)大方向分別能做啥,然后題主按照興趣可以對(duì)號(hào)入座:
搜索:query理解(糾錯(cuò)、改寫、分詞、重要性、緊密度)、doc理解(賦權(quán)、文本摘要、關(guān)鍵詞抽取)、文本相關(guān)性(語義匹配模型)、倒流(搜索詞生成)、知識(shí)圖譜、精準(zhǔn)問答、摘要飄紅(閱讀理解)。
廣告:ocpx時(shí)代,廣告主能操作的就只有創(chuàng)意和定向了,定向(行為興趣定向,主要是通過理解內(nèi)容來做可解釋強(qiáng)的用戶定向【講內(nèi)容標(biāo)簽通過牛頓冷卻定理等打到用戶身上】,據(jù)傳大的廣告平臺(tái),定向消耗一天能占1個(gè)億),創(chuàng)意(標(biāo)題生成、內(nèi)容理解、程序化創(chuàng)意),內(nèi)容審核(低俗廣告不準(zhǔn)投放),電銷商機(jī)識(shí)別。
推薦:內(nèi)容生態(tài)規(guī)整,通過NLP技術(shù)幫助對(duì)內(nèi)容生態(tài)做規(guī)整(黃反識(shí)別、低俗識(shí)別、文本消重、標(biāo)題黨識(shí)別等),針對(duì)內(nèi)容生態(tài)做治理,幫助建立更好的內(nèi)容壁壘。某國(guó)內(nèi)一線推薦大廠自詡能夠機(jī)器寫文章,可見文本生成在整個(gè)推薦領(lǐng)域也是有很強(qiáng)的應(yīng)用背景的。
如果從NLP對(duì)于整個(gè)系統(tǒng)的重要程度來看,NLP在搜索中是雪中送炭,而NLP針對(duì)廣告和推薦叫做錦上添花。所以如果有NLP背景,從事搜索系統(tǒng),那么就相當(dāng)于是眾望所歸的一個(gè)選擇。
我們?cè)賮砜纯捶峭茝V搜的場(chǎng)景下,NLP還能做啥:
智能客服(阿里小蜜、京小智、店小蜜、曉多等)是NLP領(lǐng)域非常重要的一個(gè)應(yīng)用場(chǎng)景,涵蓋意圖理解、FAQ、slot filling、多輪對(duì)話、KBQA、閱讀理解(抽取QA對(duì))、幫助人提效,緩解客服壓力。
機(jī)器翻譯,記得15年之前,機(jī)器翻譯還是偏SMT一些,采用的trick多于模型,seq2seq的出現(xiàn),正式將機(jī)器翻譯從可用變成了好用,幫助我們能夠更好的進(jìn)行語言交流。
另外懂NLP模型的同學(xué),其實(shí)也可以去做排序工作,只不過需要加一些業(yè)務(wù)的理解(廣告業(yè)務(wù)、推薦業(yè)務(wù)、搜索業(yè)務(wù)),現(xiàn)在的模型基本上百花齊放,但是工業(yè)界真正經(jīng)典的也就是幾個(gè)而已(LR、GBDT、FM、FFM、Wide & Deep),關(guān)鍵是需要放下模型黨的清高,能夠扎深業(yè)務(wù),做一個(gè)解決問題的人。
另外再補(bǔ)充一個(gè)彩蛋:推薦系統(tǒng)中借鑒NLP的例子還有很多,比如當(dāng)把召回建模成一個(gè)類別有幾十萬、上百萬類的多分類問題時(shí),softmax每次計(jì)算分母的代價(jià)太高,因此YoutubeNet借鑒了Language Model中的sampled softmax來近似求解。阿里的Deep Interest Network開啟了在推薦系統(tǒng)中引入Attention的先河,而Attention最早是在Neural Machine Translation中被發(fā)明的。所以,當(dāng)你在推薦搜索領(lǐng)域遇到某個(gè)問題,NLP或許是一個(gè)非常好的靈感來源。
文章轉(zhuǎn)載自知乎問答,著作權(quán)歸屬原作者,侵刪
推薦閱讀
重讀十年經(jīng)典論文,我在b站竟磕起“大神”李沐的深度學(xué)習(xí)“系列劇”
如何看待swin transformer成為ICCV2021的 best paper?

