推薦一款專注于NLP分享的公眾號
AINLPer
AINLPer專注自然語言處理NLP研究方向,會每天為大家分享自然語言處理(NLP)相關(guān)領(lǐng)域研究的成果,目前原創(chuàng)文章已經(jīng)達到了210多篇,其中主要包括:論文速遞、論文精讀、國際會議、論文下載、數(shù)據(jù)集、深度學習知識、pytorch模型訓練、學習資料等,以下是內(nèi)容快照。
如果感興趣,點擊上方卡片,關(guān)注‘’AINLPer‘’吧
內(nèi)容快照
論文分享篇
[1]NeurIPS 2022|拯救“中國相聲”!預(yù)訓練模型(PLMs)應(yīng)用新場景 ??(含源碼)
[2]COLING2022 | 情感分析?零樣本預(yù)訓練模型“Prompt 設(shè)計指南”(含源碼)
[3]EMNLP2022 | 文檔格式千千萬,統(tǒng)一預(yù)訓練模型XDoc給你辦!(微軟 & 含源碼)
......
[n]EMNLP2022 | 多模態(tài)“諷刺語言”檢測框架(南洋理工 & 含源碼)
國際會議篇
[1]一文了解NeurIPS國際頂會(內(nèi)含NeurIPS2022論文下載)
[2]一文了解EMNLP國際頂會(內(nèi)含EMNLP2022論文下載)
......
[n]一文了解ICLR國際頂會 + 歷年paper整理分享(含源碼)??!
論文速遞篇
[1]論文速遞 && EMNLP2022 | 接受論文搶先看?。?!
[2]【論文速遞】無數(shù)據(jù)對抗蒸餾、垂直聯(lián)合、預(yù)訓練微調(diào)范式圖神經(jīng)網(wǎng)絡(luò)(GNN)
[3]【NLP論文速遞&&源碼】Bert模型優(yōu)化、自回歸預(yù)訓練、鍵值記憶網(wǎng)絡(luò)、大規(guī)模問答系統(tǒng)訓練
......
[n]【NLP論文速遞&&源碼】弱監(jiān)督文本分類(MotifClass)、自動文本分類(AdaptText)、論證充分性評估
數(shù)據(jù)集分享篇
[1]收藏!「自然語言處理(NLP)」你可能用到的數(shù)據(jù)集(一)
[2]收藏!「自然語言處理(NLP)」你可能用到的數(shù)據(jù)集(二)
[3]重磅!「自然語言處理(NLP)」一千多萬公司企業(yè)注冊數(shù)據(jù)集
......
[n]「自然語言處理(NLP)論文推送」清華大學XQA數(shù)據(jù)集(含源碼)!
深度學習知識篇
[1]預(yù)訓練模型微調(diào) | 一文帶你了解Adapter Tuning
[2]預(yù)訓練模型微調(diào) | 一文了解預(yù)訓練模型 Prompt 調(diào)優(yōu)
......
[n]從一維卷積、因果卷積(Causal CNN)、擴展卷積(Dilation CNN) 到 時間卷積網(wǎng)絡(luò) (TCN)
知識科普篇
[1]即將到來......AAAI2022國際頂會Workshop將會討論些什么?
......
關(guān)注我吧
?如果你是萌新,關(guān)注AINLPer,你可以了解NLP各個研究方向發(fā)展狀況,學習深度學習相關(guān)知識,加群討論,明確自己研究方向。
?如果你是大萌新,關(guān)注AINLPer,你可能找到自己創(chuàng)作靈感、論文accept、畢業(yè)無壓力、工作進展更順利。
?如果你是大佬,關(guān)注AINLPer,歡迎批評指正,經(jīng)驗分享,讓我們更快的進步。
?作者個人微信:ainlperbot。
?加群請注明:工作/學生+研究方向+學校/公司

