清華大學實驗組18篇論文被ACL 2022錄用
近日,ACL 2022錄用結果出爐,我組18篇論文被ACL 2022錄用,其中主會論文13篇,F(xiàn)indings論文5篇。以下為論文列表及介紹:
ACL?2022主會
Packed Levitated Marker for Entity and Relation Extraction

QuoteR: A Benchmark of Quote Recommendation for Writing
作者:豈凡超,楊延輝,易靖,程志立,劉知遠,孫茂松
類型:Long Paper
摘要:在寫作中人們經常引用名言名句來提高文章文采和說服力。為了幫助人們更快地找到合適的名言名句,研究者提出了名言名句推薦任務。該任務旨在自動推薦適合當前上下文的名言名句?,F(xiàn)在已經有許多名言名句推薦方法,但是他們的評測基于不同的未公開數據集。為了推進這一領域的研究,我們構建了一個名為QuoteR的大規(guī)模名言名句推薦數據集。該數據集完全公開,由英語、現(xiàn)代漢語、古詩文三部分構成,每一部分都比此前的相應未公開數據集要大。基于該數據集,我們對此前的所有名言名句推薦方法進行了公平而詳盡的評測。此外,我們還提出了一個名言名句推薦模型,其性能顯著超過前人方法。
以下為根據上下文“從盤面上看,股票價格會呈現(xiàn)某種帶漂移的無規(guī)則行走,漲跌無常,難以捉摸。[Quote],這話放在投資領域也同樣受用。事物是在不斷變化的,歷史數據只能起一定程度的參考作用。投資者想憑借歷史數據準確預測未來幾乎是不可能的。”推薦的名言示例:
MSP: Multi-Stage Prompting for Making Pre-trained Language Models Better Translators

Integrating Vectorized Lexical Constraints for Neural Machine Translation?

Pass off Fish Eyes for Pearls: Attacking Model Selection of Pre-trained Models
PPT: Pre-trained Prompt Tuning for Few-shot Learning

Prototypical Verbalizer for Prompt-based Few-shot Tuning

bert2BERT: Towards Reusable Pretrained Language Models

?Cross-Lingual Contrastive Learning for Fine-Grained Entity Typing for Low-Resource Languages

Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification

Fully Hyperbolic Neural Networks

Program Transfer for Complex Question Answering over Knowledge Bases
作者:曹書林,史佳欣,姚子俊,呂鑫,侯磊,李涓子,劉知遠,肖鏡輝,于濟凡,張含望
類型:Long Paper
摘要:在知識庫(KB)上回答復雜問題的程序歸納法旨在將問題分解為一個由多個函數組合而成的程序,程序在知識庫的執(zhí)行從而最終答案。程序歸納的學習依賴于給定知識庫的大量平行問題-程序對。然而,對于大多數知識庫來說,通常是缺乏這樣的標注的,這使得學習非常困難。在本文中,我們提出了Program Transfer的方法,其目的是利用富資源知識庫上的程序標注作為外部監(jiān)督信號來幫助缺乏程序標注的低資源知識庫的程序歸納。對于Program Transfer,我們設計了一個新穎的兩階段解析框架,并設計了一個高效的基于知識庫本體的剪枝策略。首先,一個Sketch解析器將問題翻譯成sketch,即函數的組合;然后,給定問題和sketch,一個參數分析器從知識庫中搜索具體的函數參數。在搜索過程中,我們結合知識庫的本體來調整搜索空間。在ComplexWebQuestions和WebQuestionSP上的實驗表明,我們的方法明顯優(yōu)于SOTA方法,證明了Program Transfer和我們框架的有效性。該工作與清華大學李涓子老師團隊和華為諾亞實驗室劉群老師團隊合作完成。

?A Simple but Effective Pluggable Entity Lookup Table for Pre-trained Language Models

Findings of ACL 2022
Sememe Prediction for BabelNet Synsets Using Multilingual and Multimodal Information
作者:豈凡超,呂傳承,劉知遠,孟笑君,孫茂松,鄭海濤
類型:Long Paper
摘要:在語言學中,義原被定義為語義的最小單位。人工標注單詞的義原知識庫已成功應用到各種NLP任務中。然而,現(xiàn)有的義原知識庫只涵蓋了少數幾種語言,阻礙了義原的廣泛利用。針對這一問題,文章提出了BabelNet同義詞集的義位預測任務(SPBS),旨在基于BabelNet多語言百科詞典構建多語言義原知識庫。通過自動預測BabelNet同義詞集的義原,該同義詞集中的多個語言的詞將同時獲得義原注釋。然而,以往的SPBS方法并沒有充分利用BabelNet中豐富的信息。在本文中,我們利用BabelNet中的多語言同義詞、多語言定義和圖像來實現(xiàn)SPBS。我們設計了一個多模態(tài)信息融合模型,對這些信息進行編碼和組合,進行義原預測。實驗結果表明,我們的模型明顯優(yōu)于以前的方法。該工作與清華大學深圳研究院鄭海濤老師團隊合作完成。

Going "Deeper": Structured Sememe Prediction via Transformer with Tree Attention
作者:葉奕寧,豈凡超,劉知遠,孫茂松
類型:Long Paper
摘要:含有單詞和最小語義單位的義原知識庫在很多NLP任務中有較好的表現(xiàn)。由于人工構建義原知識庫費時費力,一些研究試圖通過對未標注詞語的義原進行預測來實現(xiàn)自動的知識庫構建。然而已有的研究忽略了義原語義系統(tǒng)中非常重要的一部分——層次結構。本篇工作中,我們首次嘗試結構化的義原預測,即將單詞對應的義原預測為樹狀結構。同時,我們針對性地修改了注意力計算方法,由此設計了基于transformer的義原樹預測模型,并在實驗中驗證了它的有效性。我們也對模型的效果進行了定量和定性的分析。本工作的代碼將會開源。

Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable Evaluation and a Reasonable Approach

ELLE: Efficient Lifelong Pre-training for Emerging Data

Prompt Tuning for Discriminative Pre-trained Language Models

國際計算語言學年會(Annual Meeting of the Association?for Computational Linguistics,簡稱ACL)是自然語言處理領域頂級學術會議,在世界范圍內每年召開一次,2022年是第60屆會議,將于5月22-27日在愛爾蘭首都都柏林以線上線下混合形式舉行。
本次ACL會議首次與滾動審稿ARR合作,并首次在OpenReview系統(tǒng)上進行審稿匹配。在滾動審稿中,作者先將論文提交到論文池進行集中滾動審閱,在充分完善后,再將論文、ARR審稿意見等提交至ACL 2022。
大會官網:https://2022.aclweb.org/。

