<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          華人一作論文慘遭SIGIR 2019論文抄襲,網(wǎng)友:我只想知道抄襲者最終...

          共 6925字,需瀏覽 14分鐘

           ·

          2019-11-02 23:21

          f619010cb3c2ac68f5e8aa03f865db87.webp



          ??新智元報(bào)道??來(lái)源:Reddit編輯:元子、肖琴
          【新智元導(dǎo)讀】Reddit網(wǎng)友爆料:SIGIR 2019的一篇論文涉嫌抄襲,且抄襲的兩位作者均為大學(xué)教授,而被抄襲的論文其中兩位作者是華人學(xué)者。SIGIR是信息檢索領(lǐng)域最重要的國(guó)際頂會(huì),在這樣的頂會(huì)上發(fā)表抄襲的論文,兩位教授被認(rèn)為學(xué)術(shù)生涯已完。你怎么看,來(lái)新智元 AI 朋友圈說(shuō)說(shuō)你的觀點(diǎn)


          今天,Reddit機(jī)器學(xué)習(xí)社區(qū)一則熱帖爆料:SIGIR 2019的一篇論文涉嫌抄襲!


          網(wǎng)友joyyeki發(fā)帖質(zhì)疑:
          我最近讀到一篇發(fā)表在SIGIR 2019會(huì)議的論文,題為《為基于評(píng)論的建議提供對(duì)抗性訓(xùn)練》(Adversarial Training for Review-Based Recommendations")。我注意到,這篇論文與RecSys 2018大會(huì)上發(fā)表的論文《為什么我喜歡它:多任務(wù)學(xué)習(xí)的推薦和解釋》(Why I like it: Multi-task Learning for Recommendation and Explanation)幾乎一模一樣。
          joyyeki表示,最初他以為這只是巧合,因?yàn)橛脙善撐亩疾捎玫膶?duì)抗性訓(xùn)練也是最近的研究熱點(diǎn),不同小組對(duì)同一個(gè)問(wèn)題提出相似的解決方案也正常。然而,在仔細(xì)閱讀和比較兩篇論文后,他認(rèn)為SIGIR 2019 的論文抄襲了RecSys 2018的論文。


          ACM SIGIR(國(guó)際信息檢索大會(huì))是信息檢索領(lǐng)域最重要的國(guó)際學(xué)術(shù)頂會(huì),在這么權(quán)威的會(huì)議上發(fā)表了一篇抄襲的論文,引發(fā)一片質(zhì)疑聲。


          更嚴(yán)重的是,抄襲論文的兩位作者,分別來(lái)自荷蘭馬斯特里赫特大學(xué)的Dimitrios Rafailidis瑞士提契諾大學(xué)(USI)的Fabio Crestani,他們都是該領(lǐng)域的教授/助理教授。


          而被抄襲的RecSys 2018論文,其中兩位作者是華人學(xué)者,第一作者是多倫多大學(xué)的Yichao Lu,以及都柏林大學(xué)助理教授Ruihai Dong都柏林大學(xué)計(jì)算機(jī)科學(xué)的數(shù)字主席Barry Smyth教授。


          • SIGIR 2019論文(抄襲):Adversarial Training for Review-Based Recommendations


          7dbc044a8d27d1d20e117400269efdea.webp論文地址:https://gofile.io/?c=ej2y69

          Dimitrios Rafailidis是Maastricht大學(xué)DKE&IDS的助理教授。他的主要研究興趣是機(jī)器學(xué)習(xí),信息檢索,推薦系統(tǒng)和社交媒體挖掘。


          e8a77cce38c6aedfc076a35b7462ba47.webp

          Dimitrios Rafailidis

          個(gè)人主頁(yè):

          https://www.maastrichtuniversity.nl/dimitrios.rafailidis


          Fabio Crestani自2007年1月起擔(dān)任USI信息學(xué)學(xué)院的正教授。1997年至1999年,他是英國(guó)格拉斯哥大學(xué),美國(guó)伯克利國(guó)際計(jì)算機(jī)科學(xué)研究所和英國(guó)盧瑟?!ぐ⑵諣栴D實(shí)驗(yàn)室的博士后研究員。


          2c46042a557fc49f9d9fab82d4aeade4.webp

          Fabio Crestani

          個(gè)人主頁(yè):

          https://search.usi.ch/en/people/4f0dd874bbd63c00938825fae1843200/crestani-fabio


          • RecSys 2018論文(被抄襲):Why I like it: multi-task learning for recommendation and explanation


          59ba0c5004913a6ace5aa3345aba2dfc.webp論文地址:https://dl.acm.org/citation.cfm?id=3240365


          Yichao Lu,多倫多大學(xué)。Layer 6 AI機(jī)器學(xué)習(xí)科學(xué)家。


          個(gè)人主頁(yè):

          https://www.linkedin.com/in/yichaolu/?originalSubdomain=ca


          Ruihai Dong?是都柏林大學(xué)(UCD)計(jì)算機(jī)學(xué)院的助理教授。他的研究興趣廣泛在于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)及其在推薦系統(tǒng)和金融領(lǐng)域的應(yīng)用。


          c300c3b25296b0659024a06800405d41.webp

          Ruihai Dong

          個(gè)人主頁(yè):https://people.ucd.ie/ruihai.dong



          Barry Smyth教授是都柏林大學(xué)計(jì)算機(jī)科學(xué)的數(shù)字主席,并且是數(shù)據(jù)分析洞察中心的主任。他從2003年開(kāi)始擔(dān)任歐洲人工智能協(xié)調(diào)委員會(huì)(ECCAI)的成員,從2011年開(kāi)始擔(dān)任愛(ài)爾蘭皇家學(xué)院的成員。


          1e83b2417d9f2243c7f253259aa405fc.webp

          Barry Smyth

          個(gè)人主頁(yè):

          https://people.ucd.ie/barry.smyth


          揭發(fā)SIGIR 2019論文抄襲:模型幾乎完全是復(fù)制


          網(wǎng)友joyyeki在Reddit機(jī)器學(xué)習(xí)版塊發(fā)帖質(zhì)疑道:


          我最近讀到一篇發(fā)表在SIGIR 2019會(huì)議的論文,題為《為基于評(píng)論的建議提供對(duì)抗性訓(xùn)練》(Adversarial Training for Review-Based Recommendations")。我注意到,這篇論文與RecSys 2018大會(huì)上發(fā)表的論文《為什么我喜歡它:多任務(wù)學(xué)習(xí)的推薦和解釋》(Why I like it: Multi-task Learning for Recommendation and Explanation)幾乎一模一樣。


          起初,我以為這只是一個(gè)巧合。研究人員很可能會(huì)有類似的idea。因此,兩個(gè)獨(dú)立研究小組有可能針對(duì)同一個(gè)問(wèn)題提出相同的解決方案。然而,在仔細(xì)閱讀和比較兩篇論文后,我現(xiàn)在認(rèn)為SIGIR 2019 的論文抄襲了RecSys 2018的論文。


          SIGIR 2019 論文中提出的模型幾乎是對(duì)RecSys 2018年論文中模型的復(fù)制。理由:

          (1)兩篇論文都使用了矩陣分解框架上的對(duì)抗性序列到序列學(xué)習(xí)模型。

          (2)對(duì)于生成器和判別器部分,兩篇論文都使用GRU作為生成器,使用CNN作為鑒別器。

          (3)優(yōu)化方法相同,即兩部分交替優(yōu)化。

          (4)評(píng)估相同,即評(píng)估MSE的推薦性能和評(píng)估判別器的準(zhǔn)確性,以表明生成器已經(jīng)學(xué)會(huì)生成相關(guān)的評(píng)論。

          (5)這兩篇論文所用的符號(hào)和公式看起來(lái)極其相似。


          考慮到對(duì)抗性訓(xùn)練在最近的文獻(xiàn)中很流行,盡管觀點(diǎn)可能只是相似,但SIGIR 2019論文與RecSys 2018論文有大量的文本重疊,這不得不令人懷疑。


          比如以下兩個(gè)例子:


          (1) SIGIR 2019論文的Section 1:“The Deep Cooperative Neural Network (DeepCoNN) model user-item interactions based on review texts by utilizing a factorization machine model on top of two convolutional neural networks.”


          (2) RecSys 2018論文的Section 2:“Deep Cooperative Neural Network (DeepCoNN) model user-item interactions based on review texts by utilizing a factorization machine model on top of two convolutional neural networks.”


          我認(rèn)為這是抄襲最明顯的跡象如果你用“精確匹配”在Google上搜索這個(gè)句子,你會(huì)發(fā)現(xiàn)這個(gè)句子僅被這兩篇論文使用。很難相信, SIGIR 2019論文的作者在沒(méi)有閱讀RecSys 2018論文的情況下,會(huì)寫出完全相同的句子。


          再舉一個(gè)例子:

          (1)SIGIR 2019論文的 Section 2.1:


          “The decoder employs a single GRU that iteratively produces reviews word by word. In particular, at time step $t$ the GRU first maps the output representation $z_{ut-1}$ of the previous time step into a $k$-dimensional vector $y_{ut-1}$ and concatenates it with $\bar{U_{u}}$ to generate a new vector $y_{ut}$. Finally, $y_{ut}$ is fed to the GRU to obtain the hidden representation $h_{t}$, and then $h_{t}$ is multiplied by an output projection matrix and passed through a softmax over all the words in the vocabulary of the document to represent the probability of each word. The output word $z_{ut}$ at time step $t$ is sampled from the multinomial distribution given by the softmax."


          (2) RecSys 2018論文的Section 3.1.1:


          "The user review decoder utilizes a single decoder GRU that iteratively generates reviews word by word. At time step $t$, the decoder GRU first embeds the output word $y_{i, t-1}$ at the previous time step into the corresponding word vector $x_{i, t-1} \in \mathcal{R}^{k}$, and then concatenate it with the user textual feature vector $\widetilde{U_{i}}$. The concatenated vector is provided as input into the decoder GRU to obtain the hidden activation $h_{t}$. Then the hidden activation is multiplied by an output projection matrix and passed through a softmax over all the words in the vocabulary to represent the probability of each word given the current context. The output word $y_{i, t}$ at time step $t$ is sampled from the multinomial distribution given by the softmax.”


          在這個(gè)例子中, SIGIR 2019年論文的作者替換了文章中的一些短語(yǔ),因此這兩段文字并不完全相同。然而,我認(rèn)為這兩段文字的相似之處仍然表明, SIGIR 2019論文的作者在撰寫自己的論文之前肯定閱讀了RecSys 2018論文。


          我不打算把這兩篇論文的所有重疊部分都列一遍,但讓我們看最后一個(gè)例子:


          (1)SIGIR 2019的Section 2.2:


          "Each word of the review $r$ is mapped to the corresponding word vector, which is then concatenated with a user-specific vector. Notice that the user-specific vectors are learned together with the parameters of the discriminator $D_{\theta}$ in the adversarial training of Section 2.3. The concatenated vector representations are then processed by a convolutional layer, followed by a max-pooling layer and a fully-connected projection layer. The final output of the CNN is a sigmoid function which normalizes the probability into the interval of $[0, 1]$", expressing the probability that the candidate review $r$ is written by user $u$.”


          (2) RecSys 2018論文的Section 3.1.2:


          ”To begin with, each word in the review is mapped to the corresponding word vector, which is then concatenated with a user-specific vector that identifies user information. The user-specific vectors are learned together with other parameters during training. The concatenated vector representations are then processed by a convolutional layer, followed by a max-pooling layer and a fully-connected layer. The final output unit is a sigmoid non-linearity, which squashes the probability into the $[0, 1]$ interval."


          有一個(gè)句子("The concatenated vector representations are ...... a fully-connected projection layer.")在這兩篇論文中是完全一樣的。另外,我認(rèn)為將用戶特定的向量與評(píng)論中的每個(gè)單詞向量相連接是一個(gè)非常不直觀的想法。我不認(rèn)為來(lái)自不同研究小組的想法在這樣的細(xì)節(jié)上會(huì)相同。如果我是作者,我會(huì)把特定于用戶的向量連接到最終投影層之前的層,因?yàn)檫@樣能節(jié)省計(jì)算成本,應(yīng)該可以得到更好的泛化。


          作為一個(gè)信息檢索領(lǐng)域的新人,我不確定這樣的案例是否應(yīng)該被視為剽竊。但是,我的教授告訴我,SIGIR會(huì)議是IR社區(qū)中首屈一指的會(huì)議,我認(rèn)為這篇論文絕對(duì)不應(yīng)該在像SIGIR這樣的頂級(jí)會(huì)議上發(fā)表。


          讓我感覺(jué)更糟糕的是,這篇論文的兩位作者,荷蘭馬斯特里赫特大學(xué)的Dimitrios Rafailidis和瑞士提契諾大學(xué)(USI)的Fabio Crestani都是教授。他們應(yīng)該意識(shí)到剽竊在學(xué)術(shù)界是不可容忍的。
          網(wǎng)友評(píng)論:我只想知道抄襲者最終落得怎樣的下場(chǎng)
          Reddit網(wǎng)友評(píng)論:


          thatguydr:得,這下他們的學(xué)術(shù)生涯完了,棒!不過(guò)有趣的是,怎么能沒(méi)有自動(dòng)的方式來(lái)查找呢?


          entarko:我一直想知道抄襲者獲得怎樣的后果了。我review的第一篇論文就是抄襲,我告訴AC但沒(méi)聽(tīng)說(shuō)后續(xù)有任何事情發(fā)生。據(jù)我所知,提交抄襲的論文會(huì)被列入黑名單。不一定是永久的,一般也就幾年。


          slayeriq:是你嗎,Siraj?(之前因涉嫌抄襲論文、拉黑學(xué)生被討伐的網(wǎng)絡(luò)AI教師)


          sid__:隨著會(huì)議規(guī)模和論文提交量的擴(kuò)展,不知道抄襲會(huì)不會(huì)成為(或者已經(jīng))更嚴(yán)重的問(wèn)題?用機(jī)器學(xué)習(xí)查抄襲可能會(huì)更靠譜。


          102564:他們甚至沒(méi)有引用第一篇論文(加重了侮辱)。這簡(jiǎn)直是犯罪...


          sparkkid1234:我估計(jì)他們不敢。真引用就一定會(huì)被看出是抄襲啦。
          hivesteel:我沒(méi)有參加這次會(huì)議,但我認(rèn)為我參加的所有會(huì)議和期刊都具有自動(dòng)檢測(cè)抄襲的工具。我敢肯定它們效果差強(qiáng)人意,但是從理論上講確切的匹配絕對(duì)應(yīng)該標(biāo)記出來(lái)。

          參考鏈接:
          https://www.reddit.com/r/MachineLearning/comments/dq82x7/discussion_a_questionable_sigir_2019_paper/
          瀏覽 53
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  性色AV一区二区三区四区下载 | 四虎影库在线视频 | 亚洲国产一级视频 | 一道本中文字幕欧美激情 | 日本老女人性爱 |